뇌-컴퓨터 인터페이스, 환자마다 다른 뇌 신호 해독 기술 개발… 언어 능력 회복 희망 '밝아'¶
원제목: UTHealth Houston researchers develop technology that can decode speech across different patients
핵심 요약
- UTHealth Houston 연구진이 여러 환자의 뇌 신호를 해독하는 새로운 뇌-컴퓨터 인터페이스 기술을 개발했음을 알립니다.
- 기존 기술과 달리 환자별 맞춤 훈련 시간을 대폭 단축하고, 적은 데이터로도 높은 정확도를 달성했음을 강조합니다.
- 이 기술은 실어증 환자의 언어 능력 회복에 획기적인 기여를 할 잠재력을 지니고 있음을 시사합니다.
상세 내용¶
UTHealth Houston 연구진이 뇌에서 직접 음성을 해독하는 보다 효율적인 장치를 개발하는 데 한 걸음 더 다가섰습니다. 이번 연구 결과는 Nature Communications에 게재되었습니다. 이전의 뇌-컴퓨터 인터페이스(BCI) 기술은 환자가 수 시간 또는 수 주에 걸쳐 기술을 훈련시켜야 했으며, 정확한 작동을 위해 특정하고 온전한 뇌 영역의 녹음이 필요했습니다. 그러나 뇌졸중, 뇌 손상 또는 기타 질병으로 인해 이미 말할 능력을 잃은 실어증 환자에게는 이러한 방식이 항상 실현 가능한 것은 아니었습니다. 뇌-컴퓨터 인터페이스는 말을 시도하는 동안 뇌 신호를 읽어 화면의 텍스트나 음성 합성기를 통해 단어로 변환하는 방식으로 작동합니다. 기술을 더욱 효율적으로 만들기 위해 UTHealth Houston의 신경외과 교수이자 텍사스 회복 신경 기술 연구소 소장인 Nitin Tandon 박사와 그의 팀은 각 환자마다 처음부터 다시 시작하는 대신, 한 사람의 뇌 데이터로 훈련된 모델을 다른 사람의 데이터에 적용하는 기법인 '교차 대상 전이 학습(cross-subject transfer learning)'을 사용했습니다. 연구진은 깊은 전극(depth electrodes), 즉 뇌파를 모니터링하기 위해 수술로 이식된 얇은 장치를 가진 25명의 뇌전증 환자로부터, 환자들이 어려운 혀 꼬이는 발음 연습을 하는 동안 뇌 활동을 기록했습니다. 그런 다음 뇌-컴퓨터 인터페이스는 뇌 활동을 'p' 또는 'sh'와 같은 소리의 가장 작은 단위인 음소(phonemes)로 변환할 수 있었습니다. Tandon 박사는 어려운 혀 꼬이는 발음 연습은 오류를 최소화하기 위해 언어 시스템이 높은 경계 태세를 유지하게 만든다고 설명했습니다. 이는 언어 시스템의 최대 참여와 우리가 말하는 내용이나 말하려는 내용을 해독하는 데 활용할 수 있는 상당한 신경 활동이 있음을 의미합니다. 연구진은 세션에서 얻은 데이터를 사용하여 뇌 신호의 공유 '언어'를 구축했으며, 이를 통해 각 새로운 개체로부터 적은 양의 데이터로 뇌-컴퓨터 인터페이스를 미세 조정할 수 있었습니다. 연구에 따르면, 사람이 제한된 뇌 범위나 짧은 녹음 세션만 가지고 있더라도, 공유 모델은 해당 사람만으로 모델을 훈련시키는 것보다 음성을 더 정확하게 해독했습니다. 최근 몇 년간 뇌-컴퓨터 인터페이스 기술이 빠르게 발전해 왔지만, 이 연구는 여러 사람의 데이터를 활용함으로써 미래의 뇌-컴퓨터 인터페이스가 최소한의 데이터나 손상된 음성 뇌 영역을 가진 새로운 환자에게도 안정적으로 작동할 수 있음을 보여줍니다. Tandon 박사는 이것이 뇌 손상을 입은 사람들에게 정상적인 언어를 복제하기 위해 읽을 수 있는 라이브러리를 만들 수 있게 해준다고 말했습니다. 이는 실어증 환자를 돕는 데 있어 정말 근본적인 단계입니다. UTHealth Houston 대학원 의학 과학 부문의 박사 과정 학생인 Aditya Singh이 이 연구의 주요 저자로 참여했습니다. 또한 Johnson & Johnson MedTech의 Tessy Thomas 박사, Rice University의 Jinlong Li 박사, University of California, Irvine의 Greg Hickok 박사, Baylor College of Medicine의 Xaq Pitkow 박사가 공동 저자로 참여했습니다.
편집자 노트¶
이번 UTHealth Houston 연구진의 성과는 뇌-컴퓨터 인터페이스(BCI) 기술이 한 단계 더 나아갔음을 보여주는 매우 고무적인 결과입니다. 과거 BCI 기술은 개인 맞춤형 훈련에 많은 시간과 노력을 요구했기에, 실어증과 같이 이미 언어 능력을 상실한 환자들에게는 실질적인 도움을 주기 어려운 측면이 있었습니다. 하지만 연구진이 제시한 '교차 대상 전이 학습' 기법은 이러한 한계를 극복할 가능성을 제시합니다. 즉, 여러 사람의 뇌 신호 데이터를 학습한 모델을 활용함으로써, 새로운 환자에게는 훨씬 적은 양의 데이터와 짧은 훈련 시간만으로도 상당한 수준의 음성 해독이 가능하다는 것입니다. 이는 언어 회복을 기다리는 환자들에게 실질적인 희망을 줄 뿐만 아니라, BCI 기술의 상용화 및 보급에도 중요한 발판을 마련할 것으로 기대됩니다.
이 기술의 핵심은 '일반화' 능력입니다. 마치 한 언어를 배우면 비슷한 계열의 다른 언어를 조금 더 쉽게 배우는 것처럼, 다양한 뇌 신호 패턴을 미리 학습한 모델은 새로운 뇌 신호에 더 빠르게 적응할 수 있습니다. 이는 복잡하고 개인차가 큰 인간의 뇌 신호를 효율적으로 이해하고 활용하기 위한 매우 스마트한 접근 방식이라고 할 수 있습니다. 연구진이 'p'나 'sh'와 같은 기본적인 음소 단위부터 해독하기 시작한 것은, 궁극적으로 복잡한 단어와 문장을 구성하는 기초를 다지는 과정으로 볼 수 있습니다. 앞으로 이 기술이 더욱 발전한다면, 사고는 가능하지만 말을 할 수 없는 사람들이 자신의 생각과 감정을 세상과 자유롭게 소통할 수 있게 될 것입니다. 이는 개인의 삶의 질을 향상시키는 것을 넘어, 사회적으로도 소통의 장벽을 허무는 데 기여할 잠재력을 가지고 있습니다.