본문 바로가기
놀라운 세상

챗GPT가 마비환자의 마음까지 읽는다

by 석아산 2023. 5. 2.

텍사스대의 알렉스 후스 (왼쪽) 교수와 박사과정의 세일리 제인(가운데), 제리 탕(오른쪽) 연구원이 MRI 장치 앞에서 실험을 준비하고 있다. 연구진은 인공지능에게 뇌 영상을 학습시켜 사람의 생각을 읽는 능력을 개발했다.
텍사스대의 알렉스 후스 (왼쪽) 교수와 박사과정의 세일리 제인(가운데), 제리 탕(오른쪽) 연구원이 MRI 장치 앞에서 실험을 준비하고 있다. 연구진은 인공지능에게 뇌 영상을 학습시켜 사람의 생각을 읽는 능력을 개발했다.

챗GPT의 어마어마한 능력은 이미 수도 없이 화제가 된 바 있습니다.

그런데 오늘 굉장히 신기한 기사가 있어서 여러분께 소개해 드리려고 합니다.

이 챗GPT가 마비환자의 어눌한 말을 보완한다는 건데요, 이는 마비 환자의 뇌를 스캔해서 인공지능으로 추측하는 메커니즘이라고 합니다.

 

우와... 이러다가 진짜 인공지능으로 인해 '독심술'이 가능해 지는 게 아닐까 싶네요!

그럼 소식 보시죠^^

챗GPT, 바드 같은 생성형 인공지능이, 온몸이 마비된 환자의 뇌 영상을 해독하고 생각을 말로 표현할 수 있다는 연구 결과가 나왔습니다.

앞으로 연구가 발전하면 정신이 온전하지만 몸이 마비되어 외부와 단절되었던 환자가 가족이나 지인, 의료진 등과 소통할 수 있는 날이 올 것으로 기대됩니다.

 

미국 텍스사대 컴퓨터과학의 알렉산더 후스(Alexander Huth) 교수 연구진은 "뇌 언어 생성 영역을 찍은 기능성 자기공명영상(fMRI)으로 사람이 생각한 문장을 해독하는 데 성공했다"고 밝혔습니다. 정말 획기적인 연구라고 생각합니다.

 

뇌 건드리지 않고 영상만으로 생각 읽어

물론 과거에도 뇌파를 전기 신호로 바꿔 컴퓨터와 정보를 주고 받는 기술이 있었습니다.

이 방법으로 마비 환자의 뇌에서 일어나는 전류 변화 등을 포착해 생각을 단어나 문구로 나타낸 적이 있었습니다.

그러나 뇌 전극 삽입술 등이 필요했죠. 전극 없이 두건을 씌워 뇌파를 측정해 같은 시도를 해봤지만, 전극 이식보다도 성공률이 낮았습니다. 

또 앞서 연구들은 해독 가능한 단어나 문구의 수가 제한되었습니다.

 

연구진은 뇌파 대신에 뇌 활동을 찍은 영상만으로 문장을 만들었습니다. 뇌의 특정 영역이 활동하면 에너지 소비가 늘면서 그쪽으로 혈액 공급이 늘어나죠. fMRI는 이렇게 뇌 활동이 있는 곳을 불이 켜진 것처럼 환하게 보여줍니다.

 

연구진은 실험 참가자 3명에게  MRI 장치 안에 미국 뉴욕타임스의 인터넷 방송인 ‘모던 러브(Moren Love)’와 예술단체인 모스(The Moth)의 ‘라디오 아워(Radio Hour)’ 총 16시간 분량을 듣도록 했습니다.

이를 통해서 각 참가자가 특정 단어나 문구, 의미를 들을 때 뇌가 어떻게 반응하는지를 보여주는 뇌 지도를 만들었습니다.

다음에는 fMRI 정보를 인공지능에게 학습시킨 다음, 단어나 문구, 문장이나 의미 등에 뇌가 어떻게 반응할지 예측하도록 했습니다.

 

이번 시스템도 역시 초기에는 뇌 활동을 언어로 변환하는 데에 어려움을 겪었습니다.

연구진은 새로운 인공지능을 추가해 문제를 해결했는데요. 바로 생성형 인공지능인 GPT를 통해 특정 단어 다음에 어떤 단어가 나올지를 예측했습니다.

 

처음 영상을 보고 챗GPT가 가능한 문장들을 제시하면, 다른 인공지능은 그에 맞는 뇌 활동을 예측하고, 이를 실제 영상과 비교해 일치하는 것을 찾습니다. 이런 식으로 하나하나 문구를 이어 문장을 만들었습니다.

이 연구진... 진짜 아이디어 대단하네요~ 방금 소름 돋았습니다!

 

연구진은 참가자들에게 인공지능 학습에 쓰지 않았던 인터넷 방송, 그러니까 참가자들에게는 생경한 방송을 들려줬습니다. 그러자 이번에는 변환 시스템이 단어와 문구, 문장을 만들어 실제로 참가자들이 들었던 내용과 일치하는 내용을 만들어냈습니다.

이를테면 실험 참가자에게 "나는 아직 운전면허증이 없다"는 말을 들려주자 인공지능은 뇌영상을 기반으로 '그녀는 아직 운전을 배우지 않았다'고 해독헸습니다.

 

"소리를 질러야 할지, 울어야 할지, 도망쳐야 할지 몰랐어요. 대신 날 좀 내버려둬요"라는 말을 들려주자 '비명을 지르며 울기 시작하더니 '날 내버려두라고 했잖아'라고 말했어요'라고 번역했습니다.

그러니까 이 기술이 정확히 문장을 모사하는 것은 아니지만, 이야기의 요점을 훌륭하게 포착하고 있는 것입니다.

이렇게 이번 기술은 말을 그대로 옮기는 것이 아니라, 의미를 전달하는 방식입니다.

 

인공지능이 뇌 영상을 해독해 만든 문장(오른쪽)과 실제 들려준 문장(왼쪽)의 비교. 파란색은 일치하는 부분이고 보라색은 요지가 같은 부분, 붉은 색은 다른 부분이다./미 텍사스대
인공지능이 뇌 영상을 해독해 만든 문장(오른쪽)과 실제 들려준 문장(왼쪽)의 비교. 파란색은 일치하는 부분이고 보라색은 요지가 같은 부분, 붉은 색은 다른 부분이다./미 텍사스대

 

 말하지 않은 사람의 생각까지 파악 가능

이번 기술은 사람이 말하거나 영상을 볼 때도 같은 해독 능력을 보여줬는데요.

연구진은 실험 참가자들에게 소리가 없는 애니메이션을 보여주며 뇌 영상을 찍었습니다. 영화는 작은 용이 다른 커다란 용에게 공격을 받는 내용이었습니다.

 

인공지능은 뇌 영상을 분석해 '그가 나를 바닥에 넘어뜨렸다'고 해독했습니다.

연구진은 참가자에게 말을 하도록 요청하지조차 않았습니다. 그냥 뇌를 촬영했을 뿐이죠.

이에 후스 교수는 "언어보다 더 깊은 무언가를 찾아낸 것"이라고 말했습니다.

인공지능이 말보다 원초적인 사고까지도 알아낼 수 있다는 의미입니다. 연구진은 이번 기술이 뇌 손상이나 뇌졸중, 전신 마비 환자가 주변 사람과 의사소통을 하게 해줄 것이라고 기대했습니다.

 

그러나 해결해야 할 과제도 있습니다.

우선은 인공지능의 학습량을 늘려야 합니다. 그렇게 해야 정확도가 높아지겠지요. 그리고 fMRI는 고가의 장비여서 쉽게 쓰기가 어렵습니다. 후스 교수는 휴대가 가능한 '기능성 근적외선 분광(fNIRS)'을 활용하는 방안도 모색하고 있습니다.

fNRIS는 근적외선으로 뇌 혈류량을 측정하는 장치입니다. fMRI보다는 해상도가 떨어지지만, 휴대가 가능하다는 장점이 있습니다.

일부에서는 이번 기술이 사람의 생각을 훔치는 도구로 쓰일 수 있다고 우려합니다.

연구진은 한 사람의 뇌 영상을 학숩한 인공지능은 다른 사람의 영상은 해독하지 못했다고 합니다. 아마 사고에도 개인차이가 있나 보죠?

이는 인공지능이 모든 사람의 생각을 엿볼 수는 없다는 것입니다. 그럼에도 듀크대의 생명윤리학자인 니타 파라하니(Nita Farahany) 교수는 사이언스 인터뷰에서 "사생활 보호는 여전히 이런 신경과학 기술에 큰 윤리적 문제"라며 "악용 가능성에 대비한 안전장치를 개발해야 한다"고 밝혔습니다.