머시비티 심포지엄은 지난 12월에 개최된 인간 중심적 인공지능(AI)과 첨단 기술의 통합을 논의하기 위해 다양한 분야의 전문가들을 한자리에 모았습니다. 이 행사에는 토론토 대학교(U of T), 매사추세츠 공과대학교(MIT), 전기전자공학회(IEEE) 등 유수의 기관 소속 연구원, 저자, 경제학자, 혁신가들이 참여tron.
생각을 말로 표현하기
심포지엄의 하이라이트 중 하나는 MIT의 젊은 연구원인 아카르시 아우로라와 아카시 아난드의 발표였습니다. 그들은 생각이 직접 단어로 변환되어 키보드와 마우스 같은 기존 입력 방식이 필요 없어지는 미래를 제시했습니다.
전등을 켜거나 TV 채널을 바꾸는 데 생각만 하면 되는 세상을 상상해 보세요. 이러한 기술은 특히 언어 장애가 있거나 의사소통 능력을 잃은 사람들에게 큰 가능성을 제시합니다. 오로라와 아난드가 발표한 연구는 이러한 미래 지향적인 기술이 어떻게 실현될 수 있을지에 대한 단서를 제공합니다.
뇌 신호에서 단어로
표현하기 위해 생각을 말로연구자들은 먼저 생각의 원시 데이터, 즉 주로 뇌의 전기 신호로 구성된 데이터를 포착해야 합니다. 전통적인 방법은 뇌에 직접 전극을 이식하는 것이지만, 이 방식은 뇌 조직에 손상을 줄 수 있고 주기적인 교체가 필요하다는 단점이 있습니다.
또 다른 비침습적 접근법으로는 뇌파검사(EEG)와 같은 뇌-컴퓨터 인터페이스(BCI)를 사용하는 방법이 있습니다. 전선과 전극이 달린 모자 모양의 EEG는 침습적인 시술 없이 뇌의 전기적 활동을 감지하기 위해 두피에 착용합니다.
뇌파 신호를 해독하여 단어를 재구성하기
오로라와 아난드의 연구는 참가자들이 "이상한 나라의 앨리스" 첫 장을 듣는 동안 뇌파(EEG) 데이터를 기록하는 방식으로 진행되었습니다. 목표는 뇌파 데이터만을 이용하여 참가자들이 들은 단어를 재구성하는 것이었습니다.
하지만 EEG 신호를 단어로 변환하는 것은 쉬운 일이 아닙니다. EEG 데이터는 눈 깜빡임과 같은 다양한 요인으로 인해 "잡음"이 발생하기 쉽습니다. 연구진은 이러한 문제를 해결하기 위해 인공지능을 활용하여 필터를 적용함으로써 EEG 신호를 정제했습니다.
연구진은 사전 훈련된 AI 모델을 EEG 데이터를 기반으로 후보 단어 시퀀스를 생성하는 방식을 사용했습니다. AI가 생성한 시퀀스가 참가자가 녹음 중에 들었던 시퀀스와 일치하면 정확한 것으로 간주했습니다.
결과가 아직 완벽하게 정확하지는 않지만, 신경 신호를 연속적인 언어로 변환하는 데 있어 중요한 진전을 나타냅니다.
이번 심포지엄은 뇌-컴퓨터 인터페이스에만 초점을 맞춘 것은 아니었습니다. 예술가 리드 고드쇼는 인공지능을 창의적으로 활용하여 예술적 표현을 증폭시키는 방법을 선보였습니다. 그는 비건주의에 대한 인식을 높이기 위해 인공지능으로 제작한 일련의 인상적인 작품들을 전시했습니다. 이 디지털 작품들은 동물과 인간의 유사점을 강조하는 동시에 육류 산업의 윤리적 문제점을 조명했습니다.
"프리히클(Freehicle)" 개념으로 접근성을 혁신합니다
엔지니어이자 토론토 대학교 교수인 스티브 맨은 발표에서 "프리히클(Freehicle)"이라는 개념을 소개했습니다. 이 혁신적인 아이디어는 육지와 물 모두에서 주행 가능한 차량을 구상하며, 특히 장애인을 포함한 모든 사람들의 접근성과 삶의 질 향상에 중점을 두고 있습니다.
Mersivity 심포지엄은 기술과 인류가 만나는 지점에서 획기적인 연구와 토론을 위한 플랫폼 역할을 했습니다. 인공지능과 뇌-컴퓨터 인터페이스와 같은 첨단 기술의 통합은 다양한 분야에서 긍정적인 변화를 가져올 잠재력을 보여줍니다.
심포지엄 참석자들은 우리가 세상과 상호작용하는 방식을 재편할 수 있는 중대한 기술 발전의 문턱에 서 있다는 느낌을 받으며 자리를 떠났습니다. 인터넷에서 유행하는 밈처럼 "미래는 바로 지금이다, 영감님"이라는 말은 이 미래지향적인 행사에서 보여준 혁신의 빠른 속도를 잘 나타냅니다.

