Pesquisadores da Universidade da Califórnia, Davis, desenvolveram uma interface cérebro-computador (ICC) experimental que restaura a capacidade de conversação em tempo real para indivíduos que perderam a capacidade de falar devido a condições neurológicas.
Esta tecnologia traduz a atividade cerebral em voz, criando efetivamente um trato vocal digital sem atraso perceptível. A ICC utiliza inteligência artificial para decodificar a atividade elétrica do cérebro do paciente durante as tentativas de fala.
O dispositivo reproduz não apenas as palavras pretendidas, mas também características naturais da fala, como entonação, tom e ênfase. Isso permite uma forma de comunicação mais natural e expressiva.
O sistema permitiu que um participante com esclerose lateral amiotrófica (ELA) "falasse" através de um computador, mudasse a entonação e "cantasse" melodias simples. A voz sintetizada era frequentemente inteligível, com os ouvintes compreendendo corretamente quase 60% das palavras.
O processo é facilitado por algoritmos de IA avançados treinados em dados coletados enquanto o participante tentava pronunciar frases. Os algoritmos mapeiam a atividade neural para os sons desejados, permitindo a síntese de nuances da fala e dando ao participante controle sobre a cadência de sua voz ICC.
A tecnologia permitiu que o participante dissesse novas palavras e fizesse interjeições. O estudo, publicado na Nature, representa um avanço significativo em relação aos modelos de ICC anteriores.