Julio Gonçalves

Conteúdo escrito por Júlio Gonçalves e Jennifer Craco

Se você acha que ler pensamentos é algo muito longe do nosso alcance, talvez você esteja errado

Em um novo estudo, publicado na Nature Neuroscience, um modelo de Inteligência Artificial (IA) treinado em imagens de ressonância magnética funcional de três voluntários conseguiu prever frases inteiras que eles estavam ouvindo com surpreendente precisão, apenas observando a atividade cerebral deles

A fala já foi decodificada a partir da atividade cerebral antes, mas o processo geralmente exige dispositivos de eletrodos altamente invasivos implantados no cérebro de uma pessoa. Outros sistemas não invasivos costumam se limitar a decodificar palavras individuais ou frases curtas. 

Esta é a primeira vez que frases completas foram produzidas a partir de registros cerebrais não invasivos coletados por meio de ressonância magnética funcional (fMRI), conforme os criadores da interface, uma equipe de pesquisadores da Universidade do Texas em Austin.

Enquanto a ressonância magnética normal tira fotos da estrutura do cérebro, as varreduras de ressonância magnética funcional avaliam o fluxo sanguíneo no cérebro, mostrando quais partes são ativadas por determinadas atividades.

Primeiro, a equipe treinou o GPT-1, um grande modelo de linguagem desenvolvido pela OpenAI, em um conjunto de dados de frases em inglês coletadas do Reddit, 240 histórias do The Moth Radio Hour e transcrições do podcast Modern Love do The New York Times.

Os pesquisadores queriam que as narrativas fossem interessantes e divertidas de ouvir, pois isso tinha mais chances de produzir dados de fMRI de qualidade do que algo que deixasse os participantes entediados.

Durante o estudo, três participantes ouviram 16 horas de episódios diferentes do mesmo podcast enquanto estavam em um scanner de ressonância magnética, além de algumas palestras do TED. A ideia era coletar uma quantidade de dados que a equipe afirma ser mais de cinco vezes maior do que os conjuntos de dados de linguagem normalmente usados em experimentos de fMRI relacionados à linguagem.

O modelo aprendeu a prever a atividade cerebral que a leitura de certas palavras desencadearia. Para decodificar, ele adivinhava sequências de palavras e verificava o quão próximas essas adivinhações estavam das palavras reais. Ele previa como o cérebro responderia às palavras adivinhadas e comparava isso com as respostas cerebrais medidas de fato.

Quando testaram o modelo em novos episódios de podcast, ele conseguiu recuperar o conteúdo do que os usuários estavam ouvindo apenas com base em sua atividade cerebral, muitas vezes identificando palavras e frases exatas. Por exemplo, um usuário ouviu as palavras “Eu ainda não tenho minha carteira de motorista”. O decodificador retornou a frase “Ela nem começou a aprender a dirigir ainda”.

Os pesquisadores também mostraram aos participantes vídeos curtos da Pixar que não continham diálogo e registraram suas respostas cerebrais em um experimento separado projetado para testar se o decodificador era capaz de recuperar o conteúdo geral do que o usuário estava assistindo. Eles descobriram que era (mesmo com menos precisão).

Pode não funcionar tão bem ainda, mas o experimento levanta questões éticas sobre o possível uso futuro de decodificadores cerebrais para vigilância e interrogatório. Com isso em mente, a equipe procurou testar se seria possível treinar e executar um decodificador sem a cooperação de uma pessoa

Eles fizeram isso tentando decodificar a fala percebida de cada participante usando modelos de decodificadores treinados com dados de outra pessoa. Eles descobriram que isso funcionou “apenas um pouco acima do acaso”.

Segundo eles, um decodificador não poderia ser aplicado à atividade cerebral de alguém a menos que essa pessoa estivesse disposta e tivesse ajudado a treinar o decodificador desde o início. 

Ainda há um longo percurso a ser seguido para ter melhores resultados nesse estudo, e essa nova tecnologia necessita de uma customização intensa – ou seja, horas e horas de gravações de dados de ressonância de cada indivíduo, para que a inteligência artificial seja treinada e adaptada ao cérebro do sujeito. 

De qualquer modo, essa tecnologia pode ajudar (e muito) pessoas que não conseguem se comunicar devido a alguma lesão ou doença, como sujeitos que tiveram derrames ou esclerose lateral amiotrófica. 

Aguardamos os próximos avanços!

Parshall, A. (2023, May 1). A Brain Scanner Combined with an AI Language Model Can Provide a Glimpse into Your Thoughts. Scientific American. https://www.scientificamerican.com/article/a-brain-scanner-combined-with-an-ai-language-model-can-provide-a-glimpse-into-your-thoughts/

Inscrever-se
Notificar de
0 Comentários
mais antigos
mais recentes Mais votado
Feedbacks embutidos
Ver todos os comentários
Rolar para cima