Nova IA da Meta converte pensamentos em palavras

Os recentes avanços tecnológicos abriram novas oportunidades ​​para melhorar a qualidade de vida de pessoas com deficiências ou limitações. Uma iniciativa recente vem de pesquisadores de IA (inteligência artificial) da Meta.

A equipe conseguiu criar um método promissor e não invasivo que decodifica a fala a partir da atividade cerebral de uma pessoa.Isso permite que pacientes incapazes de falar “transmitam” pensamentos usando IA.O procedimento combina o uso de uma técnica de imagem com aprendizado de máquina e foi apresentado na Nature Machine Intelligence.

Leia mais:

Aniversário do ChatGPT: como está a “corrida das IAs”?Aniversário do ChatGPT: como foi o primeiro ano do chatbot?Fundador da Wikipedia prevê que IA super-humana vai demorar mais de 50 anos

Como funciona a IA que “lê pensamentos”

O objetivo é oferecer uma rota alternativa e não invasiva para decodificar representações de fala. “Em vez de usar eletrodos intracranianos, empregamos a magnetoencefalografia”, explicou King – uma técnica de mapeamento da atividade cerebral por detecção de campo magnético produzido por correntes elétricas que existem no nosso cérebro.

Esta é uma técnica de imagem que depende de um dispositivo não invasivo que pode tirar mais de mil instantâneos da atividade cerebral por segundo. Como esses sinais cerebrais são muito difíceis de interpretar, treinamos um sistema de IA para decodificá-los em segmentos de fala

Jean Remi King, cientista pesquisador da Meta

Em resumo, a IA prevê a fala a partir da atividade cerebral registrada nas imagens. O sistema consiste em dois módulos: o ‘módulo cerebral’ e o ‘módulo de fala’.

O primeiro foi treinado para extrair informações da atividade cerebral humana, o de fala, por outro lado, identifica as representações de fala que devem ser decodificadas.

“Depois de um derrame ou doença cerebral, muitos pacientes perdem a capacidade de falar”, disse King ao Medical Xpress

Teste em humanos

Os pesquisadores avaliaram a abordagem em um estudo inicial com 175 participantes humanos. Os participantes foram convidados a ouvir contos narrados e frases faladas isoladas enquanto sua atividade cerebral era monitorada.

A equipe obteve os melhores resultados ao analisar três segundos de sinais. Eles conseguiram decodificar segmentos de fala com precisão média de 41% entre mais de 1.000 possibilidades — em alguns participantes, a precisão foi de até 80%.“Ficamos surpresos com o desempenho de decodificação obtido”, disse King. 

O sistema já mostrou potencial para aplicações futuras. Como não requer procedimentos cirúrgicos invasivos ou uso de implantes cerebrais, poderia ser mais fácil de usar na prática, mas, continua nos estágios iniciais de desenvolvimento e exigirá melhorias antes de poder ser introduzido em ambientes clínicos para auxiliar pacientes com deficiências relacionadas à fala.

“Há um longo caminho antes de uma aplicação prática, mas a nossa esperança é que isso possa auxiliar os pacientes cuja comunicação é limitada ou impedida”, concluiu King.

O post Nova IA da Meta converte pensamentos em palavras apareceu primeiro em Olhar Digital.

 

Você pode gostar...

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *