Recentemente, o Facebook AI Research (FAIR) publicou uma pesquisa importante na Nature, desenvolvendo um grande modelo chamado BrainMagick. Este modelo consegue decodificar o conteúdo da fala que uma pessoa deseja expressar, analisando a atividade cerebral não invasiva obtida através de eletroencefalografia (EEG) e magnetoencefalografia (MEG). Em um conjunto de dados de teste, o modelo conseguiu identificar com precisão trechos de fala entre milhares de opções, usando apenas 3 segundos de registro MEG, alcançando uma precisão Top-10 de 72,5%. Essa descoberta tem um significado importante para ajudar pacientes com afasia, um distúrbio de linguagem, a recuperarem sua capacidade de comunicação. O BrainMagick oferece a eles uma forma não invasiva de comunicação, sem os riscos de uma cirurgia cerebral. Após a publicação, a pesquisa gerou muitos debates online, com muitas pessoas afirmando que se trata de uma grande benção para pacientes com dificuldades de linguagem. Além disso, o código do projeto foi disponibilizado em código aberto no GitHub, podendo ser executado com apenas uma GPU. Com o aumento da quantidade de dados, o desempenho do modelo pode ser ainda melhorado.
Novo modelo do Facebook decodifica fala por meio de ondas cerebrais, oferecendo esperança para pacientes com afasia

智能涌现
Este artigo é do AIbase Daily
Bem-vindo à coluna [AI Daily]! Este é o seu guia para explorar o mundo da inteligência artificial todos os dias. Todos os dias apresentamos os destaques da área de IA, com foco nos desenvolvedores, para o ajudar a obter insights sobre as tendências tecnológicas e a compreender as aplicações inovadoras de produtos de IA.