Recientemente, el Instituto de Inteligencia Artificial de Facebook (FAIR) publicó una investigación importante en Nature, desarrollando un gran modelo llamado BrainMagick. Este modelo puede decodificar el contenido del habla que el cerebro intenta expresar mediante el análisis de la actividad cerebral no invasiva obtenida a través de electroencefalografía (EEG) y magnetoencefalografía (MEG). En el conjunto de datos de prueba, el modelo pudo identificar con precisión fragmentos de voz entre miles de opciones a partir de un registro MEG de 3 segundos, alcanzando una precisión Top-10 del 72.5%. Este avance tiene un significado importante para ayudar a los pacientes con afasia, un trastorno del lenguaje, a recuperar su capacidad de comunicación. BrainMagick les proporciona una forma de comunicación no invasiva que evita los riesgos de una cirugía cerebral. Tras la publicación de los resultados de la investigación, se generó un gran debate entre los usuarios de internet, y muchos expresaron que esto representa una gran bendición para los pacientes con trastornos del lenguaje. Además, el código del proyecto se ha publicado en GitHub como código abierto, pudiendo ejecutarse el entrenamiento con una sola GPU. A medida que aumente la cantidad de datos, el rendimiento del modelo seguirá mejorando.
Nuevo modelo de Facebook decodifica el habla a través de ondas cerebrales, ofreciendo una luz de esperanza para pacientes con afasia

智能涌现
Este artículo proviene de AIbase Daily
¡Bienvenido a la columna [AI Diario]! Aquí está tu guía diaria para explorar el mundo de la inteligencia artificial. Todos los días te presentamos el contenido más destacado en el campo de la IA, centrándonos en los desarrolladores para ayudarte a comprender las tendencias tecnológicas y conocer las aplicaciones innovadoras de productos de IA.