Científicos en Australia desarrollaron una tecnología que podría ayudar a personas que no pueden hablar para que tengan una comunicación fluida al decodificar pensamientos en texto que se proyectan en una pantalla.
La investigación es llevada a cabo por el Centro de Inteligencia Artificial centro en humanos GrapheneX-UTS de la Universidad de Tecnología de Sídney (UTS), quienes desarrollaron este sistema portátil con forma de gorra o casco y que no es invasivo.
Los desarrolladores explicaron que otro uso del casco podría permitir una comunicación fluida entre humanos y máquinas, de la forma en que actúa un brazo biónico o un robot.
¿Cómo funciona este casco con Inteligencia Artificial?
Para las pruebas del funcionamiento de la tecnología, los participantes se encargaron de leer en silencio diversos textos mientras tenían el dispositivo conectado.
Su funcionamiento es por medio de la actividad eléctrica del cerebro y la detecta a través del cuero cabelludo por medio de un electroencefalograma (EGG). Estas ondas cerebrales EGG se segmentan en unidades distintas que capturan características y patrones específicos del cerebro.
Es ahí en donde interviene un modelo de Inteligencia Artificial nombrado como DeWave, el cual fue desarrollado por los investigadores, y que se encarga de traducir las señales EGG en palabras y oraciones. Para lograrlo la traducción recurre a grandes cantidades de datos de EGG para mostrar la más parecida al pensamiento de la persona.
Lo anterior es de relevancia, debido a que las ondas EGG suelen ser diferentes entre individuos, en el caso del experimento realizado en Australia contó con 29 participantes.
También, los investigadores señalaron que esto es un gran diferenciador a otros sistemas que transforman señales cerebrales en segmentos a nivel de palabras sin ayudas adiciones como es el Neuralink de Elon Musk, que implica el realizar una cirugía para implementar un electrodo en el cerebro o un escaneo por medio de una máquina de resonancia magnética.
“El modelo es más hábil para unir verbos que sustantivos. Sin embargo, cuando se trata de sustantivos, vimos una tendencia hacia pares de sinónimos en lugar de traducciones precisas, como ‘el hombre’ en lugar de ‘el autor’”, indicó Yiqun Duan, primer autor del estudio y candidato a doctorado Jinzhou Zhou de la Facultad de Ingeniería y TI de la UTS.
Al seguir las ondas cerebrales por el uso del EEG significa que las señales son más ruidosas y con una mayor cantidad de información de la que se lograría con electrodos implantados en el cerebro.
“Creemos que esto se debe a que cuando el cerebro procesa estas palabras semánticamente similares puede producir patrones de ondas cerebrales similares. A pesar de los desafíos, nuestro modelo produce resultados significativos, alineado a palabras clave y formando estructuras de oraciones similares”, añadió Duan.
Los científicos señalaron que, de momento, la precisión de la traducción es cerca del 40 por ciento dentro de la puntuación BLEU-1, una entre cero y uno que mide la similitud del texto traducido automáticamente con un conjunto de traducciones de referencia de alta calidad.
La expectativa de los investigadores es que la precisión de traducción sea cercana al 90 por ciento, lo que es comparable a otros sistemas como los programas de traducción de idiomas o de reconocimiento de voz.
“Esta investigación representa un esfuerzo pionero en la traducción de ondas EEG sin procesar directamente al lenguaje, lo que marca un avance significativo en el campo”, señaló CT Lin, profesor y director del Centro GrapheneX-UTS HAI. “Es el primero en incorporar técnicas de codificación discreta en el proceso de traducción de cerebro a texto, introduciendo un enfoque innovador para la decodificación neuronal. La integración de grandes modelos de lenguaje también está abriendo nuevas fronteras en neurociencia e Inteligencia Artificial”.