Un equipo de ingenieros de la Universidad de California en Los Ángeles (UCLA) ha desarrollado una tecnología que parece sacada de la ciencia ficción, pero con un impacto profundamente humano. Se trata de una interfaz cerebro-computadora (BCI, por sus siglas en inglés) no invasiva que utiliza inteligencia artificial como un “copiloto” para interpretar las intenciones de una persona y ayudarla a realizar tareas motoras, a diferencia de otros desarrollos como los de Neuralink (la compañía de Elon Musk), entre muchos otros, que apela a un chip insertado físicamente en el cerebro para lograr registrar los pensamientos de una persona y transmitirlos a una computadora.
Publicado en la revista Nature Machine Intelligence, este avance podría “marcar un antes y un después en la interacción entre humanos y tecnología”, abriendo un nuevo horizonte de autonomía para quienes viven con parálisis u otras limitaciones de movilidad.
El clásico gorro con electrodos, pero potenciado con IAEl sistema funciona mediante un gorro con electrodos que registra la actividad eléctrica del cerebro, una técnica conocida como electroencefalografía (EEG). Estos datos son procesados por algoritmos de aprendizaje automático diseñados a medida, que decodifican las señales cerebrales para interpretar la intención de movimiento del usuario. Simultáneamente, una plataforma de inteligencia artificial basada en visión por computadora observa el entorno y los movimientos decodificados para ayudar a completar la acción deseada, ya sea mover el cursor de un ordenador o controlar un brazo robótico. “Muchas acciones cotidianas siguen patrones predecibles; nuestro copiloto de IA interpreta esos patrones para apoyar los movimientos”, explicó Jonathan Kao, investigador principal del estudio.
Hasta ahora, las interfaces cerebro-computadora más avanzadas requerían de neurocirugía para implantar dispositivos directamente en el cerebro, un procedimiento costoso y arriesgado cuyos beneficios a menudo no superaban los peligros asociados. Por otro lado, las alternativas no invasivas o portátiles habían demostrado un rendimiento inferior y poco fiable. La innovación de la UCLA busca cerrar esta brecha. “Los beneficios que ofrece superan los riesgos de los sistemas quirúrgicos, pues se evita la neurocirugía”, detalló el equipo.
Moverse con ayuda de la IAPara probar su eficacia, los investigadores realizaron pruebas con cuatro participantes: tres sin impedimentos motores y una persona con parálisis de la cintura para abajo. Las tareas consistían en mover un cursor en una pantalla para alcanzar ocho objetivos y manejar un brazo robótico para reubicar cuatro bloques.
El sistema descifró las señales eléctricas cerebrales que codificaban las acciones previstas de los participantes. Mediante un sistema de visión artificial, la IA infirió la intención de los usuarios —no sus movimientos oculares— para guiar el cursor y colocar los bloques.
Los resultados fueron contundentes: todos los participantes completaron las tareas significativamente más rápido con la asistencia de la IA. El caso más notable fue el del participante con parálisis, quien logró un rendimiento casi 4 veces más rápido con el sistema y pudo completar la tarea del brazo robótico en seis minutos y medio, algo que le fue imposible sin la ayuda de la IA.
El objetivo final del proyecto es ambicioso y transformador: quieren “ofrecer autonomía compartida a personas con trastornos del movimiento, como parálisis o ELA, para que recuperen independencia en su vida diaria”, según Kao. El equipo ya trabaja en los siguientes pasos, que incluyen mejorar la velocidad y precisión de los brazos robóticos e incorporar habilidades táctiles avanzadas. Según el coautor principal, Johannes Lee, el futuro podría incluir “copilotos más avanzados que (...) ofrezcan un toque hábil que se adapte al objeto que el usuario desea agarrar”.