Ann, una mujer de 47 años con cuadriplejía, logró hablar nuevamente luego de 18 años gracias a una neuroprótesis impulsada por inteligencia artificial (IA), en uno de los avances más significativos en el campo de las interfaces cerebro-computadora. El procedimiento, desarrollado por investigadores de la Universidad de California en Berkeley y San Francisco, se publicó en la revista científica Nature Neuroscience y representa un gran paso hacia la recuperación de la comunicación para personas con parálisis severa.
El dispositivo que hizo posible este hito consiste en una lámina delgada con 253 electrodos, implantada sobre la corteza cerebral de Ann. Esta neuroprótesis registró su actividad neuronal y envió las señales a una computadora, que transformó sus pensamientos en palabras audibles con una voz artificial personalizada. Para reconstruir su tono original, los investigadores utilizaron grabaciones de un video de su boda, antes de que Ann sufriera un accidente cerebrovascular (ACV) a los 30 años que le quitó la capacidad de hablar y moverse.
A diferencia de los sistemas anteriores, que solo generaban sonido una vez que el paciente terminaba una frase entera, esta nueva interfaz cerebro-computadora permite convertir los pensamientos en voz en apenas tres segundos, casi en tiempo real. Los científicos explicaron que este avance tecnológico mejora notablemente el flujo natural de una conversación, algo esencial para que las personas con parálisis puedan interactuar con su entorno sin sentirse aisladas o frustradas.
Durante el entrenamiento del sistema, Ann leyó mentalmente alrededor de 100 frases seleccionadas de un conjunto de más de mil oraciones. Mientras tanto, el dispositivo registraba su actividad cerebral cada 80 milisegundos, incluso comenzando medio segundo antes de que ella intentara articular las palabras de manera silenciosa. El modelo logró generar entre 47 y 90 palabras por minuto, una cifra que, si bien no alcanza la velocidad de una conversación típica (que ronda las 160 palabras por minuto), supera ampliamente lo logrado hasta ahora con este tipo de tecnología.
El avance se basó en algoritmos de inteligencia artificial similares a los que utilizan asistentes virtuales como Siri o Alexa, adaptados para decodificar en tiempo real las señales cerebrales. Los investigadores explicaron que el mismo algoritmo podría usarse en distintos dispositivos, siempre que haya una buena calidad de señal neuronal. Además, el equipo está trabajando en mejorar la expresividad de la voz sintetizada, incorporando matices emocionales como variaciones de tono, timbre o volumen.
Ann había participado en estudios anteriores con tecnologías similares, pero ninguna había logrado una comunicación tan fluida. Hasta ahora, se valía de un sistema de asistencia que le llevaba más de 20 segundos para emitir una sola frase. Con esta nueva herramienta, no solo recuperó parte de su capacidad para comunicarse, sino también una parte fundamental de su identidad: su voz.
Este desarrollo representa un paso clave hacia la inclusión y la dignidad de las personas con discapacidades severas, abriendo nuevas oportunidades para que puedan participar activamente en conversaciones cotidianas. Aunque todavía está en etapa experimental, el éxito de esta tecnología alimenta la esperanza de que muy pronto más pacientes puedan beneficiarse de soluciones similares.