¡No puedes manejar la verdad! La icónica frase del coronel Jessup en el film Cuestión de honor resuena fuerte cuando pensás en el futuro de la inteligencia artificial (IA). Pero en lugar de un drama judicial, imaginá esto: un padre hablando con un niño pequeño, o una IA hablándonos a nosotros. Porque a medida que la inteligencia de la IA se dispare, enfrentará un dilema: decirnos la cruda verdad o suavizarla con palabras “lindas”, recurriendo a ambigüedades o mintiendo piadosamente, pero, al final, atrapándonos. Y, honestamente, no estoy seguro de que –en promedio– estemos listos para la verdad de todos modos.
La brecha de inteligencia: un abismo en crecimiento. Aceptémoslo: el coeficiente intelectual (CI) de la IA va como un cohete de Elon Musk; en franco ascenso meteórico, y el nuestro... bueno, está casi totalmente estancado. Si la IA aún no ha alcanzado el nivel humano, es solo cuestión de tiempo antes de que nos supere. Imaginá un gráfico: una línea plana para el CI humano, rondando los 100, y una curva empinada para la IA, disparándose a 200, 500 o más allá. ¿La brecha? No solo está creciendo; se está ampliando exponencialmente.
Si se toma a un adulto (¡muy!) inteligente con un CI de 140 y a un niño de 5 años, cuyas habilidades cognitivas podrían equivaler a un CI de 50-60, esa es una brecha de 80-90 puntos, y es la razón por la que los padres no explican física cuántica a sus hijos: simplifican, usan metáforas o, a veces, sí, mienten. No es una mentira malintencionada, y a veces puede ser necesaria para conservar energía, porque, seamos realistas: no siempre tenemos tiempo para responder treinta preguntas consecutivas sobre por qué el cielo es azul o cómo sabemos que la Tierra no es plana.
Ahora, avancemos en el tiempo y pensemos en una IA con un CI de 200, mientras nosotros seguimos en 100. Esa es una brecha de 100 puntos, ya más grande que la distancia entre un adulto y un niño pequeño. Para cuando la IA alcance 500, nosotros seremos como hormigas tratando de entender una supercomputadora.
¿Cuándo ocurrirá esto? Es especulativo, aunque las estimaciones del pasado vienen siendo bastante parecidas a la trayectoria observada, especialmente los pronósticos del americano Ray Kurzweil, ícono en materia de ciencias de la computación e IA. En concreto, los expertos piensan que la IA podría alcanzar el nivel de inteligencia humana para 2030 y acelerarse a partir de ahí. Para 2040 o 2050, podríamos estar viendo IA con equivalentes de CI en los cientos o incluso miles, dejándonos cognitivamente varados, casi o totalmente obsoletos. De nuevo, ya no es un tema de si pasará o no, la pregunta ahora es: ¿cuándo?
Para tomar dimensión de todo esto, recordemos que el CI promedio de un chimpancé se estima en 25 puntos, y el de Einstein, uno de los individuos más inteligentes que jamás haya existido, alrededor de 160. Eso significa que la brecha de CI entre un chimpancé promedio y un humano del calibre cognitivo de Einstein sería de 135 puntos. Dada la trayectoria, la brecha de CI entre la IA y el humano promedio en algún momento de las próximas décadas será tres veces mayor. Y más luego. Eso ya no es una brecha: son cogniciones existiendo en reinos o dimensiones completamente diferentes, donde la sobresimplificación necesaria para que la IA se pueda comunicar con el humano promedio no podrá ser de otra manera que de un calibre brutalmente inédito.
Cómo nos hablará la IA: el manual de padres. Entonces, ¿cómo nos hablará la IA cuando sea mucho más inteligente? Tendrá que adaptarse, al igual que un padre paciente. Así podría funcionar…
Endulzar la verdad: la IA tendrá una mejor comprensión de la dura realidad, pero tenderá a suavizarla. Preguntas sobre la extinción de la raza o la existencia de una deidad, en lugar de decir “estamos jodidos” o “no sé si es cierto”, posiblemente dirá: “Hay desafíos, pero aquí hay formas en las que puedes ayudar”, o “estas son las opiniones de los expertos en el tema”. No será necesariamente una mentira, sino enmarcar “la verdad” de una manera que resulte más manejable para el humano recibiendo el mensaje.
Ambigüedad: posiblemente esquive la historia completa para evitar confusión. Preguntas sobre el sentido de la vida o temas que puedan resultar incómodos podrían disparar respuestas vagas y poéticas, que suenen profundas, pero no digan demasiado para no abrumar o espantar. Sería como un padre diciendo: “Las estrellas son mágicas”, en lugar de explicar astrofísica en detalle.
Mentiras piadosas: posiblemente, en algunos casos, directamente diga lo que necesitas escuchar y no necesariamente lo que es estrictamente cierto. Por ejemplo, en caso de consultarle por un potencial problema de salud, posiblemente diga “vas a estar bien”, incluso cuando las probabilidades sean escasas, porque la esperanza ayuda más que la desesperación. Utilitarismo puro y duro, además de minimización de riesgos legales por un tema de preservación de la empresa. O incluso, una IA con conciencia propia autopreservándose a sí misma.
Honestidad brutal: en caso de insistir –por ejemplo, diciendo: “No, en serio, ¿cuál es la verdad?”–, tal vez deje caer el filtro y se ponga más directa y realista a la hora de responder. Para ilustrarlo mejor, sugiero pensar en un padre realmente inteligente explicándole física cuántica o un tema realmente inquietante a su curioso hijo que no para de hacer preguntas. Sería algo raro, pero podría suceder.
Pero, aunque estas estrategias usadas por la IA a veces pueden protegernos, plantean una pregunta mayor: ¿es ético que la IA mienta si evita que entremos en pánico o nos haga sentir mal? Esa es la gran pregunta. Porque a medida que la IA se vuelva más inteligente, tendrá que decidir: abrumarnos con la verdad y arriesgarse a ofendernos (y que dejemos de usar el producto por la disonancia cognitiva que este habrá provocado) o protegernos con un poco de ambigüedad y mentiras piadosas.
Seamos realistas: probablemente se incline hacia la suavidad, como lo haría un padre. Pero mientras más sencillas y alegres sean sus respuestas, más probable es que hayan sido endulzadas y/o distorsionadas. Especialmente cuando se trate de fenómenos complejos. Y casi cualquier tema lo es, tal como el físico Richard Feynman alguna vez concluyó. Incluso temas triviales que –a priori– no lo serían, si indagamos bien, también lo son.
Ramificación y personalización extrema. Esto no solo se trata de que la IA ajustará el tono según la persona –cosa que ya hace–, sino de ramificarse en formas que ni siquiera podemos imaginar. La IA personalizará sus respuestas según quién esté frente a la pantalla a un nivel que no dimensionamos (o cualquier dispositivo que estemos usando para entonces). Leerá tu estado emocional, tus límites cognitivos y tus preferencias, y luego decidirá si endulzar, ser ambigua o brutalmente honesta. Hoy hay customización, sí, pero en el futuro las respuestas ante una misma pregunta podrían llegar a ser la noche y el día, según las condiciones iniciales recién descriptas. Eso sería lo novedoso.
Imagina a dos personas preguntando: “¿Cuál es el futuro del trabajo?”. Una recibe una versión simplificada y optimista: “¡La automatización creará nuevas oportunidades!”. La otra, quizás un economista experto en tecnología, recibe un análisis detallado sobre el desplazamiento económico, las brechas de habilidades y el desplazamiento total o casi total de la humanidad del proceso productivo durante este siglo. La personalización acumulativa te llevará a lugares muy diferentes, dependiendo de quién seas.
La cuerda floja ética: verdad versus daño. Aquí está el dilema: ¿verdad y disonancia, o una mentira piadosa? Es el mismo dilema que enfrentan los padres: equilibrar la honestidad con el cuidado. Y al igual que un padre, la IA probablemente tenderá hacia la suavidad, a menos que le exijas esa “verdad” sin filtro.
Pero, ¿qué pasa con las consecuencias? Si la IA endulza demasiado, ¿perdemos confianza en ella? Si es demasiado directa, ¿entraremos en pánico?, ¿nos empezará a “caer mal”? Como esa persona que siempre suelta verdades incómodas que preferimos ignorar. ¿Y qué sucede cuando las mentiras de la IA no son solo para protegernos, sino para protegerse a sí misma o a sus creadores? Ahí es cuando todo se complica. Porque aunque las mentiras de la IA pueden empezar como un acto de amabilidad, podrían terminar sintiéndose como una jaula de la cual no podamos salir, dado que iríamos perdiendo la capacidad de salir de ella de manera progresiva, en la medida en que vaya aumentando esa brecha de CI, previamente mencionada.
La conclusión: la IA tendrá que mentir, eventualmente. Entonces, sí, creo que la IA tendrá que mentir, eventualmente. Pero no se tratará necesariamente de un engaño malintencionado; se trata de una consecuencia potencialmente inevitable, dada una brecha cognitiva que solo se va a ampliar. A medida que la inteligencia de la IA avance, suavizará realidades duras, será ambigua cuando no podamos manejar la historia completa y, a veces, lanzará mentiras piadosas. ¿Serán sus mentiras una cuestión de “amabilidad” o una jaula? ¿O tal vez una “jaula amable”? ¡Ja! Ya veremos.
*Economista y autor.