TECNOLOGíA
Tontería Artificial

¿Quién es David Mayer? La curiosa pregunta que "cuelga" a ChatGPT, sin explicación aparente

La popular aplicación de chatbot mostró una "anomalía" en las últimas horas, generando conjeturas en redes. Con ese nombre en particular se negaba a contestar y repetía "parece que algo salió mal",

Chat GPT
Chat GPT | Cedoc

Durante las últimas horas se produjo un extraño suceso vinculado al ChatGPT, luego de que algunos usuarios se percataran de que la popular aplicación de chatbot impulsada por inteligencia artificial se negara a responder cuando se le preguntaba "Quién es David Mayer".

Los internautas descubrieron que si se hacía esa consulta, la aplicación dejaba de funcionar, primero no respondía y finalmente se limitaba a señalar "Parece que algo salió mal" o en inglés "I'm unable to produce a responde" (No puedo producir una respuesta).

ChatGPT

Esto no les gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Hoy más que nunca Suscribite

Lo curioso es que modificando apenas una letra, entonces respondía sobre el mismo Mayer sin problemas... Quienes descubrieron esa extraña "anomalía" del sistema, alimentando los misterios sobre la IA, empezaron entonces a indagar quién es el misterioso personaje sobre el que la herramienta de Inteligencia Artificial se negaba a proporcionar información y la primera asociación que realizaron fue con David Mayer de Rothschild.

Se trata, en el caso de David Mayer de Rothschild, de un multimillonario inglés involucrado en causas ambientalistas y a quien se vinculó sentimentalmente con la actriz Angelina Jolie. De todas formas, lo más insólito del caso es que si ChatGPT le ponías ese nombre completo, contestaba sin problemas, lo que indica que no había bloqueos en ese caso sobre el tal David Mayer.

El investigador, doctor en Humanidades y Master en Media Tech por el Instituto de Tecnología de Massachusetts (MIT), Martin Hadis, intentó explicar lo ocurrido: "La mera generación de la representación interna de 'David Mayer' lo tildó. No fue ni una persona concreta ni un pedido de info".

Amazon invierte US$ 4.000 millones adicionales en una empresa de Inteligencia Artificial

"Varias personas al leer esto se preguntan 'quién es David Mayer'. Este es un problema clave en el uso de la IA: analizar sus reacciones en términos humanos. Si a cualquiera de nosotros un nombre nos lleva a cortar una conversación, lo más probable es que se deba a nuestras emociones o conceptos de la persona que lleva ese nombre. Pero ChatGPT, sobra decirlo, no es una persona y la manera en que procesa datos es muy diferente a la nuestra", consideró.

El experto señaló en su cuenta de X que "es perfectamente posible que el problema que le causa 'David Mayer' ocurra incluso antes de que lo detecte como un nombre, y mucho antes aún de que lo asocie con alguien en particular".

ChatGPT As Cyber Firms Warns That AI Bots Will Bring Nastier Phishing Scams

"Sería posible, por ejemplo, que la 'chiripiorca' en cuestión la cause algún vericueto de sus redes neuronales en las que las primeras tres letras de 'Mayer' le hayan quedado instanciadas como el token de un mes", conjeturó, y se comprobó que, al contrario, si se coloca "David de Rothschild" en lugar de "David Mayer", la aplicación no tiene ningún inconveniente para ofrecer información sobre él. Tampoco si se tipea David Meyer, con error en la e, devuelve inmediatamente información sobre Mayer sin problemas.

De esta forma, el experto explicó que es un problema que excede el lenguaje humano y que el sistema realmente no tiene problemas en hablar de David Mayer de Rothschild, sino en referirse a él como David Mayer a secas. No obstante, aclaró también que, probablemente, el soporte técnico de la aplicación ya esté trabajando en solucionar el caso.

Al cierre de esta nota ChatGPT continuaba sin dar información al preguntar por "David Mayer".

 

¿La IA muestra signos de estancamiento?

Es un comentario que corre por algunos lugares de Silicon Valley: los avances de la Inteligencia Artificial (IA), en su camino hasta llegar al nivel del ser humano, como repiten los gurúes de esta tecnología, parece que se están desacelerando.

Desde su deslumbrante lanzamiento hace dos años, los especialistas en IA afirman que las capacidades de tecnologías como ChatGPT se acelerarán de manera exponencial a medida que se les sumen datos para mejorar su entrenamiento y más chipas para aumentar su potencia de cálculo.

El razonamiento es simple; más datos, más chips, y la Inteligencia Artificial General (AGI) llegará a igualar o superar la capacidad humana.

Los avances han sido tan rápidos que hasta el mismísimo Elon Musk, uno de los precursores de la IA, pidió a la Justicia una moratoria en el desarrollo temiendo sus alcances.

China's ChatGPT Stock Frenzy Cools Amid Reported Regulatory Ban

Las gigantes tecno, incluida la del propio Musk, siguieron por supuesto gastando decenas de miles de millones de dólares para no quedarse atrás en la carrera. Y así OpenAI, la empresa creadora de ChatGPT con el apoyo de Microsoft, recaudó recientemente 6.600 millones de dólares para financiar nuevos avances.

Incluso xAI, la empresa de IA de Musk, busca inversores que paguen los 6.000 millones de dólares necesarios para comprar otros 100.000 chips de Nvidia, el fabricante de componentes necesarios para el desarrollo de la IA.

Pero no todo es una cuestión de inversiones, parece que el camino hacia la AGI está lleno de obstáculos.

Es que expertos del sector empiezan a darse cuenta de que los grandes modelos lingüísticos (LLM) no aumentan a la velocidad esperada aunque se les alimente con más potencia y datos.

Así a pesar de las enormes inversiones, las mejoras de esta tecnología muestran signos de estancamiento.

“Los valores que alcanzan en los mercados empresas "como OpenAI y Microsoft se basan en gran medida en la idea de que los LLM se convertirán en inteligencia artificial general con un escalado continuo", le dijo Gary Marcus, experto y crítico de la IA, a la Agencia AFP. Pero aclaró: "eso no es más que una fantasía".

 

"No hay barreras"

Una de las principales cortapisas a la que se enfrentan los desarrolladores es que la cantidad de datos lingüísticos para el entrenamiento de la IA no es infinita.

Según Scott Stevenson, CEO de la empresa de IA Spellbook, que trabaja con OpenAI y otros proveedores, focalizar el avance en la acumulación de datos lingüísticos está destinado al fracaso.

"Algunos laboratorios se han centrado demasiado en introducir más lenguaje, pensando que así (la IA) será más inteligente", explica Stevenson.

Inteligencia artificial: Cómo mejoraría el tránsito y la seguridad

Para Sasha Luccioni, investigadora y responsable de IA en la startup Hugging Face, era previsible que esta carrera sufriera un frenazo, ya que las empresas se centran más en el tamaño que en el desarrollo de modelos y sus finalidades.

"La búsqueda de la inteligencia artificial siempre ha sido poco realista, y el enfoque de la IA basado en 'cuanto más grande, mejor' tenía que llegar a un límite en algún momento, y creo que eso es lo que estamos viendo ahora", explica a la AFP.

"No hay barreras", publicó el jueves en X Sam Altman, fundador y director ejecutivo de OpenAI, sin dar más detalles.
A pesar de este optimismo, OpenAI ha retrasado el lanzamiento del sucesor de GPT-4 porque está por debajo del rendimiento esperado, según fuentes citadas por The Information.

 

“Enfoque Homo Sapiens”

Por eso, OpenAI se está centrando en usar la capacidad de su tecnología de forma más eficiente. Este cambio de estrategia se ve reflejado en su modelo o1, diseñado para dar respuestas más precisas gracias a una mejora de su razonamiento y no por el aumento de datos de entrenamiento.

Stevenson recuerda que la decisión de OpenAI de enseñar a su modelo a "pasar más tiempo pensando en lugar de respondiendo" ha comportado "mejoras radicales".

Inteligencia Artificial: ¿Cómo pueden competir las empresas locales a nivel global?

El CEO de Spellbook compara la IA con el descubrimiento del fuego. En lugar de echar más leña para avivarlo a base de datos y potencia informática, ha llegado el momento de usarlo para tareas específicas.

El profesor de la Universidad de Stanford Walter De Brouwer compara los LLM con los estudiantes que pasan del instituto a la universidad: "El bebé de la IA era un chatbot que improvisaba mucho", propenso a cometer errores, señala.

"El enfoque homo sapiens de pensar antes de actuar está llegando", concluyó.

 

AS/HB

 

AS.