ELOBSERVADOR
ChatGpt

Ahora pienso, luego existo, dijo ChatGPT

Aunque los agentes conversacionales emulen la reflexión humana, sus respuestas siguen ligadas la capacidad del procesamiento del lenguaje y a la calidad de nuestras interacciones.

Logo Perfil
. | Cedoc Perfil

René Descartes, el célebre filósofo francés del siglo XVII, sentó las bases del pensamiento moderno con su famosa frase: “Pienso, luego existo”. Esta máxima no sólo redefinió la filosofía occidental, sino que también estableció al pensamiento como la esencia misma de la existencia humana.

Si bien esta máxima tiene como propósito demostrar que la capacidad de pensar es lo que confirma la propia existencia del sujeto, una interpretación más amplia nos puede acercar a la idea pragmática de que existe fuerte conexión entre el fundamento de la toma de la decisión (razón) y el comportamiento humano (acción).

Hace pocos días, la empresa OpenAI lanzó al mercado su nuevo modelo 01 de ChatGPT, conocido como “strawberry”, un nuevo desarrollo que pretende emular nuestro comportamiento racional para generar respuestas más precisas, incorporando una particular característica: una latencia deliberada en sus respuestas.

Esto no les gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Hoy más que nunca Suscribite

A diferencia de sus otras versiones, que devuelven respuestas casi instantáneas, este modelo introduce pausas calculadas. Esta demora no es producto de limitaciones técnicas sino que es una decisión consciente de los desarrolladores para hacer que el agente conversacional agote sus recursos para responder eficazmente.

Esos segundos de espera imitan el tiempo que los humanos nos tomamos para procesar información y generar respuestas. El fruto de esta pausa es transmitirle a la persona usuaria esa sensación de pensamiento y consideración. Sin embargo, surge una pregunta inevitable: ¿es decisiva esa pausa para la calidad de la respuesta?

Todavía no existen evidencias concluyentes que determinen el tiempo que una máquina necesita para responder correctamente. En el caso de los seres humanos, es obvio que el tiempo de respuesta varía cuando nos enfrentamos a preguntas complejas (recordemos los sistemas uno y dos de Daniel Kahneman). Además, nuestro estado emocional y las cuestiones inherentes al entorno que nos rodea, afectan nuestra calidad de respuesta.

En el caso de los agentes conversacionales, quienes carecen de estado emocional y no pueden percibir el entorno, cuando deben abordar una situación difícil, merman sustancialmente su rendimiento.

Esto se corrobora, por ejemplo, cuando presentan problemas de sobregeneralización, es decir, un fenómeno que se genera cuando los grandes modelos de lenguaje (LLMs), al haber aprendido en exceso sobre patrones específicos de los datos de entrenamiento, luego los aplican de manera indiscriminada, adoptando un comportamiento casi heurístico. Ofrecen respuestas incorrectas o irrelevantes, ya que se basan en correlaciones impropias, en lugar de aplicar comprensiones profundas.

Para resolver esta clase de problemas, strawberry intenta ser reflexivo. Es decir, después de generar una cantidad suficiente de tokens alrededor de las claves que marcan los hechos, ChatGPT pareciera que puede escapar de la atracción gravitacional que genera el patrón sobregeneralizado.

Sin embargo, esta nota distintiva que pretende resolver el entuerto, a diferencia humana, no depende del tiempo, sino de la calidad de los algoritmos y los datos con los que ha sido entrenada. La rapidez o lentitud en la respuesta no afecta la precisión o validez de la información proporcionada.

La vía para escapar del problema, además de mejores modelos de procesamiento, sigue siendo nuestra capacidad para interactuar correctamente. Problemas como la sobregeneralización en los LLMs no se resuelven simplemente con más tiempo o mayor capacidad de procesamiento de tokens. La solución más efectiva proviene de un mejor razonamiento guiado y prompts –en inglés, consignas–, bien diseñados que hagan que el modelo reevalúe sus respuestas en función de las diferencias contextuales, permitiéndole escapar de los patrones que ha sobregeneralizado en su entrenamiento.

Esto significa que si empleamos prompts que fomenten reflexión, en lugar de simplemente hacer preguntas directas, prompts que resalten las diferencias, obligando al modelo a efectuar comparaciones entre el patrón original que ha aprendido y las nuevas variaciones que se presentan, prompts de procesamientos por etapas, descomponiendo el problema que le presentamos en partes más pequeñas forzando a que el algoritmo avance paso a paso y/o prompts que fomenten la generación de más tokens… con ello podemos sortear este tipo de limitaciones.

En definitiva, el tiempo que un chatbot tarde en responder no es un indicador de su capacidad de razonamiento, sino más bien un ajuste para mejorar la experiencia de la persona usuaria. Este modelo no es más que un avance en la capacidad de atención y procesamiento de información, lo que le permite ser más preciso, seguro y robusto, pero no guarda relación con el razonamiento o pensamiento. La conciencia, la experiencia subjetiva y la capacidad de sentir son elementos que, hasta ahora, siguen siendo exclusivamente humanos y son los únicos que nos permiten aprovechar al máximo esta tecnología.

*Abogado experto en nuevas tecnologías.