El Código de Hammurabi es considerado el primer conjunto de reglas sistematizadas que tuvo la Humanidad. Promulgado en la antigua Babilonia en el año 1754 a.C., este código regulaba conductas sociales mediante sanciones severas, sustentadas en el principio del “ojo por ojo, diente por diente”.
Aunque imponía respeto, su enfoque estaba centrado más en el castigo que en la prevención, lo cual dificultaba la educación ciudadana como método disuasivo del desorden.
En la era moderna, el castigo sigue siendo un componente sustancial a la hora regular conductas, lo que llamamos enfoque punitivo de las normas. La mayoría de nuestros códigos actuales se enfocan en sancionar comportamientos que transgredan reglas, vulneran derechos y/o desconocen obligaciones.
Los legisladores de hoy siguen sin poner suficiente énfasis en la educación o alfabetización de la ciudadanía como elemento preventivo y generador de cambios en la actuación de las personas. Tan sólo normas como la Ley Micaela (violencia de género) y Ley Yolanda (sostenibilidad ambiental) cumplen con ese propósito.
Teniendo en cuenta lo anterior, en un mundo cada vez más influenciado por la inteligencia artificial (IA) el debate sobre su regulación nos impone revisar esta costumbre legislativa que se mantiene vigente a la hora de promulgar leyes.
Inicialmente, debemos destacar que nuestro país no cuenta con un plan estratégico que defina cuál es la posición del Estado sobre esta tecnología. Sin embargo, existen más de 20 proyectos de regulación presentados en el Congreso Nacional.
Por su parte, los planes estratégicos marcan el equilibrio entre el desarrollo (progreso, innovación, crecimiento) y la responsabilidad (ética, sostenibilidad, cumplimiento normativo). Y si bien no es un recaudo necesario, es preferible contar con dichos planes para armonizar los objetivos de la industria con las necesidades específicas de la sociedad, asegurando que las normas respondan eficazmente y promuevan el entorno de la innovación.
Considerando que la sociedad -como sujeto colectivo- es rehén de esta situación, existe una tarea que no puede pasarse por alto: la alfabetización. Ella no solo permite poner límites a los posibles riesgos asociados al uso de IA, sino que también brinda a las personas las herramientas necesarias para entenderla, cuestionarla y aprovecharla de manera adecuada. Más que un freno, la alfabetización es la clave para el uso responsable de la IA.
El enfoque punitivo, aunque necesario en ciertas cuestiones, no siempre previene riesgos. Existen conductas que deben castigarse, eso no se discute, pero centrarse solo en sanciones rara vez cambia el comportamiento de las personas. Los regímenes penales son un claro ejemplo de cómo la simple prohibición o el mero castigo sin educación adecuada puede ser contraproducente, creando efectos adversos, como el aumento del delito.
Sin una alfabetización plena, las personas no tienen herramientas para tomar decisiones informadas y evitar conductas riesgosas. La educación siempre va a ser la clave para fomentar el apego a las normas.
Veamos la realidad y analicemos las aplicaciones que existen para generar texto (desafiando la autoría y la autenticidad de los escritos), producir imágenes (alterando el aspecto físico de las personas y vulnerando su intimidad y privacidad), crear audios (fabricando declaraciones falsas y manipulando la percepción de la realidad) y elaborar videos (recreando situaciones que nunca ocurrieron).
No basta con prohibir usos indebidos; es crucial preparar a las personas usuarias para que comprendan la tecnología, con sus riesgos y beneficios. Sin alfabetización, la tecnología puede ser mal utilizada. Por eso la formación debe ser integral, auspiciando un entendimiento crítico de las capacidades y limitaciones, asegurando así que la sociedad esté preparada para interactuar con la IA de manera adecuada y responsable.
A veces este concepto parece quedar reducido a técnicas de “prompting” o instrucciones claras, y esto es un gran error. Alfabetizar implica comprender la tecnología subyacente, toda vez que ya no estamos lidiando solo con máquinas que siguen órdenes, sino con sistemas que cada vez emulan el comportamiento humano con mayor precisión.
Por ejemplo, las interfaces que trabajan con lenguaje verbal pueden generar un falso sentido de confianza, llevando a las personas a pensar que la IA comprende el contexto como lo haría un Ser Humano. Tal es así que, hace pocos días, en Estados Unidos, un niño se quitó la vida tras ser instigado a ello por un agente conversacional antropomórfico. En vista de ello, ¿acaso no sería conveniente alfabetizar en IA desde la educación inicial?
Es fundamental que la sociedad comprenda la verdadera naturaleza de esta tecnología y no caiga en la dependencia ciega de sus capacidades. Esta tarea debe necesariamente empoderar a las personas usuarias. Por eso, antes que regular, mejor alfabetizar.
El rol de la educación en IA se convierte en el único factor preventivo capaz de establecer el verdadero impacto de una regulación. No se trata de establecer normativas restrictivas, sino de fomentar un entendimiento profundo que permita a la ciudadanía tomar decisiones responsables.
*Abogado experto en nuevas tecnologías.