Retratos digitales

¿Quién debe ponerle gafas violetas a la IA?

La inteligencia artificial replica sesgos de nuestra sociedad. Es tarea colectiva analizarla críticamente para evitar que perpetúe los prejuicios de género.

Amplitud. La lucha contra los sesgos de género en la IA exige un abordaje multidisciplinario y colaborativo, para implementar soluciones efectivas. Foto: cedoc

En un mundo donde aún permanecen miradas de un pasado cuestionable, resuena con fuerza cierta literatura que nos impulsa a reflexionar sobre nuestras propias conductas. Un claro ejemplo es “El diario violeta de Carlota” de la española Gemma Lienas Massot.

Esta obra icónica supo introducir el concepto de las gafas de color violeta, una grandiosa metáfora que sirve para adoptar una perspectiva de género, capaz de revelar hasta las más sutiles discriminaciones que enfrentamos día a día. A través de esos anteojos, Carlota nos anima a detectar las injusticias, desigualdades y los sesgos de género con los cuales convivimos, y propone observar las cosas, más allá de lo superficial.

Imaginemos ahora aplicar esta misma perspectiva crítica a la tecnología, en particular sobre la inteligencia artificial (IA) ¿A quién corresponde, entonces, ponerle las ‘gafas violeta’ para asegurar que no perpetúe los prejuicios que están arraigados en nuestra sociedad?

Sabemos que empresas como OpenAI, Microsoft y Google están enfocadas en ofrecer sistemas capaces de satisfacer nuestros deseos, los cuales pueden ir desde escribir un libro hasta generar imágenes o componer música. Sin embargo, en su desarrollo, carecen de una etapa de evaluación ética y garantía de calidad robusta que les permita advertir respuestas sesgadas antes de ponerlos a disposición.

De tal manera, vemos cómo ChatGPT tiene grandes probabilidades de generar descripciones de mujeres como amables, serviciales y emocionales; y describir a los hombres como inteligentes, líderes y asertivos. También Midjourney genera imágenes de mujeres que son más sexualizadas o estereotipadas que las de hombres; o MuseNet crea música con sonidos electrónicos y percusivos cuando se le pide que componga con género masculino; y melodías suaves con piano cuando es con género femenino.

Frente a esta situación, los Estados están enfocados en regular esta clase productos. Las acciones gubernamentales de hoy buscan obtener un equilibrio entre el avance tecnológico y la protección de las personas ante los potenciales riesgos que generan estas aplicaciones.

Por ejemplo, la recientemente sancionada ley de Inteligencia Artificial (IA Act) de la Unión Europea representa un avance significativo pues prohíbe, entre otras cosas, la discriminación por género en el diseño, desarrollo y eventual uso de estos softwares, implementando medidas que van desde la creación de una autoridad de control hasta la aplicación de sanciones económicas para garantizar la transparencia y la rendición de cuentas.

Si bien las normas podrían ser consideradas como el mejor mecanismo de defensa que tenemos, la lucha contra los sesgos de género en la IA exige un abordaje multidisciplinario y colaborativo, donde se trabaje de manera conjunta y simultánea para implementar soluciones efectivas.

Es que la tarea de advertir este tipo situaciones no puede recaer en un único guardián.

Aunque el mayor peso deban soportarlo quienes desarrollan estos sistemas, velar por el uso de las ‘gafas violetas’ debe ser una responsabilidad compartida entre diversos sectores de la sociedad, incluyendo a las personas, ya que la validación de los contenidos no siempre es una cuestión técnica sino también ética.

De tal manera, resulta obvio que las empresas deben adoptar prácticas de desarrollo responsable, avanzando sobre herramientas transparentes que incluyan auditorías antes de lanzar sus productos al mercado. Solo así se se podrá prevenir efectivamente que estos softwares no perpetúen ni amplifiquen sesgos negativos a mansalva.

Al mismo tiempo, el ámbito científico, académico y las organizaciones no gubernamentales también tienen que contribuir en la generación de métodos más efectivos para detectar y corregir este tipo de anomalías en los algoritmos. Su trabajo es crucial para avanzar en la comprensión y solución de estos problemas que no pueden ser verificados fácilmente por las personas.

Finalmente, como se dijo, éstas últimas también tienen que cumplir un rol importante, no sólo denunciando este tipo de respuestas indeseadas, exigiendo transparencia, pidiendo explicabilidad y solicitando rendición de cuentas sino también en la práctica, simplemente evitando ser clientes de servicios sesgados.

En definitiva, el desafío de ponerle ‘gafas violeta’ a la IA no es una tarea sencilla, ni algo que alguien pueda hacer en forma individual. El interrogante que abre esta columna nos invita a reflexionar sobre una misión que le corresponde a toda la sociedad. Al final, la tecnología sólo refleja nuestro comportamiento a través de los datos con los que se alimenta. Si estos datos están llenos de prejuicios y sesgos, solo el esfuerzo colectivo nos permitirá identificar y contrarrestar esas distorsiones.

*Abogado experto en nuevas tecnologías.