La alianza entre gobiernos y la élite tecnológica que vuelve a la IA un peligro
La cercana relación entre los líderes mundiales y los magnates de la tecnología, que en su máximo ejemplo representan Donald Trump y Elon Musk, hace que el desarrollo de la inteligencia artificial ocurra a espaldas de la población general. El debate de la regularización versus el desarrollo y los dilemas morales sobre una inteligencia que puede obedecer objetivos oscuros.
Dentro de los últimos años, la inteligencia artificial, o IA, ha evolucionado: desde ser algo que solo se leía en cuentos de ciencia ficción a algo a lo que la persona común y corriente puede acceder. A muchos los emocionan el potencial de la IA y sus posibles aplicaciones en salud, defensa militar, investigaciones de ciencia y más. Se entiende, entonces, que muchos a lo largo del mundo están desesperados por desarrollar tecnologías de IA para usar en todas estas áreas.
Sin embargo, es justamente porque esta tecnología es novedosa y potente que ahora emerge el debate acerca de las medidas regulatorias que se deberían, o no, imponer al desarrollo de la IA. Países y federaciones, como la Unión Europea (UE), están implementando algunas políticas públicas con el fin de proteger a usuarios y consumidores. En 2024, la UE aprobó una legislación de inteligencia artificial que impone medidas de seguridad y reglas que los desarrolladores de la tecnología tendrán que seguir para poder funcionar dentro de estos territorios.
El caso que los demás seguirán. Los Estados Unidos, sin embargo, parecen estar en otra página. Hace algunos días, el vicepresidente estadounidense, James David Vance, dio un discurso durante una cumbre en París en el que defendió la posición de antirregularización de la IA. Según el vicepresidente, imponer demasiadas medidas de seguridad podría desincentivar el desarrollo de la tecnología, dándoles una ventaja a otros países que quizá tengan menos regulaciones o que ya están liderando la esfera; o sea, China.
“En este momento en los Estados Unidos hay, claramente, un renacimiento de las políticas de desregularización de la IA”, dice Annette Zimmermann, una filósofa política de la Universidad de Wisconsin-Madison que se especializa en el tema de la ética y la política de inteligencia artificial.
Aunque Silicon Valley nunca ha estado a favor de regularizar el desarrollo tecnológico, Cameron Kirk-Giannini, un filósofo de Rutgers University que se especializa en temas de seguridad, transparencia y gobernanza de la inteligencia artificial, piensa que este es el momento menos oportuno para que las compañías tecnológicas tengan el visto bueno del gobierno para desarrollar sus tecnologías sin medidas de seguridad: “Es durante los primeros años del desarrollo cuando estos sistemas representan el mayor riesgo. Hubiese preferido tener el mensaje de ‘no seguridad’ hace cuatro años, o en cuatro años, pero no ahora”.
Políticos y tecnológicos amigos. “Veo un cambio ideológico, específicamente entre la élite de la tecnología, y ese cambio es que se protegen con la autoridad. No necesariamente con el autoritarismo, pero sí con la autoridad”, comenta Zimmermann. “Muchas de estas personas están verbalizando cada vez más y más su escepticismo acerca de valores como la inclusión democrática, la participación y el acceso a diferentes personas de todos los estratos y roles en la sociedad”, agrega. “Y el gobierno de Trump se está encariñado con ejecutivos de tecnología. De pronto el mensaje es: ‘No nos debería importar la seguridad’”, coincide Kirk-Giannini.
La influencia y presión de líderes de la industria también está presente en la política fuera de los Estados Unidos. Un reporte del Observatorio Empresarial de Europa encontró que corporaciones tecnológicas –incluidas Google, Microsoft, Amazon y Oracle– influyeron en la política aprobada por la UE sobre medidas de seguridad para la IA, logrando que las regulaciones no fueran tan rigurosas.
Zimmermann piensa que es posible que esta influencia se convierta en un patrón, lo que significa que la tendencia de los Estados Unidos de desregularizar la tecnología IA podría convertirse en tendencia mundial: “La inquietud no es que políticos estadounidenses intenten presionar a los líderes de otros Estados u otros países soberanos para que adopten políticas determinadas. La inquietud es que las compañías estadounidenses podrían sentirse envalentonadas y ejercer esta presión directa a otros países, y que a ellos les falte el poder económico para resistirse”. Añade que, “en general, la política de IA tiende a derramarse por todo el globo”, por lo que no sería “inaudito que otros países se adaptaran y moldearan sus esfuerzos regulatorios basados en lo que suceda en los Estados Unidos”.
El mito de la tecnología neutra. Este cambio ideológico de los ejecutivos liderando el desarrollo de la IA, en Estados Unidos y globalmente, junto con la influencia que este grupo ejerce sobre la política, presenta un problema en cuanto a la seguridad de estas tecnologías para el público general y la preservación de los valores democráticos.
Un ejemplo de esto es que, durante su discurso, el vicepresidente Vance expresó que las tecnologías IA de los Estados Unidos serán libres de inclinaciones ideológicas y no permitirán censura. Y, aunque estos suenan como objetivos deseables, estos ideales no son lo que parecen. “Lo primero de todo: es imposible que un discurso sea ideológicamente neutro”, expresa Zimmerman. Explica que filósofos de lenguaje y política argumentan que las afirmaciones y declaraciones que podamos hacer existen siempre dentro de un rango de ideología política. Pretender que las herramientas de la IA generativa u otras tecnologías IA no existen dentro de este mismo espectro político es engañoso.
“Es esencial para participación pública y colectiva informar qué tipos de decisiones políticas moldean el diseño de la IA y su distribución. Esta posición de presunta neutralidad ideológica sofoca y obstaculiza la deliberación democrática productiva en vez de promoverla”, argumenta.
Además, la censura de la cual habla el vicepresidente estadounidense podría ser algo distinto de lo que deja ver. “Cuando personas como J.D. Vance hablan de neutralidad ideológica y censura, creo que lo que tienen en mente es la moderación de contenidos”, opina el profesor de Rutgers. “Básicamente, están manifestándose a favor de la posición que cree que no debería haber moderación de contenidos en redes sociales ni en la producción de IA”.
“Cualquier intento de poner barandillas a las herramientas de IA es artificial y, a mi parecer, engañosamente interpretado como censura”, añade Zimmermann. Y esto presenta un grave problema en cuanto a la discusión y participación democrática.
Propósitos de IA aceptables. “Mucha gente en la comunidad de seguridad de la IA ha estado preocupada por los riesgos de la IA precisamente porque la discusión desregularizada y sin moderación es probable que tienda a la polarización, a la degradación del debate democrático y al debilitamiento de las instituciones democráticas”, explica Kirk-Giannini.
La inquietud acerca de la moderación de contenidos no es lo único preocupante de un futuro del desarrollo de la IA desregularizada. A Kirk-Giannini le preocupa que los gobiernos se están enfocando únicamente en temas de seguridad nacional, como la protección de ataques cibernéticos de adversarios extranjeros, y descuidan problemas como la implementación de IA en otras partes del aspecto político; por ejemplo, el desarrollo de armas militares sin aporte humano supone el riesgo de que perdamos el control sobre nuestras máquinas. Aunque Kirk-Giannini admite que es una posibilidad poco probable, ignorar estos tipos de riesgos en el implemento de IA es un error.
“Creo que debemos pensar acerca de una visión inclusiva de la seguridad de IA en la cual no solo nos importe la seguridad nacional, sino también la ética, los daños que causa y las preocupaciones acerca de eventos poco probables que podrían ser catastróficos. El estrechamiento de nuestro foco a solo una de estas categorías me parece que llevará a resultados negativos”, opina.
Zimmermann también cree que nos deberíamos cuidar de implementar tecnología de IA a ciegas. La regularización de estas tecnologías, en este sentido, no solo se trataría de hacerlas seguras para usar, sino también de decidir de forma democrática los usos que le queremos dar a IA: “La pregunta clave cuando pensamos en IA va más hacia qué propósito queremos buscar cuando la usamos, y esto es una pregunta que deberíamos responder juntos como votantes democráticos, porque diferentes países podrían tener conclusiones distintas sobre lo que constituye un propósito aceptable”.
También te puede interesar
-
‘Ficciones’ del General
-
China en el Canal
-
¡Al carajo con la libertad!
-
El nuevo orden imperial
-
Mario Margulis y la Sociología de la Cultura
-
El desafío de la sostenibilidad: de la UE al Mercosur
-
Transiciones desde un gobierno democrático
-
Rebote en V, para pocos
-
Un barco a la deriva y un rescate en alta mar