INTERNACIONAL
Deepfake viral

Elecciones en Estados Unidos: Elon Musk compartió una parodia que imita la voz de Kamala Harris con inteligencia artificial

El video utiliza la voz de la vicepresidenta para simular un anuncio de campaña, donde afirma que es la candidata demócrata "porque Joe Biden finalmente sacó a la luz su senilidad en el debate".

Elon Musk
Elon Musk | Agencia Bloomberg

El dueño de X, Elon Musk, compartió un video que utilizaba inteligencia artificial (IA) para imitar la voz de la vicepresidenta de Estados Unidos, Kamala Harris, para que parezca que dijo cosas que nunca expresó, tales como que fue "contratada por la diversidad" al ser mujer y de color. De esa manera, encendió las alarmas entre analistas por el poder de la tecnología para engañar a los electores a tres meses de los comicios generales en Washington.

La pieza ganó notoriedad luego de que Musk la compartiera a través de su cuenta de X el viernes por la noche, sin señalar de manera explícita que se trataba de una parodia. Sin embargo, a última hora del domingo, el empresario aclaró que era una sátira al fijar en su perfil la publicación del creador original en su perfil y usando un juego de palabras para señalar que la parodia no es un delito.

Kamala Harris toma el concepto ‘brat’ para captar el voto joven y progresista

Esto no les gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Hoy más que nunca Suscribite

El video en cuestión utiliza muchos de los elementos visuales de un anuncio real que Harris publicó la semana pasada para lanzar su campaña, luego de que el presidente Joe Biden se retirara de la carrera por la Casa Blanca. No obstante, la pieza compartida por el dueño de Tesla cambia la voz en off de la funcionaria por otra generada por IA. Además, mantiene la marca “Harris para Presidenta” y añade algunos clips auténticos que fueron grabados con anterioridad.

“Yo, Kamala Harris, soy su candidata demócrata a la presidencia porque Joe Biden finalmente sacó a la luz su senilidad en el debate”, comenzó la voz en el video. De esa manera, aseguró que la vicepresidenta fue “contratada por la diversidad” porque es mujer y de color, a la vez que aseguró que no sabe “lo más mínimo sobre cómo dirigir el país”.

Telsa Inc. Chief Executive Officer Elon Musk At Atreju 2023
Elon Musk manifestó su apoyo a Donald Trump de cara a las elecciones generales.

A raíz del hecho, Mia Ehrenberg, portavoz del equipo de campaña de Harris, apuntó contra las "mentiras falsas y manipuladas" de Musk y de Donald Trump, expresidente y candidato republicano. “Creemos que el pueblo estadounidense quiere la verdadera libertad, oportunidad y seguridad que ofrece la vicepresidenta Harris, no las mentiras falsas y manipuladas de Elon Musk y Donald Trump”, indicó a The Associated Press.

El usuario original que publicó el video, un youtuber conocido como Mr Reagan, aclaró tanto en YouTube como en X que se trata de una parodia. Sin embargo, el post de Musk, que tuvo más de 123 millones de visualizaciones según la plataforma, sólo incluye el comentario “Esto es increíble”, con un emoji de risa.

Las advertencias de expertos por el uso de IA generativa

La pieza, que fue ampliamente compartida, es un ejemplo de la utilización de imágenes, videos o clips de audios generados por IA tanto para burlarse como para engañar con respecto a la política. Además, según expertos, expuso la falta de regulación en el uso de esas herramientas de IA de alta calidad aplicadas a la política, así como los límites de su uso apropiado y la sátira.

Al respecto, dos especialistas en contenidos multimedia generados por IA revisaron el audio del anuncio falso y confirmaron que gran parte se había generado con tecnología de IA. Uno de ellos, Hany Farid, experto en análisis forense digital de la Universidad de California, campus Berkeley, afirmó que el video es una muestra del poder de la IA generativa y los videos manipulados digitalmente.

La voz generada por la IA es muy buena. Aunque la mayoría de la gente no creerá que es la voz de la vicepresidenta Harris, el video es mucho más impactante cuando las palabras salen con su voz”, sostuvo. Sumado a esto, señaló que las empresas de IA generativa que ponen a disposición del público herramientas de clonación de voz o similares deberían esforzarse más por garantizar que sus servicios no se utilicen de forma que puedan perjudicar a las personas o a la democracia.

Elon Musk cuestionó la identidad de género de su hija trans: "Fue asesinado por el virus woke"

Por su parte, Rob Weissman, copresidente del grupo de defensa Public Citizen, discrepó de Farid y advirtió que el video engañaría a mucha gente. “No creo que sea obvio que se trata de una broma”, aclaró en una entrevista.

“Estoy seguro de que la mayoría de la gente que lo ve no asume que es una broma. La calidad no es muy buena, pero sí lo suficiente. Y precisamente porque se alimenta de temas preexistentes que han circulado a su alrededor, la mayoría de la gente creerá que es real”, alertó. Weissman, cuya organización aboga ante el Congreso, las agencias federales y los estados para que regulen la IA generativa, manifestó que el video es “el tipo de cosas sobre las que hemos estado advirtiendo”.

Los antecedentes de deepfake en campañas

No se trata del primer deepfake de IA generativa que habría intentado influir en los votantes con desinformación, humor o ambas cosas. Un ejemplo se dio en Eslovaquia, en 2023, cuando unos clips de audio falsos suplantaron a un candidato que hablaba de planes para amañar unas elecciones y subir el precio de la cerveza días antes de la votación. Otro caso tuvo lugar en Luisiana, en 2022, con un anuncio satírico de un comité de acción política que superpuso la cara de un candidato a alcalde a la de un actor que lo representaba como un estudiante de secundaria con bajo rendimiento.

Por el momento, el Congreso de Estados Unidos aún no aprobó una normativa sobre el uso de la IA en la política, siendo que las agencias federales sólo tomaron medidas limitadas, dejando la mayor parte de la regulación estadounidense existente en manos de los estados. En esa línea, más de un tercio de los estados crearon sus propias leyes para regular el uso de la IA en campañas y elecciones, según la Conferencia Nacional de Legislaturas Estatales.

En tanto, distintas empresas de redes sociales también desarrollaron políticas relativas a los contenidos multimedia alterados y manipulados que se comparten en sus plataformas. Por ejemplo, los usuarios de la plataforma de videos YouTube deben revelar si utilizaron IA generativa para crear videos o se enfrentarían a una suspensión.

MB CP