Lo mas relevante
En: Internacional  //
Inteligencia artificial generativa potencia la amenaza de la desinformación electoral a nivel global Especial

Inteligencia artificial generativa potencia la amenaza de la desinformación electoral a nivel global

Algunas campañas políticas utilizan IA generativa para reafirmar la imagen de sus candidatos

¡Síguenos!
Visitas: 179

AP.- La inteligencia artificial generativa potencia la amenaza de la desinformación electoral en todo el mundo al facilitar que cualquiera con un teléfono inteligente y una imaginación retorcida y deshonesta cree contenido falso —pero convincente— destinado a engañar a los votantes.

Esto marca un salto importante respecto de hace unos años, cuando la creación de fotografías, videos o clips de audio falsos requería dinero, equipos de personas con tiempo y habilidades técnicas. Ahora, con servicios de inteligencia artificial (IA) generativa gratuitos y de bajo costo de empresas como Google y OpenAI, cualquiera puede crear “deepfakes” —una falsificación realista en foto, video o audio digital— de alta calidad con una instrucción sencilla a partir de un texto.

 

Una ola de falsificaciones de IA generativa vinculadas a elecciones en Europa y Asia ha recorrido las redes sociales durante meses y sirve como advertencia para más de 50 países que se dirigen a las urnas este año.

“No necesitas mirar muy lejos para ver que algunas personas están claramente confundidas sobre si algo es real o no”, dijo Henry Ajder, un experto destacado en IA generativa con sede en Cambridge, Inglaterra.

La pregunta ya no es si los “deepfakes” de IA podrían afectar las elecciones, sino qué tan influyentes serán, destacó Ajder, quien dirige una firma consultora llamada Latent Space Advisory.

A medida que la carrera presidencial de Estados Unidos se intensifica, del director del FBI, Christopher Wray, advirtió recientemente sobre la creciente amenaza y dijo que la IA generativa facilita que “adversarios extranjeros se involucren en influencias malignas”.

 

Con un “deepfake” la imagen de un candidato se puede distorsionar o suavizar. Los votantes pueden encontrarse atraídos o alejados de los candidatos o incluso evitar las urnas por completo. Pero quizá la mayor amenaza para la democracia, dicen los expertos, es que una oleada de “deepfakes “podría erosionar la confianza del público en lo que ve y escucha.

La novedad y sofisticación de la tecnología hace que sea difícil rastrear quién está detrás de los “deepfakes“. Los expertos dicen que los gobiernos y las empresas todavía no son capaces de detener el diluvio ni se mueven lo suficientemente rápido para resolver el problema.

A medida que la tecnología mejora, “será difícil encontrar respuestas definitivas sobre mucho del contenido falso”, advirtió Henry Ajder.

Erosionar la confianza

 

Algunos “deepfakes” tienen como objetivo sembrar dudas sobre la lealtad de los candidatos.

 

En Moldavia, un país de Europa del este que hace frontera con Ucrania, la presidenta prooccidental Maia Sandu ha sido un objetivo frecuente. Un “deepfake” que circuló poco antes de las elecciones locales la mostraba respaldando a un partido amigo de Rusia y anunciando planes de dimitir.

Los funcionarios de Moldavia creen que el gobierno ruso está detrás de la actividad. Con las elecciones presidenciales de este año, los “deepfakes” buscan “erosionar la confianza en nuestro proceso electoral, los candidatos y las instituciones, pero también erosionar la confianza entre las personas”, dijo Olga Rosca, asesora de Sandu. El gobierno ruso declinó hacer comentarios para esta historia.

China también ha sido acusada de utilizar la IA generativa como arma con fines políticos.

En Taiwán, una isla autónoma que China reclama como propia, un “deepfake” generado con IA llamó la atención a principios de este año al provocar preocupaciones sobre la interferencia de Estados Unidos en la política local.

 

En Eslovaquia, otro país ensombrecido por la influencia rusa, audios que asemejaban la voz del jefe del partido liberal fueron compartidos ampliamente en redes sociales pocos días antes de las elecciones parlamentarias. Los clips supuestamente lo captaron hablando de aumentar el precio de la cerveza y manipular el voto.

Es comprensible que los votantes caigan en el engaño, dijo Ajder, porque los humanos estamos “mucho más acostumbrados a juzgar con los ojos que con los oídos”.

En Estados Unidos, llamadas automáticas que pretendían ser del presidente Joe Biden instaron a los votantes de Nueva Hampshire a abstenerse de votar en las elecciones primarias de enero. Las llamadas fueron rastreadas después hasta un consultor político que dijo que buscaba dar a conocer los peligros de los “deepfakes” de la inteligencia artificial generativa.

Un desafío a la democracia

 

Algunas campañas políticas utilizan IA generativa para reafirmar la imagen de sus candidatos.

 

En Indonesia, el equipo que dirigió la campaña presidencial de Prabowo Subianto implementó una sencilla aplicación móvil para construir una conexión más profunda con sus seguidores en la vasta nación insular. La aplicación permitió a los votantes subir una foto y crear imágenes generadas por IA de ellos mismos con Subianto.

A medida que se multiplican los tipos de falsificaciones de IA generativa, las autoridades de todo el mundo se apresuran para idear salvaguardas.

La Unión Europea ya exige que las redes sociales reduzcan el riesgo de difundir información falsa, desinformación o “manipulación electoral”. Exigirá un etiquetado especial en los “deepfakes” de IA a partir del próximo año, demasiado tarde para las elecciones parlamentarias de la UE en junio. Sin embargo, el resto del mundo está mucho más atrás.

Las empresas tecnológicas más grandes del mundo firmaron recientemente —y de manera voluntaria— un pacto para evitar que las herramientas de IA generativa sean disruptivas para las elecciones. Por ejemplo, la empresa propietaria de Instagram y Facebook ha dicho que comenzará a etiquetar los “deepfakes” que aparecen en sus plataformas.

 


Pero los “deepfakes” son más difíciles de controlar en aplicaciones como el servicio de chat Telegram, que no firmó el pacto voluntario y utiliza chats encriptados que pueden ser difíciles de monitorear.

A algunos expertos les preocupa que los esfuerzos por frenar los “deepfakes” tengan consecuencias indeseadas.

Los gobiernos o las empresas bien intencionados podrían cruzar la línea a veces “muy delgada” entre un comentario político y un “intento ilegítimo de difamar a un candidato”, dijo Tim Harper, analista político sénior del Centro para la Democracia y la Tecnología, en Washington.

Los principales servicios de IA generativa tienen reglas para limitar la desinformación política. Pero los expertos dicen que todavía es demasiado fácil burlar las restricciones de las plataformas o utilizar servicios alternativos que no tienen las mismas salvaguardas.

 


Incluso sin malas intenciones, el creciente uso de la IA generativa es problemático. Muchos chatbots populares impulsados por inteligencia artificial aún escupen información falsa y engañosa que amenaza con privar de su derecho al voto a los electores.

Y el software no es la única amenaza. Los candidatos podrían intentar engañar a los votantes al afirmar que acontecimientos reales que los muestran de forma desfavorable fueron fabricados con IA generativa.

 

Tipo de Cambio
Licencia Creative Commons
Esta obra está bajo una Licencia Creative Commons Atribución-NoComercial-CompartirIgual 2.5 México.

Las ideas y opiniones expuestas en esta publicación son las propias de los autores y no reflejan necesariamente las
opiniones de la Dirección General y de la Dirección de Contenidos asi como de Virtual Noticias México.
virtualpuebla.com
Copyright © Todos los derechos reservados Virtual Puebla

virtualpuebla.com Facebook Youtube Twitter