Las lagunas en las normas de campaña permiten a los políticos difundir imágenes y mensajes generados por una tecnología de inteligencia artificial cada vez más potente.
En Toronto, un candidato a las elecciones a la alcaldía de esta semana que promete desalojar los campamentos de personas sin hogar publicó una serie de promesas de campaña ilustradas por inteligencia artificial, incluidas imágenes distópicas falsas de personas acampadas en una calle del centro y una imagen inventada de tiendas de campaña instaladas en un parque.
En Nueva Zelanda, un partido político publicó en Instagram una representación de aspecto realista de falsos atracadores arrasando una joyería.
En Chicago, el segundo candidato a la alcaldía en las elecciones de abril se quejó de que una cuenta de Twitter que se hacía pasar por un medio de comunicación había utilizado la inteligencia artificial para clonar su voz de forma que sugiriera que aprobaba la brutalidad policial.
Lo que empezó hace unos meses como un lento goteo de correos electrónicos de recaudación de fondos e imágenes promocionales compuestas por la inteligencia artificial para campañas políticas se ha convertido en un flujo constante de materiales de campaña creados por la tecnología, reescribiendo el manual político de las elecciones democráticas en todo el mundo.
Cada vez más, los consultores políticos, los investigadores electorales y los legisladores afirman que debería ser una prioridad urgente establecer nuevas barreras, como una legislación que limite los anuncios generados sintéticamente. Las defensas existentes, como las normas de las redes sociales y los servicios que afirman detectar contenidos de inteligencia artificial, no han conseguido frenar la oleada.
A medida que la carrera presidencial estadounidense de 2024 empieza a calentarse, algunas de las campañas ya están probando la tecnología. El Comité Nacional Republicano publicó un vídeo con imágenes generadas artificialmente de escenarios catastrofistas después de que el presidente Biden anunciara su candidatura a la reelección, mientras que el gobernador Ron DeSantis, de Florida, publicó imágenes falsas del expresidente Donald J. Trump con el doctor Anthony Fauci, antiguo responsable sanitario. En primavera, el Partido Demócrata experimentó con mensajes de recaudación de fondos redactados por inteligencia artificial, y descubrió que a menudo eran más eficaces para fomentar la participación y las donaciones que los redactados íntegramente por humanos.
Algunos políticos ven en la inteligencia artificial una forma de ayudar a reducir los costes de campaña, utilizándola para crear respuestas instantáneas a preguntas de debate o anuncios de ataque, o para analizar datos que de otro modo requerirían costosos expertos.
Al mismo tiempo, la tecnología tiene el potencial de difundir desinformación a una amplia audiencia. Un vídeo falso poco favorecedor, un mensaje de correo electrónico lleno de falsas narrativas elaboradas por ordenador o una imagen inventada de la decadencia urbana pueden reforzar los prejuicios y ampliar la división partidista mostrando a los votantes lo que esperan ver, dicen los expertos.
La tecnología ya es mucho más potente que la manipulación manual: no es perfecta, pero mejora rápidamente y es fácil de aprender. En mayo, el director ejecutivo de OpenAI, Sam Altman, cuya empresa ayudó a poner en marcha el boom de la inteligencia artificial el año pasado con su popular chatbot ChatGPT, declaró ante un subcomité del Senado que estaba nervioso por la temporada electoral.
Dijo que la capacidad de la tecnología “para manipular, persuadir, proporcionar una especie de desinformación interactiva uno a uno” era “un área significativa de preocupación”.
La representante Yvette D. Clarke, demócrata por Nueva York, declaró el mes pasado que el ciclo electoral de 2024 “está a punto de ser la primera elección en la que prevalezcan los contenidos generados por inteligencia artificial”. Ella y otros congresistas demócratas, entre ellos la senadora Amy Klobuchar de Minnesota, han presentado una ley que exigiría que los anuncios políticos que utilicen material generado artificialmente lleven un descargo de responsabilidad. Recientemente se promulgó una ley similar en el estado de Washington.
La Asociación Americana de Consultores Políticos condenó recientemente el uso de deepfake content en las campañas políticas como una violación de su código ético.
“La gente va a tener la tentación de ir más allá y ver hasta dónde pueden llevar las cosas”, dijo Larry Huynh, presidente entrante del grupo. “Como con cualquier herramienta, puede haber malos usos y malas acciones utilizándolas para mentir a los votantes, para engañar a los votantes, para crear una creencia en algo que no existe”.
La reciente intrusión de la tecnología en la política sorprendió en Toronto, una ciudad que sustenta un próspero ecosistema de investigación y creación de empresas de inteligencia artificial. Las elecciones a la alcaldía se celebran el lunes.
El candidato conservador Anthony Furey, antiguo columnista de prensa, expuso recientemente su programa en un documento de decenas de páginas lleno de contenidos generados sintéticamente para ayudarle a defender su postura de mano dura contra la delincuencia.
Una mirada más atenta mostraba claramente que muchas de las imágenes no eran reales: En una escena de laboratorio aparecían científicos que parecían manchas alienígenas. En otra de las representaciones, una mujer llevaba un alfiler en la chaqueta con letras ilegibles; en una imagen de una cinta de precaución en una obra aparecían marcas similares. La campaña de Furey también utilizó un retrato sintético de una mujer sentada con dos brazos cruzados y un tercer brazo tocándole la barbilla.
Los otros candidatos aprovecharon esa imagen para reírse en un debate celebrado este mes: “En realidad estamos usando fotos reales”, dijo Josh Matlow, que mostró una foto de su familia y añadió que “nadie en nuestras fotos tiene tres brazos”.
Aun así, los chapuceros renders sirvieron para amplificar el argumento del Sr. Furey. Ganó suficiente impulso para convertirse en uno de los nombres más reconocibles en unas elecciones con más de 100 candidatos. En el mismo debate, reconoció haber utilizado la tecnología en su campaña, añadiendo que “nos vamos a reír un par de veces mientras seguimos aprendiendo más sobre la inteligencia artificial”.
A los expertos políticos les preocupa que la inteligencia artificial, mal utilizada, pueda tener un efecto corrosivo en el proceso democrático. La desinformación es un riesgo constante; una de las rivales de Furey dijo en un debate que, aunque los miembros de su equipo utilizaban ChatGPT, siempre comprobaban sus resultados.
“Si alguien puede crear ruido, generar incertidumbre o desarrollar falsas narrativas, podría ser una forma eficaz de influir en los votantes y ganar la carrera”, escribió Darrell M. West, investigador de la Brookings Institution, en un informe del mes pasado. “Dado que las elecciones presidenciales de 2024 pueden reducirse a decenas de miles de votantes en unos pocos estados, cualquier cosa que pueda inclinar a la gente en una dirección u otra podría acabar siendo decisiva”.
El contenido cada vez más sofisticado de la inteligencia artificial aparece con mayor frecuencia en las redes sociales, que en gran medida no han querido o no han podido vigilarlo, dijo Ben Colman, director ejecutivo de Reality Defender, una empresa que ofrece servicios para detectar la inteligencia artificial.
“Explicar a millones de usuarios que el contenido que vieron y compartieron era falso, mucho después de los hechos, es demasiado poco y demasiado tarde”, dijo Colman.
Durante varios días de este mes, un livestream de Twitch ha emitido sin parar un debate no apto para el trabajo entre versiones sintéticas de Biden y Trump. Ambos fueron claramente identificados como “entidades de inteligencia artificial” simuladas, pero si una campaña política organizada creara ese contenido y lo difundiera ampliamente sin revelarlo, podría fácilmente degradar el valor del material real, dijeron los expertos en desinformación.
Los políticos podían eludir la responsabilidad y afirmar que las imágenes auténticas de acciones comprometedoras no eran reales, un fenómeno conocido como el dividendo del mentiroso. Los ciudadanos de a pie podrían hacer sus propias falsificaciones, mientras que otros podrían atrincherarse más profundamente en burbujas de información polarizadas, creyendo sólo en las fuentes que decidieran creer.
“Si la gente no puede confiar en sus ojos y oídos, puede que se limiten a decir: “¿Quién sabe?”. escribió en un correo electrónico Josh A. Goldstein, investigador del Centro de Seguridad y Tecnología Emergente de la Universidad de Georgetown. “Esto podría fomentar el paso de un escepticismo sano que fomenta los buenos hábitos (como la lectura lateral y la búsqueda de fuentes fiables) a un escepticismo malsano de que es imposible saber qué es verdad”.