Viernes 29 de Diciembre de 2023
Casi tres años después de que una horda de trumpistas atacara y tomara el Capitolio de Estados Unidos, las falsas teorías de conspiración electoral que impulsaron el violento ataque en enero de 2021 siguen prevaleciendo en las redes sociales: se "informa" de valijas llenas de boletas electorales, de vaciaderos de boletas a altas horas de la noche, incluso de muertos votando. Donald Trump y sus millones de seguidores son los principales impulsores de estas teorías conspirativas, que apuntan a deslegitimar el sistema electoral de EEUU. Trump acaba de ser vetado como candidato a las primarias en dos estados, Colorado y Maine, lo que echa leña al fuego a sus fanáticos conspiracionistas. Esta manipulación se potencia enormemente con el auge de las tecnologías de Inteligencia Artificial, cada vez más utilizadas por los falsificadores de noticias (fake news). La de 2024 será la primera elección presidencial de Estados Unidos en la que las herramientas de IA, que pueden producir falsificaciones convincentes en segundos, tendrán un peso decisivo, advierte un extenso informe de la agencia Associated Press (AP).
Los expertos advierten que la situación será grave en las presidenciales de 2024. Las salvaguardias que intentaron contrarrestar las afirmaciones falsas en las elecciones de 2020 se están erosionando, mientras que las herramientas y sistemas que las crean y difunden no hacen más que fortalecerse.
Muchos estadounidenses, alentados por Trump , han seguido impulsando la idea de que no se puede confiar en las elecciones en todo Estados Unidos. La mayoría de los republicanos (57%) cree que el demócrata Joe Biden no fue elegido presidente legítimamente en noviembre de 2020, cuando venció a Trump. Este desató una feroz campaña de deslegitimación contra los resultados, mientras sus abogados presentaban decenas de recursos de queja, que fueron todos desechados por las autoridades electorales.
La IA generativa, una herramienta temible
Acá entra en escena con fuerza la nueva tecnología de la Inteligencia Artificial (IA) generativa, como Chat GPT, que ha abaratado y facilitado mucho la difusión del tipo de información falsa que puede engañar a los votantes e influir en las elecciones. Y las empresas de redes sociales que alguna vez invirtieron mucho en corregir estos peligros han cambiado sus prioridades. California acaba de advertir a X, ex Twitter, para que modere con más seriedad los contenidos.
“Espero un tsunami de desinformación”, afirma Oren Etzioni, experto en IA y profesor emérito de la Universidad de Washington. “No puedo probarlo. Espero que se demuestre que estoy equivocado. Pero los ingredientes están ahí y estoy completamente aterrorizado”.
Los llamados "deepfakes" con la IA se generalizan. Las imágenes y videos manipulados de las elecciones no son nada nuevo, pero 2024 será la primera elección presidencial de Estados Unidos en la que estas sofisticadas herramientas de IA, que pueden producir falsificaciones convincentes en segundos, estarán a solo unos clics de distancia.
Las imágenes , videos y clips de audio fabricados conocidos como "deepfakes" han comenzado a aparecer en avisos experimentales de campañas presidenciales. Versiones más siniestras podrían difundirse fácilmente sin etiquetas en las redes sociales y engañar a la gente días antes de las elecciones, advierte Etzioni. “Se podría ver a un candidato político como el presidente Biden siendo trasladado de urgencia a un hospital”, dijo. “Se podía ver a un candidato diciendo cosas que en realidad nunca dijo. Se podía ver una corrida bancaria. Se podían ver bombardeos y violencia que nunca ocurrieron”.
El antecedente argentino
Estas falsificaciones ya se vieron en la campaña electoral argentina reciente, en la que un candidato Javier Milei apareció afirmando, con su voz inconfundible, que de ser presidente, decretaría un "día de la purga", en el que cada ciudadano podría asesinar impunemente a quien le parezca. Era obviamente una falsificación extrema, pero el video en sí estaba hecho con gran profesionalismo y circuló intensamente en las redes en días decisivos de la campaña para el balotaje. Milei, de todas formas, ganó holgadamente a Sergio Massa, por 55,6% a 44%.
Las falsificaciones de alta tecnología ya han afectado las elecciones en todo el mundo, señala al respecto Larry Norden, director senior de elecciones y programa gubernamental del Centro Brennan para la Justicia. Apenas unos días antes de las recientes elecciones en Eslovaquia , grabaciones de audio generadas por IA se hicieron pasar por un candidato liberal que discutía planes para aumentar los precios de la cerveza y manipular las elecciones. Los verificadores de hechos se apresuraron a identificarlos como falsos, pero de todos modos fueron compartidos como reales en las redes sociales.
Estas herramientas también podrían usarse para dirigirse a comunidades específicas y perfeccionar mensajes engañosos sobre la votación. Según los expertos, podrían parecer mensajes de texto persuasivos, avisos falsos sobre procesos de votación compartidos en diferentes idiomas en WhatsApp o sitios web falsos simulados para parecerse a los oficiales del gobierno de su área.
Frente a contenido que parece y suena real, “hemos sido programados a través de la evolución biológica para hacernos creer en la invención en lugar de la realidad", alerta la especialista en desinformación Kathleen Hall Jamieson, directora del Centro de Políticas Públicas Annenberg de la Universidad de Pensilvania. En otras palabras, nuestro ser biológico está preformateado por millones de años de evolución para creer instantáneamente en imágenes realistas acompañadas de sonidos y movimientos igualmente realistas.
Poca o ninguna legislación
Republicanos y demócratas en el Congreso y la Comisión Federal Electoral están explorando medidas para regular las tecnologías, pero no han finalizado ninguna regla o legislación . Eso ha obligado a los estados a promulgar las únicas restricciones hasta el momento sobre los deepfakes políticos de IA.
Un puñado de estados han aprobado leyes que exigen que se etiqueten los deepfakes o que prohíben los que tergiversan a los candidatos. Algunas empresas de redes sociales, incluidas YouTube y Meta, propietaria de Facebook e Instagram, han introducido políticas de etiquetado de IA. Queda por ver si podrán atrapar sistemáticamente a los infractores.
El caso de Twitter y Elon Musk
Hace poco más de un año, Elon Musk compró Twitter y comenzó a despedir a sus ejecutivos y miles de empleados, desmantelando algunas de sus funciones principales y remodelando la plataforma de redes sociales en lo que ahora se conoce como X.
Desde entonces, ha modificado su sistema de verificación , dejando a políticos y figuras públicas vulnerables a los imitadores. Ha desmantelado a los equipos que alguna vez lucharon contra la desinformación en la plataforma, dejando que la comunidad de usuarios se modere a sí misma. Y ha restablecido las cuentas de teóricos de la conspiración y extremistas que anteriormente estaban prohibidas, incluido Donald Trump. Por todo esto, este viernes, California advirtió a X que debe mejorar mucho su mecanismo de control y moderanción de "tuits".
Los cambios que introdujo Musk fueron aplaudidos por muchos conservadores, que dicen que los intentos anteriores de moderación de Twitter equivalían a una censura. Pero sus adversarios argumentan que lo que alguna vez fue un recurso defectuoso pero útil para noticias e información electoral es una cámara de resonancia no regulada que amplifica el discurso de odio y la desinformación.
YouTube y Meta, también
Twitter era una de las plataformas “más responsables”, y mostraba su voluntad de probar funciones que reducen la desinformación, incluso a expensas de la participación, dice Jesse Lehrich, cofundador de Accountable Tech, un grupo de vigilancia de redes sin fines de lucro. "Obviamente ahora están exactamente en el otro extremo del espectro", lamenta sobre la irrupción de Elon Musk, y agregó que cree que los cambios de la compañía han dado a otras plataformas cobertura para relajar sus políticas. X no respondió preguntas enviadas por correo electrónico por parte de Associated Press, solo envió una respuesta automática.
En el período previo a 2024, X, Meta y YouTube eliminaron juntos 17 políticas que protegían contra la desinformación, según un informe de Free Press, una organización sin fines de lucro que aboga por los derechos civiles en la tecnología y los medios. En junio, YouTube anunció que, si bien seguiría regulando el contenido engañoso sobre las elecciones, dejaría de eliminar contenido que afirmara falsamente que las elecciones de 2020 u otras elecciones anteriores se vieron empañadas por “fraude, errores o fallas generalizadas”. La plataforma dijo que la política era un intento de proteger la capacidad de "debatir abiertamente ideas políticas, incluso aquellas que son controvertidas o se basan en suposiciones refutadas".
Lehrich dijo que incluso si las empresas de tecnología quieren evitar eliminar contenido engañoso, “hay muchas formas neutrales en cuanto al contenido” en las que las plataformas pueden reducir la propagación de desinformación, desde etiquetar artículos hasta hacer más difícil compartir contenido sin revisarlo. primero.
X, Meta y YouTube también han despedido a miles de empleados y contratistas desde 2020, algunos de los cuales eran moderadores de contenido. La reducción de estos equipos, que muchos atribuyen a la presión política, “prepara el escenario para que las cosas sean peores en 2024 que en 2020”, se alarma Kate Starbird, experta en desinformación de la Universidad de Washington.
Meta explica en su sitio web que cuenta con unas "40.000 personas dedicadas a la seguridad" y que mantiene "la red independiente de verificación de datos más grande de cualquier plataforma". También suele eliminar redes de cuentas falsas de redes sociales que pretenden sembrar discordia y desconfianza. "Ninguna empresa de tecnología hace más o invierte más para proteger las elecciones que Meta, no sólo durante los períodos electorales sino en todo momento", dice el comunicado de Meta.
Ivy Choi, portavoz de YouTube, dijo que la plataforma está "muy invertida" en conectar a las personas con contenido de alta calidad en YouTube, incluso para las elecciones. Señaló los paneles de información y recomendaciones de la plataforma, que brindan a los usuarios noticias electorales confiables, y dijo que la plataforma elimina contenido que engaña a los votantes sobre cómo votar o que fomenta la interferencia en el proceso democrático.
El auge de TikTok y otras plataformas menos reguladas como Telegram, Truth Social y Gab también ha creado más "silos de información en línea" donde pueden difundirse afirmaciones infundadas. Algunas aplicaciones que son particularmente populares entre las comunidades de color e inmigrantes, como WhatsApp y WeChat, dependen de chats privados, lo que dificulta que los grupos externos vean la información errónea que puede difundirse.
“Me preocupa que en 2024 veamos narrativas falsas arraigadas y recicladas similares, pero tácticas más sofisticadas”, dijo Roberta Braga, fundadora y directora ejecutiva del Instituto de Democracia Digital de las Américas. "Pero en el lado positivo, tengo la esperanza de que haya más resiliencia social ante esas cosas".
El factor Trump
El estatus de Trump como favorito en las primarias presidenciales republicanas es una prioridad para los investigadores de la desinformación, quienes temen que exacerbe la información errónea sobre las elecciones y conduzca potencialmente a un "vigilantismo electoral" o a la violencia. El expresidente todavía afirma falsamente haber ganado las elecciones de 2020. Fue esta afirmación martillante la que movilizó a los trumpistas más furiosos hacia Washington en enero de 2021, lo que terminó en el asalto al Capitolio.
“Donald Trump claramente ha abrazado y avivado las llamas de afirmaciones falsas sobre fraude electoral en el pasado”, dice Starbird. "Podemos esperar que continúe usando eso para motivar a su base". Sin pruebas, Trump ya ha preparado a sus seguidores para que esperen fraude en las elecciones de 2024, instándolos a intervenir para “proteger el voto” y evitar la manipulación de votos en diversas ciudades demócratas. Trump tiene un largo historial de sugerir que las elecciones están amañadas si él no gana y lo hizo antes de votar en 2016 y 2020.
El continuo desgaste de la confianza de los votantes en la democracia puede conducir a la violencia, advierte Bret Schafer, miembro de la organización no partidista Alliance for Securing Democracy, que rastrea la información errónea. "Si la gente finalmente no confía en la información relacionada con una elección, la democracia simplemente deja de funcionar", afirmó. "Si una campaña de desinformación es lo suficientemente efectiva como para que un porcentaje suficientemente grande de la población estadounidense no crea que los resultados reflejan lo que realmente sucedió, entonces el 6 de enero probablemente parecerá un acto de preparación y precalentamiento".