Meta afirma que el contenido generado por IA representó menos del 1% de la desinformación electoral
Al comienzo del año, existían preocupaciones generalizadas sobre cómo la IA generativa podría ser utilizada para interferir en las elecciones globales, propagando propaganda y desinformación. Sin embargo, al final del año, Meta afirma que esos temores no se materializaron, al menos en sus plataformas, ya que compartió que la tecnología tuvo un impacto limitado en Facebook, Instagram y Threads.
La empresa indica que sus hallazgos se basan en el contenido relacionado con elecciones importantes en EE. UU., Bangladés, Indonesia, India, Pakistán, el Parlamento de la UE, Francia, el Reino Unido, Sudáfrica, México y Brasil.
“Aunque hubo casos confirmados o sospechosos de uso de IA en este sentido, los volúmenes fueron bajos y nuestras políticas y procesos existentes demostraron ser suficientes para reducir el riesgo en torno al contenido generado por IA”, escribió la compañía en una publicación de blog. “Durante el periodo electoral en las principales elecciones mencionadas, las calificaciones sobre contenido de IA relacionado con elecciones, política y temas sociales representaron menos del 1% de toda la desinformación verificada.”
Meta destaca que su generador de imágenes Imagine AI rechazó 590,000 solicitudes para crear imágenes del presidente electo Trump, el vicepresidente electo Vance, la vicepresidenta Harris, el gobernador Walz y el presidente Biden en el mes previo al día de las elecciones. Esto se hizo para evitar que las personas crearan deepfakes relacionados con las elecciones.
Además, la empresa encontró que las redes de cuentas coordinadas que intentaban difundir propaganda o desinformación “solo lograron avances incrementales en productividad y generación de contenido utilizando IA generativa.”
Meta afirma que el uso de IA no obstaculizó su capacidad para eliminar estas campañas de influencia encubiertas, ya que su enfoque se centra en el comportamiento de estas cuentas, no en el contenido que publican, independientemente de si fue creado con IA o no.
La gigante tecnológica también reveló que desmanteló alrededor de 20 nuevas operaciones de influencia encubierta en todo el mundo para prevenir la interferencia extranjera. Meta señala que la mayoría de las redes que interrumpió no tenían audiencias auténticas y que algunas de ellas usaban “me gusta” y seguidores falsos para parecer más populares de lo que realmente eran.
Además, Meta apuntó a otras plataformas, señalando que videos falsos relacionados con las elecciones en EE. UU. vinculados a operaciones de influencia de origen ruso a menudo se publicaron en X y Telegram.
“Al hacer balance de lo que hemos aprendido durante este año notable, seguiremos revisando nuestras políticas y anunciaremos cualquier cambio en los próximos meses,” escribió Meta.
Meta, IA, desinformación