Los anunciantes políticos deberán informar a Meta cuando hayan utilizado IA o manipulación digital en anuncios que se publiquen en Facebook e Instagram para advertir a usuarios sobre deepfakes.
Hacer que mediante inteligencia artificial (IA) una persona exprese artificialmente discursos es denominado deepfake. Si bien la práctica es una prueba más de los sorprendentes avances de la tecnología y resulta muy útil en la industria de las comunicaciones, pone en riesgo la veracidad que se le puede atribuir a la información compartida en internet. Ante esta situación, Meta espera controlar estos casos en la comunicación política de aquí en adelante.
Si bien la compañía dueña de Instagram y Facebook ya cuenta con políticas sobre deepfakes, señala que lo nuevo va un paso más allá. Desde enero, los anuncios relacionados con política, elecciones y temas sociales estarán en la obligación de declarar cualquier imagen o video alterado digitalmente.
Para moderar que se cumpla la medida, Meta contará con verificadores de datos humanos y de inteligencia artificial. Cabe resaltar que incluirá cambiar lo que alguien ha dicho en un video, alterar imágenes o secuencias de eventos reales. Además de representar a personas que pareces reales y que no existen. Por otro lado, los usuarios serán notificados cuando los anuncios se hayan marcado como modificados digitalmente.

Las políticas de Meta para combatir deepfakes
Si bien la especificación contra las deepfakes en la comunicación política es nueva, Meta ya cuenta con medidas para regular su uso. Por ejemplo, si «probablemente pudieran engañar a una persona promedio haciéndole creer que un sujeto del video dijo palabras que no dijo».
Sin embargo, las nuevas reglas requieren que los anuncios relacionados con política, elecciones o temas sociales revelen cualquier tipo de alteración digital. Es decir, realizada por un humano o por una IA, antes de que el anuncio se publique en Facebook o Instagram. Además, advierte que si los anunciantes no hacen la declaración: «rechazaremos el anuncio y la falta repetida de divulgación puede resultar en sanciones contra el anunciante».
Como se recuerda, imágenes generadas con IA han resultado viralizarse a nivel mundial. Por ejemplo, las imágenes del expresidente estadounidense Donald Trump arrestado falsamente. Las medidas se dan en el marco de importantes elecciones que se darán en 2024. En India, Indonesia, Estados Unidos y Reino Unido. Además de Rusia, Sudáfrica y la UE también tienen elecciones previstas para el próximo año.
