
Por: Max Greenwood
Un anuncio de Fannie Mae mostraba una versión clonada mediante inteligencia artificial de la voz del presidente Donald Trump.
Un vídeo digital del Comité Senatorial Nacional Republicano utilizó una versión de Chuck Schumer generada por IA para verbalizar una cita que el líder de la minoría del Senado dio a Punchbowl News.
Y en Massachusetts, un candidato republicano a gobernador publicó un video en Instagram de un anuncio de radio falso que incluía una versión generada por IA de la voz de la gobernadora Maura Healey.
Los asesores políticos están lidiando con la última tendencia en publicidad política asistida por inteligencia artificial: el uso de esta tecnología emergente para imitar las voces y la apariencia de simpatizantes, rivales y críticos, en muchos casos sin el permiso de la persona en cuestión.
En la entrega de los premios Reed, celebrada la semana pasada en Charleston, Carolina del Sur, un panel de demócratas dio su opinión sobre esa tendencia, y algunos advirtieron que ha abierto una nueva frontera para la desinformación en el mundo de las comunicaciones políticas.
Si bien algunos estados han tomado medidas para establecer normas de divulgación en torno a los anuncios políticos que utilizan inteligencia artificial, argumentan que la tecnología sigue estando en gran medida sin regular, lo que permite a las campañas y a los comités crear y distribuir contenido éticamente dudoso o engañoso.
En el caso del anuncio de Fannie Mae, la administración Trump había autorizado el uso de inteligencia artificial para clonar la voz del presidente. Sin embargo, el video del NRSC, que incluía la voz y la imagen de Schumer, se creó sin el permiso del demócrata neoyorquino. Y aunque ese video mostraba las palabras «GENERADO POR IA» en la esquina inferior derecha, Megan Sullivan, socia de GtP Media, afirmó que eso no era suficiente.
«Creo que si existiera algún tipo de regulación o la posibilidad de poner una etiqueta generada por IA a algo así, no lo harían», dijo Sullivan durante una mesa redonda en el Reeds. «No lo respaldarían. Están encantados de decir que es cierto. De hecho, lo dijo por escrito. Pero si tuvieran que ponerle la etiqueta, no lo harían».
Nicolas Magalhaes, vicepresidente de creatividad de vídeo en SBDigital, afirmó estar «sumamente preocupado por perder la credibilidad de la propia voz como herramienta de autoría». Según él, el vídeo de Schumer del NRSC fue particularmente problemático porque utilizó su imagen y voz sin su permiso.
“ Llevamos muchísimo tiempo en la historia de la humanidad recortando lo que la gente decía y remezclándolo hasta la saciedad ”, dijo Magalhaes durante el mismo panel de discusión. “Pero creo que, al menos, ellos pronunciaron esas palabras de verdad”.
“Creo que algo se está perdiendo ahí”, añadió. “No sé muy bien cómo implementar reglas que realmente solucionen ese problema”.
Existe una preocupación generalizada en el ámbito político y en los medios de comunicación sobre la proliferación de los llamados «deepfakes», imágenes, vídeos o audios generados por IA. Sin embargo, usar la IA para verbalizar una cita de un simpatizante o rival político se sitúa en un punto intermedio.
Reed Elman, vicepresidente sénior de campañas de HGCreative, lo bautizó como el «deep-not-so-fake» (Deep Fakes ya no tan falsos) y predijo que habrá más en los meses y años venideros.
“Creo que sin duda veremos más de esas locuciones sintéticas, en las que se utilizaban citas reales”, dijo Elman en el panel de los premios Reed.

Más historias
¿Porqué perdió el progresismo en Costa Rica?.-Por Amij Majchel
El poder ya eligió quien sobra.- Por Yessica De Lamadrid
Anuncia Monreal periodo extraordinario para modificar fecha de la Elección Judicial