Entre las imágenes de casas bombardeadas y calles devastadas en Gaza, algunas están destrozadas por el horror absoluto que muestran: los bebés ensangrentados y abandonados.
Estas imágenes, vistas millones de veces en línea desde que comenzó la guerra deepfakes (audio, imágenes o vídeos realistas manipulados o generados digitalmente) creados con inteligencia artificial. Si prestas atención, puedes ver las huellas: las cosas que giran salvajemente con ojos que brillan con una luz antinatural, todas las señales reveladoras del inglés digital.
Sin embargo, la indignación contra las imágenes es completamente real.
Las imágenes de la guerra entre Israel y Hamás han ilustrado vívida y dolorosamente el potencial de la inteligencia artificial (IA) como herramienta de propagandaSe utiliza para crear imágenes realistas de matanzas.
Desde que comenzó la guerra, se han utilizado imágenes financiadas y alteradas digitalmente en las redes sociales para hacer afirmaciones falsas sobre la víctima o la responsabilidad de la víctima. Engañar a la gente sobre atrocidades que nunca suceden.
Si bien la mayoría de las afirmaciones falsas que circulan en línea sobre la guerra no son necesarias para su creación y para proporcionar fuentes más convencionales, los avances tecnológicos se están produciendo con una frecuencia cada vez mayor y con cierta supervisión. El potencial de la IA para transformarse en otra forma de arma es claro y proporciona información sobre lo que se venderá en futuros conflictos, elecciones y otros eventos importantes.
«Será un poco más grande que eso», dijo Jean-Claude Goldenstein, director ejecutivo de CREOpoint, una empresa de tecnología con sede en San Francisco y París que utiliza inteligencia artificial para evaluar la validez de las afirmaciones en línea.
Impacto emocional
La empresa creó una base de datos de los deepfakes más virales que se distribuyeron en Gaza. “Imágenes, vídeo y audio: con la generación generativa habrá una escalada que nadie ha visto”, afirma Goldenstein.
En algunos casos, se han readaptado fotografías de distintos conflictos o desastres y se han convertido en otras nuevas. Es decir, utilizó programas de IA generativa para crear imágenes desde cero, como un bebé feliz en medio de los combates por un bombardeo que se volvió viral en los primeros días del conflicto.
Otros ejemplos de imágenes generadas por IA incluyen videos que suponen ataques con misiles israelíes, tanques avanzando junto a aldeanos arruinados o familias que buscan sobrevivir en la desolación.
En muchos casos, Las imágenes falsas están diseñadas para provocar una fuerte respuesta emocional. para incluir bebés, niños y familias. En los primeros días de la guerra, los partidarios de Israel, como Hamás, afirmaron que el otro lugar había sido víctima de niños y bebés. Los deepfakes de bebés llorando proporcionaron una “prueba” fotográfica que rápidamente se presentó como un ensayo.
Los propagandistas que crean este tipo de imágenes son capaces de despertar los pensamientos e impulsos más profundos de la gente, dijo Imran Ahmed, director general del Centro para Contrarrestar el Odio Digital, una organización sin multas por fines de lucro. quien rastreado la desinformación de la guerra. Hay un deepfake de un bebé o una imagen real de un bebé de otro conflicto, el impacto emocional en el espectador es el mismo.
Debido a que la imagen es más vil, es más probable que un usuario la recoja y la comparta, difundiendo propaganda con más información errónea no relacionada.
“Ahora ocurre lo mismo con la gente: es la foto de un bebé”, dijo Ahmed. «La desinformación está diseñada para que usted participe en ella». El contenido también fue generado por AI, que comenzó a financiar después de que Rusia invadió Ucrania en 2022. Un video editado muestra al presidente ucraniano Volodymyr Zelensky ordenando a los ucranianos que se encontraron. Estas afirmaciones han seguido circulando incluso durante la semana pasada, lo que sugiere que puede haber información errónea e información falsa cuando se desacredita fácilmente.
Inteligencia artificial y fake news en las campañas electorales
Cada nuevo conflicto o cargo electoral temporal ofrece nuevas oportunidades para que los promotores de la desinformación deseen los últimos avances en IA. Esto significa que muchos expertos en inteligencia artificial y políticos sabios en el tema los próximos años, cuando varios países celebren elecciones importantesincluidos Estados Unidos, India, Pakistán, Ucrania, Taiwán, Indonesia y México.
El riesgo de que la inteligencia artificial y las redes sociales puedan usarse para difundir las ideas de los votantes de Estadounid ha alarmado a los legisladores de otros partidos en Washington. En una audiencia reciente sobre delitos de deepfake, el representante estatal estadounidense Gerry Connolly, demócrata de Virginia, dijo que Estados Unidos debe revertir la financiación para el desarrollo de herramientas de inteligencia artificial diseñadas para contrarrestar contenidos peligrosos.
«Nosotros, como nación, deberíamos hacer esto bien», dijo Connolly.
En todo el mundo, varias nuevas empresas tecnológicas trabajan en nuevos programas que pueden detectar deepfakes, colocar marcas de agua en imágenes para demostrar su origen o examinar texto para verificar cualquier afirmación inscrita que pueda insertar la IA.
“La próxima vez la IA será: ¿Cómo se puede comprobar qué contenido existe? ¿Cómo se puede detectar información incorrecta o falsa? “¿Cómo se puede analizar el texto para determinar si es confiable? dijo Maria Amélie, cofundadora de Factiverse, una empresa noruega que creó un programa de inteligencia artificial que puede revisar contenido debido a imprecisiones o errores introducidos por otros programas de inteligencia artificial.
Estos programas serán de interés inmediato para educadores, publicaciones periódicas, analistas financieros y otras personas interesadas en eliminar billetes falsos, plagio o fraude. Programas similares también están diseñados para detectar fotografías o vídeos manipulados.
Si bien esta tecnología es prometedora, se está utilizando IA para ayudarle a hacerlo de manera eficiente, según David Doermann, un científico informático que dirige un proyecto de la Agencia de Proyectos de Investigación Avanzada de Defensa) para responder a las medidas de seguridad nacional que plantan imágenes manipuladas por AI.
Doermann, que ahora es profesor en la Universidad de Buffalo, dijo que estaba respondiendo eficazmente a los desafíos políticos y sociales que han lanzado la desinformación generada por la IA y que necesitan mejores tecnologías, como mejores regulaciones, estándares voluntarios de la industria y grandes retrocesos en los programas de alfabetización digital. para ayudar a los usuarios de Internet a encontrar formas de distinguir la verdad de la fantasía.
«Cada vez que lanzamos una herramienta que detecta esto, nuestros adversarios pueden usar IA para ocultar esta serie de pruebas», dijo Doermann. “Detectar y eliminar estos elementos porque esa no es la solución. Necesitamos tener una solución mucho mayor”.