Las etiquetas y emojis que usan para desinformar con IA sobre guerras, protestas y otras noticias

En tres de los sucesos más importantes del primer semestre de 2025: los incendios forestales en Los Ángeles, las redadas migratorias en esa misma ciudad y, más recientemente, en el marco del conflicto Israel - Irán, en elDetector hemos chequeado, al menos, una veintena de imágenes y videos generados con inteligencia artificial (IA) que buscan desinformar.
La desinformación se suele colar entre el flujo de información real que circula en internet, especialmente cuando hay picos noticiosos sobre guerras, protestas u otros eventos de gran alcance. A simple vista, es muy difícil hacer la distinción entre lo que es verdadero y lo que es falso.
“Los chatbots de IA y los generadores de imágenes producen texto e imágenes a una escala sin precedentes, y tienen el potencial de impulsar la propagación de desinformación. Prepárese para encontrar aún más información [afirmaciones] con menos transparencia sobre su origen”, afirma el News Literacy Project.
Esa no es una advertencia aislada: recuerda que no todo lo que circula en redes sociales, o llega por mensajería instantánea, es cierto.
¿Quieres verificar algo? Envíalo a nuestro chat de WhatsApp +1 (305) 447-2910 o pincha aquí:
Lo digital se mezcla con emocionalidad y sensacionalismo
El Reuters Institute, un centro dedicado a explorar el futuro del periodismo, advierte que “ahora es posible generar o alterar una amplia gama de contenido multimedia mediante inteligencia artificial, a veces imitando a personas reales, a menudo de forma muy convincente”.
Un informe del Servicio de Vigilancia y Protección contra las Injerencias Digitales Extranjeras (VIGINUM), dependiente del gobierno francés, detalla que la IA ofrece a los desinformadores la posibilidad de difundir contenido a gran escala, y su uso para ilustrar narrativas con imágenes impactantes o simbólicas.
De lo que hemos verificado en elDetector, los contenidos de IA apelan a la emocionalidad y el sensacionalismo, como la supuesta destrucción del icónico letrero de Hollywood durante los incendios de enero de 2025; avatares creados digitalmente anunciando falsas medidas migratorias en medio de la crisis por las redadas ordenadas por el gobierno federal; o la aparente declaración de un soldado israelí diciendo que “todo desapareció” por los ataques iraníes.
“A medida que la IA continúa evolucionando y mejorando, necesitamos estrategias para detectar artículos, vídeos e imágenes falsos que no se basen únicamente en su apariencia”, explica en un artículo Julia Feerrar, bibliotecaria y educadora de alfabetización digital en Virginia Tech, también conocido como el Instituto Politécnico y Universidad Estatal de Virginia.
Existen unas recomendaciones básicas de los expertos para que la desinformación no gane terreno:
- Reposa la emoción que te genera la afirmación, foto o video que te llegó o que viste en redes sociales.
- Resiste el impulso de compartir de inmediato.
- Lee el contenido completo.
- Investiga el origen.
- Revisa la fecha de publicación.
- Observa quiénes son los supuestos voceros.
- Reconoce formatos sensacionalistas o amarillistas que busquen llamar la atención.
A qué estar atentos: etiquetas ocultas y emojis distractores
En casi una veintena de publicaciones sobre los incendios en Los Ángeles, California; las redadas migratorias en esa misma ciudad, y ahora el conflicto Israel - Irán que hemos verificado en elDetector, y que han resultado ser IA, hemos detectado algunos patrones de cómo estas creaciones buscan camuflarse.
Partimos de un ejemplo cercano, relacionado con la crisis entre Israel e Irán: la mayoría no etiqueta correctamente que un video o imagen fue generado con IA (ver cuadro magenta), mientras que algunos esconden la identificación en las etiquetas o hashtags, muy discretamente (ver cuadro amarillo) en espacios que la gente no suele revisar; y usan frases superpuestas en el video que, generalmente, aluden al sensacionalismo (ver cuadro verde).
También se incluyen avatares (de los animados o de los de IA) y emojis (ver cuadros rojos) para entorpecer la detección a través de la búsqueda inversa de imágenes en Google Lens, Yandex o Bing; complicar el análisis con herramientas que detectan IA; y muchas veces también para cubrir la fuente original de las imágenes y dificultar su rastreo.
Los expertos, ante la proliferación de la IA, recomiendan estar atentos a los detalles, ya que la IA todavía tiene fallas al momento de generar contenido: cosas que parecen muy exageradas, desproporciones en partes del cuerpo, bordes borrosos, discontinuidades en la imagen, piezas que parecen estar en el aire, entre otros.
Si una publicación en redes sociales o un contenido que te llega a través de mensajería instantánea tiene una mezcla de frases sensacionalistas, como “¡Última hora!”, “No quieren que lo sepas”, “Información importante” + emojis + algún elemento gráfico disonante como, por ejemplo, detalles de fondo, falta de coherencia, sombras, bordes difusos o cambios bruscos en la imagen = es posible que estés ante una desinformación.
Envía un contenido que te genere dudas si es IA o no al chatbot de elDetector
Las unidades de verificación de datos son una fuente confiable ante las afirmaciones que circulan en redes sociales. En elDetector de Univision Noticias estamos haciendo un seguimiento constante a las afirmaciones sobre deportaciones, supuestas medidas migratorias e imágenes y videos que circulan en redes sociales sobre otros temas noticiosos, como el conflicto en Medio Oriente. Para ello, contamos con un chatbot al que puedes enviar un contenido de ese tipo, o de cualquier otro, que te genere cualquier duda, y el equipo lo verificará por ti. Envía al +1 (305) 447-2910 lo que quieras que verifiquemos.
Lee aquí cómo escogemos y asignamos nuestras etiquetas en elDetector.
elDetector opera de forma independiente con el financiamiento de instituciones que puedes ver aquí y que no tienen ningún poder de decisión sobre nuestro contenido. Nuestra línea editorial es autónoma.
¿Viste algún error o imprecisión? Escríbenos a eldetector@univision.net o a través de nuestra cuenta de X (Twitter) @eldetectoruni. Tras verificar tu solicitud, haremos la corrección que corresponda en un plazo no mayor de 48 horas.
Lee aquí nuestra metodología y política de corrección. Seguimos el Código de Principios de la International Fact-Checking Network (IFCN), que puedes ver aquí traducido al español. Escribe a la IFCN llenando este formulario si consideras que no estamos cumpliendo ese código.
Envíanos al chat de WhatsApp +1 (305) 447-2910 lo que quieras que verifiquemos: