¿Está manipulado el video de la lancha atacada por EEUU, como dice el gobierno de Venezuela? Esto es lo que sabemos

El presidente Donald Trump anunció el martes 2 de septiembre de 2025 que Estados Unidos mató a 11 personas al hacer explotar una embarcación con drogas que zarpó desde Venezuela. Posteriormente, y para reforzar su afirmación, publicó en sus redes sociales y en las de la Casa Blanca, el video “sin clasificar” en el que supuestamente se ve el momento del suceso. En cuestión de horas, el ministro de comunicación e información de Venezuela, Freddy Náñez, replicó en redes socialesque Gemini (la inteligencia artificial de Google) había determinado que las imágenes habían sido creadas con inteligencia artificial (IA).
Las escenas de la discordia: un navío en medio del mar que va surcando las olas; otra toma desde arriba en donde se ve una embarcación, que casi enseguida se prende en llamas, y entre estridencias y luminosidad, la visibilidad se vuelve difusa.
“Parece que Marco Rubio sigue mintiéndole a su presidente: luego de meterlo en un callejón sin salida, ahora le da como 'prueba' un video con IA (así comprobado)”, escribió el funcionario venezolano en X (antes Twitter), refiriéndose al secretario de Estado estadounidense.
Sin embargo, hay varios elementos por los que es muy complejo determinar si el video es una creación con IA, como, por ejemplo, que una sola herramienta no puede llegar a un resultado concluyente sin que se le considere sesgado o que varias IA muestran respuestas distintas a medida que hay más información disponible y que más personas les consultan.
Acá lo que sabemos.
¿Quieres verificar algo? Envíalo a nuestro chat de WhatsApp +1 (305) 447-2910.
No hay evidencias de manipulación
Las relaciones diplomáticas entre Caracas y Washington han pasado por diferentes episodios de tensión en las últimas semanas: desde que Estados Unidos anunció que envió buques militares para combatir el “narcotráfico” en el Mar Caribe, hasta que duplicó la recompensa por la captura de Nicolás Maduro. El anuncio del ataque al navío que zarpó de Venezuela, según el gobierno de Trump, se suma al clima inestable.
De acuerdo con un informe detallado, supuestamente generado por Gemini, que presentó el ministro de comunicación de Venezuela, el video de la explosión muestra “un barco que es atacado y luego explota de una forma que parece una animación simplificada, casi de dibujos animados, en lugar de una representación realista de una explosión. Contiene una falta de detalle realista, algo habitual en los videos generados por IA”.
Un análisis independiente de elDetector, con una herramienta especializada y gratuita de detección de deepfakes o creaciones con IA, arrojó que no hay evidencias de intervención digital. Hive Moderation analizó el video y determinó: “En general, no es probable que el video contenga contenido generado por IA o deepfake”.
Mientras que BBC Verify lo revisó con SynthID, el detector de IA de Google que está en fase de prueba disponible solo para algunos usuarios, y la herramienta tampoco encontró elementos que señalaran que fue creado usando la IA de Google.
En elDetector, sin embargo, siempre aclaramos que estas herramientas dedetección no son 100% fiables, pero junto a la observación de la imagen y la investigación complementaria, en muchos casos permiten afirmar o desmentir que una imagen fue generada con IA.
Mark Finlayson, profesor asociado de Ciencias de la Computación en la Universidad Internacional de Florida (FIU), respondió por correo electrónico a elDetector que confiar en un chatbot (como lo es Gemini) para determinar si un video está generado por IA no es acertado.
“Los chatbots no están especializados ni entrenados para detectar si un video es generado por IA. Lo que hacen es completar palabras. No examinan el video en detalle. En igualdad de condiciones, solo acertarán la mitad de las veces. Ahora bien, Gemini podría acertar la respuesta por una buena razón; por ejemplo, alguien realizó un análisis forense minucioso (basado en IA o de otro tipo) del video, determinó su autenticidad (o no) y luego publicó su análisis”, señaló el experto.
Mientras que específicamente respecto al video del bote que explota en el mar, la directora de investigación de GetReal Security, Emmanuelle Saliba, respondió a BBC Verify : “En este momento no veo ninguna evidencia de generación de IA, pero no podemos descartar manipulación. Como pueden ver, parte de la información ha sido omitida o difuminada en el video”.
Los chats de IA cambian sus respuestas
En junio de 2025, se generó también una polémica luego de que el gobernador de California, Gavin Newsom, publicara unas fotografías de funcionarios de la Guardia Nacional desplegados por el gobierno de Trump en Los Ángeles. Se afirmaba en redes sociales que no eran unas fotos actuales, argumentando que Grok, la IA de X había respondido que eran de soldados en Afganistán, en 2021. Grok cambiaba sus respuestas a medida que más usuarios le consultaban, y poco después decía tener una certeza de 9/10 de que las imágenes eran de 2025, aunque admitiendo: “No puedo descartar por completo la posibilidad de que haya errores”.
En el caso del video de la explosión de la embarcación publicado por Trump, el ministro venezolano Ñáñez compartió la respuesta que asegura le dio Gemini, pero en elDetector hicimos la misma pregunta a esa IA pocas horas después y nos respondió: “Este video parece ser real. Múltiples organizaciones de noticias, incluyendo Newsweek, Fox News, The Guardian y el Miami Herald han reportado sobre este video y lo han compartido”. “Las imágenes coinciden con grabaciones militares o de drones de vigilancia que usan imágenes térmicas”, agregó.
Además, es importante destacar que Gemini y Grok (al igual que ChatGPT) son asistentes o chats que funcionan con IA pero no herramientas específicas de detección de contenidos generados digitalmente, como sí lo son Hive Moderation o SynthID, que mencionamos más arriba. Aunque ninguna es 100% fiable por sí misma, las últimas fueron entrenadas especialmente para detectar IA –por lo que se esperaría que pudieran ser más fiables– y las primeras son más generalistas.
¿Qué dicen los estudios sobre la fiabilidad de la IA?
En cualquier caso, diferentes estudios no concluyentes dan cuenta de que la IA está en aprendizaje y que en ese sentido puede generar respuestas falsas o engañosas. “Las herramientas de IA generativa también pueden generar resultados engañosos. Se ha descubierto que herramientas de IA como ChatGPT, Copilot y Gemini proporcionan a los usuarios datos falsos que parecen auténticos. Estas inexactitudes son tan comunes que se han ganado su propio nombre: las llamamos 'alucinaciones'”, explica el Centro de Tecnologías de enseñanza y aprendizaje del MIT.
La Universidad de Maryland explica que un modelo típico de IA no evalúa si la información que proporciona es correcta. “Su objetivo [de la IA], al recibir una indicación, es generar la secuencia de palabras que considera más probable para responder a dicha indicación. A veces, esto resulta en una respuesta correcta, pero a veces no, y la IA no puede interpretar ni distinguir entre ambas. La distinción depende de usted”.
De acuerdo con el análisis de la Universidad de Maryland, la IA se puede equivocar de muchas maneras como, por ejemplo, dar una respuesta equivocada; omitir información por error; inventar personas, historias y artículos completamente falsos; y mezclar realidad con ficción.
Google admite las limitaciones conocidas de Gemini: respuestas inexactas, sesgos, las respuestas podrían no mostrar una variedad de puntos de vista, esta IA podría sugerir que tiene sentimientos u opiniones, “Gemini algunas veces puede generar respuestas [que presenta] de forma confiada y convincente, pero que contienen información imprecisa o engañosa”, se lee.
En el caso del video de la supuesta embarcación venezolana cargada de drogas que el gobierno de Trump dice haber atacado en el mar, con la información disponible al momento de publicar esta nota, no podemos afirmar con seguridad que sea real o manipulado. Lo que sí podemos destacar, también con base en la respuesta de expertos, es que no se puede confiar en el resultado de una única herramienta de IA para determinar si un contenido fue generado digitalmente o no (generalmente es necesaria la observación humana detallada, el uso de varios detectores de IA y una investigación complementaria para poder llegar a conclusiones).
Lee aquí cómo escogemos y asignamos nuestras etiquetas en elDetector.
elDetector opera de forma independiente con el financiamiento de instituciones que puedes ver aquí y que no tienen ningún poder de decisión sobre nuestro contenido. Nuestra línea editorial es autónoma.
¿Viste algún error o imprecisión? Escríbenos a eldetector@univision.net o a través de nuestra cuenta de X (Twitter) @eldetectoruni. Tras verificar tu solicitud, haremos la corrección que corresponda en un plazo no mayor de 48 horas.
Lee aquí nuestra metodología y política de corrección. Seguimos el Código de Principios de la International Fact-Checking Network (IFCN), que puedes ver aquí traducido al español. Escribe a la IFCN llenando este formulario si consideras que no estamos cumpliendo ese código.
Envíanos al chat de WhatsApp +1 (305) 447-2910 lo que quieras que verifiquemos.