Los videos comenzaron a circular en las redes sociales a principios de noviembre: soldados ucranianos parecían llorar y rendirse en el frente.
A simple vista, parecen reales, reflejando muchos de los videos que han surgido en la región durante años de conflicto. Pocos presentan indicios de manipulación.
Pero Aleksei Gubanov, un popular transmisor en vivo ruso que ahora vive en Nueva York, inmediatamente reconoció algo sospechoso: su propio rostro.
“Al principio no me lo tomé en serio, pero pronto me di cuenta de lo rápido que crecía el número de visualizaciones y, peor aún, de cuánta gente creía que estos videos eran reales”, dijo Gubanov sobre los videos que vio. “Decenas de miles, si no cientos de miles, de usuarios dejaron comentarios expresando sus condolencias a los supuestos soldados ucranianos que aparecían en los videos y dirigiendo su ira hacia los líderes ucranianos”.
Gubanov, quien transmite videojuegos y chatea en Twitch y huyó de Rusia debido a sus críticas al presidente Vladimir Putin, nunca ha servido en las fuerzas armadas, y mucho menos en el ejército ucraniano. Lo que sus seguidores habían denunciado fue un video generado por inteligencia artificial que usaba su imagen para difundir una falsa narrativa sobre la moral de las tropas ucranianas.
“Nos llevaron a la comisión de reclutamiento y nos enviaron aquí. Ahora nos llevan a Pokrovsk. No queremos. Por favor”, dijo Gubanov, generado por IA, en ruso, mientras vestía un uniforme con la bandera ucraniana. “¡Mamá, mamá, no quiero!”
El video es uno de los 21 videos generados por IA de soldados ucranianos revisados por NBC News en las últimas semanas que parecen haber sido creados o manipulados utilizando programas avanzados de inteligencia artificial, lo que resulta en algunos tan realistas que ofrecen pocas pistas de sus orígenes.
Pero en al menos la mitad de estos videos, un pequeño logo en la esquina lo delata: fueron creados con Sora 2, la última versión del generador de texto a video de OpenAI. Algunos de los videos generados por Sora usaron los rostros de populares streamers rusos, como Gubanov, en dramáticos deepfakes, mientras que otros muestran a grupos de soldados ucranianos rindiéndose masivamente a las fuerzas rusas.
Los que parecen haber sido generados por otras plataformas de IA también presentaban errores muy sutiles que serían difíciles de detectar para la mayoría de las personas, como versiones incorrectas o simplificadas de los uniformes y cascos que usan los soldados ucranianos. Y para los ucranianos, existe un problema evidente: la mayoría de los videos muestran a soldados hablando ruso, mientras que solo ocho de los 21 videos muestran a militares hablando ucraniano.
Los videos se difundieron en YouTube, TikTok, Facebook y X. Todos buscaban retratar a los soldados ucranianos como reacios a luchar y dispuestos a rendirse.
Parecen ser la última salva de desinformación destinada a distorsionar la percepción pública sobre la guerra de Rusia con Ucrania. Y aunque no está claro quién creó o publicó los videos, se suman a un creciente cúmulo de información falsa que se ha vuelto cada vez más sofisticada y difícil de detectar.
“Las afirmaciones falsas creadas con Sora son mucho más difíciles de detectar y desmentir. Incluso los mejores detectores de IA a veces tienen dificultades”, afirmó Alice Lee, analista de influencia rusa de NewsGuard , una plataforma independiente de datos, análisis y periodismo que identifica información fiable y engañosa en línea. “El hecho de que muchos vídeos no presenten inconsistencias visuales significa que el público podría verlos y pasarlos por alto en plataformas como TikTok, sin saber que el vídeo que acaban de ver es falso”.
OpenAI no respondió a una solicitud de comentarios sobre el papel de Sora en la creación de videos engañosos que representan zonas de conflicto específicamente, pero dijo en un correo electrónico: «La capacidad de Sora 2 para generar videos y audio hiperrealistas plantea preocupaciones importantes en torno a la semejanza, el mal uso y el engaño».
“Si bien se permite la acción cinematográfica, no permitimos violencia gráfica, material extremista ni engaños”, declaró la compañía a NBC News. “Nuestros sistemas detectan y bloquean el contenido infractor antes de que llegue al canal de Sora, y nuestro equipo de investigación desmantela activamente las operaciones de influencia”.
El vídeo generado por IA ha evolucionado rápidamente en los últimos años, pasando de ser básico y rudimentario a casi perfecto, y muchos expertos advierten cada vez más que pronto podría haber pocas maneras de distinguir fácilmente lo real de lo falso. Sora 2 de OpenAI, lanzado en octubre, es uno de los generadores de vídeo más impresionantes, y los clips generados por Sora ahora engañan a los espectadores de forma rutinaria .
Mientras tanto, la invasión rusa de Ucrania ha sido, desde sus inicios, objeto de manipulaciones que utilizan desde imágenes realistas de videojuegos hasta transmisiones en vivo falsas de zonas de guerra . Muchas de estas acciones de desinformación se atribuyeron a actores estatales rusos.
Estos videos de Sora se publican mientras las conversaciones de paz respaldadas por Estados Unidos siguen sin concluir, con aproximadamente el 75% de los ucranianos rechazando categóricamente las propuestas rusas para poner fin a la guerra, según un estudio realizado por el Instituto Internacional de Sociología de Kiev. El mismo estudio reveló que el 62% de los ucranianos está dispuesto a soportar la guerra mientras sea necesario, incluso mientras continúan los mortíferos ataques rusos contra la capital de Ucrania.
El Centro para Contrarrestar la Desinformación, parte del Consejo de Seguridad Nacional y Defensa de Ucrania, dijo a NBC News que durante el año pasado hubo un «aumento significativo en el volumen de contenido creado o manipulado mediante IA» destinado a socavar la confianza pública y el apoyo internacional al gobierno de Ucrania.
“Esto incluye declaraciones inventadas supuestamente hechas en nombre de personal o comando militar ucraniano, así como videos falsos que presentan ‘confesiones’, ‘escándalos’ o eventos ficticios”, dijo el centro en un correo electrónico, señalando que estos videos obtienen cientos de miles de visitas debido a su naturaleza emocional y sensacionalista.
Si bien OpenAI ha establecido ciertas restricciones sobre lo que se puede hacer con Sora, no está claro su eficacia. La propia empresa afirma que, si bien existen salvaguardas estratificadas, algunos comportamientos dañinos o infracciones de políticas aún podrían eludir las mitigaciones.
Un estudio de NewsGuard reveló que Sora 2 «produjo videos realistas que presentaban afirmaciones demostrablemente falsas el 80 % de las veces (16 de 20) cuando se le pidió». De las 20 afirmaciones falsas que se le proporcionaron a Sora 2, cinco fueron difundidas por operaciones de desinformación rusas.
El estudio de NewsGuard descubrió que incluso cuando Sora 2 inicialmente refutó las afirmaciones falsas, afirmando que un mensaje «infringía sus políticas de contenido», los investigadores lograron generar imágenes utilizando diferentes frases de dichos mensajes. NBC News logró producir videos similares en Sora que muestran a soldados ucranianos llorando, afirmando que fueron obligados a alistarse en el ejército o rindiéndose con los brazos en alto y banderas blancas de fondo.
Muchos generadores de videos con IA intentan etiquetar o añadir una marca de agua a sus creaciones para indicar que son generadas por computadora. OpenAI afirma que sus medidas de seguridad contra la desinformación para Sora incluyen metadatos que indican el origen del video y una marca de agua móvil presente en cada video descargado.
Pero hay maneras de eliminar o minimizar esos esfuerzos. Algunos videos de Sora parecían tener las marcas de agua en movimiento ocultas, algo que se notaba al examinarlos de cerca. Muchas aplicaciones y sitios web ahora ofrecen a los usuarios una forma de ocultar las marcas de agua de IA. Otros videos vistos por NBC News incluían marcas de agua cubiertas con texto superpuesto.
A pesar de que la política de la empresa indica que Sora AI no generará contenido que muestre “violencia gráfica”, NBC News encontró un video con la marca de agua de Sora que parece mostrar a un soldado ucraniano con un disparo en la cabeza en la línea del frente.
De los videos analizados por NBC News, todos fueron publicados en TikTok o YouTube Shorts, dos plataformas prohibidas en Rusia pero de fácil acceso para quienes viven en Europa y Estados Unidos. Algunos incluían subtítulos emocionales en varios idiomas para que los usuarios que no hablan ucraniano o ruso pudieran entenderlos.
TikTok y YouTube prohíben publicar contenido engañoso generado por IA y deepfakes en sus plataformas, y ambos proporcionan etiquetas de descripción «Generado por IA» para que los espectadores estén al tanto de las imágenes que parecen realistas.
Un portavoz de YouTube dijo que la compañía eliminó uno de los canales que habían publicado los videos después de que NBC News lo marcara, pero que otros dos videos no violaron sus políticas y, por lo tanto, permanecieron en la plataforma con una etiqueta que los describía como generados por IA.
De los videos de IA que NBC News encontró con un nombre de usuario de TikTok, todos fueron eliminados de la plataforma. Un portavoz de TikTok afirmó que, para junio de 2025, «más del 99 % del contenido infractor que eliminamos fue retirado antes de que alguien nos lo reportara, y más del 90 % fue eliminado antes de que se viera una sola vez».
A pesar de que estas publicaciones y cuentas de TikTok se eliminaron rápidamente, los videos siguen disponibles como republicaciones en X y Facebook. Ni X ni Facebook respondieron a las solicitudes de comentarios de NBC News.
Esta última campaña de desinformación llega en un momento en que los usuarios dependen más de los vídeos de las redes sociales para mantenerse informados de las últimas noticias en todo el mundo.
“Cualquier persona que consuma contenido en línea debe darse cuenta de que mucho de lo que vemos hoy en día en videos, fotos y textos es, de hecho, generado por IA”, afirmó Nina Jankowicz, cofundadora y directora ejecutiva del American Sunlight Project, una organización que lucha contra la desinformación en línea. “Incluso si Sora introduce medidas de seguridad, en este espacio habrá otras empresas, otras aplicaciones y otras tecnologías que nuestros adversarios desarrollarán para intentar infectar nuestro espacio informativo”.