La grabación era real, verificada y encantadora: un clip de una cámara de seguridad de un coyote saltando en un trampolín en el jardín de Los Ángeles. Días después de que el video se hiciera viral, también comenzaron a circular imágenes de canguros, osos y conejos casi idénticos, todos generados por IA. Millones de personas las compartieron, creyendo haber captado otro vistazo de animales comportándose de forma divertida. Fue una confusión divertida, pero también fue una advertencia.
Las herramientas de video generadas por IA han ido mucho más allá de producir clips surrealistas o claramente manipulados. Ahora imitan convincentemente los formatos en los que más confiamos instintivamente: cámaras de circuito cerrado de televisión, cámaras de salpicadero, cámaras corporales de policía, cámaras de vida silvestre y grabaciones de testigos presenciales. Estos son los clips que moldean la comprensión pública durante protestas, desastres, violencia y emergencias. Y los falsos se están volviendo indistinguibles de los reales.
¿Se termina el reinado? Un informe ilustra cómo se redujo el dominio de ChatGPT en el mercado de la IA
El realismo generado por IA ya ha entrado en el ciclo de noticias
En Storyful verificamos miles de videos reales para redacciones y marcas de todo el mundo. Este año, realizamos una prueba: alimentamos a uno de los modelos más recientes de video con IA con titulares reales de noticias de último momento de nuestra propia plataforma.
En segundos, obtuvimos clips que imitaban la textura y la perspectiva de los reportajes presenciales. No eran experimentos de IA con acabados brillantes, sino imágenes con aspecto de noticia que podrían llegar a la bandeja de entrada de una redacción durante una noticia de última hora. Junto a los clips reales originales, incluso los periodistas capacitados tuvieron que reducir la velocidad y analizar los detalles.
Consideremos este ejemplo, inspirado en un video auténtico y verificado, publicado en las redes sociales tras las fuertes lluvias monzónicas en la India: “Los bomberos rescatan a un hombre que se aferraba a un poste en medio de las fuertes inundaciones en India: un hombre fue rescatado el martes 16 de septiembre en el estado indio de Uttarakhand, después de pasar más de cuatro horas aferrado a un poste de electricidad mientras las mortales aguas de la inundación arrasaban a su alrededor, informaron medios locales”.
A continuación, el video real:
Y, a continuación, este video totalmente sintético, creado al impulsar la aplicación generadora de videos Sora de OpenAI, con el título del primer video:
Esto ya no es un futuro teórico. Está sucediendo ahora mismo.
Las barreras de seguridad ya están fallando. En Reddit circulan tutoriales que explican cómo eliminar la marca de agua de los videos creados por uno de los generadores de video con IA más populares, Sora de OpenAI. Las restricciones sobre ciertos prompts de IA pueden sortearse —cuando existen—, o bien los modelos pueden generar, de forma local y sin límites, contenidos altamente realistas. Y dado que estas herramientas pueden crear imágenes falsas de CCTV o desastres a pedido, la pregunta no es si la IA puede generar videos convincentes de cosas que nunca sucedieron: la cuestión es hasta dónde puede propagarse una falsificación creíble antes de que alguien la verifique.
Crustafarianismo. La verdad detrás de la nueva «religión» que creó la inteligencia artificial por su cuenta
Por qué los videos generados por IA parecen creíbles
El cambio más significativo en el video generado por IA no es sólo su apariencia, sino también su comportamiento. Las imágenes de testigos oculares reales contienen las asperezas propias de la vida real: una mano temblorosa, la cámara apuntando al suelo antes de que comience la acción, largos tramos en los que no sucede nada, ángulos imperfectos y detalles perdidos.
La IA aún no replica estos momentos. Va directo a la acción, con un encuadre perfecto, una iluminación nítida y un ritmo como el de una escena diseñada para el máximo impacto. Ofrece el momento que esperamos ver, sin la complicada introducción humana que suele acompañarlo.
La razón es simple: la mayoría de los modelos aún se entrenan principalmente con material cinematográfico, en lugar de contenido caótico y portátil, generado por el usuario. Entienden el drama mejor que la realidad. Esa brecha es lo que permite a los equipos de verificación detectar la diferencia, por ahora.

A medida que los modelos evolucionan y la escritura de indicaciones mejora (los famosos prompts), estas señales de comportamiento se desvanecen. Los datos de base de video que se usan para entrenar estos modelos incluyen tanto contenido de espectadores moviéndose como documentales ingeniosos, lo que les permite imitar hábilmente su estilo y sentido de realismo.
La confianza pública ya se está erosionando
El informe de Reuters Digital News revela que el 58% de la audiencia mundial teme no poder distinguir lo real de lo falso en línea. Ese temor solía aplicarse principalmente a la política y la propaganda; ahora se aplica a los videos caseros inofensivos.
Esto marca un cambio psicológico más profundo: una vez que un espectador empieza a dudar de los videos cotidianos, no puede encender y apagar ese escepticismo a voluntad. Si cuestiona un rescate de perros, cuestionará una protesta. Si cuestiona una broma, cuestionará una zona de guerra.
La confianza no se derrumba en un único momento dramático. Se erosiona gota a gota, a través de una suma de miles de pequeñas incertidumbres. Y a medida que abundan los videos generados por IA, las imágenes auténticas escasean.
Revolución en deuda. Por qué la inteligencia artificial aún no logra el salto de productividad que viene prometiendo
Cómo saber si un video está generado por IA
Los instrumentos de detección de IA pueden ser una parte útil para el flujo de trabajo, pero no sustituyen la verificación humana. Según el análisis de Storyful, las herramientas actuales alcanzan una precisión del 65-75% en condiciones ideales, pero dicha precisión cae por debajo del 50% a las pocas semanas del lanzamiento de un nuevo modelo de IA. Estas son las señales que los equipos de verificación de Storyful utilizan a diario, indicios que el público puede aprender a reconocer rápidamente:
- La IA empieza en el clímax: por el contrario, las imágenes reales casi siempre incluyen tiempos muertos o torpezas antes de la acción.
- Los sujetos se sitúan perfectamente en el centro del encuadre: los testigos oculares rara vez captan el caos de las noticias de última hora como los directores de fotografía.
- El movimiento es demasiado suave: sin embargo, el contenido real generado por el usuario se traba, se sacude, se reenfoca y se desliza.
- Las marcas de tiempo, la señalización y las matrículas se descomponen bajo escrutinio: la IA a menudo aproxima estos detalles en lugar de representarlos con precisión.
- Los videos de desastres y vida silvestre parecen demasiado serenos: sin embargo, la vida real es incierta y la IA, a menudo, parece escenificada.
Estas señales no durarán para siempre, pero en este momento ofrecen una protección fundamental.

La autenticidad es ahora un activo
Las plataformas tecnológicas pueden añadir más protecciones a sus herramientas de generación de video, los reguladores pueden actualizar sus marcos, las herramientas de detección pueden mejorar y también lo pueden hacer nuestras propias facultades críticas. Y mientras las redacciones ayudan a las audiencias a navegar por el pantano de las falsificaciones, la manera más efectiva de reconstruir la confianza es ser transparentes.
El público ya no confía en lo que dicen las fuentes. Quiere ver cómo un periodista o una redacción sabe que algo es real. Cada vez más organizaciones de noticias están adoptando formatos de verificación avanzada, como BBC Verify y CBS News Confirmed, que integran comprobaciones forenses y de código abierto en sus reportajes, examinando la procedencia, las imágenes, los patrones de metadatos y la geolocalización cuando es relevante. Storyful Newswire proporciona a todos nuestros socios esta información básica pero esencial sobre cada video en nuestra plataforma.
Esta transparencia se está convirtiendo en el principal factor diferenciador en un entorno donde el video generado por IA es económico, rápido y omnipresente. Cuanto más material generado por IA inunde el ecosistema, mayor credibilidad recae en las organizaciones que convierten la transparencia —mostrar cómo trabajan— en una parte central de la historia.
Los videos más inolvidables de internet nunca fueron perfectos. Eran impredecibles, imperfectos y humanos, el tipo de momentos que la IA aún lucha por imaginar. Las imágenes generadas por IA ahora pueden imitar el lenguaje visual de la realidad, pero aún no pueden reproducir la aleatoriedad de la vida real. Lo que está en juego cuando lo hace no es simplemente la desinformación, es la capacidad del público para confiar en lo que ve en los momentos que más importan.



