Un video de un canguro caminando por la manga un avión se volvió sensación en redes sociales. Sin embargo, era falso: fue creado con inteligencia artificial. ¿Cómo identificarlo? Te lo explicamos aquí.
La inteligencia artificial continúa sorprendiendo con sus capacidades. Esta vez, no se trató de un discurso manipulado ni de un androide hiperrealista, sino de un tierno canguro que, al parecer, caminaba por la manga de un aeropuerto australiano. El video, que parecía sacado de una escena cotidiana, se difundió rápidamente en plataformas como TikTok, Instagram y X, alcanzando millones de visualizaciones en pocas horas.
Pero la verdad era otra: el video no mostraba un hecho real. El animal nunca estuvo en el aeropuerto, el lugar no fue escenario de ningún suceso inusual y las personas que reaccionaban con asombro... simplemente no existen. Todo fue generado por inteligencia artificial. Y si tú también lo creíste, no eres el único. En esta nota, analizamos el fenómeno y te contamos cómo detectar las pistas que revelan un montaje digital.
El canguro que conquistó internet desde un aeropuerto ficticio
En pocas horas, el clip de un canguro tranquilo en una terminal aérea se volvió viral. Las imágenes daban la impresión de ser tomadas por una cámara de seguridad o el celular de un viajero curioso. Se veía al marsupial esperando con aparente normalidad, mientras los supuestos pasajeros lo miraban entre sorprendidos y enternecidos: incluso parecía llevar su propio boleto. El texto que acompañaba el video decía: “Un canguro fue captado intentando tomar un vuelo en Australia”.
La historia era perfecta para volverse viral: tenía ternura, algo de surrealismo y ese caos simpático que atrapa en redes. Fue compartida por cuentas de noticias, creadores de contenido e incluso políticos. En menos de un día, superó los 44 millones de reproducciones en TikTok (@ceciarmy) y más de 20 millones en X (antes Twitter).
Pero todo era ficticio. El episodio jamás ocurrió y el video completo fue fabricado con herramientas de inteligencia artificial. Y ese dato cambió el enfoque del debate.
@ceciarmy El pobre sujetando el ticket y esperando a que lo dejen pasar
♬ sonido original - Ceciarmy
¿Cómo se descubrió que el video no era auténtico?
Especialistas en verificación digital comenzaron a examinar el clip cuando notaron inconsistencias. Algunos de los elementos que llamaron la atención fueron:
1._ Luces y sombras incoherentes: la sombra del canguro no coincidía con la iluminación del entorno.
2._ Movimientos poco naturales: las articulaciones del animal y de las personas se veían rígidas o desenfocadas en ciertos cuadros. El boleto tampoco contenía texto legible.
3._ Rostros mal definidos: las figuras humanas al fondo tenían expresiones borrosas y rasgos poco realistas. Además, el audio no correspondía a ningún idioma reconocible.
4._ Falta de metadatos confiables: el archivo carecía de información sobre ubicación o autoría, lo que generó dudas sobre su origen.
Finalmente, la agencia australiana RMIT FactLab concluyó que el video fue creado con programas como Runway ML o Sora, de OpenAI, mediante un análisis técnico de sus patrones de generación.
El riesgo detrás de los videos falsos con apariencia real
Aunque muchos lo tomaron con humor, este tipo de contenido puede poner en jaque la confianza en las imágenes que vemos en internet. En un escenario donde lo visual ya no garantiza veracidad, los videos generados por IA están redefiniendo los límites de la credibilidad.
Expertos en ética tecnológica advierten que lo que hoy es una broma viral, mañana podría usarse para difundir desinformación, simular delitos o alterar procesos democráticos.