Internacional, Friday 30 de May de 2025

Con el lanzamiento de Veo 3 de Google, los deepfakes alcanzan un nivel de realismo que pone en jaque la credibilidad del video como prueba confiable.

En 2018, cuando surgieron los primeros deepfakes, expertos advirtieron que podría tratarse del comienzo del fin para el video como prueba de la realidad. Aunque entonces esa alarma pareció exagerada, el tiempo ha demostrado que no lo era. Simplemente, llegó antes de lo previsto. Hoy, con la irrupción de Veo 3, el modelo de generación de video por inteligencia artificial desarrollado por Google, ese pronóstico se convierte en presente.

Los clips que ya circulan en plataformas como Reddit y X son prácticamente imposibles de diferenciar de grabaciones reales. Atrás quedaron las señales delatoras manos malformadas, gestos rígidos, rostros desconcertantes que caracterizaban a las primeras generaciones de contenido sintético. Veo 3 produce secuencias visuales tan verosímiles que superan cualquier prueba que un espectador promedio pueda aplicar, sobre todo en un contexto donde la mayoría de los contenidos se consumen en pantallas pequeñas, donde cada píxel cuenta menos.

Durante décadas, el video fue el estándar de oro de la evidencia: una grabación podía probar una injusticia, revelar un crimen o derrocar un régimen. Pero esa premisa ahora tambalea. Usuarios de Veo 3 han comenzado a generar videos falsos que presentan desde catástrofes ficticias hasta muertes de figuras públicas y actos de violencia nunca ocurridos. Todo ello acompañado de diálogos sincronizados, efectos sonoros realistas y una física visual impecable. En algunos casos, incluso se generan conversaciones no incluidas en los guiones originales, como si la inteligencia artificial tuviera una intención narrativa propia.

Sin embargo, el verdadero problema no es solo la capacidad de crear lo falso, sino la pérdida de las herramientas para identificarlo. Distinguir entre lo real y lo generado ya no es posible sin recurrir a técnicas forenses avanzadas. Estamos entrando en una era de agnosticismo visual, donde cada video será recibido con escepticismo y la pregunta inevitable será: “¿Esto realmente sucedió?”.

Esta crisis de confianza tiene implicaciones profundas. Si cualquier video puede ser falso, cualquier grabación incómoda puede ser desacreditada con solo alegar que fue generada por inteligencia artificial. La duda razonable, una vez una herramienta de justicia, se convierte ahora en un arma de impunidad. Políticos acorralados, empresas acusadas de abusos y regímenes autoritarios tienen ahora un escudo perfecto: la sospecha. En este nuevo paradigma, no es necesario probar que un contenido es falso; basta con insinuarlo.

La paradoja es inquietante: la misma tecnología que permite crear ficciones perfectas facilita también la negación de realidades documentadas. En consecuencia, surgen nuevas preguntas sobre cómo afectará esto a una sociedad que ha construido su comprensión del mundo en torno al audiovisual. ¿Cómo formar opinión, actuar políticamente o exigir justicia en un entorno donde ver ya no equivale a creer?

Frente a este desafío, la solución no puede ser puramente técnica. Es imprescindible desarrollar una alfabetización mediática que no solo enseñe a detectar falsificaciones, sino que parta del principio de que cualquier imagen puede ser manipulada. Aceptar la pérdida del video como evidencia objetiva es el primer paso para adaptarse a una era donde la realidad y la ficción se funden con una facilidad inquietante.

El video como prueba ha muerto, o está agonizando. Solo queda aprender a vivir en un mundo donde cada imagen es una posibilidad, no una certeza.

Fuente: Cadena3