February 6, 2026
Ya no podemos confiar en ninguna imagen en Internet

 – La nación
Tecnología

Ya no podemos confiar en ninguna imagen en Internet – La nación

En 2012, el huracán Sandy devastó el Mar Caribe y llegó a la costa de Nueva York. Allí dejó inundaciones, cortes de luz y fotografías espectaculares. De todos ellos, hubo uno particularmente sorprendente que se volvió viral, pero había un problema: estuvo mal. Ella no fue la única que se coló en las redes.

Esta imagen fue solo otro ejemplo de lo que hemos visto antes y después: grandes fenómenos y eventos terminan creando una avalancha de contenidos, algunos de los cuales no son reales.

Hay muchas razones por las que la gente aprovecha estos momentos para difundir imágenes falsas, pero al menos antes, obtener imágenes y vídeos creíbles era caro. Sólo los usuarios avanzados de aplicaciones como Photoshop o Final Cut/Premiere podrían lograr resultados convincentes, pero la IA, como sabemos, ha cambiado todo eso.

Llevamos mucho tiempo advirtiendo sobre este problema: distinguir entre lo real y lo creado por la IA es cada vez más difícil. y estos días tenemos el último gran ejemplo de esta tendencia.

Anatomía de un deepfake

La península de Kamchatka, en el lejano oriente de Rusia, ha experimentado una histórica tormenta de nieve. Según los registros, es la peor en décadas, con capas de nieve de más de dos metros en varias zonas. según Xinhua.

Petropavlovsk-Kamchatsky, el centro administrativo, industrial y científico de la región de Kamchatka, ha sufrido especialmente estas consecuencias, y los habitantes de la región ya han difundido imágenes de ello en las redes. fue bautizado como el “apocalipsis de la nieve”. Estas imágenes se están difundiendo en los medios de comunicación y redes sociales y que eran reales, a menudo más “cotidianos” y mucho menos espectacular– a diferencia de otros, que en teoría también mostraban el estado de varios puntos de la región, pero que en realidad fueron generados con IA.

este vídeo por ejemplo fue compartido hace unos días de Linus Ekenstam, un influencer que suele compartir noticias y pensamientos sobre la IA. Volvió a publicar el vídeo afirmando que era real, pero pronto varios usuarios afirmaron que el vídeo en realidad fue creado por IA.

Ekenstam argumentó que el error teórico de IA que le señaló al usuario no era tal y que donde vive hay postes cerca de las farolas. Por ello, intentó defender que el vídeo era real para él, pero otros afirmaron que no era así. La prueba final: un usuario que vinculó al video teórico originalque aparentemente tiene su origen en una cuenta de tiktok se dedica precisamente a distribuir contenido generado por IA que parece real.

La clave de este vídeo falso es que es espectacular, pero no demasiado espectacular. Es creíble hasta cierto punto, y cuando la imagen y el movimiento de la cámara son tan convincentes, es difícil creer que “tal vez fue generado por IA”.

Ante esta tormenta de nieve en Kamchatka, en redes se compartieron insólitas imágenes. mucho más propio de una película distópica de Hollywood como un verdadero fenómeno natural. A priori, las imágenes pueden incluso parecer coherentes, pero una mirada más cercana y, sobre todo, más crítica nos hace ver más fácilmente que estas imágenes pueden no ser tan reales como parecen.

De hecho, las imágenes más llamativas compartidas en redes sociales y miles de retuits y me gusta, por ejemplo mucho menos perceptible Y mucho más banal.

Medios españoles como OndaZero o OKDiario han publicado algunas imágenes y videos generados por IA en sus medios digitales o en sus cuentas de redes sociales sin saber que estos videos en realidad se originaron en el Cuenta de TikTok mencionada anteriormente que ha logrado extenderse como la pólvora.

Ha habido un debate frecuente sobre la posibilidad de que ciertas imágenes puedan ser reales. por ejemplo en Redditdonde los usuarios han compartido por ejemplo una captura increíble que, cuando se analiza en detalle, parece ser generado por IA.

La avalancha de “periodismo ciudadano”, que a veces puede ser bien intencionado y muy importante, se ve compensada aquí por el papel de los medios de comunicación, que tienen una enorme responsabilidad como fuentes confiables de información.

Incluso ellos (y nosotros) podemos caer en la trampa, y aquí está de nuevo Lo mejor que podemos hacer es desconfiar de lo que vemos. en nuestras pantallas ya que puede ser contenido incorrecto. Los videos que aparecieron en algunos medios como SkyNoticias o en la vanguardia ellos se conectan con otros Esto parece ser real (al menos a priori), pero también requiere un examen cuidadoso en este punto.

Nuestros cerebros nos traicionan y la tecnología lo sabe

Hay varios fenómenos psicológicos y sesgos cognitivos bien estudiados que explican por qué antaño creíamos en las fake news y ahora nos vuelve a pasar lo mismo con los deepfakes.

No importa si sabemos (o al menos sospechamos racionalmente) que estas imágenes y vídeos son falsos: la tecnología, y especialmente la IA, explota precisamente estos sesgos. Entre ellos destacan:

  1. Sesgo de confirmación: Creemos lo que encaja con lo que ya creemos. Nuestros cerebros no buscan tanto la verdad sino la coherencia interna. Entonces, cuando un mensaje refuerza nuestra ideología, reducimos el nivel de crítica potencial, pero cuando lo contradice, lo analizamos con lupa o lo rechazamos de plano. El problema aquí es que la IA puede generar contenido personalizado adaptado a cualquier narrativa.
  2. Efecto de verdad ilusorio: Aquí pasa que “si lo he visto muchas veces será verdad”. La repetición aumenta la sensación de veracidad, no de veracidad real, y las redes sociales, por ejemplo, máquinas de repetir noticias falsas, se aprovechan de ello. Una vez más, la IA hace que sea más fácil producir en masa la misma mentira con variaciones mínimas.
  3. Creemos lo que vemos: Algunos llaman a esto realismo perceptivo. Dependemos demasiado de lo visual y de ahí el famoso dicho “Una imagen vale más que mil palabras”. Las imágenes se procesan mucho más rápidamente que el texto y el pensamiento crítico sigue a la respuesta emocional, como argumentó Daniel Kanheman. en su famoso “Piensa rápido, piensa despacio”.
  4. Carga cognitiva: En relación con lo anterior, el pensamiento crítico es agotador y eso significa que utilizamos atajos mentales cuando estamos cansados, distraídos o tenemos prisa. El famoso y preocupante doomscrolling explota muy bien esta trampa, y tanto las noticias falsas como los deepfakes están diseñados para ser creídos fácilmente y no analizados.

Por supuesto que hay más. La IA ya ofrece resultados convincentes, pero más allá de eso –especialmente en los textos– su seguridad para comunicar y expresar esos resultados desencadena un sesgo de autoridad. Parece como si nos pareciera más fiable que si nos lo dijera un experto humano que, por el motivo que sea, no tiene la capacidad de transmitir hábilmente sus conocimientos.

El contenido generado por IA también explota estos grandes fenómenos y eventos que maximizan el impacto emocional, y también está el hecho de que muchas personas lo comparten porque “debe ser verdad” y porque tendemos a creer que son otros los que caen en estos engaños y no nosotros.

Como él dijo, Ten cuidado ahí fuera.

En Xataka | Es imposible distinguir si este video que presenta al elenco de Stranger Things fue creado usando IA o no. eso es un problema