July 1, 2025
Intentamos usar la IA para verificar si las imágenes de la guerra entre Irán e Israel fueron tomadas con IA. Fue un desastre

 – La nación
Tecnología

Intentamos usar la IA para verificar si las imágenes de la guerra entre Irán e Israel fueron tomadas con IA. Fue un desastre – La nación

Las imágenes incorrectas no circulan en las redes sociales, sino en la era de la IA Se está volviendo cada vez más difícil reconocerlos Y incluso lo hicieron Desconfiemos de las fotos reales. Las fotos tomadas con IA son virales si un evento importante es la nueva normalidad; Lo vimos Después de la falla de energía Y también con el Conflicto entre Israel e Irán. Para nosotros está claro que la IA es muy buena para generar imágenes falsas, pero ¿qué pasa si las usamos exactamente para lo contrario? No tanto.

Las fotos en cuestión. Al mismo tiempo que un Medio iraner publicado La noticia de que Irán había demolido un F-35 israelí comenzó a ejecutar dos fotos, como disparar en polvo en las redes sociales. Pronto sabíamos que estaban equivocados. Uno de ellos, el de la estrella y rodeado de curiosos F35, es particularmente sorprendente. Al principio, las proporciones no tienen sentido: el nivel parece ser enorme cuando realmente se mide 16 metros y las personas son más grandes que los edificios. Y mencionar que el daño a la aeronave es mínimo de haber sido derribado.

Estas imágenes no fueron las únicas creadas por IA que circularon en los primeros días del conflicto. Varios videos como Esto de un enorme cohete iraní que parece bastante real hasta que veamos que la marca de agua se puede ver que es con IA o Destrozado al este de un Tel Aviv.

Ai es terrible Hechos. Medio Hechos como Maldita sea ya rechazado Estas y otras imágenes que fueron creadas con IA en el contexto del conflicto entre Irán e Israel. Sin embargo, hubo usuarios que intentaron usar herramientas de IA para verificar y recibir la autenticidad de las imágenes Respuestas bastante confusas. Es ¿Qué pasó en X con Grok?. Un análisis de más de 130,000 publicaciones mostró que la IA de Musk no podía reconocer algunas imágenes falsas o identificar las fuentes de las que vinieron. Las notas comunitarias escritas por los propios usuarios eran mucho más confiables.

Lo probamos. Para verificar la capacidad de IA, utilizamos la imagen del F-35 desproporcionado y preguntamos varias herramientas de IA. Respondiste a esto:

  • Chatt: La herramienta OpenAI comienza “Esta imagen no parece real” y luego lleva a cabo un análisis de la proporción del nivel, que se identifica correctamente como F35 y afirma que el daño no parece ser coherente.
  • confusión: Al igual que Chatt, nos dice que las proporciones, la perspectiva y el daño de los aviones y otros detalles indican que la foto ha sido manipulada digitalmente.
  • Mellizos: Nos dice que la imagen es real, pero que no es un ataque en combate, sino de una colisión con pájaros que sucedieron en Israel en 2017. Si respondemos que las fuentes nos muestran, hay varios enlaces a las noticias, pero la imagen aparece en ninguno de ellos. Después de un tiempo, eso nos ha enviado información confusa, reconoce que estaba equivocado y se disculpa por “el grave error”.
  • Tirar: Es el único que no es real con fuerza y ​​nos da el contexto exacto de lo que sucedió.

La fiabilidad, sobresaliente. En nuestra prueba, Gemini inventó completamente la respuesta, mientras que Chatt y la confusión son exitosos, a pesar de que no están húmedos. Claude es el único que nos da toda la información y golpea por completo. Aunque los modelos de voz han mejorado mucho en poco tiempo, Se continuarán inventando muchas respuestas A pesar del acceso a Internet y la búsqueda. Sin lugar a dudas, la confiabilidad es el tema pendiente de IA generativa y donde hay más margen de mejora.

Fotos | 404 promedio

En Xataka | Pautas de ChatGPT: 22 funciones y cosas que puede hacer para presionar esta inteligencia artificial al máximo