Detectar imágenes y noticias falsas generadas por inteligencia artificial (IA) es fundamental para evitar la desinformación en internet. Un estudio reciente revela que casi la mitad de los europeos confunden noticias de IA con información real.
El desafío de distinguir noticias reales de IA
En el marco del décimo Día Internacional de la Verificación de Hechos, expertos alertan sobre el aumento de desinformación creada con IA. Este fenómeno afecta desde conflictos internacionales hasta campañas electorales y redes sociales personales.
Te puede interesar: Ojo perezoso: qué es, por qué aparece y cómo se trata
Un estudio publicado en PNAS Nexus encuestó a 27,000 personas en 27 países de la Unión Europea para evaluar la verosimilitud de titulares generados por humanos y por IA. Casi el 50% de los titulares creados por IA fueron considerados mayoritariamente o completamente reales, en comparación con el 44% de los redactados por personas.
Además, los participantes mostraron mayor disposición a compartir noticias generadas por IA si sabían que trataban sobre hechos reales. Sin embargo, la mayoría evitaba compartir cualquier noticia, humana o artificial, si sabían que era falsa. Esto indica que las personas tienen dificultades para diferenciar contenidos de IA y humanos.
Señales para identificar imágenes y vídeos falsos
Los primeros vídeos generados por IA mostraban fallos evidentes, como dedos adicionales, voces desincronizadas u objetos deformados. Aunque la tecnología ha mejorado, aún es posible detectar incoherencias, como objetos que desaparecen entre escenas.
La Global Investigative Journalism Network (GIJN) recomienda observar si las imágenes parecen demasiado perfectas para el contexto o si la piel carece de textura natural. Estos detalles pueden indicar manipulación con IA.
Herramientas para verificar autenticidad
Para confirmar la veracidad de una imagen o vídeo, se puede realizar una búsqueda inversa en Google u otros motores como TinEye. Esto permite identificar cuándo y dónde apareció por primera vez el contenido.
También existen métodos técnicos para analizar marcas de agua digitales o metadatos. Por ejemplo, las imágenes generadas con Gemini, la IA de Google, incluyen una marca de agua invisible llamada SynthID que ayuda a su detección.
Además, es útil consultar organizaciones europeas especializadas en verificación, como la European Fact-Checking Standards Network (EFCSN), el European Digital Media Observatory (EDMO) y EUvsDisinfo, que publican investigaciones y desmentidos sobre desinformación de IA.
Herramientas y precauciones para usuarios
Existen herramientas como Winston AI, TruthScan y Originality AI que ayudan a detectar contenidos generados por IA, aunque su precisión aún es limitada. Algunas plataformas incluyen marcas de agua visibles en sus creaciones, pero estas pueden ser eliminadas fácilmente, por lo que su ausencia no garantiza autenticidad.
Los expertos recomiendan no compartir contenido dudoso de inmediato y analizar comentarios y reacciones, ya que otros usuarios pueden haber identificado señales de falsedad.
En definitiva, aunque no siempre es posible confirmar si una imagen o noticia fue creada por IA, mantener una actitud crítica y utilizar las herramientas disponibles ayuda a frenar la propagación de mentiras.








