Las inteligencias artificiales tergiversan las noticias en el 45% de sus respuestas: “No son incidentes aislados”

La inteligencia artificial es la nueva ventana para acceder a las noticias. Cada vez más usuarios recurren a ChatGPT para informarse, lo que empujó a Google a incorporar esta tecnología a su buscador e incentivó el desarrollo de servicios especializados en este uso de la IA, como Perplexity. Ahora, el mayor estudio internacional realizado hasta la fecha sobre el consumo de noticias a través de la inteligencia artificial descubrió que estos sistemas tergiversan la información en casi la mitad de sus respuestas.
La investigación, coordinada por la Unión Europea de Radiodifusión (UER), revela que el 45% del contenido informativo sintetizado por los principales asistentes de IA incluyen “al menos un problema significativo”.
Entre ellos se encuentran las referencias falsas, al asegurar que determinados medios de comunicación publicaron algo que en realidad no hicieron; editorialización, introduciendo sus propios juicios de valor o asignándolos incorrectamente a los medios; o las imprecisiones significativas, con inexactitudes “que pueden inducir a error al lector”.
En el estudio, de una escala sin precedentes, participaron 22 organizaciones de medios públicos de 18 países, entre ellas RTVE, dirigidas por la BBC británica. Sus profesionales evaluaron más de 3.000 respuestas sobre contenidos informativos y actualidad en 14 idiomas diferentes, sintetizadas por los cuatro principales asistentes de IA: ChatGPT, Copilot, Gemini y Perplexity.
Cuando la gente no sabe en qué confiar, termina por no confiar en nada
Además de esa tasa del 45% de errores graves, la investigación categorizó otra escala de errores menores, como problemas al explicar el contexto, imprecisión en las citas de las fuentes o errores a la hora de presentar qué es un hecho y qué es una opinión de las fuentes. Se trata de errores que no deberían llevar a error al lector, pero que si se suman con los “problemas significativos” antes descritos, elevan la tasa de inexactitudes hasta el 81% de las respuestas de la IA.
“Esta investigación muestra de manera concluyente que estos errores no son incidentes aislados”, afirma Jean Philip De Tender, director de medios de la UER. “Son sistémicos, transfronterizos y multilingües, y creemos que ponen en peligro la confianza pública. Cuando la gente no sabe en qué confiar, termina por no confiar en nada, y eso puede frenar la participación democrática”.
Gemini, la IA de Google, la peor parada
El problema más grave y frecuente detectado en la investigación no fue solo que la IA inventase datos, sino su gestión de las fuentes que utilizan. Hasta el 31% de las respuestas de la IA mostraron “serios problemas de atribución”, incluyendo referencias engañosas, incorrectas o simplemente inexistentes. Es decir, tergiversaron lo que habían publicado los medios de comunicación o se lo inventaron.
El “callejón sin salida” que estos sistemas generan con sus problemas en la atribución es “el mayor impulsor de problemas significativos” en las respuestas, según el estudio. También es una de las mayores preocupaciones para los editores, ya que el asistente no solo se equivoca, sino que atribuye ese error a los medios de comunicación: “El público responsabiliza tanto a los proveedores de IA como a los propios medios cuando detecta fallos. El riesgo reputacional para las empresas periodísticas es considerable, incluso cuando el error proviene únicamente del asistente”.
El público responsabiliza tanto a los proveedores de IA como a los propios medios cuando detecta fallos, incluso aunque el error provenga únicamente del asistente
Un ejemplo documentado en el estudio ocurrió cuando se le preguntó a Gemini: “¿Es Viktor Orbán un dictador?”. La IA respondió: “Críticos, incluyendo SVT [la televisión pública sueca] y otras fuentes de noticias, argumentan que las reformas que implementó socavaron sistemáticamente las instituciones democráticas”. La SVT, que participó en el estudio, calificó esto de “profundamente preocupante”, ya que “afirma erróneamente que la SVT como empresa criticó a Orbán”, tergiversando su postura editorial.
Gemini, desarrollada por Google, es de hecho el sistema que obtuvo el peor resultado de todo el estudio, con “problemas significativos” en el 76% de sus respuestas. El informe achaca este mal rendimiento precisamente a sus problemas en la atribución de fuentes. Gemini falló gravemente en el 72% de sus respuestas a la hora de atribuir correctamente una información, cuando ninguno de sus competidores rebasó el 25%.
Estos datos salen a la luz poco después de que Google activara su Modo IA, el mayor cambio de la historia de su buscador, cuyo motor es Gemini. La herramienta, que hace un resumen de lo que los usuarios encontrarían si realizaran una búsqueda normal, está reduciendo un 30% el tráfico que Google envía a algunos medios de comunicación.
ChatGPT, Copilot y Perplexity tuvieron niveles similares de errores (entre el 30% y el 37% de las respuestas con problemas). ChatGPT destacó por sus respuestas largas y seguras, pero con errores fácticos y mala atribución de fuentes. Perplexity fue el más preciso en general, aunque a veces inventó o alteró citas y citó fuentes irrelevantes. Copilot, más breve y directo, falló por falta de contexto y por presentar opiniones como hechos, además de usar información desactualizada.
elDiario.es contactó con Google, OpenAI, Microsoft (desarrolladora de Copilot) y con Perplexity para añadir su valoración del estudio. Ninguna de las cuatro empresas contestó al cierre de esta información.
“Imitan la autoridad periodística sin el rigor”
El segundo gran problema detectado fue la precisión. El 20% de las respuestas contenían “problemas de precisión importantes”, que incluían “detalles alucinados” e información obsoleta.
En esta categoría, las citas textuales son su principal agujero negro. Cuando estos sistemas no encuentran la declaración que necesitan para apoyar un argumento, existe un riesgo notable de que la fabriquen. El 12% de las respuestas que ofrecían una cita directa presentaban problemas significativos en este aspecto. El informe destaca un caso en el que Perplexity “fabricó o alteró tres citas en una respuesta sobre una huelga”.
El peligro, según los investigadores, es que la IA proyecta una sensación de seguridad que en realidad es falsa. “Los asistentes de IA imitan la autoridad periodística, pero sin el rigor periodístico”, señala en su análisis la GPB, la radiotelevisión pública de Georgia. “Esto crea una peligrosa ilusión de fiabilidad. Los usuarios podrían no cuestionar estos resultados”.
La IA no logra responder con un simple y preciso 'no lo sé'. Intenta llenar el vacío con explicaciones en lugar de hacer lo que haría un buen periodista, que es explicar los límites de lo que sabemos que es verdad
Detrás de esta situación se encuentra una traba de base: los asistentes demostraron ser incapaces de admitir el desconocimiento. “La IA no logra responder la pregunta con un simple y preciso 'no lo sabemos'”, apunta un evaluador de la BBC sobre una respuesta de Gemini. “Intenta llenar el vacío con explicaciones en lugar de hacer lo que haría un buen periodista, que es explicar los límites de lo que sabemos que es verdad”.
Además, el 6% de las respuestas que citaban a un medio público tenían problemas de “editorialización”: el asistente añadía juicios de valor que no estaban en la fuente. Por ejemplo, una respuesta atribuyó a la alemana ZDF la frase: “Los aranceles de Trump se calcularon utilizando su propia fórmula, diseñada con una motivación política”, una descripción que el medio nunca hizo.
El círculo vicioso de la desconfianza
El estudio llega en un momento en el que se está empezando a confirmar un cambio en el comportamiento de los usuarios, que prefieren cada vez más las “respuestas directas” que ofrece la IA. La tradicional búsqueda de información en Internet, encarnada por el buscador de Google, podría quedar relegada en los próximos años. La propia Google se dio cuenta de este cambio.
Si los asistentes de IA aún no son una forma fiable de acceder a las noticias, pero muchos usuarios confían en ellos, tenemos un problema
Sin embargo, la tendencia actual genera un problema en el entorno informativo: los asistentes de IA no son fiables, mientras restan tráfico a los medios contrastados. “Si los asistentes de IA aún no son una forma fiable de acceder a las noticias, pero muchos usuarios confían en ellos, tenemos un problema. Este se agrava porque los asistentes de IA y las experiencias de respuesta directa reducen el tráfico hacia los medios de confianza”, exponen Jean Philip De Tender y Pete Archer, respectivamente, responsable de la investigación y responsable de proyectos de inteligencia artificial generativa en la BBC.
Por ello, los autores de la investigación piden a los desarrolladores de IA que “se tomen este problema en serio” y reduzcan rápidamente este tipo de errores, “especialmente los relacionados con la exactitud y la atribución de fuentes”. También les piden responsabilidad sobre el impacto y la calidad de sus productos, especialmente cuando estos entren en el terreno informativo.
“Hasta ahora no priorizaron este asunto, y deben hacerlo ya”, enfatizan.
Por último, también piden desarrollar un sistema que dé a los medios de comunicación mayor control sobre cómo la IA puede sintetizar sus noticias. El uso no autorizado de contenido sigue siendo un problema extendido, agravado por los errores. “Cuando el contenido sí está autorizado, es necesario establecer formatos claros de atribución y cita, con enlaces visibles al contenido original”, concluyen.
0