Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.
Investigación

ChatGPT, Claude, Grok y Perplexity filtran datos de sus conversaciones para el rastreo publicitario

Aplicaciones de los principales asistentes de IA

Carlos del Castillo

0

Los principales chatbots de inteligencia artificial comparten datos de las conversaciones de los usuarios con las multinacionales de la publicidad online, que los utilizan para elaborar perfiles personalizados y vender anuncios hipersegmentados. Es la principal conclusión de un nuevo estudio que encontró evidencias de estas filtraciones en ChatGPT, Claude, Grok y Perplexity, que mandan la información a las bases de datos para anuncios de Meta, Google, TikTok y otras compañías dedicadas al rastreo digital y la analítica web.

La filtración se produce a través de los enlaces permanentes de los chats, también conocidos como permalinks. Las plataformas envían estas direcciones web a los rastreadores junto con identificadores de usuario, como correos electrónicos cifrados o cookies, lo que permite asociar los datos de sus conversaciones a los perfiles publicitarios que elaboran terceras empresas sin el conocimiento del usuario.

“Este es el riesgo central: filtrar una URL no es solo metadatos, puede ser equivalente a filtrar la conversación en sí”, avisa el estudio, coordinado por el centro de investigación IMDEA Networks y liderado por el investigador español Narseo Vallina. “Las prácticas observadas también sugieren que los modelos de negocio basados en datos de la web tradicional (como la publicidad o la analítica) se están replicando en los ecosistemas de modelos de lenguaje, con una supervisión limitada”.

Las compañías son conscientes de que estas prácticas podrían contravenir las regulaciones de protección de datos. Perplexity, por ejemplo, retiró el rastreador de Meta de su web el 3 de abril de 2026, tras una demanda colectiva en Estados Unidos relacionada con la privacidad de sus usuarios. Esto detuvo el envío de enlaces y cookies a la red social y eliminó el acceso público a las conversaciones creadas por los usuarios que no habían iniciado sesión.

La misma práctica, solo que aún activa, es la que se da en Grok (el asistente desarrollado por xAI, propiedad de Elon Musk). “Es lo más grave que hemos encontrado”, destaca Vallina: “Las URLs y las conversaciones son accesibles de forma pública. Los rastreadores podrían potencialmente acceder a esa conversación, palabra a palabra. No tenemos evidencias de que lo estén leyendo, pero sabemos que el riesgo existe”.

Fuga de datos

Perplexity, pese a desactivar la posibilidad de que las conversaciones sean leídas por terceros, mantiene activos otros sistemas de rastreo. El estudio desglosa que cada vez que una persona utiliza el asistente, la empresa envía de forma automática su dirección de correo electrónico sin cifrar, el enlace exacto de la conversación y los detalles técnicos de su dispositivo a Datadog, una plataforma de monitorización de sistemas; y a Singular, una firma especializada en analítica y marketing.

Según las evidencias halladas, OpenAI envía los títulos de los chats y las direcciones de las conversaciones de los usuarios de la versión gratuita de ChatGPT a Google Analytics. Por su parte, Claude, de la empresa Anthropic, envía directamente los datos del usuario a plataformas como LinkedIn, TikTok, Google y otras ocho redes publicitarias distintas desde sus propios servidores, una técnica que las evita que las herramientas de bloqueo de anuncios de los navegadores puedan interceptar el tráfico de datos.

Este medio contactó con OpenAI, Anthropic, xAI (desarrolladora de Grok) y Perplexity para incluir su posicionamiento en esta información, pero no recibió respuesta. Los autores denunciaron los hechos a las agencias europeas de protección de datos, adelanta Vallina. Su estudio aún no fue revisado por otros investigadores independientes, pero consideraron que debían hacerlo público para alertar a los usuarios.

“Las conversaciones de los usuarios contienen con frecuencia información sensible, ya que estos suelen percibir a los modelos de lenguaje como asistentes de confianza”, avisa el estudio: “Esta percepción aumenta la probabilidad de que compartan más información sensible de la necesaria”. Otras investigaciones han detectado que los usuarios tienden a revelar detalles sobre sus preferencias sexuales, condiciones de salud o apoyo psicológico incluso cuando no son necesarios en el contexto de la conversación.

“Cuando los datos de las conversaciones se comparten con terceros como Meta y Google, junto con cookies y otros identificadores de usuario”, explican los investigadores de IMDEA Networks, “surge un nuevo escenario de riesgo”.

El estudio señala que la IA de Meta, Google Gemini y Microsoft Copilot quedaron afuera de este primer análisis debido a que estas empresas son tanto desarrolladores de chatbots y como rastreadores publicitarios. Al estar en los dos lados del negocio (recopilan los datos en su propio servicio y también controlan las redes de rastreo), los investigadores creen que estos asistentes entrañan un “modelo de amenaza diferente” al de ChatGPT, Claude, Grok o Perplexity. No obstante, avanzan que tienen previsto ampliar el alcance de su investigación para incluir los asistentes de Google, Meta y Microsoft en las próximas semanas.

Etiquetas
stats