Cualquier foto de una persona subida a redes sociales puede ser usada por un sistema de reconocimiento facial privado que adquirió recientemente el Ministerio Público Fiscal de la ciudad de Buenos Aires. El hecho despertó críticas de expertos en informática y asociaciones civiles, que denuncian la vulnerabilidad de datos personales sensibles.
El software bajo la lupa es propiedad de la compañía Clearview AI, que tuvo varios casos escandalosos en América del Norte y Europa –incluso con multas y penalidades de las autoridades gubernamentales–. Tras una licitación por U$S 27.588 durante 12 meses, el sistema ya está en utilización por parte del Cuerpo de Investigaciones Judiciales (CIJ) del organismo del Poder Judicial porteño que conduce Juan Bautista Mahiques, según supo elDiarioAR a partir del análisis de documentos públicos y conversaciones con fuentes oficiales y ONGs.
El reconocimiento facial es un sistema que despierta inquietudes y preocupaciones por la utilización en ámbitos judiciales y de seguridad para la prevención de delitos o su posterior penalización. El punto que critican especialistas informáticos es que dichos softwares –supuestamente para ayudar al Estado a cotejar las imágenes de los sospechosos o imputados– utilizan bases de datos que violan la privacidad de las personas. Y eso, según los expertos, ocurre por la falta de controles gubernamentales.
Clearview en el país
Clearview fue fundada en 2017 por Hoan Ton-That y Richard Schwartz y, según su sitio web, tiene una base de más de 60 mil millones de imágenes facialmente identificables. Al ámbito porteño llegó meses atrás a partir de una licitación que se abrió el 11 de mayo pasado pero con la aclaración de que el distribuidor oficial y exclusivo del software es la empresa VEC S.R.L., una firma que ya tiene una decena de contratos con distintos ámbitos estatales. En agosto pasado también el municipio de Berazategui adquirió el software. La sospecha de los expertos es que el sistema desembarcó en el mercado local porque ya está penalizado en Europa y América del Norte.
Clearview AI estuvo bajo la lupa en países como Canadá, Estados Unidos, Italia y Países Bajos. Por mencionar algunos ejemplos, la Autoridad de Protección de Datos de los Países Bajos (conocida por sus siglas DPA) sancionó a Clearview AI en septiembre de 2024 con una multa de 30,5 millones de euros (aproximadamente USD 33,7 millones) por haber construido una base de datos “ilegal” con más de 30 mil millones de fotografías faciales sin consentimiento, violando la reglamentación de la Junta Europea de Protección de Datos.
Este organismo europeo, a su vez, emitió años atrás un informe en el que advirtió que el uso de Clearview AI por parte de la autoridad policial continental –conocida como Europol– “presenta riesgos elevados desde la perspectiva del cumplimiento normativo”. En 2021 aconsejó “no emplear ni promover la herramienta”, y enfatizó la necesidad de un enfoque mucho más estricto en la selección y evaluación de tecnologías externas que puedan involucrar datos personales sensibles.
En la licitación del Ministerio Público Fiscal porteño se lee que “CLEARVIEW PRO es una herramienta de reconocimiento facial que combina la inteligencia artificial con un potente motor de búsqueda en fuentes abiertas. Su tecnología permite cotejar una fotografía con una base de datos que contiene millones de imágenes provenientes de páginas web, fichas policiales, redes sociales públicas y otras bases de datos provenientes de fuentes abiertas”. Y se agrega: “...la solución ofrece recursos simplificados que agrupan imágenes vinculadas entre sí, creando perfiles detallados que pueden descargarse para futuras investigaciones o tareas asociadas. En este sentido, su capacidad de archivo es complementaria al sistema integrado de búsquedas referenciadas”.
elDiarioAR consultó al Ministerio Público Fiscal y la respuesta formal que recogió destaca que “se ha contratado por un período de 12 meses una de las herramientas que ofrece el mercado para agilizar el trabajo humano para rastrear en fuentes abiertas”. Voceros del organismo que conduce Mahiques se limitaron a agregar sobre Clearview: “La utilización no es con fines preventivos ni para tareas de inteligencia, sino que sólo se puede utilizar en el marco de una investigación penal bajo el estricto pedido de un Fiscal. Lo que la herramienta ofrece es acortar pasos para rastrear en imágenes públicas de internet, es decir que las imágenes ya fueron compartidas previamente por otro usuario y están disponibles de manera online”.
La magnitud de la base de datos y el uso “cerrado” que hace el software de esas imágenes son algunas de las preocupaciones de los expertos. “La empresa se apropia de las imágenes que están en internet como si fuera una base de datos propia. Se dice que son imágenes ya compartidas, pero uno no sube fotos a sus redes para que se utilicen en una base para comparar con posibles delincuentes”, advirtió Manuel Tufró, director del área de Justicia y Seguridad del CELS. “El problema de fondo es la adopción de tecnología sin ningún tipo de salvaguarda, con el agregado que acá hay antecedentes públicos sobre las complicaciones de este sistema. Si la decisión del Ministerio Público es contratarla igual, deberían explicar por qué. Son tecnologías muy intrusivas que afectan derechos”.
“El principio general para el tratamiento de datos personales es el consentimiento de la persona. El problema es que Clearview trata los datos de todo el mundo”, alertó Tomas Pomar, abogado y referente del Observatorio de Derecho Informático Argentino (ODIA).
El problema es que el software es privativo, el Estado no sabe cómo funciona el proceso
“El software tiene una estructura que se llama scraper, que es un robot digital que todo el tiempo hace una tarea sencilla: da vuelta por redes sociales y por internet en general reconociendo figuras antropométricas para buscar información de contexto. No es que visita Facebook o Instagram, sino que ya tiene esas bases de datos dentro de su sistema”, explicó Pomar. Esa base es la que se usa para cotejar una imagen de un sospechoso de un delito que no es identificable de manera fehaciente.
“El problema es que el software es privativo, el Estado no sabe cómo funciona el proceso. Además, la investigación puede quedar a merced del sistema y señalar a alguien incorrecto”, subrayó Pomar. “Se aumenta la posibilidad de que haya falsos positivos. Clearview es un saqueo de todas las imágenes en el mundo digital: hay un problema de privacidad enorme”, complementó Trufó.
El CELS y ODIA tienen abierta aún una causa contra el uso del Sistema de Reconocimiento Facial de Prófugos (SRFP) implementado por el Gobierno porteño. La Cámara de Apelaciones de la Ciudad confirmó la inconstitucionalidad del sistema porque se gestionó por fuera de la norma que lo regula y sin mecanismos de control.
El caso de Clearview alertó también a la red global conocida como INCLO (International Network of Civil Liberties Organizations, en inglés), que redactó una serie de principios para regular, restringir o incluso prohibir los sistemas de reconocimiento facial. Algunos de estos principios destacan que debería haber una ley que reglamente el uso de estos software, los procesos de adquisición deberían contar con evaluaciones de impacto tecnológico y que siempre haya un control externo. Ninguno de esos tres ítems se habrían cumplido, según los expertos, en la adquisición de Clearview por parte del Ministerio Público de la Ciudad.
MC