Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.
OPINIÓN

¿Puede Milei explicar una IA?

Milei mantuvo un encuentro con el CEO de Google, Sundar Pichai, este 29 de mayo de 2024.

0

Gobernar es explicar es una frase que se atribuye al sociólogo, ex presidente de Brasil, Fernando Henrique Cardoso. La idea de explicar los actos de gobierno es justamente la base de cualquier acción que se pueda tomar desde la administración pública. La explicabilidad y transparencia son dos de los problemas nodales de los sistemas de inteligencia artificial.  

Tras su gira por Silicon Valley, el Presidente volvió al país lleno de entusiasmo. Como si fuera un adolescente que estrechó las manos de sus ídolos, Javier Milei completó su álbum de figuritas con fotos con los CEOs de las empresas tecnológicas más importantes de Occidente. No trajo inversión alguna, pero sí compró promesas e imaginó soluciones a medida de su ideario basado en la reducción del Estado.

Pocos ejemplos son tan claros para ilustrar lo que bien se podría denominar un ideal tecnocrático. Milei volvió al país con la promesa de aplicar un “módulo de reforma del Estado con IA” que la firma Google ya implementó en El Salvador. En ese país, Google firmó un acuerdo por no menos de 500 millones de dólares para implementar sus servicios en áreas de salud, educación y administración pública. El tipo de tecnologías que se utilizan son desarrollos conocidos: servicios de nube, grandes modelos de lenguaje y sistemas de digitalización de expedientes.

El Presidente promete hacer una reforma total del Estado con un módulo de IA. Supongamos por un minuto que realmente existe tal capacidad y que el Presidente está dispuesto a entregar a una empresa la toma de decisiones para la administración de la cosa pública. Eso no sólo sería extremadamente riesgoso, sino también ilegal. Poner una IA a decidir sobre la cosa pública sería abdicar del mandato que le fue encomendado en las urnas, pasar por encima los procesos administrativos que tienen obligación de transparencia e integridad y eliminar la cadena de responsabilidad.

Desde hace muchos años se sabe que los sistemas informáticos no pueden tomar decisiones de administración pública por una razón simple: las computadoras no pueden asumir responsabilidad.  

Pero supongamos por otro instante que el Presidente decide utilizar sistemas de IA para apoyo en la toma de decisiones en diversas áreas del Estado: tampoco serían buenos los resultados. Su entusiasmo tecno utópico no se condice con la experiencia real en la materia.  Además, cuando se implementan en el sistema educativo y el sistema de salud, utilizan de forma masiva datos personales sensibles y de poblaciones específicas. ¿Quién va a velar por la protección de esos datos y el pleno cumplimiento de las garantías que la constitución nos confiere? 

Por supuesto, Milei no es el único que compra acríticamente las promesas de los vendedores de espejitos de colores. Otros estados han usado IA en la toma de decisiones sobre aspectos que impactan la vida de las personas. Los resultados han sido calamitosos, en particular porque las capacidades predictivas de estos sistemas son esencialmente malas y porque afectan sistemáticamente a los segmentos más vulnerables de la población.

Los algoritmos de predicción asignan puntajes a individuos para definir algún tipo de resultado, prever alguna situación: si van a reincidir en el delito, si van a desarrollar una condición médica, si van a tener solvencia para el pago de deudas, entre muchas otras áreas. En Argentina, el gobierno de la provincia de Salta se embarcó en un proyecto para prever qué niñas quedarían embarazadas en el transcurso de su adolescencia. El caso fue usado sistemáticamente como ejemplo de lo que nunca se debe hacer en materia de inteligencia artificial.

El ejemplo que más ruido generó fue aquel del sistema COMPAS (Correctional Offender Management Profiling for Alternative Sanctions en inglés), una herramienta integrada al sistema penal en los EEUU para evaluar perfiles de riesgo y asignar puntajes para su evaluación que deriva luego en acciones tales como mantener a una persona encarcelada cuando cumplía con las condiciones de la libertad condicional, entre otras decisiones. Estos sistemas no sólo reproducen sino que además exacerban disparidades raciales en el sistema de justicia. COMPAS fue denunciado por la organización de derechos civiles ACLU porque quedó corroborado que tenía un sesgo discriminatorio directo contra poblaciones afrodescendientes y latinas, beneficiando siempre a los reclusos blancos por sobre los demás.

La empresa Amazon, uno de los gigantes de la industria tecnológica, pasó un mal momento al integrar en sus procesos de reclutamiento de personal un sistema de IA que descartaba de plano los curriculums de mujeres para puestos de alta gerencia, basado en el aprendizaje hecho por el sistema sobre los candidatos de los últimos años.  

En Países Bajos, el programa de ayudas sociales integró un sistema automatizado para identificar potenciales fraudes en la asignación de estos recursos por parte del Estado. El sistema de aprendizaje automatizado creaba perfiles de riesgo y penalizaba familias según diversos indicadores, expulsando a la pobreza extrema a decenas de miles de familias que fueron discriminadas de forma arbitraria por este método. 

Sin ir más lejos, los sistemas de reconocimiento facial implementados en la Ciudad Autónoma de Buenos Aires están frenados por la justicia por la opacidad con la que fueron implementados. Recordemos que en su breve período de uso derivaron en la detención de personas inocentes por fallos en su aplicación.

No decimos aquí que no se pueda usar ninguna herramienta de IA en la administración pública, lo que decimos es que eso jamás se debe hacer sin el conocimiento suficiente de cómo fueron diseñados, cómo funcionan, qué hacen y cuáles son los riesgos y beneficios derivados de la integración de un sistema automatizado. La responsabilidad del Estado es dar cuenta de forma transparente de todas las decisiones que toma. Nada más alejado de estas implementaciones de sistemas basados en IA.  

El Presidente Milei fue a conversar con los CEOs de las grandes compañías para ofrecer en bandeja a la Argentina como territorio fértil de experimentación para estos sistemas. Un territorio libre de regulaciones molestas como las que se desarrollaron en la Unión Europea o sin los problemas que suponen las leyes de la propia California, donde estas compañías tienen sus casas matrices.  

En nuestro país, las autoridades de protección de datos personales están virtualmente ausentes. Worldcoin se maneja libremente recolectando datos biométricos de la población a través del escaneo de iris sin que medie siquiera una advertencia o una evaluación de impacto.

El panorama argentino no podría ser más desolador: con un proceso de virtual desmantelamiento del sistema científico de nuestro país, donde se han formado e investigan profesionales del área de altísimo nivel, con una vocación de desmantelar todos los órganos reguladores y de control por parte del Estado, sin un panorama claro en materia legislativa sobre el tema, Milei ofrece a los argentinos como conejillos de indias para la explotación.  

Si hay países en la región que tienen capacidad para encarar avances en inteligencia artificial, sin dudas Argentina es uno de ellos. Junto a Chile y Brasil, cuenta con profesionales altamente capacitados, empresas tecnológicas que compiten en los mercados mundiales y capacidad instalada para investigar tanto en el sector público como privado. 

Un acuerdo de este tipo, del que aún desconocemos los detalles, podría significar una vulneración plena sobre los derechos personalísimos de los habitantes de Argentina frente a sus datos personales mientras que se construye un sistema de gestión de lo público inauditable, reñido con los principios de la vida republicana y democrática que Argentina supo construir.

La autora es presidenta de la Fundación Vía Libre.

BB/MG

Etiquetas
stats