La Unión Europea regulará la inteligencia artificial para “garantizar los derechos fundamentales de las personas"

El documental "Coded bias" aborda el modo en que ciertos algoritmos replican prejuicios sociales como la xenofobia, el racismo, el sexismo o la homofobia.

Matías Repar

0

La Unión Europea propone regular la inteligencia artificial. La iniciativa apunta a controlar los sistemas que suponen un riesgo para los humanos, como en la educación (calificación automática de exámenes), medicina (cirugía asistida por robots), búsqueda de trabajo (sistemas que procesan los CV y deciden a quien contratar), créditos financieros (quien califica y quien no para obtener un préstamo) o la administración de justicia (con aplicaciones que resuelven fallos a partir de un algoritmo).  La intención de Bruselas es someter todos esos sistemas a un estricto control antes de que puedan llegar a comercializarse e implementarse. Las nuevas normas, una vez aprobadas tras las negociaciones con los gobiernos y el Parlamento Europeo, se aplicarán de la misma forma en todos los Estados miembros de la UE.

En la misma línea, el Ayuntamiento de Barcelona anunció esta semana veinte medidas para garantizar que los algoritmos de inteligencia artificial que ya utiliza (y los que vendrán en el futuro) tengan un “compromiso ético” hacia los ciudadanos. Desde estos ámbitos ubican a la identificación biométrica como una verdadera problemática actual y advierten que a partir de ahora, esta tecnología deberá ser usada solamente en casos puntuales: buscar a un niño desaparecido, prevenir una amenaza terrorista o localizar al responsable de un delito grave. Y siempre con la autorización previa de un órgano judicial.

El reconocimiento facial en el centro de la escena tiene varias explicaciones. Podría ser su controversial uso en las movilizaciones de Hong Kong, pero resulta clave para dimensionar el conflicto el reciente estreno en Netflix de Coded Bias, un documental que revela el modo en que ciertos algoritmos replican prejuicios sociales como la xenofobia, el racismo, el sexismo o la homofobia.

El film dirigido por Shalini Kantayy comienza cuando la investigadora del MIT Joy Buolamwini tiene que recurrir a una máscara blanca sobre su rostro de piel negra para que el sistema la reconozca. En el experimento, descubre que esta tecnología esta diseñada para personas blancas. Peor aún, hombres blancos. Explorando los aspectos éticos de la IA la protagonista llega hasta las calles de Londres para encontrarse con Big Brother Watch, una ONG que milita contra el uso de este tipo de  herramientas por parte de la policía. Una tecnología que escanea rostros, pensada para capturar  delincuentes buscados, termina con inocentes detenidos. Y peor, en su mayoría ciudadanos negros o extranjeros. Entonces decide crear la Liga de la Justicia Algorítmica. O cómo luchar contra un futuro que ya llegó, pero que no es equitativo.

“La estructura matemática subyacente en el algoritmo no es sexista ni racista, pero los datos integran el pasado. Y no solo es el pasado reciente, sino el pasado oscuro”, explica Cathy O'Neil, la autora del libro Weapons of Math Destruction, que también aparece en la cinta. “No alcanza con la confianza en un gobierno. Se necesitan estructuras sólidas para que el mundo en el que vivimos sea seguro para todos”, agrega. Ante la falta de legislación, surge entonces una pregunta: ¿Cómo obtenemos justicia si no sabemos cómo funcionan los algoritmos? En definitiva, ¿quien vigila a quienes nos vigilan? El algoritmo no es otra cosa que un herramienta de evaluación de modelos matemáticos, pero también es una caja negra en cuyo interior, suponemos, se esconde una verdad absoluta, cuando muy pocos saben los que hay adentro.

Los activistas cuestionan el modo en que estos sistemas pueden llegar a una conclusión pero sin explicar cómo llegaron hasta ahí, vulnerando el derecho constitucional al debido proceso. Entonces la caja negra se vuelve peligrosa. Las nuevas medidas que propone la UE responden en parte a estas denuncias. El miedo ya no es a un régimen totalitario como en 1984, sino a un modelo donde la vigilancia y el control se puede ejercer de manera silenciosa. La falta de un organismo que controle estás practicas -y que nos asegure que no serán ni racistas, ni sexistas ni discriminatorias- tal vez explique el poder descomunal que tienen hoy los algoritmos en nuestras vidas.

Hacia el final, el documental plantea que ser completamente eficientes, hacer lo correcto y cumplir las ordenes, no siempre es lo más humano. A veces lo humano es decidir no hacer algo. Mientras no exista una legislación sobre esa caja negra, difícilmente se podrá configurar una ética para estos sistemas capaces de buscar delincuentes pero también de vigilar disidentes políticos o desestabilizar la democracia con desinformación. Y una inteligencia sin ética, no es del todo inteligencia.

 

Etiquetas
stats