La IA, otro episodio de la dictadura del capital
Hace unos días, Kristalina Georgieva, la directora del FMI, lanzó una advertencia: “No tenemos la habilidad colectiva de proteger el sistema monetario internacional contra riesgos cibernéticos de gran magnitud”. Se refería al anuncio de una nueva herramienta de IA que permite detectar y explotar fallas informáticas a una escala y velocidad sin precedentes, lo que amenaza a todo el sistema financiero. Nada menos.
Agreguemos otro riesgo económico: la IA está absorbiendo una cantidad gigante de las inversiones a nivel global. Y, sin embargo, todavía no está claro que su aplicación vaya a redituar en los aumentos de productividad esperados. Todos confían en que sí, pero no hay elementos para anticipar que la inversión valdrá la pena. Muchos, al contrario, ven una burbuja que estallará en algún momento, dejando el tendal de víctimas que suelen dejar las burbujas financieras globales. Eso lo pagaremos todos. Y no hablemos la pérdida masiva de empleos, que ya está ocurriendo y que nadie sabe a ciencia cierta cómo reemplazaremos.
Saliendo del terreno económico, los riesgos no son menos. En política son múltiples, comenzando por la proliferación de imágenes, videos y audios falsos pero realistas generados por IA que condicionan respuestas electorales, y siguiendo por las herramientas para influir sobre ellas. Para no hablar del fetichismo de la IA, la tendencia a creer que “la IA dice tal o cual cosa” (en lugar de entender que hay muchas IA, cada una creada por empresas diferentes, que responden cosas distintas ante una misma pregunta) y a otorgar a sus respuestas el valor de verdades incuestionables, a pesar de que, lo sabemos, muchas veces son un disparate.
En el terreno cognitivo y docente los problemas son colosales. Diversos reportes advierten sobre la pérdida de capacidades intelectuales por la dependencia de la IA. Los docentes en todo el mundo están improvisando a ciegas modos de adaptar la enseñanza y las evaluaciones. Las revistas científicas no saben cómo identificar trabajos hechos por un humano y refritos generados por una IA. Se podrían dar muchos más ejemplos.
En el plano creativo hay desafíos similares. Los editores no saben cómo manejar la proliferación de libros y textos generados por IA. Los artistas, ilustradores y fotógrafos, lo mismo, pero con las imágenes. Los actores están siendo forzados a firmar contratos que permiten a las empresas usarlos como avatares incluso después de muertos. Los músicos se encuentran con hits que reproducen su estilo o incluso su voz. No es solo el reemplazo laboral: está comprometida la propiedad intelectual.
Luego, están las alarmas por la salud mental: la habilidad de simular respuestas humanas y la disposición a “seguir la corriente” del usuario está generando efectos de todo tipo, desde la profundización de la soledad y la acentuación de los delirios personales hasta el suicidio. Las advertencias se suman aquí a las que desde hace mucho tiempo se vienen haciendo escuchar respecto del uso de smartphones y redes sociales. Todos lo vemos en los niños y adolescentes: en muchos sentidos es una catástrofe.
No hay semana que instituciones, universidades, periodistas o funcionarios no emitan alarmas similares. Padres, docentes, psicólogos, editores, productores audiovisuales, todos viendo qué hacer con el daño que causa la IA, o con el déficit de atención y los problemas que generan Apps deliberadamente pensadas para ser adictivas. Todos imaginando soluciones voluntaristas: que los padres dialoguen más con sus hijos, que la escuela se adapte de tal o cual modo, que las personas se reinventen laboralmente. Cada uno imagina un camino de salida.
Entre todas las soluciones que se discuten para lidiar con estos riesgos, sin embargo, la más simple brilla por su ausencia. Nadie la plantea. Volvamos a Georgieva. Lo que dijo es bastante concreto: hay una aplicación que está por lanzar una empresa que puede generar un colapso en la economía mundial. No lo sabe a ciencia cierta, va demasiado rápido para que su equipo pueda entenderlo, pero el riesgo existe. ¿Por qué no tenemos, como sociedad, la alternativa de que esa empresa no lance esa aplicación? ¿Por qué no podemos decir, sencillamente, NO, no queremos que esté disponible, estamos mejor sin ella?
La respuesta es simple y triste a la vez: no podemos hacerlo porque hemos construido sociedades en las que el derecho de un empresario de ganar dinero está por encima de cualquier otro. Hemos garantizado que el derecho del capital sea el de mayor jerarquía. Porque eso es lo que definimos en el fondo: que ni el derecho a la vida, ni el derecho al bienestar, ni el derecho a la salud, ni el derecho a la educación, ni siquiera el derecho a la propiedad intelectual, estarán por encima del derecho de una corporación a hacer dinero. Nadie puede decirles qué hacer ni cómo hacerlo.
Cuando uno intenta plantear que podríamos tener el derecho elemental a decir que no, o a definir el cómo, siempre aparecen los mismos argumentos remanidos. ¿Qué quieren, zurdos? ¿Detener el progreso, impedir la libertad? Teniendo la posibilidad de tener IA a mano ¿vamos a desaprovecharla? ¿Vamos a prohibir los smartphones o las redes sociales? ¿Con qué derecho? ¿Quién lo decide?
No se trata de nada de eso. Se trata, simplemente, de que podamos, democráticamente, definir los rumbos y el paso del progreso tecnológico. Supongamos que todos estos desarrollos son geniales y los queremos tal y como son hoy, pero al mismo tiempo entendemos que algunos requieren un poco de tiempo para que nos adaptemos. ¿No podrían los sistemas educativos haber tenido un plazo para pensar cómo adaptarse, en lugar de verse forzados a chapucear a ciegas? ¿No podría Georgieva tener unos meses para ver como evitar que colapsen los sistemas bancarios? No son preguntas descabelladas. Pero no. No se pudo. Nadie nos preguntó.
¿Y quién decidió que las respuestas de las IA sean cálidas, simulen una conversación humana e incluso repliquen el propio estilo discursivo del usuario? ¿No habría sido mejor que fuesen de tono más impersonal, que dejen más claro que uno no está dialogando con un humano? ¿Por qué no pudimos decidir sobre ese punto? Tampoco: nadie nos preguntó.
Nos encantan las redes sociales, claro. ¿Pero quién decidió que convenía que sean lo más adictivas posibles? ¿No podríamos tener redes que no generen adicción? ¿O al menos un poco menos adictivas? ¿Es tanto pedir? ¿Y por qué son secretos los algoritmos que utilizan? ¿No podríamos preferir algoritmos que orienten nuestra atención a cosas más lindas o, al menos, menos nocivas?
Lo mismo vale para el scroll infinito. ¿No podríamos haber tenido apps y smartphones sin esa función?
O, perdón la osadía, pero quizás pudiésemos reclamar el derecho a decidir que no queremos algunos “progresos” en absoluto. Hace años que estamos dando vueltas sobre el tema de las apuestas online y el modo en que destruyen familias e involucran a los niños. ¿Realmente nos perdemos el tren del “progreso” si decidimos que no queremos que existan empresarios que ganan dinero invitando a otros a apostar con un click? ¿Nos quedamos sin alguna “libertad” fundamental si para eso hay que caminar un poco e ir a un casino, un bingo, o una casa de apuestas?
La pregunta es por qué estas decisiones están fuera de nuestras manos. ¿Por qué sería autoritario y peligrosísimo que algo así lo decida un presidente, las Naciones Unidas o una consulta popular, pero no es autoritario ni peligroso si lo decide Mark Zuckerberg él solito?
Hoy es un puñado de gente la que, como Zuckerberg, define todas estas cosas que afectan profundamente nuestras vidas y el curso del mundo. Sin ningún control democrático, sin rendir cuentas a nadie. Una verdadera dictadura del capital.
Es hora de que pensemos cómo poner fin a esa dictadura y avanzar hacia una libertad verdadera.
EA/MG
0