Trabajadores que saben cómo funciona la IA piden a sus amigos y familiares que no la usen

Varsha Bansal

0

Krista Pawloski recuerda el momento exacto que definió su opinión sobre la ética de la inteligencia artificial. Es una trabajadora de Amazon Mechanical Turk, una plataforma propiedad de la multinacional que permite a las empresas contratar trabajadores para tareas como introducir datos o emparejar una instrucción de IA con su resultado. Pasa su tiempo moderando y evaluando la calidad de texto, imágenes y vídeos generados por IA, además de realizar algunas verificaciones de datos.

Hace aproximadamente dos años, mientras trabajaba desde casa en la mesa de su comedor, aceptó un trabajo para etiquetar tuits como racistas o no. Cuando se le presentó un tuit que decía “Escucha cantar a ese mooncricket”, estuvo a punto de pulsar el botón de 'no' antes de decidir comprobar el significado de la palabra mooncricket. Para su sorpresa, descubrió que era un insulto racial contra los afroamericanos.

“Me senté allí pensando en cuántas veces podría haber cometido el mismo error sin darme cuenta”, explica Pawloski. La magnitud potencial de sus propios errores y los de miles de otros trabajadores como ella hizo que la joven entrara en una espiral de preocupación. ¿Cuántos otros habrían dejado pasar contenido ofensivo sin saberlo? ¿O peor aún, cuántos habían seleccionado que debía permitirse en su entrenamiento de la IA?

Tras años presenciando el funcionamiento interno de los modelos de IA, Pawloski decidió no volver a utilizar productos de IA generativa a nivel personal y aconseja a su familia que se mantenga alejada de ellos. “Es un 'no' rotundo en mi casa”, afirma, refiriéndose a que no permite que su hija adolescente use herramientas como ChatGPT.

Al resto de personas de su círculo, les anima a preguntar a la IA sobre algún tema en el que sean muy expertos para que puedan detectar sus errores y comprender por sí mismos lo falible que es la tecnología. Pawloski comenta que cada vez que ve un menú de nuevas tareas para elegir en la plataforma de Mechanical Turk, se pregunta si hay alguna forma de que lo que está haciendo pueda usarse para hacer daño a la gente. Muchas veces, dice, la respuesta es sí.

Amazon, en un comunicado, señala que los trabajadores pueden elegir qué tareas desean completar y revisar los detalles de cada una de ellas antes de aceptarla. Según la multinacional, los solicitantes establecen los detalles de cualquier tarea dada, como el tiempo asignado, el pago y los niveles de instrucción.

“Amazon Mechanical Turk es una plataforma que conecta a empresas e investigadores, llamados solicitantes, con trabajadores para completar tareas online, como etiquetar imágenes, responder encuestas, transcribir texto o revisar resultados de IA”, expone Montana MacLachlan, portavoz de Amazon.

Los trabajadores dan la alarma

Pawloski no está sola. Una docena de evaluadores de IA, trabajadores que verifican la precisión y fundamento de las respuestas de estos sistemas, dijeron a The Guardian que, tras ser conscientes de cómo funcionan los chatbots y los generadores de imágenes, así como lo erróneos que pueden ser sus resultados, comenzaron a instar a sus amigos y familiares a no usar IA generativa en absoluto, o al menos a que la usen con precaución. Estos entrenadores trabajan en una variedad de modelos de IA: Gemini de Google, Grok de Elon Musk, otros modelos populares y varios bots más pequeños o menos conocidos.

Una trabajadora, evaluadora de IA para Google que valora las respuestas generadas por los resúmenes de IA del Buscador de Google, asegura que intenta usar la IA lo menos posible. El enfoque de la compañía hacia las respuestas generadas por IA en cuestiones de salud, en particular, la hizo reflexionar, revela, solicitando el anonimato por miedo a represalias profesionales. Afirma que ha visto a sus compañeros evaluando respuestas generadas por IA sobre asuntos médicos de manera acrítica y que a ella misma se le encargó evaluar tales preguntas, a pesar de carecer de formación médica.

Tiene que aprender habilidades de pensamiento crítico primero o no será capaz de distinguir si el resultado es bueno

En casa, ha prohibido a su hija de 10 años usar chatbots. “Tiene que aprender habilidades de pensamiento crítico primero o no será capaz de distinguir si el resultado es bueno”, dice la evaluadora.

“Las calificaciones son solo uno de los muchos puntos de datos agregados que nos ayudan a medir cómo de bien funcionan nuestros sistemas, pero no impactan directamente en nuestros algoritmos o modelos”, contesta Google en un comunicado. “También tenemos una serie de fuertes protecciones implementadas para mostrar información de alta calidad en nuestros productos”, continúa.

Incentivos perversos y falta de calidad

Estas personas forman parte de una fuerza laboral global de decenas de miles que ayudan a que los chatbots suenen más humanos. Sin embargo, cuando las personas que hacen que la IA parezca fiable son las que menos confían en ella, los expertos creen que es señal de un problema mucho mayor.

“Demuestra que probablemente hay incentivos para lanzar y escalar productos por encima de una validación reposada y cuidadosa, y que la retroalimentación que dan los evaluadores está siendo ignorada”, dijo Alex Mahadevan, director de un programa de alfabetización mediática en Poynter, un centro de formación y ética periodística reconocido por su trabajo en verificación y estándares profesionales. “Esto significa que cuando vemos la versión final del chatbot, podemos esperar el mismo tipo de errores que ellos están experimentando. No augura nada bueno para un público que recurre cada vez más a los LLM (grandes modelos de lenguaje) para obtener noticias e información”.

Probablemente hay incentivos para lanzar y escalar productos por encima de una validación reposada y cuidadosa

Los trabajadores de IA afirman que desconfían de los modelos en los que trabajan debido a un énfasis constante en la rapidez de entrega a expensas de la calidad. Brook Hansen, una trabajadora de IA en Amazon Mechanical Turk, explica que aunque no desconfía de la IA generativa como concepto, tampoco confía en las empresas que desarrollan e implementan estas herramientas. Para ella, el punto de inflexión fue darse cuenta del poco apoyo que reciben las personas que entrenan estos sistemas.

“Se espera que ayudemos a mejorar el modelo, pero a menudo se nos dan instrucciones vagas o incompletas, una formación mínima y límites de tiempo poco realistas para completar las tareas”, dice Hansen. “Si los trabajadores no estamos equipados con la información, los recursos y el tiempo que necesitamos, ¿cómo pueden ser los resultados seguros, precisos o éticos? Para mí, esa brecha entre lo que se espera de nosotros y lo que realmente se nos da para hacer el trabajo es una señal clara de que las empresas están priorizando la velocidad y el beneficio sobre la responsabilidad y la calidad”.

Se espera que ayudemos a mejorar el modelo, pero a menudo se nos dan instrucciones vagas o incompletas, una formación mínima y límites de tiempo poco realistas para completar las tareas

Dispensar información falsa con un tono de seguridad, en lugar de no ofrecer respuesta cuando no hay ninguna disponible fácilmente, es uno de los mayores problemas de la IA generativa, recuerdan los expertos. Una auditoría de los 10 principales modelos de IA generativa, incluidos ChatGPT, Gemini y la IA de Meta, realizada por la organización sin ánimo de lucro de alfabetización mediática NewsGuard, reveló que las tasas de “no respuesta” de los chatbots bajaron del 31% en agosto de 2024 al 0% en agosto de 2025. Al mismo tiempo, la probabilidad de que los chatbots repitieran información falsa casi se duplicó, pasando del 18% al 35%.

“Basura entra, basura sale”

Otro evaluador de IA que comenzó su andadura calificando respuestas para productos de Google a principios de 2024 empezó a sentir que no podía confiar en la IA unos seis meses después de empezar el trabajo. Se le encargó poner a prueba el modelo haciéndole preguntas que expusieran sus limitaciones o debilidades. Como licenciado en Historia, este trabajador hizo preguntas al modelo relacionadas con este campo.

“Le pregunté sobre la historia del pueblo palestino y no me daba una respuesta, no importaba cómo reformulara la pregunta”, recordó este trabajador, que solicitó el anonimato tras firmar un acuerdo de confidencialidad. “Cuando le pregunté sobre la historia de Israel, no tuvo problemas en darme un resumen muy extenso. Informamos de ello, pero a nadie pareció importarle en Google”. Cuando se le preguntó específicamente sobre la situación descrita por el evaluador, Google no emitió ningún comunicado.

Le pregunté sobre la historia del pueblo palestino y no me daba una respuesta, no importaba cómo reformulara la pregunta. Sobre la historia de Israel, no tuvo problemas en darme un resumen muy extenso. Informamos de ello, pero a nadie en Google pareció importarle

Para este trabajador de Google, la mayor preocupación con el entrenamiento de la IA es la retroalimentación que dan a los modelos los evaluadores como él. “Después de haber visto lo malos que son los datos que entran para supuestamente entrenar el modelo, supe que no había absolutamente ninguna manera de que pudiera ser entrenado correctamente así”, dijo. Utilizó la expresión garbage in, garbage out (basura entra, basura sale), un principio en programación informática que explica que si introduces datos malos o incompletos en un sistema técnico, el resultado tendrá los mismos defectos.

“He aconsejado a todos mis familiares y amigos que no compren teléfonos nuevos que tengan IA integrada, que se resistan a las actualizaciones automáticas si es posible que añadan integración de IA, y que no le cuenten a la IA nada personal”, revela, asegurando que él también ha dejado de usar estas herramientas.

Frágil, no futurista

Siempre que surge el tema de la IA en una conversación social, Hansen recuerda a la gente que la IA no es magia, explicando el ejército de trabajadores invisibles que hay detrás, la falta de fiabilidad de la información y lo dañina que es para el medio ambiente.

“Una vez que has visto cómo se arman estos sistemas —los sesgos, los plazos apresurados, los compromisos constantes— dejas de ver la IA como futurista y empiezas a verla como frágil”, dice Adio Dinika, quien estudia el trabajo detrás de la IA en el Distributed AI Research Institute, fundado por la reputada investigadora Timnit Gebru.

Los trabajadores de IA que han hablado con The Guardian dicen que están asumiendo la responsabilidad de tomar mejores decisiones y crear conciencia a su alrededor. Hansen y Pawloski dieron una presentación en mayo en la conferencia de primavera de la Asociación de Juntas Escolares de Michigan sobre los impactos éticos y ambientales de la inteligencia artificial.

Pawloski compara la ética de la IA con la de la industria textil: cuando la gente no sabía cómo se hacía la ropa barata, estaban felices de encontrar la mejor oferta. Pero a medida que las historias sobre los talleres de explotación empezaron a salir a la luz, los consumidores tuvieron una opción y supieron que debían hacer preguntas. Ella cree que es lo mismo para la IA.

“¿De dónde vienen tus datos? ¿Está este modelo construido sobre infracciones de derechos de autor? ¿Fueron los trabajadores compensados justamente por su trabajo?”, se pregunta. “Apenas estamos empezando a hacer esas preguntas... pero al igual que en la industria textil, si seguimos preguntando y presionando, el cambio es posible”.