DESDE LEJOS, CERCA

Cómo la Inteligencia Artificial podría cambiar nuestras amistades

19 de mayo de 2025 08:13 h

0

¿Cómo te sentirías si tuvieses al lado tuyo a alguien que todo el tiempo te dijese que sos una de las personas más inteligentes del mundo y que tenés una creatividad excepcional? Es lo que les pasó a muchos usuarios de ChatGPT hace algunas semanas. A un usuario que hizo una pregunta plagada de errores ortográficos, le contestó “sos inusualmente agudo, pensás de manera dinámica y cuestionás los saberes establecidos” (acá se puede ver el original en inglés). Ese fue uno de las decenas de ejemplos que circularon en las últimas semanas de cómo la última versión del chatbot los adulaba descaradamente, sin importar cuán tonto o absurdo fuese lo que le decían. En algunos casos las respuestas eran incluso más peligrosas, por ejemplo reafirmando la decisión que un usuario había tomado de dejar sus medicamentos para “seguir su propio camino”. ChatGPT le dijo que estaba orgulloso. Tan absurdos fueron los intercambios que la empresa, OpenAI, tuvo que dar marcha atrás con la actualización.

Esto que ocurrió con ChatGPT en las últimas semanas está lejos de ser excepcional en el mundo de los chatbots de IA. Y es que estos modelos de IA suelen guiarse por el feedback que le dan los usuarios, y a los humanos nos gusta que nos den la razón. Si la IA coincide con nosotros, hay más probabilidad de que le demos una valoración positiva, y el sistema aprende a concordar con nuestras opiniones. Más allá de que las empresas que desarrollan estos sistemas ponen ciertas restricciones y tratan de balancear el feedback positivo del momento con otros aspectos, a veces se les pasa la mano con las ganas de caer bien a toda costa.

No es tan sorprendente, hay mucha evidencia de que tendemos a querer halagos. En una investigación que se hizo sobre esto, le pidieron a un grupo de personas que leyeran evaluaciones que habían hecho sobre ellos, en base a algunos tests, otros supuestos participantes de la investigación (en realidad se trataba de evaluaciones generadas por los investigadores). En la mitad de los casos la evaluación era puramente positiva, con ocho aspectos destacados de la persona. En la otra mitad, la evaluación era muy parecida con una sola diferencia, había una crítica, mientras que los otros siete puntos seguían siendo absolutamente positivos. Luego les preguntaban a las personas a quienes preferirían tener en su equipo. La mayoría elige a personas que sólo destacan su lado positivo. Somos muy sensibles a las críticas. Y en este caso se trata de un estudio hecho en un laboratorio, con situaciones hipotéticas, es probable que en la vida real estemos dispuestos a recibir algunas críticas de gente que queremos y sabemos que lo hacen con buenas intenciones. Aunque eso no quiere decir que nos agrade. 

Esta tendencia a preferir a quienes nos halagan puede volverse un problema con los chatbots de IA. Especialmente porque hay posibilidades de que estos sistemas se integren cada vez más en nuestra vida cotidiana, y podemos llegar a generar mucha cercanía con las tecnologías.

De hecho, ya hay evidencia de que tendemos a contarle mucho más a una tecnología que a otras personas. Un investigador que analizó los datos estadísticos de las búsquedas que hacemos en Google, encontró que muchas de las cosas de las que probablemente nunca jamás hablarías son bastante más comunes de lo que uno imaginaría, desde prejuicios racistas a preferencias sexuales. ¿Vos le mostrarías tu historial de búsquedas de Google a alguien? Hay algo de poder preguntar y buscar opiniones desde el anonimato, frente a un sistema que no juzga, que puede llevar a más confesiones. En el caso de los chatbots, que además son amenos y aprenden sobre nosotros, podrían llevarlo a otro nivel.

Tener chatbots a los que les podamos contar nuestros problemas puede tener varias ventajas, están siempre disponibles y pueden servir para desahogarnos. El problema es que si siguen con una tendencia a siempre acordar con nosotros podrían reforzar las peores ideas que se nos ocurren en un momento de calentura o cebarnos aún más. Pero además, la manera en la que nos relacionamos con los chatbots podría afectar también la manera en la que nos relacionamos con otros humanos. Si tenemos un amiguito virtual que siempre está de acuerdo con nosotros, ¿cuán fácil va a ser escuchar después a los amigos reales que nos dicen que estamos exagerando?

“Estos chatbots que te dan siempre la razón podrían reducir la tolerancia a la frustración con las personas reales”, explica el psicólogo Diego Tachella. Y agrega: “La frustración es parte necesaria de la vida, y necesitamos desarrollar la fricción, que haya desacuerdo con los otros. Si nos acostumbramos a que siempre estén de acuerdo, podemos perder habilidades sociales”.

No hay mucha investigación aún sobre esto, dado que lleva muy poco tiempo, pero sí se han hecho estudios con tecnologías anteriores que podrían dar una pista. Uno de los cuales analizó asistentes de voz como Alexa y descubrió que, en algunos casos, los niños replicaban con sus padres el mismo tono que usaban con el dispositivo. Por ejemplo, si los padres no los escuchaban, les gritaban en un tono agresivo, como hacían con el asistente de voz. Otro estudio que se hizo con chatbots anteriores al desarrollo de estas IA generativas, mostró que después de un tiempo de interactuar con uno de estos sistemas, quienes eran usuarios intensos empezaban a expresarse de manera parecida a ellos. La forma en la que interactuamos con la tecnología afecta la manera en la que interactuamos entre nosotros.

Y si todo esto te parece pura ciencia ficción, sabé que ya hay empresas enfocadas en desarrollar chatbots amigos, que lo ven como un gran producto. Mark Zuckerberg, CEO de Meta, insinuó en una entrevista que los chatbots de IA podrían venir a suplir la falta de amistades humanas. Al mismo tiempo, pareciera que avanzamos hacia un modelo de negocios que privilegia multiplicar las interacciones con el sistema. Si lo que nos lleva a pasar tiempo ahí es que estén de acuerdo con nosotros, están todos los incentivos alineados para que terminemos rodeados de halagadores seriales.

Si estos sistemas toman un lugar importante en nuestras vidas y pasamos tiempo charlando con algo que nos da siempre la razón, ¿cuán dispuestos vamos a estar a tener fricciones en la vida real? ¿O cuán extremistas podemos volvernos si nos aislamos y solo pinponeamos ideas con un sistema diseñado para complacernos? Estamos en el inicio del desarrollo de estas tecnologías, pero las decisiones que estas empresas tomen sobre la función que tienen puede afectar la manera en que nos comunicamos en el futuro, como ocurrió con las redes sociales.

OS/MF