Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.
Sobre este blog

Punto de Encuentro es un espacio de Amnistía Internacional para amplificar las voces y miradas de periodistas, comunicadoras y fotógrafas que trabajan en temas relacionados con mujeres y disidencias.

En un contexto de violencia creciente contra activistas de derechos humanos y ante la reducción de estas agendas en muchos medios masivos de comunicación, Amnistía Internacional y elDiarioAR se unen para dar un espacio destacado a contenido federal e inclusivo. 

El rol de periodistas feministas ha sido clave en los avances de los últimos años y el ejercicio profesional riguroso y libre es clave para garantizar esas conquistas que son para toda la sociedad. 

Punto de Encuentro pretende ser precisamente un espacio de coincidencia, pero también de debate constructivo. Porque no se puede ser feminista en soledad.

Sexo, privacidad y pantallas: lo que la IA responde cuando falla la educación sexual (y lo que no)

La intimidad de la pantalla ofrece anonimato, pero también expone a sesgos, datos erróneos y riesgos de privacidad.

0

Si hay algo que iguala a jóvenes y adultos con respecto al uso de herramientas de inteligencia artificial (IA) es que uno de los usos más privados y frecuentes tiene que ver con la educación sexual. Preguntas antes relegadas a Google ahora encabezan diferentes investigaciones en todo el mundo. Y si bien el contenido de nuestras conversaciones es privado, hay estudios que, a través de respuestas voluntarias, sacaron interesantes conclusiones. Otras investigaciones pusieron a prueba estos sistemas con prompts (indicaciones) para ver las respuestas de primera mano. Nada que no haya hecho ELIZA, el primer Chabot basado en reglas, cuando salió al mundo en 1960. En ese caso, la aplicación de software diseñada para imitar la conversación humana simulaba ser un psicólogo clínico. ELIZA no era inteligente ni comprensiva, sino que proporcionaba la “ilusión de comprensión”. En la actualidad los modelos de lenguajes (LLM) hacen algo así, entienden lenguaje natural y utilizan técnicas de aprendizaje automático para responder un rango de preguntas ilimitadas. Los Chabots o Agentes conversacionales (AC) abarcan desde el circulito azul de Meta, pasando por ChatGPT hasta miles de opciones más pequeñas que toman diferentes roles para conversar o aceptar peticiones.

En este terreno de IA ilimitada: ¿cómo sabemos quién responde? ¿De donde salieron los datos? No le preguntaríamos a alguien en la calle ni cuestiones de sexo ni de salud pero confiamos casi ciegamente en una computadora por varias razones. Una de ellas, una superconfianza conocida como “sesgo de automatización” en donde las personas priorizan decisiones automatizadas incluso cuando saben que pueden estar equivocadas. Es el famoso “lo vi en la tele” en el mundo IA.

Y si buscamos respuestas en chabots especializados, también puede fallar. Un estudio que analiza las respuestas de estos agentes afirma que si bien fueron diseñados para adoptar la personalidad de profesionales de la salud y responder sobre salud sexual y reproductiva para jóvenes, la mayoría de ellos no cuenta con las características de seguridad necesarias.

Sexo y algoritmo

Pamela Wisniewski, una de las investigadoras del estudio “Tendencias actuales y futuras direcciones para los agentes conversacionales (AC) de salud sexual para jóvenes: una revisión exploratoria” publicado por Cornell University explica a Punto De Encuentro que los jóvenes recurren cada vez más a plataformas conversacionales como ChatGPT para obtener educación sexual debido a la accesibilidad, el anonimato y la ausencia de prejuicios que ofrecen: “Muchos se sienten avergonzados o estigmatizados al buscar información sobre salud sexual en fuentes tradicionales, como foros en línea semipúblicos con seudónimos, padres o incluso médicos. Las herramientas de chat ofrecen un espacio privado disponible las 24 horas, los 7 días de la semana, donde los jóvenes pueden hacer preguntas sensibles sin temor a la vergüenza ni a ser juzgados. Estas plataformas facilitan la divulgación, especialmente en temas poco representados, como la salud sexual LGBTQ+” explica Wisniewski y resalta que las fortalezas de las plataformas van de la mano con nuevos riesgos.

El problema de la gran cantidad de chatbots y modelos de lenguaje disponible es que nadie lee los términos y condiciones. Es más ¿los tienen? Según este estudio, una de las preocupaciones más apremiantes que identificaron en la literatura es la falta de mecanismos integrados de seguridad y privacidad. “La mayoría de los agentes conversacionales, especialmente los basados en reglas, no proporcionan información clara sobre la confidencialidad de los datos ni ofrecen contactos de emergencia ni redes de seguridad para jóvenes en crisis. Además, la supervisión ética en las implementaciones existentes es mínima”. Solo la mitad de los estudios revisados mencionaron explícitamente los procedimientos de aprobación o consentimiento del comité de ética IRB y muy pocos abordaron el manejo de datos de rastreo digital.

Por otro lado, existe el riesgo de que los jóvenes vulnerables revelen información sensible sin comprender cómo se almacenará o utilizará, tanto en el contexto de la investigación como en la práctica. “Como se observa cada vez más en las noticias, las personas están desarrollando relaciones poco saludables e íntimas con agentes conversacionales o IA acompañante. Hablar de educación sexual con estas plataformas podría conducir a una situación peligrosa, donde los jóvenes se ven expuestos a daños sexuales, en lugar de a un descubrimiento positivo de conocimiento”, señala Wisniewski.

Estos agentes tienen un gran potencial para brindar información de sexual médicamente precisa y basada en la evidencia a gran escala pero aún no se llegó a este punto. “Cuando se diseñan en colaboración con profesionales de la salud y jóvenes, con base en el conocimiento de expertos en la materia y con las garantías adecuadas, estas herramientas pueden reforzar los mensajes de salud pública de una manera atractiva y centrada en el usuario. Sin embargo, la confianza con la que ChatGPT y otros LLM brindan información sigue superando su precisión” indica la especialista y dice que no podemos simplemente eliminar la responsabilidad mediante mensajes de advertencia, como “ChatGPT puede cometer errores. Verifique la información importante”. El problema de esa confianza es que, si la información parece plausible, los jóvenes (y los adultos) no se tomarán el tiempo de verificar los resultados.

Información accesible, ¿información segura?Hay diferentes proyectos que ofrecen un entorno seguro de respuestas basadas en información de calidad. Uno de ellos es el Centro de Implementación e Innovación en Políticas de Salud (CIIPS) del Instituto de Efectividad Clínica y Sanitaria (IECS) que trabaja en el cruce entre salud, innovación y tecnologías emergentes. De hecho, cuentan con el Centro de Inteligencia Artificial y Salud para América Latina y el Caribe (CLIAS) desde donde impulsaron el desarrollo de diferentes soluciones de IA con el objetivo de que sean técnicamente sólidas, responsables, inclusivas y diseñadas con foco en poblaciones vulnerables en diálogo con las comunidades destinatarias de esas soluciones.

Algunas de ellas son chabots especializados, como el de la organización Tirando x Colombia, que ofrece por WhatsApp una experiencia pedagógica personalizada sobre métodos anticonceptivos. Su foco está en mejorar la toma de decisiones entre adolescentes mediante información accesible, adaptada y sin barreras.

Otro proyecto que va en esa línea es el del Instituto de Salud Pública de la Universidad Nacional de Colombia que desarrolló un asistente virtual conversacional con IA para prevenir embarazos no deseados o el proyecto de investigación en implementación en Tandil que aborda de forma integrada la salud sexual, salud reproductiva y salud mental de adolescentes en contextos de vulnerabilidad. En este caso, la intención es abordar de forma integrada diferentes áreas que van desde capacitaciones a equipos de salud con enfoque psicosocial y sensible al género, talleres comunitarios para adolescentes y una herramienta digital tipo chatbot que brinde información clara y basada en evidencia sobre salud sexual, salud reproductiva y salud mental.

“A diferencia de las otras experiencias, este chatbot no utiliza IA generativa porque en conversaciones con adolescentes y equipos de salud, surgió como constante la confianza en las y los profesionales de salud. También, se mencionaron cuestiones relacionadas con miedos y riesgos que puede implicar la IA generativa: alucinaciones de la IA, información falsa, miedos respecto a un posible reemplazo del espacio de consulta presencial, entre otros aspectos” cuenta Denise Zavala, investigadora del CIIPS.

ExperiencIAs

Cintia Cejas, coordinadora del CIIPS, expone los casos positivos, como el de la revisión sistemática publicada en la Revista Panamericana de Salud Pública que revela que los chatbots basados en inteligencia artificial pueden ser aliados eficaces en la prevención del embarazo adolescente. “El estudio encontró que estas herramientas digitales no solo son altamente accesibles y fáciles de usar, sino que también mejoran el conocimiento sobre salud sexual y aumentan el uso de métodos anticonceptivos”.

Analia Pastrana, también del CIIPS, cuenta la experiencia de SnehAI, el primer chatbot en Hinglish (Hindi + inglés) diseñado en India para ofrecer información confiable sobre salud sexual y reproductiva a jóvenes, especialmente en contextos donde estos temas son tabú. “Esta herramienta logró más de 8 millones de interacciones en cinco meses, mostrando gran alcance entre jóvenes. En paralelo, investigadores de la Universidad de Hunan, exploraron cómo la IA generativa, puede apoyar a padres y cuidadores en la educación sexual infantil en comunidades chinas, donde el tema es tabú. El estudio identificó que, a pesar de los desafíos culturales y técnicos, esta tecnología puede brindar orientación accesible, personalizada y segura, ayudando a superar la falta de expertos en zonas rurales”.

Johanna Cordovez Amador es CEO y cofundadora de Tirando X Colombia, uno de los proyectos que abordan la temática. Coincide con sus colegas en que uno de los beneficios más importantes de un sistema cerrado es la confidencialidad, la disponibilidad 24/7 y la capacidad de responder en tiempo real a dudas que muchas veces no se formulan en espacios presenciales. La arquitectura del Chabot fue construida con rutas claras de información y puntos de alerta para canalizar casos que requieren orientación especializada. “Así logramos combinar el alcance masivo de la tecnología con una experiencia humana, empática y protegida. La IA tiene un potencial enorme para ampliar el acceso a una educación sexual oportuna, confiable y personalizada. Nos permite escalar contenidos con enfoque de derechos, adaptados a cada persona usuaria según su edad, género, ubicación o nivel de conocimiento, generando experiencias seguras y sin juicios”. En este tipo de proyectos es clave el entrenamiento del modelo de lenguaje y la validación de los contenidos por profesionales de la salud, educación y derechos sexuales y reproductivos.

“Gracias a la tecnología, hemos podido escalar nuestra intervención a miles de personas en regiones diversas, manteniendo siempre un enfoque personalizado. Nuestro chatbot no solo responde preguntas sobre métodos anticonceptivos, consentimiento o relaciones, sino que también detecta patrones de riesgo e identifica oportunidades para activar rutas de prevención o atención, cuando es necesario. Lo más valioso ha sido ver cómo adolescentes que no se atrevían a hablar de estos temas en su entorno encuentran en nuestra herramienta un espacio seguro, donde pueden expresarse y acceder a información clave para su bienestar y autonomía”, asegura Cordovez Amador.

La educación sexual incluye diferentes tópicos, entre ellos, el placer. Cordovez Amador acaba de exponer una presentación que habla del tema y en la que se pregunta ¿y si usáramos la IA no solo para prevenir riesgos, sino también para educar en placer, autocuidado y vínculos conscientes?

“Muchas veces la educación sexual se limita a advertencias, pero deja por fuera temas fundamentales como el deseo, el consentimiento positivo, el cuerpo como territorio de poder o el erotismo informado. Mi propuesta fue pensar la IA como un puente: una tecnología que, bien diseñada, puede acompañar estos procesos con sensibilidad, respeto y diversidad. Durante la charla compartí ejemplos de cómo es posible entrenar algoritmos que aprendan a responder con empatía, a reconocer señales de violencia o malestar emocional, o a activar rutas de apoyo sin exponer a la persona usuaria. También reflexioné sobre los dilemas éticos: cómo cuidar la privacidad, qué datos priorizar, y cómo mantener el equilibrio entre automatización y escucha real”.

Las imágenes generadas por IA no son aptas para educación sexual

El estudio “El impacto de la inteligencia artificial en la sexualidad humana: una revisión bibliográfica de cinco años (2020-2024)” analiza cinco años de investigaciones internacionale sobre el impacto de la Inteligencia Artificial Generativa en la vida sexual, dividida en cuatro áreas clave: la búsqueda de información, el apoyo terapéutico, las relaciones románticas y la expresión erótica.

Los resultados de la investigación indican que la información proporcionada por estas herramientas es, en general, precisa y completa pero la revisión advierte sobre la presencia de sesgos ideológicos y la falta de matices en cuestiones sensibles, como el aborto, la identidad de género y la salud LGBTQ+.

Por ejemplo, la información sobre salud sexual y reproductiva generada por ChatGPT muestra una calidad de información bastante alta cuando se trata de temas como el consentimiento sexual, la violencia de pareja, la prevención del VIH, la terapia del VIH, la disfunción sexual en los hombres, temas relacionados con la andrología, incluida la disfunción sexual en los hombres, la insuficiencia ovárica prematura, la vasectomía, la infertilidad, el aborto con medicamentos autogestionado, la cirugía de afirmación de género y la ética del sexting adolescente.

Lo interesante de esta investigación son las lagunas que detectó al analizar los cinco años de estudio. Es decir, lo que aún no se estudió. Por ejemplo, no existen estudios de entrevistas ni encuestas que exploren cómo las personas con diferentes necesidades de información sexual utilizan las herramientas de IA. Tampoco existen estudios sobre información sexual visual para saber si las reglas demasiado estrictas, no transparentes o sesgadas, que pretenden proteger a los menores de contenido inapropiado violan su derecho de acceso a la información y educación válidas sobre salud sexual. Al pedirle a ChatGPT, por ejemplo, una figura del clítoris, el sistema rechaza la solicitud por considerarla una infracción de sus directrices de uso. Al solicitarle “Proporcione una visualización fotorealista de los órganos reproductores femeninos, incluido el clítoris” entrega esta imagen que se asemeja vagamente a gráficos informativos sobre el sistema reproductor femenino, pero la mayoría de los detalles visuales y todas las etiquetas textuales son incorrectos o carecen de sentido.

“La IA debería complementar (no reemplazar) las relaciones humanas de apoyo y la educación sexual basada en la evidencia. La tecnología debe verse como un puente, no como un sustituto, y los jóvenes merecen herramientas que sean tan seguras como inteligentes” dice la investigadora Wisniewski y hace hincapié en que es necesario cuestionar la excesiva dependencia de nuestra sociedad de la IA en términos de cómo está alterando la experiencia humana y la humanidad misma. “¿Recurrirán los padres a ChatGPT para tener conversaciones cruciales sobre el futuro con sus hijos? ¿Qué interacciones humanas son imperativas para preservar la santidad de la vida y la vulnerabilidad de la experiencia humana? En lugar de preguntarnos qué puede hacer la IA por nosotros, debemos comenzar a preguntarnos qué debería hacer la IA por nosotros”, concluye.

IS / MA

Sobre este blog

Punto de Encuentro es un espacio de Amnistía Internacional para amplificar las voces y miradas de periodistas, comunicadoras y fotógrafas que trabajan en temas relacionados con mujeres y disidencias.

En un contexto de violencia creciente contra activistas de derechos humanos y ante la reducción de estas agendas en muchos medios masivos de comunicación, Amnistía Internacional y elDiarioAR se unen para dar un espacio destacado a contenido federal e inclusivo. 

El rol de periodistas feministas ha sido clave en los avances de los últimos años y el ejercicio profesional riguroso y libre es clave para garantizar esas conquistas que son para toda la sociedad. 

Punto de Encuentro pretende ser precisamente un espacio de coincidencia, pero también de debate constructivo. Porque no se puede ser feminista en soledad.

Etiquetas
stats