Salud mental y privacidad

¿Y usted sabe qué está haciendo con sus datos médicos esa app?

Moodnotes, una app para monitorear tus estados mentales y hacer trackeo de tus emociones

Las estadísticas globales y locales sobre salud mental muestran un contexto por demás complejo: en Argentina una de cada tres personas presenta un problema de salud mental a partir de los 20 años, cuadro que se vio intensificado por la pandemia (los niveles de depresión en Argentina se quintuplicaron respecto a los valores “pre pandemia”, según Fundación Ineco). Asimismo, una de cada cuatro personas en el mundo padece algún tipo de trastorno mental, según la OMS, y un tercio de los adultos en EEUU tiene enfermedades de salud mental.

Pero las estadísticas cuentan sólo parte de la historia. Si, como algunos estudios sugieren, es poco probable que pasemos toda nuestra vida sin ningún problema de salud mental, un nuevo y lucrativo negocio ha crecido y ganado terreno en los últimos años: las apps de salud mental o mental health apps. Calm, Talkspace,  UpLift, Moodnotes, Shine y tantas otras encabezan un sector que cotiza cada vez más alto, pero que de a poco está siendo observado con mayor escrutinio debido a por lo menos dos cuestiones: temas de privacidad y uso de datos extremadamente sensibles, y por otro que escapa a esta nota, la efectividad en el tratamiento. “Hay dos tipos de datos: los datos personales, nombre, domicilio, datos de las personas y después están los datos sensibles. Dentro de los datos sensibles están los datos de salud. ¿Por qué los datos de salud y otros como la orientación sexual, política o religiosa son sensibles? Porque si estuvieran en manos de un tercero podrían hacer que a una persona se la discrimine, excluya o ataque”, explica Natalia Zuazo, especialista en política y tecnología y directora de Salto Agencia.

¿Cómo funcionaría la discriminación cuando hablamos de datos de salud? Por ejemplo, si llegara a manos de un potencial empleador que un individuo tiene una enfermedad preexistente, el empleador podría no contratarlo sobre la idea de elegir a las personas más sanas, o que probablemente no se enfermen en un futuro cercano o a largo plazo (si tuvieran enfermedades crónicas), y así evitarse pagar un seguro de salud. El mismo tipo de discriminación que si no contratás a una mujer en edad reproductiva porque puede tener un hijo.

“Por eso son datos sensibles, que significa que requieren un doble cuidado respecto de los otros, pero también que, ante la exposición de sus datos a la venta, son casos en los que aplica una doble sanción. Todas las bases de datos deben estar registradas ante la autoridad competente, en el caso de la Argentina en la Agencia Nacional de Protección de Datos y Acceso a la Información. ¿Cuál es el tema de estas aplicaciones en general? Que tienen sus sedes en Estados Unidos, donde la ley funciona de otra manera”, continúa Zuazo.

Al margen de su efectividad en el tratamiento, ¿acaso sabemos cómo se manejan y qué hacen exactamente con la información personal que almacenan? ¿Con quién estamos compartiendo estos datos vitales de nosotrxs? Bienvenidos a la era de los healthy-leaks, una invitación más a pensar cómo las corporaciones están capitalizándose a nuestras expensas. 

Apps de salud mental: una radiografía de tu persona

Antes de adentrarnos en las consideraciones éticas y de privacidad, es interesante pensar exactamente qué cosas pueden inferirse de algunas de estas apps en su uso cotidiano, es decir, a qué estamos expuestos. La conexión entre hábitos y salud mental puede resultar en indicadores que, extraídos de tus dispositivos, sugieran si una persona está experimentando ansiedad o depresión, o si está usando mucho su celular en medio de la noche si padece enfermedades como insomnio. También según el número y duración de las llamadas, si escribe menos o sus comportamientos en Internet, pueden inferirse otros patrones como padecer esquizofrenia, recaídas de otras enfermedades mentales, baja socialización, etc. Y de esta forma, a través de la venta de información, las compañías podrían mostrarte publicidades de antidepresivos u otros medicamentos, o recomendarte terapias/terapeutas específicos según tus hábitos y tu geolocalización.

Precisamente todo esto explica una nota reciente de la revista Aeon que reflexiona sobre cómo deberíamos usar la información sobre salud mental provista por los celulares. “La idea de que la salud mental puede ser inferida a través de los celulares y el uso de Internet está en su infancia. Sin embargo, vale reflexionar qué significa todo esto para nosotros en una era de vigilancia a través de la información y del capitalismo digital”.

La “appificación” de la salud mental tiene serios problemas, ya que no hay que olvidar que éstas son plataformas corporativas y de negocios primero, y de terapia luego, como advertían el año pasado desde un perfil de The New York Times sobre la compañía Talkspace, responsable de la aplicación que permite chatear online con un terapeuta.

El caso de Talkspace es quizás uno de los más escandalosos -o al menos, mediatizados-, ya que, como declaran varias fuentes, la data anónima que junta la empresa no es utilizada sólo para propósitos médicos, sino para vender productos de la corporación. Varios exempleados han salido a testificar al respecto y se conocen algunas de las polémicas prácticas de su departamento de marketing, que incluyen escrutinio sobre las transcripciones de las sesiones de los pacientes para mejorar las tácticas de venta. A saber, los usuarios de Talkspace no pueden borrar sus registros personales en la app.

Además Talkspace está acusada de producir falsas recomendaciones online -algunas hechas por sus propios empleados- y lleva una contienda legal con la Psychotherapy Action Network que en 2018 solicitó a la A.P.A (American Psychological Association) que revisara su política sobre anuncios comerciales de mental health apps. En el ojo de la tormenta: el permiso para comercializar terapias online que no han sido adecuadamente testeadas o verificadas como las de Talkspace. A partir de eso la compañía tuvo que cambiar la leyenda de su sitio, que decía: “Este sitio no provee terapia, sino conversación terapéutica con un especialista matriculado”.

Un gran negocio 

Para complicar las cosas aún más, la pandemia intensificó el uso de estas apps. Según el diario The Washington Post, en mayo del año pasado Talkspace declaraba haber tenido un crecimiento del 65% de su base de clientes respecto de febrero 2020. La popular app de meditación Calm estaba valuada en un millón de millones al año 2019. 

Aunque Argentina ostenta el récord de un psicólogo cada 450 habitantes, EEUU no se queda atrás con un 42% que declara haber visto a un terapeuta en algún punto de sus vidas y un 36% dispuesto a hacer algún tipo de terapia en un futuro cercano. Un contexto que Sillicon Valley parece estar aprovechando con una caterva de aplicaciones surgidas en el último tiempo para diversas cosas, o como dice el dicho popular, “si tenés algún malestar, seguro hay una app para eso”. Las hay de todo tipo, están las que ofrecen charlas con especialistas vía online como Talkspace, de meditación o para calmar el estrés y bajar la ansiedad como Calm o Shine, las de registro para monitorear tus estados mentales y hacer trackeo de tus emociones como Moodnotes; otras como Uplift que ofrecen cursos para personas con depresión, y hasta algunas en las que podés chatear con un robot o, mejor dicho, inteligencia artificial como Woebot. Algunas también escuchan los sonidos ambiente y colectan datos de geolocalización y uso del teléfono como StudentLife. 

Si todo esto no te parecía lo suficientemente inquietante, hay más. Según un estudio del 2019 que monitoreó las prácticas de 36 apps distintas relacionadas con salud mental y adicciones, un 29% compartían data sensible de sus usuarios con servicios provistos por Facebook o Google sin un disclaimer adecuado. Otro estudio de marzo encontró que el 80% comparte información de sus usuarios incluyendo sexo, peso, altura, medicamentos que toma, etc.

Aún si muchos no tienen enfermedades mentales o utilizan estas apps, es posible que sí tengan apps de ejercicio, sueño, nutrición, y si sos mujer, de gestión menstrual, instaladas. ¿Podés imaginarte la cantidad de información disponible sobre un usuario promedio que hay dando vueltas?

Qué dice la ley

Más allá de tomar consciencia de la cantidad de datos sensibles que estamos compartiendo con estas apps particulares, así como el debate sobre su efectividad y las implicancias de salud, hay que tener en cuenta cuáles son las prácticas correctas que debieran observar las corporaciones. 

“En Argentina y en Europa el modelo es el mismo, tenemos una ley integral y comprensiva de datos personales que dice que los datos personales son de las personas. Tenemos el principio de data ownership en el que la persona cede sus datos a las empresas para que estas empresas hagan algo con su consentimiento, palabra importante, un consentimiento informado. El nuevo reglamento general de protección de datos de la Unión Europea lo que dice es que cuando hay algún cambio en lo que se puede hacer con la aplicación, o con los datos que se recaban, tenemos que ser informados. También dice que si hay alguna falla de seguridad o leak en los datos las personas también tienen que ser informadas de que esos datos estuvieron expuestos”, detalla Zuazo, ya que la ley funciona diferente acá y Europa respecto de Estados Unidos.

Allí, existen lo que se conoce como leyes sectoriales de tratamiento de datos, es decir, no integrales como las nuestras, presentando posibilidad de conflictos por uso y jurisdicción según cada empresa y sector. “En EEUU -donde tienen sus sedes la mayoría de estas apps- funciona así: las distintas actividades o áreas comerciales, sean salud, bancos, seguros o educación, tienen sus propias leyes respecto al tratamiento de datos. Por lo tanto un problema muy importante para cualquier empresa, pero especialmente de este tipo, es cómo trata los datos y cómo genera confianza en sus clientes/pacientes”.

Zuazo también ofrece dos ejemplos recientes y locales de las complejidades en el uso y cesión de datos personales cuando hablamos de salud. “Esta semana tenemos dos noticias muy relacionadas: Rodríguez Larreta anuncia que están trabajando en una historia clínica digital, ahora la historia clínica de una persona, ¿en manos de quién quedaría, cómo se va a controlar eso, qué seguridad va a tener? Y luego, en Mendoza un fiscal habilitó la publicación de quienes se habían vacunado con DNI. Un dato sensiblísimo. Esto es una violación clara de la Ley Nacional de Datos Personales”.

Otra cuestión es la gestión de los datos, si por ejemplo un hospital público puede darle esos datos a otro hospital público, o a una dependencia del mismo gobierno en la Ciudad, etc. No se trata solamente de cómo cuida cada empresa o entidad pública esos datos, sino qué reglas existen para la cesión de datos en cada país y las excepciones que se pueden hacer.

¿Significa que si usamos estas apps que están sujetas, en su mayoría, a legislación del exterior tenemos que tener más cuidado o miedo? Por lo pronto es necesario preguntarse cómo funcionan, qué tipo de información pueden recolectar, y saber que su uso está reglado diferente. “Me parece que es interesante esta discusión en este momento en el cual surgen y surgirán personas que digan “prefiero que se conozca toda la lista de vacunados” o “yo no tengo nada que esconder”. No tenés nada que esconder es una frase muy tramposa porque si no tuviéramos nada que esconder iríamos desnudos por la calle o no le pondríamos clave al celular y tantos otros casos más que podemos pensar”.

LM

Etiquetas
stats