• Las aplicaciones de salud mental satisfacen una necesidad crítica, pero tienen un lado oscuro.
  • El uso depredador de datos confidenciales suele formar parte del modelo de negocio de las empresas tecnológicas.
  • Pero en el caso de las empresas de salud mental, estas prácticas pueden socavar los fundamentos mismos de la atención de salud mental.
  • ¿Ya conoces nuestra cuenta de Instagram? Síguenos.

¿Cómo ganar dinero a costa de personas atrapadas en una emergencia de salud mental? Con una aplicación.

Loris, una startup que ayuda a las empresas a mejorar sus conversaciones de servicio al cliente, encontró una manera. Desde su fundación en 2018 utilizó datos generados a partir de conversaciones de texto con personas en problemas. Esto, con la intención de fabricar un software de atención al cliente «empático»

La fuente de esos datos era Crisis Text Line, una línea directa de prevención del suicidio sin fines de lucro y empresa matriz de Loris.

El uso de millones de mensajes de WhatsApp y Facebook

Crisis Text Line utiliza inteligencia artificial (IA) para responder a personas que sufren abusos emocionales, autolesiones y pensamientos suicidas. Una investigación de Politico de 2022 explica cómo la línea de ayuda creó Loris para vender un software de IA que pudiera guiar a los agentes de atención al cliente. Esto a través de chats en directo con los clientes utilizando «técnicas de desescalada, estrategias de inteligencia emocional y experiencia formativa» de eficacia probada.

En el centro del acuerdo estaba lo que Crisis Text Line denominó el «mayor conjunto de datos sobre salud mental del mundo». Es decir, 219 millones de mensajes de más de 6.7 millones de conversaciones a través de SMS, Facebook Messenger y WhatsApp.

La explotación de datos con fines lucrativos es habitual en el negocio de la tecnología moderna. Los motores de búsqueda, las plataformas de redes sociales y las aplicaciones de streaming los recopilan y monetizan.

Pero comercializar los datos de una línea de crisis es muy distinto de extraer cifras sobre hábitos de los clientes a la hora de ver películas. Los datos que usaron para Loris procedían de personas que se encontraban en el momento más bajo de sus vidas. Uno en que quizá no eran capaces de comprender realmente cómo se utilizarían y dar su consentimiento.

Después de que el artículo de Politico desatara la indignación, las empresas afirmaron que solo utilizaban datos anónimos. No obstante, las investigaciones demuestran que esto no es infalible. Al final, el furor fue tan grande que Crisis Text Line dejó de enviar datos a Loris y le pidió que borrara toda la información previa.

Sin embargo el problema de Loris fue solo uno más de un creciente número de fiascos relacionados con los datos de salud mental.

La parte de la industria basada en la tecnología, que crece como la espuma, tiene un lado oscuro. En el último año, un diversos informes revelaron que algunas empresas conocidas del sector recurren a prácticas perjudiciales como el intercambio de datos. Con ello, comienzan a ver a las personas necesitadas de ayuda como posibles fuentes de ingreso, en lugar de como pacientes.

En conjunto, los informes revelan abuso de confianza de los consumidores e incumplimiento de la normativa que pone en peligro a personas muy vulnerables. Con ello, plantean importantes cuestiones sobre el futuro de la atención a la salud mental y el papel de la tecnología en ella.

El caso de las aplicaciones de salud mental

La depresión es una de las principales causas de discapacidad en todo el mundo. Cada 40 segundos muere una persona por suicidio. Se calcula que cada año se pierden 12,000 millones de días laborables. Y con ello, un billón de dólares a causa de la depresión y la ansiedad.

Es un reto enorme que ha reta a la atención convencional de salud mental. Por término medio, la salud mental recibe menos del 2% de los presupuestos sanitarios nacionales. Además, hay una grave escasez de terapeutas y psiquiatras cualificados.

Solo una de cada cinco personas en los países de renta alta y una de cada 27 en los de renta baja y media-baja reciben tratamiento adecuado. Si a esto añadimos el aumento de la demanda de atención de salud mental provocado por la pandemia, la situación empeora.

Aquí entran: En Silicon Valley creen que la tecnología puede resolver los problemas más complejos del mundo. Las inversiones de capital riesgo en startups de salud mental crecieron de 2,300 mdd en 2020 a 5,500 mdd en 2021. Incluso cuando la financiación se enfrió en 2022 en medio de una desaceleración más amplia de la industria tecnológica, la salud mental era el área de salud digital con mayor financiación.

Los dos tipos de aplicaciones de salud mental

Han surgido dos tipos de empresas en el panorama de las startups de salud mental. Primero, las aplicaciones basadas en chatbot, como Woebot. Ofrecen «herramientas y tácticas clínicamente probadas» basadas en los principios de la terapia cognitivo-conductual. Con ello, buscan ayudar a los usuarios a lidiar con el estrés cotidiano y los problemas emocionales. El principal atractivo de estas aplicaciones es la promesa de ayuda inmediata 24/7.

Pero dada la preocupación por los límites de la tecnología como sustituto de los terapeutas humanos, gran parte de la acción se concentra en el segundo modelo.

En este, las empresas que ponen en contacto a los usuarios con los terapeutas adecuados a través de un mercado virtual. Las clínicas de salud mental totalmente online ofrecen incluso servicios de gestión de recetas para ayudar a las personas a acceder al medicamento.

La atención de salud mental en línea es atractiva porque permite buscar ayuda desde la intimidad de su espacio personal. Además, promete un acceso radicalmente mejor que el de las clínicas tradicionales. Eso es similar al del comercio electrónico o las empresas de transporte.

Sin embargo, aunque estas empresas pueden ofrecer algunas ventajas a los pacientes, la mentalidad de «moverse rápido y romper cosas» que ha llegado a definir a la industria de la salud, no es la misma.

La gran mayoría de las aplicaciones de salud mental son «excepcionalmente extrañas»

BetterHelp, un ejemplo de terapia en línea fundado en 2013, se autodenomina «la mayor plataforma de terapia del mundo». Dice tener más de dos millones de usuarios.

La startup también es un ejemplo para el sector en otro sentido. En marzo, la Comisión Federal de Comercio de Estados Unidos (FTC) reprendió a la compañía por «traicionar la información de salud más personal de los consumidores con fines de lucro.»

Dijo que BetterHelp entregó datos sensibles de los usuarios —incluidos correos electrónicos, direcciones IP y respuestas a cuestionarios de salud— a Facebook. Esto, con el fin de que la plataforma utilizara esta información para publicar anuncios de BetterHelp a usuarios similares.

Añadió que BetterHelp hizo esto a pesar de prometer a los usuarios que sus datos solo se divulgarían para fines limitados. Por ejemplo, la prestación de servicios de asesoramiento.

También afirmó que la campaña de BetterHelp en Facebook le ayudó a conseguir decenas de miles de nuevos usuarios de pago.

Por ello, la FTC prohibió a BetterHelp compartir los datos sanitarios privados de los usuarios con terceros. Además, le ordenó pagar una multa de 7.8 mdd que se destinaría a reembolsos parciales a los clientes. Esa era la primera vez que la Comisión sancionaba a una empresa de salud mental por mal uso de los datos privados de los usuarios.

BetterHelp decidió llegar a un acuerdo, pero no aceptó haber cometido ningún delito y defendió sus métodos como «estándar del sector».

No era la primera vez que BetterHelp era señalada por sus cuestionables prácticas con los datos. En una investigación de 2020, Jezebel descubrió que la empresa compartía con Facebook los metadatos de cada mensaje enviado por sus redactores durante una sesión de terapia en la aplicación BetterHelp.

Los metadatos permitieron a Facebook saber a qué hora del día acudieron los usuarios a terapia; su ubicación aproximada, y cuánto tiempo chatearon en la aplicación.

La afirmación de BetterHelp de que sus prácticas de intercambio de datos eran «estándar del sector» es más una acusación contra el sector que una exculpación para la empresa.

Días después de la orden de la FTC, medios informaron Cerebral, otra startup de salud mental en línea, admitió compartir con anunciantes y redes sociales información privada de 3.1 millones de pacientes estadounidenses; estas incluían evaluaciones de salud mental.

La empresa afirma que eliminó el código de rastreo de datos de sus aplicaciones.

Otras startups de salud mental también usaron datos personales con fines de lucro

Las startups de salud mental Talkspace y BetterHelp, así como docenas de otras, también fueron nombradas en un informe condenatorio de 2022 de la Fundación Mozilla, una organización sin ánimo de lucro que describe su misión como trabajar para mantener la salud de Internet. El informe destacaba las prácticas de seguridad y privacidad sin escrúpulos de las aplicaciones de salud mental, concluyendo que la gran mayoría de ellas rastreaban, compartían y comercializaban los pensamientos y sentimientos más íntimos y vulnerables de sus usuarios. La Fundación Mozilla calificó estas prácticas de «extremadamente espeluznantes».

«A pesar de que estas aplicaciones tratan temas increíblemente delicados -como la depresión, la ansiedad, los pensamientos suicidas, la violencia doméstica, los trastornos alimentarios y el TEPT-, comparten datos de forma rutinaria, permiten contraseñas débiles, se dirigen a usuarios vulnerables con anuncios personalizados y presentan políticas de privacidad vagas y mal redactadas», señala el informe.

A principios de este año, un estudio de Joanne Kim, del Laboratorio de Políticas Tecnológicas de la Universidad de Duke, puso de manifiesto el alarmante grado de mercantilización de los datos de salud mental.

Aunque no está claro de dónde obtienen los intermediarios sus datos de salud mental debido a la falta de regulación, el estudio concluyó que estos intermediarios comercializaban los datos en el «mercado abierto, con una investigación aparentemente mínima de los clientes y aparentemente pocos controles sobre el uso de los datos adquiridos».

Algunas empresas de intermediación de datos cobraban más de 75,000 o 100,000 dólares al año por acceder a datos que, según afirmaban, incluían información sobre el estado de salud mental de las personas. Según el estudio, un intermediario cobró 275 dólares por 5,000 recuentos agregados de historiales de salud mental de estadounidenses.

Otro «anunciaba al autor datos de salud mental muy delicados, incluidos nombres y direcciones postales de personas con depresión, trastorno bipolar, problemas de ansiedad, trastorno de pánico, cáncer, trastorno de estrés postraumático, trastorno obsesivo-compulsivo y trastorno de la personalidad, así como de personas que habían sufrido accidentes cerebrovasculares y datos sobre la raza y etnia de esas personas», añadía el informe.

Hay suficientes empresas centradas en la salud que han fracasado a la hora de mantener a salvo los datos sanitarios privados que, a estas alturas, está claro que el problema afecta a todo el sector. Hay algo muy preocupante en el hecho de que las aplicaciones que prometen ayudar a las personas con sus problemas más delicados traicionen la confianza de los usuarios. El mayor reto es cómo responsabilizar a estas empresas de sus acciones.

Zonas grises legales

Tras el informe de Mozilla en verano, un grupo de senadores de Estados Unidos envió una carta a Talkspace y BetterHelp pidiéndoles explicaciones sobre sus políticas de datos. Los senadores expresaron su preocupación por la forma en que estas empresas compartían los datos confidenciales de los usuarios con «terceras empresas de Big Tech y empresas de filtración de datos».

Pero el mayor escrutinio del Congreso puede no servir de mucho. Aunque estas actividades parezcan ilegales, puede que no lo sean. La Ley de Portabilidad y Responsabilidad del Seguro Médico, creada en los años 90, solo se aplica a las «entidades cubiertas» en Estados Unidos. Es decir, para los miembros de la consulta médica u hospital, y a sus «socios comerciales».

Las herramientas de salud digital ocupan una zona gris bajo la HIPAA, un defecto que puede ser explotado por todo tipo de empresas, desde plataformas de terapia virtual a rastreadores del periodo.

«Según tengo entendido, la HIPAA no se aplica a los productos sanitarios de venta directa al consumidor, lo que incluiría la inmensa mayoría de las aplicaciones de salud mental», me dijo Piers Gooding, investigador de la Facultad de Derecho de Melbourne y editor asociado del International Journal of Mental Health and Capacity Law.

«La FDA y la FTC pueden desempeñar un papel en la evaluación de estas tecnologías directas al consumidor y de sus afirmaciones», añadió Gooding. «Pero sigue habiendo lagunas. Por ejemplo, la FTC no parece cubrir los datos recogidos por organizaciones sin ánimo de lucro, que era una preocupación planteada en el caso Crisis Text Line.»

Cuando se les pregunta por las violaciones de datos, estas empresas suelen escudarse en la excusa de que se han asegurado el «consentimiento legal» de sus usuarios exigiéndoles que acepten los términos y condiciones de las plataformas cuando se registran. En el mundo real, sin embargo, el consentimiento legal rara vez se traduce en un consentimiento significativo.

«Casi todos los formularios de consentimiento que encontramos en Internet son textos densos llenos de jerga jurídica inaccesible», escribió Deepa Singh, investigadora de ética de la IA en la Universidad de Delhi, tras la polémica de Crisis Text Line.

Además, dar el consentimiento suele ser un acto puntual en el ciclo vital de un usuario que utiliza un servicio concreto. Un consentimiento significativo tiene más matices. Requiere una comprensión clara de lo que se pide al usuario, puede cambiar con el tiempo y «no se esconde detrás de la ofuscación», argumentó Singh.

Una encuesta realizada en 2020 reveló que sólo el 9% de los consumidores de Estados Unidos estaban dispuestos a compartir su información sanitaria personal con una empresa de tecnología sanitaria. Sin embargo, las aplicaciones que traicionan los datos sanitarios de los usuarios siguen siendo populares.

Cuando Erica Camacho, Asher Cohen y John Torous, investigadores en psiquiatría del Centro Médico Beth Israel Deaconess de Boston, analizaron 578 aplicaciones de salud mental, no encontraron correlación entre sus problemáticas características de privacidad y su popularidad.

Cómplices del capitalismo de la vigilancia

Hay indicios de un cambio cultural en las principales empresas de salud mental en línea que no se limitan a ese manejo de datos. Crisis Text Line, por ejemplo, despidió a su director ejecutivo y fundador tras las acusaciones de racismo de sus empleados; esto ocurrió antes de que salieran a la luz sus prácticas de intercambio de datos.

Cerebral despidió a su fundador y CEO tras acusarla de prescribir indebidamente sustancias controladas a sus usuarios. Ahora, la empresa está reduciendo su plantilla. De hecho, despidió a cientos de empleados a finales de febrero mientras lucha por hacer frente a un año de escrutinio público.

Los cofundadores de Talkspace abandonaron la empresa a finales de 2021. Según el medio especializado Behavioral Health Business, fue debido a los mediocres resultados financieros. Su presidente y el director de operaciones siguieron su ejemplo a raíz de una «revisión interna de su conducta».

Para ser justos, se podría ver el problema como los dolores de crecimiento de la industria. Una de las primeras aplicaciones populares de salud mental, PTSD Coach, fue lanzada por el Departamento de Asuntos de Veteranos de Estados Unidos en 2011.

El crecimiento explosivo del número de aplicaciones desde entonces —20,000 están en circulación— hace que sea fácil olvidar que se trata de una industria que apenas está en su adolescencia.

Sin embargo, el patrón de engaño repetido y el desprecio despiadado por la seguridad de los usuarios no pueden descartarse por completo como errores cometidos por algunas nuevas empresas.

El uso depredador de datos confidenciales suele formar parte del modelo de negocio de las empresas tecnológicas. Pero en el caso de las empresas de salud mental, estas prácticas pueden socavar los fundamentos mismos de la atención de salud mental. Es decir, dignidad, confianza y seguridad psicológica.

Como escribió Crisis Text Line en su sitio web ensalzando su acuerdo con Loris: «¿Por qué vender camisetas cuando puedes vender lo que tu organización hace mejor?».

AHORA LEE: Tu salud mental en el trabajo importa y la ley lo contempla —esto es lo que dice la NOM 035

TAMBIÉN LEE: La productividad te está agotando —por qué intentar ser más eficiente puede llevarte a sufrir un problema de salud mental

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitter y Youtube

AHORA ESCUCHA:

AHORA VE: