• Una encuesta del floreciente espacio de aplicaciones románticas de IA reveló una verdad aterradora.
  • Los chatbots fomentan la "toxicidad" y husmean implacablemente en los datos de los usuarios, según un estudio de la Fundación Mozilla.
  • Una aplicación puede recopilar información sobre la salud sexual de los usuarios, recetas médicas y cuidados de afirmación de género.
  • ¿Ya conoces nuestra cuenta en Threads? Síguenos.

Hay una realidad potencialmente peligrosa que se cierne bajo el barniz del romance con novias y novios creados con inteligencia artificial, según un nuevo estudio temático del Día de San Valentín, que concluyó que los chatbots pueden ser una pesadilla para la privacidad.

La Fundación Mozilla lanzó un informe donde revisó 11 chatbots románticos y concluyó que todos no eran dignos de confianza. Además, estos se encuentran dentro de la peor categoría de productos que revisa en cuanto a privacidad.

«Aunque se comercializan como algo que mejorará tu salud mental y tu bienestar», escribió en el informe la investigadora Misha Rykov sobre los chatbots románticos, «se especializan en generar dependencia, soledad y toxicidad; todo ello mientras extraen la mayor cantidad de datos posibles de ti'».

La mayoría de las aplicaciones de novias de inteligencia artificial comparten o venden datos personales

Según la encuesta de Mozilla, 73% de las aplicaciones de novias de inteligencia artificial no comparten cómo gestionan las vulnerabilidades de seguridad. A su vez, 45% permite contraseñas débiles y todas menos un par (Eva AI Chat Bot y Soulmate) comparten o venden datos personales.

Además, la política de privacidad de CrushOn.AI establece que puede recopilar información sobre la salud sexual de los usuarios, medicamentos recetados y cuidados de afirmación de género, según la Fundación Mozilla.

Algunas aplicaciones cuentan con chatbots cuyas descripciones de personajes incluyen violencia o abuso de menores, mientras que otras advierten que los bots podrían ser inseguros u hostiles.

La Fundación Mozilla señaló que en el pasado, las aplicaciones habían fomentado comportamientos peligrosos, incluido el suicidio (Chai AI) y un intento de asesinato de la difunta reina Isabel II (Replika).

Eva AI Chat Bot & Soulmate y CrushOn.AI no respondieron a la solicitud de comentarios de Business Insider.

Un representante de Replika dijo a BI: «Replika nunca ha vendido datos de usuarios y tampoco apoya, ni nunca ha apoyado, la publicidad. El único uso de los datos de los usuarios es mejorar las conversaciones».

Para aquellos a quienes les resulta imposible resistirse a la perspectiva de tener un romance con una novia o novio de inteligencia artificial, la Fundación Mozilla insta a tomar varias precauciones.

Entre ellas está no decir nada que no quieran que lea un colega o familiar; usar una contraseña segura; optar por no participar en el entrenamiento de inteligencia artificial y limitar el acceso de la aplicación a otras funciones móviles como tu ubicación, micrófono y cámara.

«No deberías tener que pagar por nuevas tecnologías interesantes por tu seguridad o tu privacidad», concluye el informe.

AHORE LEE: Se enamoraron un chatbot de IA y quedaron devastados cuando desapareció

TAMBIÉN LEE: Los chatbots para adultos impulsados por IA se vuelven cada vez más inteligentes y sexys

Descubre más historias en Business Insider México

Síguenos en Facebook, Instagram, Twitter, LinkedIn, YouTube, TikTok y Threads

AHORA ESCUCHA:

AHORA VE: