Impactante estudio reveló que las novias creadas con IA son “tóxicas y generan dependencia”

La Fundación Mozilla, aquella que desarrolla el navegador Firefox, realizó un estudio para comprobar cuán confiables son los chatbots que emulan una relación romántica. Las conclusiones son elocuentes: “Generan dependencia, más soledad y toxicidad, todo esto mientras extraen la mayor cantidad de datos posible sobre los usuarios”, comentó el responsable del informe, el investigador Misha Rykov.

El peligro de los “chatbots románticos”: relaciones tóxicas y vulneración de la privacidad

Tal como señala Business Insider, “un potencial peligro se cierne bajo el barniz de los romances con la IA”. Para desprevenidos, existen versiones de chatbots basados en inteligencia artificial diseñados para emular una relación amorosa. En lugar de consultar dudas o pedir que resuman un texto, los usuarios de esos modelos interactúan de forma similar a como lo harían con una pareja.

Con el ánimo de echar luz sobre esa escena, la Fundación Mozilla analizó 11 chatbots y concluyó que involucran importantes riesgos para la privacidad de los datos personales. Esto ocurre mientras “se promocionan como algo que mejorará la salud mental y el bienestar”, notó Rykov.

Los investigadores señalan que el vínculo "romántico" con las máquinas involucra riesgos para la privacidad. (Foto: Adobe Stock)
Los investigadores señalan que el vínculo “romántico” con las máquinas involucra riesgos para la privacidad. (Foto: Adobe Stock)

De acuerdo al estudio, el 73% de esas herramientas con IA no comparten cómo gestionan las vulnerabilidades de seguridad, el 45% permite contraseñas débiles y casi todas comparten o venden información de los usuarios. La única que no lo hace, señalaron los investigadores, es EVA AI Chat Bot & Soulmate.

Una de las apuntadas es CrushOn.AI que, según el informe, puede recopilar información sensible sobre la salud sexual de los usuarios y los medicamentos recetados. La Fundación Mozilla señaló que, anteriormente, herramientas en esta categoría habían fomentado comportamientos peligrosos, incluido el suicidio (Chai AI) y un intento de asesinato de la difunta reina Isabel II (Replika).

En caso de no espantarse con las advertencias y seguir “saliendo” con chatbots, los investigadores recomiendan tomar precauciones, que por cierto son aquellas que conviene aplicar en los diversos entornos digitales. Desde usar contraseñas robustas, limitar el acceso a datos sensibles (como la ubicación geográfica, la cámara y el micrófono) y evitar la divulgación de información privada.

“Hay nuevas tecnologías que son interesantes, pero no deberías pagar con tu seguridad o privacidad”, concluye el informe de la Fundación.

La respuesta de los desarrolladores de chatbots

Un portavoz de EVA AI —que se autodescribe como “tu alma gemela con IA” y “el reflejo de tus sueños románticos”— le dijo a BI que tras el mencionado informe ha decidido revisar la gestión de contraseñas para brindar más protección a los usuarios. Por lo demás, señaló que trabaja para mantener un “control meticuloso” de sus modelos de lenguaje, y que su modelo prohíbe la discusión de una variedad de temas que incluyen pedofilia, suicidio, opiniones políticas y religiosas, discriminación sexual y racial, entre otros.

Por su parte, un representante de Replika —una empresa creada por una mujer que clonó con IA a su mejor amigo fallecido— aseguró que nunca ha vendido información de los usuarios, y que “el único uso de los datos es para mejorar las conversaciones”.

Fuente: TN

ra

COMPARTIR ESTA NOTICIA

Facebook
Twitter

FACEBOOK

TWITTER


Warning: Undefined array key "feed_track" in /home/kchfm/public_html/wp-content/plugins/ultimate-twitter-feeds/includes/classes/Utfeed.php on line 61