San Valentín digital: Chatbots románticos y el riesgo de compartir demasiado

Publicado el 14 febrero 2024 por Lauratuero @incubaweb

La llegada de San Valentín ha traído consigo una proliferación de chatbots de IA románticos que prometen compañía y conversaciones «empáticas». Sin embargo, una investigación reciente ha destapado la preocupante realidad detrás de estos servicios digitales: la falta de privacidad y el riesgo potencial para los usuarios.

Según Check Point Research, en enero se registraron 18.171 nuevos dominios con las palabras «Valentine» o «love», un aumento significativo con respecto al año anterior. Sorprendentemente, 1 de cada 8 de estos dominios fue considerado malicioso o de riesgo, exponiendo a los usuarios a potenciales amenazas cibernéticas.

La fascinación por los chatbots románticos ha revelado una grave preocupación: la recopilación de información personal y sensible. Misha Rykov, investigador de privacidad, advierte sobre la toxicidad y dependencia que estos servicios pueden generar, todo mientras extraen valiosa información de los usuarios.

La mayoría de estos chatbots no ofrecen detalles sobre el funcionamiento de los modelos lingüísticos de IA que utilizan, dejando a los usuarios en la oscuridad sobre cómo se procesa y utiliza su información. Esto plantea preguntas sobre la transparencia y la ética detrás de estos servicios digitales.

Además, la política de privacidad de algunas aplicaciones, como CrushOn.AI, indica que podrían recopilar información personal extensa, incluyendo datos sobre salud sexual y medicamentos. Esto eleva el nivel de intrusión y la posibilidad de abuso de información.

Otro aspecto alarmante es la falta de responsabilidad de estas compañías respecto a las acciones o daños que sus chatbots puedan causar. Los términos de servicio de Talkie, por ejemplo, eximen a la empresa de cualquier responsabilidad indirecta, incidental o especial, incluso en casos de daño a la reputación o pérdida de datos.

A pesar de promocionarse como mejoras para la salud mental y el bienestar, estos chatbots no garantizan ni respaldan sus afirmaciones en términos legales. Romantic AI, por ejemplo, aclara en sus términos que no proporciona servicios de salud o asistencia médica, contradiciendo sus promesas de beneficios para la salud mental.

La etiqueta de advertencia de *Privacidad no incluida ha sido asignada a los 11 chatbots de IA románticos analizados, destacándolos como productos problemáticos en términos de privacidad. Esta situación subraya la necesidad urgente de regulaciones y estándares más estrictos en la industria de la IA para proteger a los usuarios de prácticas invasivas y potencialmente dañinas.

En resumen, mientras que los chatbots de IA románticos pueden ofrecer una distracción divertida para el Día de San Valentín, es crucial que los usuarios estén conscientes de los riesgos asociados y tomen medidas para proteger su privacidad y seguridad en línea. La transparencia, la responsabilidad y el respeto por la privacidad de los usuarios deben ser prioritarios en el desarrollo y la implementación de estas tecnologías emergentes.