Revista Salud y Bienestar

¿El uso de chatbots de IA para evitar la soledad puede afectar la salud mental?

Por Jesus Gutierrez @saludymedicina
¿El uso de chatbots de IA para evitar la soledad puede afectar la salud mental?
Los sistemas de chatbot de IA, como ChatGPT, DeepSeek, Perplexity y Copilot, se utilizan cada dia más como confidentes de elección, pero recurrir a los chatbots de IA para obtener compañía y apoyo emocional es motivo de preocupación, especialmente en personas jóvenes.

Estamos presenciando una generación que está aprendiendo a formar vínculos emocionales con entidades que carecen de capacidades de empatía, cuidado y sintonía relacional similares a las humanas y las estrategias basadas en evidencia para reducir el aislamiento social y la soledad son primordiales.

ChatGPT, por ejemplo, cuenta con alrededor de 810 millones de usuarios activos semanales en todo el mundo, y algunos informes sitúan la terapia y la compañía como una de las principales razones de uso.

Entre los jóvenes, un estudio descubrió que un tercio de los adolescentes usan compañeros de IA para la interacción social, y uno de cada 10 informa que las conversaciones de IA son más satisfactorias que las conversaciones humanas, y uno de cada tres informa que elegiría compañeros de IA en lugar de humanos para conversaciones serias.

A la luz de esta evidencia, parece prudente considerar el uso problemático de chatbots como un nuevo factor de riesgo ambiental al evaluar a un paciente con alteración del estado mental. En estos casos, los médicos tenemos que comenzar con una pregunta suave sobre el uso problemático de los chatbots, en particular durante los períodos de vacaciones cuando las poblaciones vulnerables corren mayor riesgo, seguida, si es necesario, de preguntas más específicas para evaluar los patrones de uso compulsivo, la dependencia y el apego emocional.

La IA podría aportar beneficios para mejorar la accesibilidad y el apoyo a las personas que experimentan soledad,sin embargo se necesitan estudios empíricos para caracterizar la prevalencia y la naturaleza de los riesgos de las interacciones entre humanos y chatbots. Hay que desarrollar competencias clínicas para evaluar el uso de IA por parte de los pacientes, implementar intervenciones basadas en evidencia para la dependencia problemática y abogar por marcos regulatorios que prioricen el bienestar a largo plazo por sobre métricas de participación superficiales.

Mientras tanto, es fundamental centrarse y desarrollar estrategias basadas en evidencia para reducir el aislamiento social y la soledad.


Volver a la Portada de Logo Paperblog