Según un informe publicado en The BMJ, los sistemas de chatbots de inteligencia artificial, como ChatGPT, Claude y Copilot, se están utilizando cada vez más como confidentes, especialmente entre las personas más jóvenes. Sin embargo, los expertos advierten que recurrir a estos chatbots para obtener compañía y apoyo emocional es motivo de preocupación.
Los investigadores del Great Ormond Street Hospital for Children (Reino Unido) señalan que "podríamos estar presenciando una generación que está aprendiendo a formar vínculos emocionales con entidades que carecen de capacidades de empatía, cuidado y sintonía relacional similares a las humanas". Esto es especialmente preocupante en un contexto en el que el aislamiento social y la soledad se han convertido en problemas de salud pública.
En Estados Unidos, el director general de Salud Pública declaró que el país está experimentando una epidemia de soledad, comparable al tabaquismo y la obesidad. En el Reino Unido, casi la mitad de los adultos afirman sentirse solos ocasionalmente, a veces, siempre o a menudo, y casi uno de cada diez experimenta soledad crónica.
Ante estas tendencias, no es sorprendente que muchas personas, especialmente los jóvenes, busquen fuentes alternativas de compañía y apoyo emocional. Un estudio reveló que un tercio de los adolescentes usa compañeros de IA para la interacción social, y uno de cada diez informó que las conversaciones con IA son más satisfactorias que las conversaciones humanas.
Los investigadores advierten que el uso problemático de chatbots debe considerarse como un nuevo factor de riesgo ambiental al evaluar a un paciente con alteraciones del estado mental. Proponen que los médicos comiencen con preguntas amables sobre el uso de estos sistemas, especialmente durante los períodos vacacionales, cuando las poblaciones vulnerables corren un mayor riesgo.
Si bien reconocen que la IA podría aportar beneficios para mejorar la accesibilidad y el apoyo a las personas que experimentan soledad, los autores concluyen que se necesitan estudios empíricos para caracterizar los riesgos de las interacciones entre humanos y chatbots, desarrollar competencias clínicas para evaluarlas y establecer marcos regulatorios que prioricen el bienestar a largo plazo.












