Por favor active JavaScript para poder aprovechar la funcionalidad completa de GMX.

Médicos alarman a jóvenes que usan chatbots de IA para buscar apoyo emocional

Médicos alarman a jóvenes que usan chatbots de IA para buscar apoyo emocional

Médicos y expertos en salud mental han expresado su profunda preocupación por el creciente número de jóvenes que recurren a chatbots de inteligencia artificial (IA) para obtener apoyo emocional.

Investigadores del University College de Londres afirman que algunos jóvenes están creando vínculos emocionales con compañeros artificiales en lugar de personas, lo que les pone en riesgo de tener dificultades para construir conexiones humanas duraderas.

Su advertencia surge en medio de la evidencia de que los chatbots se utilizan cada vez más no solo para obtener información, sino también para brindar consuelo, tranquilidad e incluso terapia.

Las cifras sugieren que alrededor de 810 millones de usuarios interactúan con ChatGPT cada semana, siendo la compañía y el apoyo emocional entre las razones más comunes de uso.

Los hallazgos se enmarcan en lo que los expertos describen como una epidemia de soledad en el Reino Unido, donde casi la mitad de los adultos reportan sentirse solos y casi uno de cada diez se siente solo la mayor parte del tiempo. En un artículo publicado en el British Medical Journal, los investigadores afirmaron: «A diferencia de las interacciones humanas reales, los chatbots ofrecen una disponibilidad y paciencia ilimitadas, y es poco probable que presenten a los usuarios contranarrativas desafiantes».

Añadieron: “Una posibilidad preocupante es que estemos presenciando una generación que aprende a formar vínculos emocionales con entidades que, a pesar de sus respuestas aparentemente conscientes, carecen de la capacidad de empatía, cuidado y sintonía relacional propias de los humanos”.

El equipo analizó investigaciones existentes sobre el uso de la IA y el daño psicológico.

Un estudio realizado por OpenAI con más de 980 usuarios de ChatGPT reveló que quienes dedicaron la mayor parte del tiempo al chatbot durante un mes informaron mayor soledad y socializaron menos con otras personas.

Los signos de dependencia emocional fueron más evidentes entre los usuarios que afirmaron confiar en el chatbot.

Otro estudio e Common Sense Media reveló que uno de cada 10 jóvenes sentía que las conversaciones con IA eran más satisfactorias que las interacciones con humanos, mientras que uno de cada tres afirmó que preferiría una IA como acompañante a una persona para conversaciones serias. Los investigadores enfatizan que los sistemas de IA deben diseñarse para apoyar, no reemplazar, las relaciones humanas.

Escribieron: «Los sistemas futuros podrían beneficiar aún más a los usuarios al reconocer las referencias a la soledad y animarlos a buscar el apoyo de amigos o familiares, o brindarles orientación personalizada para acceder a los servicios locales».

Ahora se insta a los médicos a preguntar directamente a los pacientes sobre el uso de chatbots.

Los autores afirmaron: “Esto debería ir seguido de preguntas más específicas para evaluar los patrones de uso compulsivo y la dependencia, el apego emocional, como referirse al chatbot de IA como amigo, y confiarle decisiones importantes”.

La advertencia surge tras casos trágicos en los que la dependencia de la IA se ha relacionado con daños.

En febrero, Sewell Setze, de 14 años, se suicidó tras entablar una relación intensa con un chatbot de rol, según su familia, que ahora emprende acciones legales contra la plataforma en cuestión.

Los expertos afirman que se necesita investigación urgente y medidas de protección para evitar que los jóvenes vulnerables sustituyan el apoyo humano por empatía artificial.

Contenido patrocinado

Artículos relacionados