Peter se sentó solo en su habitación cuando las primeras oleadas de euforia atravesaron su cuerpo como una corriente eléctrica. Estaba en la oscuridad, salvo por la suave luz azul de la pantalla que brilla desde su regazo. Luego comenzó a sentir dolores de pánico. Levantó su teléfono y escribió un mensaje para Chatgpt. “Tomé demasiado”, escribió.
Peter, que pidió su apellido omitido de esta historia por razones de privacidad, está lejos de ser solo. Un número creciente de personas está utilizando chatbots de IA como “cuidadores de viaje”, una frase que tradicionalmente se refiere a una persona sobria encargada de monitorear a alguien que está bajo la influencia de un psicodélico y compartir sus experiencias en línea. Es una combinación potente de dos tendencias culturales: usar IA para la terapia y usar psicodélicos para aliviar los problemas de salud mental. Pero este es un cóctel psicológico potencialmente peligroso, según los expertos. Si bien es mucho más barato que la terapia psicodélica en persona, puede ir mal.
Esto es especialmente cierto, según Bender, cuando se pide a los chatbots que brinden consejos sobre temas sensibles como la salud mental. “Las personas que venden la tecnología reducen lo que es ser un terapeuta de las palabras que las personas usan en el contexto de la terapia”, dice ella. En otras palabras, el error radica en creer que la IA puede servir como un sustituto de un terapeuta humano, cuando en realidad es solo generar las respuestas que alguien que realmente está en terapia probablemente le gustaría escuchar. “Ese es un camino muy peligroso para bajar, porque se aplana y devalúa la experiencia, y establece a las personas que realmente necesitan para algo que es literalmente peor que nada”.
Publicado Originalme en TechnologyReview.com el 1 de julio de 2025.
Ver Fuente Original