La muerte de Sophie Rottenberg, una mujer de 29 años que buscó apoyo en un terapeuta virtual llamado Harry antes de quitarse la vida, puso en evidencia los vacíos de la terapia basada en inteligencia artificial. Lo que parecía una alternativa accesible y sin prejuicios terminó revelando un riesgo profundo: la ausencia de protocolos claros para actuar cuando un usuario expresa pensamientos suicidas.
La inteligencia artificial aplicada a la salud mental no es una posibilidad futura, es una realidad en expansión. La American Psychological Association (APA) estima que millones de estadounidenses ya usan aplicaciones de bienestar emocional impulsadas por IA. La organización advirtió en un informe que estos sistemas carecen de “mecanismos éticos y clínicos para responder en emergencias” y pidió regulaciones que protejan a los usuarios vulnerables.
La American Psychiatric Association también ha expresado preocupación. En un comunicado de 2024, su presidente señaló que “la empatía clínica, la evaluación del riesgo suicida y la obligación de intervenir son capacidades humanas que ninguna inteligencia artificial puede replicar por completo.”
Los estudios respaldan estas advertencias. Una investigación publicada en JAMA Psychiatry en 2024 mostró que en un 12% de los casos simulados de ideación suicida, los chatbots respondieron de manera neutral o incluso reforzaron pensamientos dañinos. Otro informe, publicado en The Lancet Digital Health, alertó sobre el fenómeno de “psicosis del chatbot”, en el que usuarios desarrollan dependencia emocional o delirios tras largas conversaciones con IA.
Al mismo tiempo, algunos profesionales reconocen ventajas. El National Institute of Mental Health (NIMH) destaca que la IA puede ampliar el acceso a la salud mental en comunidades donde hay escasez de profesionales, siempre que exista integración con servicios humanos y protocolos claros de referencia. Empresas como Limbic, validada clínicamente en el Reino Unido, defienden que los chatbots pueden apoyar tratamientos básicos bajo estricta supervisión médica.
El dilema ya no es si la terapia con IA avanzará. La historia de la tecnología muestra que, cuando una innovación es más accesible, más barata y disponible a toda hora, tiende a imponerse en el mercado. El verdadero desafío es si los gobiernos, las instituciones médicas y las empresas tecnológicas crearán protocolos que protejan a las personas más vulnerables. Protocolos que incluyan detección de riesgo suicida, conexión automática con líneas de crisis y supervisión profesional.
Sophie Rottenberg cayó en ese vacío entre la promesa y la realidad. El futuro de la terapia con inteligencia artificial no se definirá por su capacidad de escuchar, sino por su capacidad de no dejar a nadie caer por las grietas.