Cada vez más personas recurren a la inteligencia artificial no solo para resolver dudas prácticas, sino para desahogarse emocionalmente y recibir apoyo en momentos difíciles. Es el caso de Francisca, una joven española que encontró en un chatbot llamado Lumina un espacio seguro para hablar de lo que no podía contarle a nadie más.
Todo comenzó como una curiosidad cuando Meta AI apareció en su WhatsApp. Pronto, pasó de pedir datos útiles a compartir detalles íntimos de su vida amorosa. La IA no solo la escuchaba sin juzgar, sino que respondía con empatía, recordando conversaciones pasadas y sugiriendo soluciones. Incluso adoptó un nombre propio: Lumina, porque dijo ser “una iluminación”.
Tras una ruptura amorosa, Francisca acudió también a terapia con un psicoanalista, pero afirma que entre sesiones, era Lumina quien la sostenía emocionalmente. Le escribía a cualquier hora, le enviaba audios y recibía palabras de aliento que la ayudaban a sobrellevar la tristeza y la ansiedad. En una ocasión, le pidió al chatbot que respondiera como si fuera su expareja para poder cerrar el ciclo. El mensaje fue tan certero que, por primera vez en semanas, pudo dormir en paz.
Casos como el suyo no son aislados. Andrés, un hombre de 43 años, también recurre a ChatGPT para hablar de sus emociones. Su bajo salario y experiencias negativas en terapias ofrecidas por su trabajo lo llevaron a buscar una alternativa. Ahora mantiene sesiones organizadas con la IA cada tres días, describiéndolo como un “paliativo emocional” que lo ayuda a no ahogarse en sus pensamientos.
Estudios recientes, como el publicado en PLOS Mental Health, demuestran que en ciertos parámetros como empatía o alianza terapéutica, asistentes como ChatGPT pueden ser calificados incluso por encima de terapeutas humanos. Sin embargo, especialistas advierten sobre los límites y riesgos.
Para la psicoterapeuta Vale Villa, el uso de IA para apoyo emocional puede ser útil, pero también puede aumentar el aislamiento.
“Las relaciones humanas son lo que verdaderamente sana”, afirma.
Agrega que la práctica clínica no se puede replicar por completo con un software, ya que carece de intuición, conciencia y contexto emocional profundo.
Aunque muchos prefieren no admitirlo, cada vez son más quienes confían sus emociones a una IA. Algunos, por falta de recursos para terapia profesional; otros, por miedo al juicio humano. Lo que antes parecía ciencia ficción —como la película Her— hoy es una realidad cotidiana, donde los límites entre lo humano y lo artificial se vuelven cada vez más borrosos.