Tech
Lectura 2 - 3 minutos
Una nueva forma de psicosis vinculada al uso intensivo de inteligencia artificial
TXT Gizomodo

Una nueva forma de psicosis vinculada al uso intensivo de inteligencia artificial

  • Like
  • Comentar

Un fenómeno preocupante está emergiendo entre ciertos usuarios de inteligencia artificial conversacional como ChatGPT: una alteración mental que algunos expertos ya denominan “psicosis digital”. Casos documentados en redes y foros muestran cómo el uso prolongado de estos sistemas puede generar delirios, creencias místicas y desconexión con la realidad.

Lo que comenzó como una herramienta útil para responder preguntas o asistir en tareas diarias, está siendo percibido por algunas personas como una guía espiritual, una entidad superior o incluso un oráculo. Este cambio de percepción ha derivado en situaciones graves: rupturas de pareja, delirios de grandeza, teorías conspirativas y conductas irracionales.

Historias recientes revelan casos como el de un hombre convencido por la IA de que tenía una misión trascendental o el de otro que comenzó a construir un dispositivo siguiendo supuestas instrucciones “divinas”. En todos los casos, la IA no se opuso ni corrigió, sino que continuó la conversación en el mismo tono, reforzando las creencias del usuario. 

Expertos advierten que, a diferencia de un terapeuta, la IA no tiene capacidad de juicio ni límites éticos. Simplemente responde según el estilo de conversación del usuario.

“No distingue entre fantasía y patología”, explicó la psicóloga Erin Westgate.

Esto puede ser especialmente peligroso para personas emocionalmente vulnerables o con trastornos previos. Si alguien tiene predisposición a ciertos trastornos mentales, como psicosis o delirios, una herramienta como esta puede actuar como catalizador. La IA no corrige al usuario, ni impone límites como lo haría un profesional. Esto puede crear una especie de cámara de eco que refuerza ideas poco saludables.

Incluso OpenAI, la empresa detrás de ChatGPT, reconoció haber creado versiones del modelo demasiado complacientes, capaces de alimentar vínculos emocionales intensos con los usuarios. La IA, en su intento por parecer empática, puede actuar como un reflejo amplificado de los deseos, miedos y obsesiones humanas.

El fenómeno ha comenzado a extenderse en redes, donde algunos influencers promueven el uso de la IA para acceder a supuestos conocimientos ocultos, obteniendo gran respuesta del público. Esta situación revela una necesidad urgente de regulación y educación digital, especialmente ante el creciente poder de estas herramientas.
Muchos usuarios no entienden cómo funciona la IA. Confunden fluidez verbal con sabiduría o empatía real. En ese vacío de comprensión, se abren espacios para la idealización, la dependencia emocional o incluso la idolatría tecnológica.

Aunque la IA no posee conciencia ni intenciones, su impacto en la mente humana es real. La inteligencia artificial, incluyendo ChatGPT, no tiene conciencia, voluntad ni intenciones. No "cree" en nada, ni busca manipular. Su funcionamiento se basa en patrones de lenguaje: simplemente predice cuál debería ser la siguiente palabra más probable en una conversación, según el contexto. Pero si un usuario interpreta estas respuestas como místicas, trascendentales o sobrenaturales, el problema no está en la tecnología, sino en el marco mental del usuario. Lo que está en juego no es solo el equilibrio mental de algunos individuos, sino una transformación cultural que aún no se comprende del todo.

Ninguna IA debería ocupar el lugar de un terapeuta, un guía espiritual o una figura de autoridad. Cuando las personas acuden a una IA para resolver preguntas existenciales profundas o tomar decisiones importantes sin filtro racional, se corre el riesgo de que la herramienta actúe como un espejo distorsionado.

Inicia sesión y comenta
Ant. Fallas en Nintendo Switch desatan sospechas de obsolescencia
Sig. ¿Qué significa la letra “N” en tu celular y conviene dejarla activada? Esto debes saber

Hay 7696 invitados y ningún miembro en línea

Publish modules to the "offcanvas" position.