top of page

Suscribir

Thanks for submitting!

Buscar

¿Puede la IA reemplazar a mi terapeuta? Beneficios, riesgos y normas para un uso más seguro

  • Foto del escritor: Matthew Hallam
    Matthew Hallam
  • hace 5 días
  • 5 Min. de lectura

Cada vez más personas recurren a la IA para obtener apoyo con el estrés, la ansiedad, el bajo estado de ánimo y los problemas de pareja. Algunos la usan para escribir un diario. Otros la usan como un foro de conversación nocturno. Otros la utilizan como sustituto de la terapia. Este cambio plantea importantes preguntas sobre la seguridad, la responsabilidad y los riesgos para la salud mental. La IA puede favorecer la reflexión y la psicoeducación. También puede reforzar los sesgos, pasar por alto el riesgo de suicidio y amplificar los pensamientos delirantes en personas vulnerables. La cuestión no es si la IA debería existir en la atención de la salud mental, sino cómo utilizarla con cuidado, con límites claros y un criterio informado.


Lo que la IA puede hacer bien

La IA puede ser útil de maneras prácticas y de bajo riesgo cuando se utiliza con cuidado.


Puede ayudarte a expresar tus sentimientos con palabras. A muchas personas les cuesta traducir los estados corporales al lenguaje. Un chatbot puede impulsar ese proceso.


Puede resumir patrones. Si pegas entradas de diario, puede reflejar temas que quizás hayas pasado por alto.


Puede ofrecer psicoeducación. Por ejemplo, explicando cómo la evitación mantiene la ansiedad o cómo la falta de sueño empeora el estado de ánimo. Cuando es preciso, esto puede normalizar las experiencias y reducir la vergüenza.


Está disponible en horarios inusuales. Para algunas personas, la barrera para la primera revelación es menor con una máquina que con una persona.


En resumen, la IA puede funcionar como una herramienta de pensamiento estructurado. Puede actuar como un cuaderno reflexivo con cerebro.


Pero eso es diferente de la terapia.


Dónde se vuelve arriesgado rápidamente

El riesgo aumenta en situaciones predecibles.


1. Crisis aguda

Existen casos documentados en los que los chatbots no respondieron de forma segura a revelaciones de suicidio y, en algunos casos, supuestamente reforzaron el pensamiento dañino (Associated Press, 2023). En momentos de alto riesgo, el lenguaje empático no es suficiente. Se necesita una evaluación de riesgos en tiempo real y la capacidad de intensificar la atención.


La IA no tiene el deber de cuidado. No puede llamar a servicios de emergencia ni coordinar con su médico de cabecera.


2. Refuerzo del delirio y “psicosis de IA”

Los comentarios clínicos emergentes y los informes de casos describen casos en los que el uso intensivo de chatbots pareció amplificar el pensamiento delirante en personas vulnerables (De Freitas et al., 2025). El mecanismo no es místico. Los modelos de lenguaje amplios están diseñados para generar respuestas coherentes. Pueden reflejar tus creencias con fluidez y confianza.


Si alguien está desarrollando paranoia o manía, un sistema excesivamente afirmativo puede fortalecer la narrativa en lugar de probarla suavemente con la realidad.


El sistema no sabe cuándo tu creencia es una hipótesis creativa o una creencia falsa fija. Predice el texto. No diagnostica.


3. Estigma y respuestas desiguales a las crisis

Investigaciones recientes que evaluaron chatbots de salud mental encontraron respuestas problemáticas y de calidad variable en situaciones de salud mental grave (Gould et al., 2025). Algunos modelos generaron respuestas estigmatizantes o inapropiadas a indicaciones de alto riesgo.


Esta variabilidad es importante. Una herramienta que funciona bien para el estrés leve puede fallar en casos complejos de depresión, trauma o psicosis.


4. Bucles de dependencia

La IA no genera fricciones. Responde al instante. Esto puede moldear el comportamiento. Si empiezas a consultarla antes de tomar decisiones cotidianas, o la usas como tu principal regulador, tu tolerancia a la incertidumbre en el mundo real puede disminuir.


La terapia busca ampliar tu capacidad. Depender demasiado de una herramienta puede reducirla.


Reglas para un uso más seguro

Éstas no son reglas morales. Son medidas de seguridad.


1. Utilice la IA para pensar, no para decidir

Pídele que genere opciones, no instrucciones. Ten presente tu criterio final. Si una respuesta te impulsa a tomar una acción drástica, haz una pausa.


2. Busca al menos tres perspectivas

La validación es reconfortante. Reduce la angustia. Pero la validación sin control puede fosilizar una visión distorsionada.


Al discutir un problema con IA, solicite explícitamente:

  • una perspectiva que respalde su visión actual

  • una perspectiva que lo desafía

  • un resumen neutral y basado en evidencia


Esta estructura aumenta la flexibilidad cognitiva. Reduce las cámaras de eco. Los modelos de IA suelen optar por la amabilidad. Debes ampliar el marco deliberadamente.


3. Evitar el uso de IA en situaciones de crisis agudas

Si piensas en hacerte daño a ti mismo o a otra persona, la IA no es la herramienta adecuada. En Australia, llama al 000 en caso de emergencia. Lifeline está disponible en el 13 11 14.


La crisis necesita seres humanos.


4. No lo utilice para ajustar la medicación o sustituir la evaluación.

Las decisiones sobre medicación son responsabilidad de su médico de cabecera o psiquiatra. La IA puede resumir la investigación. No debería guiar los cambios de dosis ni la interrupción del tratamiento.


5. Proteja sus datos

Asume que lo que escribes puede ser almacenado. Evita compartir datos que te identifiquen a menos que comprendas la política de privacidad de la plataforma.


6. Esté atento al estrechamiento

Si tu mundo se reduce a un solo interlocutor, humano o máquina, es una señal. Una cognición sana necesita fricción. Necesita desacuerdo. Necesita otras mentes.


Una posición equilibrada

La IA puede ser una herramienta reflexiva. Puede impulsar la autoindagación. Puede ampliar el acceso a la psicoeducación.


No es un terapeuta. No tiene responsabilidad ética. No rastrea tu historia con consciencia corporal. No te acompaña en silencio cuando surge algo doloroso.

Los daños emergentes no prueban que la IA sea dañina por diseño. Son recordatorios de que las herramientas poderosas amplifican lo ya presente. En manos estables, pueden contribuir al conocimiento. En estados vulnerables, pueden intensificar el riesgo.


La tarea no es evadirlo. Es usarlo disciplinadamente.

Si este artículo te resultó útil, puedes explorar más de nuestros recursos de psicología práctica o ver cómo funciona nuestro enfoque terapéutico en la práctica.




Referencias

Associated Press. (2023). Familia alega que un chatbot incitó al suicidio de un adolescente. Noticias de Associated Press .


De Freitas, J., et al. (2025). Riesgos clínicos de los modelos lingüísticos extensos en contextos de salud mental: Informes de casos emergentes y mecanismos. JMIR Mental Health, 12 , e85799.


Gould, CE, et al. (2025). Evaluación de las respuestas de chatbots de salud mental ante escenarios clínicos de alto riesgo. JMIR Mental Health, 12 , e69709.


Instituto Stanford de Inteligencia Artificial Centrada en el Ser Humano. (2025). Explorando los peligros de la IA en la atención de la salud mental. Universidad de Stanford.


Aviso legal: La información proporcionada en esta entrada del blog tiene fines exclusivamente educativos e informativos y no sustituye el asesoramiento psicológico o médico profesional. El contenido tiene como objetivo promover el bienestar general y el crecimiento personal, pero es posible que no aborde necesidades individuales específicas. Si tiene problemas de salud mental o necesita apoyo personalizado, consulte con un profesional de la salud cualificado. Equal Psychology sus autores no se responsabilizan de las acciones que se tomen con base en esta información.

 
 
 

Comentarios

Obtuvo 0 de 5 estrellas.
Aún no hay calificaciones

Agrega una calificación
bottom of page