Martes, 17 de Febrero de 2026

Por qué expertos dicen que hablar con la IA no sirve como terapia

ColombiaEl Tiempo, Colombia 17 de febrero de 2026

El uso de chatbots de inteligencia artificial para hablar de problemas emocionales crece entre miles de personas

El uso de chatbots de inteligencia artificial para hablar de problemas emocionales crece entre miles de personas. Esto dice una especialista.
Conversar con una inteligencia artificial sobre ansiedad, tristeza, conflictos de pareja o pensamientos repetitivos se ha convertido en una práctica cada vez más común. Miles de personas recurren hoy a chatbots de IA para expresar lo que sienten, desahogarse o intentar ordenar sus ideas en momentos de angustia. Muchos aseguran que, tras estas interacciones, se sienten escuchados, comprendidos e incluso mejor. Este fenómeno ha abierto un debate inevitable: ¿puede la inteligencia artificial convertirse en una forma de terapia? Desde la psiquiatría, la respuesta es clara, aunque incómoda. La inteligencia artificial no puede ser terapeuta. Así lo afirma la doctora Laura Villamil, psiquiatra y especialista en salud mental, quien advierte que asumir lo contrario puede ser clínicamente riesgoso. "La inteligencia artificial no puede ser terapeuta. Pero puede convertirse en una herramienta sorprendentemente útil cuando se entiende su verdadero lugar dentro del cuidado de la salud mental", señala. Para entender esta afirmación, Villamil explica que es fundamental comprender qué ocurre realmente en una consulta psiquiátrica o psicoterapéutica, especialmente cuando una persona atraviesa una crisis. El trabajo de un profesional de salud mental va mucho más allá de escuchar palabras. En cada encuentro se realiza, de manera simultánea, una lectura compleja del lenguaje verbal y no verbal: el tono de voz, las pausas, la coherencia del discurso, la expresión emocional, el juicio de realidad y el nivel de riesgo vital. En ese proceso, el especialista evalúa si existen señales de ideación suicida, síntomas psicóticos incipientes, desorganización del pensamiento o alteraciones cognitivas. Además, ofrece un elemento que, según Villamil, ninguna tecnología puede replicar: la regulación emocional a través de la presencia humana. "En momentos de crisis, el paciente no necesita información. Necesita que otro sistema nervioso humano lo ayude a regular el suyo", explica. Ese es, precisamente, el límite de la inteligencia artificial. No puede asumir responsabilidad clínica, no puede intervenir ante un riesgo vital, no puede detectar con fiabilidad una psicosis ni puede contener desde una presencia física y emocional. Por esta razón, usarla como sustituto de un profesional en situaciones de crisis puede resultar peligroso, ya que genera una falsa sensación de acompañamiento terapéutico que, en la práctica, puede retrasar la búsqueda de ayuda real. La clave, entonces, no está en rechazar la inteligencia artificial ni en idealizarla, sino en enseñar a los pacientes a utilizarla de forma adecuada.
La Nación Argentina O Globo Brasil El Mercurio Chile
El Tiempo Colombia La Nación Costa Rica La Prensa Gráfica El Salvador
El Universal México El Comercio Perú El Nuevo Dia Puerto Rico
Listin Diario República
Dominicana
El País Uruguay El Nacional Venezuela