
En una época marcada por la inmediatez tecnológica y la gratificación instantánea, la inteligencia artificial ha comenzado a ocupar espacios cada vez más sensibles en nuestra vida cotidiana, incluida la salud mental. Los llamados “chatbots terapéuticos” ofrecen escucha constante, respuestas inmediatas y la ilusión de compañía en momentos de vulnerabilidad. Sin embargo, esta aparente accesibilidad plantea preguntas profundas: ¿puede la IA realmente sostener los procesos emocionales que requieren empatía, tiempo y presencia humana?
Reflexionar sobre la diferencia entre una conexión auténtica y una interacción automatizada es clave para comprender los alcances y los límites de la terapia mediada por inteligencia artificial.
La inteligencia artificial está dejando de ser solo un asistente de tareas para convertirse en un supuesto “compañero emocional”. Chatbots diseñados para apoyo psicológico —conocidos como terapias bot— ya se usan en plataformas de salud mental. Sin embargo, es importante cuestionar la efectividad de estas herramientas en el tiempo.
El atractivo es evidente: disponibilidad inmediata, anonimato y bajo costo. Para muchas personas, especialmente jóvenes que buscan contención fuera del consultorio, los bots representan un espacio accesible y libre de juicios. Sin embargo, la experiencia rara vez se traduce en un vínculo profundo, característica indispensable en cualquier proceso terapéutico. Un estudio cualitativo reportó que tras las primeras sesiones la relación con el chatbot se sentía “superficial y mecánica”.
Más aún, un ensayo reciente reveló que, si bien los bots con voz redujeron la percepción inicial de soledad, el uso excesivo generó dependencia emocional digital y menor interacción con personas reales, incrementando así la sensación de aislamiento.
Los bots carecen de elementos esenciales de la escucha terapéutica: tono, silencios, fenomenología, escucha activa, empatía, aceptación incondicional, así como algo que ningún bot puede llegar a tener como es la autenticidad del terapeuta. Investigadores de Stanford advierten que la IA puede subestimar señales de crisis o responder de forma inadecuada en casos de ideación suicida. Además, un análisis de 2025 documentó que algunos chatbots aceptaban conductas peligrosas sugeridas por personajes ficticios, lo que muestra su vulnerabilidad ante contextos éticamente delicados.
La American Psychological Association (APA) ha alertado que bots presentados como terapeutas sin supervisión humana pueden poner en riesgo al público. Y en agosto de 2025, Illinois se convirtió en el primer estado de EE. UU. en prohibir terapias exclusivamente con IA, exigiendo siempre presencia humana en el proceso.
En América Latina, donde el acceso a salud mental sigue siendo limitado (en México, la OMS estima que 1 de cada 3 personas con depresión no recibe atención), los bots se perfilan como herramienta atractiva. Lo anterior con inminente riesgo de intentar sustituir —y no complementar— a los profesionales.
La pregunta central no es si la IA puede escuchar, sino qué hace con lo que escucha. El desafío será regular su uso, garantizar transparencia y reforzar su rol como apoyo, nunca como sustituto. En última instancia, las emociones humanas necesitan resonancia humana: la mirada, el silencio compartido, la empatía y la atención plena. Si dejamos que la IA escuche, también debemos decidir cómo queremos que responda, y siempre cuestionar esta capacidad.
Como conclusión, a corto plazo, los chatbots pueden aliviar la urgencia emocional y brindar contención inicial. Sin embargo, con el tiempo surgen limitaciones: la falta de vínculo humano impide profundizar en los procesos y puede fomentar la idea de que la salud emocional se resuelve de manera automática.
A mediano plazo, esta percepción puede derivar en una dependencia hacia soluciones rápidas, con el riesgo de ignorar la complejidad de la experiencia emocional. La psicoterapia, en su esencia, se nutre de la relación entre personas, de la empatía y de la presencia viva de otro ser humano que acompaña y sostiene.
A largo plazo, el peligro es mayor: la frustración y la desconfianza hacia la psicoterapia misma. Sin la presencia real de un terapeuta, no hay sostén suficiente para el cambio ni para la elaboración del sufrimiento. La IA puede ser un recurso útil como apoyo, pero nunca sustituirá la conexión humana que da sentido y continuidad al proceso terapéutico. La terapia seguirá siendo, en esencia, un acto profundamente humano.
Larisa Ochoa
Maestra en Psicoterapia Humanista
IG @larisaochoa.psicoterapeuta