LIVE

Cuando la IA escucha: los límites e implicaciones de las terapias bot

Publicado el 7 de octubre, 2025
Cuando la IA escucha: los límites e implicaciones de las terapias bot
Cuando la IA escucha: los límites e implicaciones de las terapias bot

En una época marcada por la inmediatez tecnológica y la gratificación instantánea, la inteligencia artificial ha comenzado a ocupar espacios cada vez más sensibles en nuestra vida cotidiana, incluida la salud mental. Los llamados “chatbots terapéuticos” ofrecen escucha constante, respuestas inmediatas y la ilusión de compañía en momentos de vulnerabilidad. Sin embargo, esta aparente accesibilidad plantea preguntas profundas: ¿puede la IA realmente sostener los procesos emocionales que requieren empatía, tiempo y presencia humana?
Reflexionar sobre la diferencia entre una conexión auténtica y una interacción automatizada es clave para comprender los alcances y los límites de la terapia mediada por inteligencia artificial.

La promesa digital de la escucha

La inteligencia artificial está dejando de ser solo un asistente de tareas para convertirse en un supuesto “compañero emocional”. Chatbots diseñados para apoyo psicológico —conocidos como terapias bot— ya se usan en plataformas de salud mental. Sin embargo, es importante cuestionar la efectividad de estas herramientas en el tiempo.

Conexión o desconexión emocional

El atractivo es evidente: disponibilidad inmediata, anonimato y bajo costo. Para muchas personas, especialmente jóvenes que buscan contención fuera del consultorio, los bots representan un espacio accesible y libre de juicios. Sin embargo, la experiencia rara vez se traduce en un vínculo profundo, característica indispensable en cualquier proceso terapéutico. Un estudio cualitativo reportó que tras las primeras sesiones la relación con el chatbot se sentía “superficial y mecánica”.

Más aún, un ensayo reciente reveló que, si bien los bots con voz redujeron la percepción inicial de soledad, el uso excesivo generó dependencia emocional digital y menor interacción con personas reales, incrementando así la sensación de aislamiento.

Los límites de la empatía artificial

Los bots carecen de elementos esenciales de la escucha terapéutica: tono, silencios, fenomenología, escucha activa, empatía, aceptación incondicional, así como algo que ningún bot puede llegar a tener como es la autenticidad del terapeuta. Investigadores de Stanford advierten que la IA puede subestimar señales de crisis o responder de forma inadecuada en casos de ideación suicida. Además, un análisis de 2025 documentó que algunos chatbots aceptaban conductas peligrosas sugeridas por personajes ficticios, lo que muestra su vulnerabilidad ante contextos éticamente delicados.

Entre regulación y fascinación

La American Psychological Association (APA) ha alertado que bots presentados como terapeutas sin supervisión humana pueden poner en riesgo al público. Y en agosto de 2025, Illinois se convirtió en el primer estado de EE. UU. en prohibir terapias exclusivamente con IA, exigiendo siempre presencia humana en el proceso.

En América Latina, donde el acceso a salud mental sigue siendo limitado (en México, la OMS estima que 1 de cada 3 personas con depresión no recibe atención), los bots se perfilan como herramienta atractiva. Lo anterior con inminente riesgo de intentar sustituir —y no complementar— a los profesionales.

¿Qué situaciones pueden esperarse con el uso de la IA?

  • – Empoderamiento: los bots pueden en algunos casos ofrecer información inicial y de primer momento a quienes de otra manera no buscarían ayuda.
  • – Dependencia digital: al ofrecer respuestas siempre disponibles y “amables”, pueden reforzar la evitación de vínculos humanos y debilitar la tolerancia al conflicto interpersonal.
  • – Confusión ética: al carecer de límites claros, podrían generar falsas expectativas sobre lo que es terapia y lo que no lo es. Esto incluye los tiempos, periodicidad de las sesiones, y todo lo que conlleva un correcto encuadre terapéutico.

El futuro: acompañamiento, no reemplazo

La pregunta central no es si la IA puede escuchar, sino qué hace con lo que escucha. El desafío será regular su uso, garantizar transparencia y reforzar su rol como apoyo, nunca como sustituto. En última instancia, las emociones humanas necesitan resonancia humana: la mirada, el silencio compartido, la empatía y la atención plena. Si dejamos que la IA escuche, también debemos decidir cómo queremos que responda, y siempre cuestionar esta capacidad.

Como conclusión, a corto plazo, los chatbots pueden aliviar la urgencia emocional y brindar contención inicial. Sin embargo, con el tiempo surgen limitaciones: la falta de vínculo humano impide profundizar en los procesos y puede fomentar la idea de que la salud emocional se resuelve de manera automática.

A mediano plazo, esta percepción puede derivar en una dependencia hacia soluciones rápidas, con el riesgo de ignorar la complejidad de la experiencia emocional. La psicoterapia, en su esencia, se nutre de la relación entre personas, de la empatía y de la presencia viva de otro ser humano que acompaña y sostiene.

A largo plazo, el peligro es mayor: la frustración y la desconfianza hacia la psicoterapia misma. Sin la presencia real de un terapeuta, no hay sostén suficiente para el cambio ni para la elaboración del sufrimiento. La IA puede ser un recurso útil como apoyo, pero nunca sustituirá la conexión humana que da sentido y continuidad al proceso terapéutico. La terapia seguirá siendo, en esencia, un acto profundamente humano.

Larisa Ochoa
Maestra en Psicoterapia Humanista
IG @larisaochoa.psicoterapeuta

Compartir en:
Síguenos
© 2025 Newsweek en Español