Un número creciente de personas utiliza ChatGPT y otros bots impulsados por inteligencia artificial (IA) como un “terapeuta improvisado”, lo que ha llevado a los expertos a cuestionar la seguridad de esta nueva práctica.
Aunque la IA puede ser útil para recuperar información y hacer predicciones, su aplicación en la tarea íntima y desafiante de la terapia es algo que probablemente no habríamos imaginado.
ChatGPT tiene 200 millones de usuarios activos mensuales en todo el mundo, y 77.2 millones de personas usan la herramienta OpenAI solo en Estados Unidos. En cuanto a Latinoamérica, Brasil encabeza el ranking con mayor número de visitas a ChatGPT, con más de 70 millones registradas solo entre enero y marzo de 2023. Le siguen de cerca Colombia y México, ambos con cifras cercanas a los 60 millones.
Shannon McNamara, creadora de contenido, es una de las usuarias que emplean la IA como herramienta terapéutica. McNamara, conocida en Internet como @fluentlyforward, ha tenido éxito tras aprovechar el poder de las redes sociales para liderar su propio pódcast. Sin embargo, como la mayoría de las personas, también tiene días malos y, a menudo, ha buscado el apoyo de su robot de inteligencia artificial.
“Uso ChatGPT cuando no dejo de pensar en un problema y no logro encontrar una solución, o incluso para entender mis propios sentimientos. Me sorprende lo increíblemente útil que es. Todos mis amigos y yo hemos descubierto que utilizar ChatGPT de esta manera, como terapia improvisada, es realmente muy útil”, comentó McNamara a Newsweek.
Aunque la creadora dice que las respuestas proporcionadas por ChatGPT son “largas”, estas suelen abarcar una variedad de soluciones y han tenido un impacto significativo en su vida y salud. Si bien McNamara reconoció las posibles preocupaciones de privacidad asociadas con compartir cada pequeño detalle con un bot, sintió que los beneficios actualmente superan los riesgos.
@fluentlyforward How i use #chatgpt for makeshift #therapy or a way to understand my feelings
“Quién sabe, quizá en cinco años, cuando los robots tomen el control, me arrepentiré de haber sido tan cruda con ChatGPT”, agregó.
CRISIS DE SALUD MENTAL
En un video de TikTok, McNamara compartió cómo usa ChatGPT. La creadora mostró a los espectadores en línea cómo interactúa con el chatbot, de manera similar a como lo haría con un diario o un terapeuta.
La publicación, titulada “Cómo uso ChatGPT como terapia improvisada o como una forma de entender mis sentimientos”, ha ganado mucha popularidad en línea y ha provocado una conversación más amplia entre los espectadores sobre los méritos y los inconvenientes de usar IA para la salud mental.
Varios creadores de la Generación Z también han compartido sus experiencias de utilizar ChatGPT como terapeuta. Una de ellas es @ashdonner, quien compartió un clip alegre en TikTok en julio, en el que detalla cómo usa la herramienta de IA para recibir ayuda cuando la necesita.
El mundo se enfrenta actualmente a una crisis de salud mental, marcada por un aumento significativo del estrés, la ansiedad y la depresión. De acuerdo con la Organización Mundial de la Salud (OMS), una de cada ocho personas padece un trastorno mental (equivalente a 970 millones de individuos).
NECESIDAD DE UNA ATENCIÓN INTEGRAL, MÁS ALLÁ DE CHATGPT COMO TERAPEUTA
Los más comunes son la ansiedad y los trastornos depresivos, que en 2020 aumentaron considerablemente debido a la pandemia de covid-19; las estimaciones iniciales muestran un aumento del 26 y 28 por ciento de la ansiedad y los trastornos depresivos graves en solo un año. Aunque existen opciones eficaces de prevención y tratamiento, la mayoría de las personas que padecen trastornos mentales no tienen acceso a una atención efectiva. Además, muchos sufren estigma, discriminación y violaciones de los derechos humanos.
Este aumento de los problemas de salud mental subraya la necesidad de una atención integral y una mayor accesibilidad, pero el alto costo de la terapia tradicional en comparación con la creciente accesibilidad de las herramientas de IA está impulsando a más personas a recurrir a plataformas como ChatGPT para obtener apoyo emocional.
CHATGPT TERAPEUTA FRENTE A LOS COSTOS REALES DE LA TERAPIA
El año pasado, el costo promedio de una sesión de terapia en Estados Unidos osciló entre 100 y 200 dólares, lo que la hace inasequible para muchos, especialmente adultos jóvenes y adolescentes. En México, el precio de una sesión va desde los 300 hasta 1,500 pesos, en promedio. Las herramientas de inteligencia artificial, por otro lado, suelen ser gratuitas o de bajo costo y están disponibles las 24 horas del día, los siete días de la semana, lo que brinda una alternativa atractiva.
A pesar de este atractivo, los profesionales de la salud mental han expresado su preocupación por esta creciente tendencia. “El uso de la inteligencia artificial como sustituto de la terapia no es comparable con la terapia real”, dijo a Newsweek Rachel Goldberg, psicoterapeuta y fundadora de Rachel Goldberg Therapy en Studio City, California.
Y agregó: “Si bien la IA puede despertar la curiosidad y ofrecer nuevas perspectivas, especialmente para alguien que lucha solo y necesita una forma rápida de liberar emociones y afrontar la situación, tiene limitaciones significativas. Uno de los aspectos más cruciales de una terapia exitosa es la conexión entre el terapeuta y el paciente. Las investigaciones demuestran que esta conexión humana es la base por la que la terapia funciona para ayudar a una persona a crecer”.
Goldberg advirtió que las conexiones son esenciales para que los clientes se sientan lo suficientemente seguros como para explorarse a sí mismos y lograr un crecimiento personal a través de sus sesiones de terapia.
“Este tipo de vulnerabilidad y crecimiento no puede ser replicado por la IA, ya que carece de la capacidad de formar conexiones humanas genuinas”, apuntó.
APOYO EMOCIONAL
Si bien la IA puede ser útil para brindar un acceso rápido a estrategias de afrontamiento o estimular la autorreflexión, su alcance es limitado. Sin la conexión humana, la mayoría de las personas probablemente perderían el interés en seguir interactuando con ella.
Al comparar la IA con plataformas como BetterHelp o el nuevo fenómeno Griefbots, que han enfrentado escrutinio por brindar atención inconsistente, Goldberg señaló que el impacto realmente depende del cliente y el tipo de atención que necesita.
“La atención inconsistente por parte de un terapeuta puede ser perjudicial y puede generar sentimientos de rechazo o desconfianza. Por el contrario, si bien la IA carece enormemente de contacto personal, no conlleva el riesgo adicional de daño emocional que supone una atención humana inconsistente “, dijo Goldberg.
En palabras del psicoterapeuta, la diferencia entre la IA y la terapia real es como comparar manzanas con naranjas. Sería más justo comparar un libro de ejercicios de terapia con la IA porque, en la actualidad, la IA no puede igualar la capacidad de empatizar y validar a una persona de una manera significativa.
Seth Eisenberg es el presidente y director ejecutivo de la Fundación de Aplicación Práctica de Habilidades de Relaciones Íntimas (PAIRS) y el desarrollador de la aplicación PAIRS Yodi, que proporciona herramientas de terapia cognitiva conductual (TCC) a través de una plataforma impulsada por IA.
“He tenido el privilegio de presenciar cómo la tecnología ChatGPT puede ayudar a la salud mental a escala global como terapeuta”, afirmó Eisenberg. “Con más de 200,000 personas de 175 países y territorios diferentes que han descargado la aplicación Yodi, está claro que existe una demanda significativa de herramientas de apoyo emocional accesibles e inmediatas”.
El empresario de salud mental destacó varias ventajas y desventajas del uso de la IA como medio para obtener apoyo emocional. Entre las ventajas, destacó la accesibilidad global y la disponibilidad inmediata, las herramientas y técnicas estructuradas, el anonimato y la interacción sin prejuicios, y el apoyo rentable.
“Para las personas que no tienen acceso a la terapia tradicional debido a barreras geográficas o financieras, las plataformas de IA pueden ofrecer una alternativa valiosa”, afirmó.
FALTA DE INTERACCIÓN HUMANA
Sin embargo, Eisenberg también reconoció que la IA (ChatGPT) no puede replicar la profunda conexión emocional y la empatía que surgen de la interacción con un terapeuta humano capacitado.
“La relación terapéutica es un elemento fundamental de una terapia eficaz, y aquí es donde la IA falla. Las herramientas de IA son excelentes para brindar apoyo y orientación iniciales, pero no están equipadas para manejar crisis graves de salud mental o problemas emocionales complejos. Las intervenciones personalizadas y la comprensión más profunda que brinda un terapeuta capacitado lamentablemente superan las capacidades de la tecnología de inteligencia artificial actual”, señaló.
La IA generativa, que utiliza grandes modelos de lenguaje para producir texto, puede fabricar respuestas basadas en el contexto proporcionado, que a veces es insuficiente, lo que puede dar lugar a información incorrecta o totalmente inventada. En particular, un bot de IA no puede juzgar el lenguaje corporal de su usuario ni sus expresiones faciales, y no podrá evaluar con precisión cómo se siente o se presenta. Una ilustración flagrante de las limitaciones de la IA en este campo surgió en 2023 cuando un hombre belga se quitó la vida trágicamente después de interactuar con un bot de IA en una aplicación llamada Chai.
ES ACCESIBLE, PERO NO ES LA SOLUCIÓN
Si bien las herramientas de inteligencia artificial ofrecen beneficios significativos en términos de accesibilidad y apoyo estructurado, no pueden reemplazar la atención personalizada y la conexión emocional profunda que brinda un terapeuta autorizado. Eso no ha impedido que algunos usuarios como McNamara aprovechen sus beneficios, aunque con cierta cautela.
“Siempre pensé que la IA se usaría para modelos de datos y no para algo con tanta inteligencia emocional como esto. Ha tenido un gran impacto en mi vida “, dijo el presentador del podcast FluentlyForward.
“Estoy seguro de que existen preocupaciones sobre la privacidad, pero con la cantidad de información personal que revelo a través de iMessage, en mis diarios o en Google Drive, siento que los beneficios en este caso superan los riesgos”.
Goldberg y Eisenberg coinciden en que la IA puede servir como una herramienta valiosa para lograr una mejor salud mental, pero subrayan que es esencial que las personas tengan acceso a todo el espectro de apoyo que puedan necesitar, especialmente para problemas emocionales más complejos. Tal vez lograr un equilibrio entre aprovechar los avances tecnológicos y preservar elementos humanos irremplazables sea clave para el futuro de la IA en el apoyo a la salud mental. N
(Publicado en cooperación con Newsweek. Published in cooperation with Newsweek).
—∞—
¿Hay algún problema de salud que le preocupe? Háganoslo saber a través de [email protected]. Podemos pedir consejo a expertos y su historia podría aparecer en Newsweek en Español.