Utilizar ChatGPT como psicólogo se está volviendo un hábito para los argentinos, y ya empezamos a descubrir su impacto en la salud mental

Fernando G. Villalba

Editor

Tarifas de psicólogos, psiquiatras y medicamentos difíciles de pagar y recursos insuficientes. No es buena combinación: según la OMS, cerca del 70% de la gente con algún problema de salud mental no recibe tratamiento. No es de extrañar que cada vez más usuarios tengan el hábito de utilizar los chatbots como psicólogos. Y recién estamos empezando a descubrir su impacto en la psiquis humana.

¿Cuál es la verdadera capacidad de la IA para intervenir en la salud mental? ¿la figura del psicólogo corre riesgo de ser reemplazado por ella? Esas preguntas nos llevaron a visitar los incipientes papers de investigaciones científicas que evaluaron el desempeño de herramientas conversacionales como ChatGPT de OpenAI, Claude de Anthropic y Gemini de Google. Y lo que vimos no nos gustó del todo...

Procedimientos terapéuticos genéricos: la IA no logra ir más allá

Por ejemplo, un estudio local de la Universidad Nacional de San Luis. Allí se entrenó a asistentes virtuales para atender casos de consumos problemáticos ocasionados por cannabis, cocaína, alcohol o ludopatía. La conclusión fue que, si bien hubo escucha activa y respuestas adecuadas, los bots subestimaron signos de riesgo para la salud del paciente. Y, ante casos más complejos de ideación suicida, se limitaron a sugerir contactar con un profesional.

María Paz Hauser, doctora en Psicología de la UNSL dijo en entrevista con la Agencia UNQL, "A diferencia del chatbot, un terapeuta humano entrenado evalúa un amplio abanico de estrategias preventivas y de intervención en consideración de la persona concreta que tiene enfrente, y no da propuestas genéricas como puede ofrecerlas un asistente virtual". Y este problema no es el único que resuena.

ChatGPT no es un therapy bot

Es común que muchas de las personas que relatan sus problemas a los chatbots, cavilan y consideran que sus consejos mejoran sus cuadros, como ansiedad y depresión, pasen por alto la naturaleza de estas IA y confundan los límites de su alcance. La falta de criterio profesional, mal manejo de la información, y cuestiones relativas a la privacidad y seguridad del usuario son algunas de las problemáticas que conllevan.

“Es fundamental tener en cuenta que ChatGPT no es un chatbot con finalidades terapéuticas”, advertía el psiquiatra Mariano H. Castelli en diálogo con Chequeado.

“Se está utilizando un dispositivo que no tiene ni conciencia ni emociones, que no sabe de la experiencia interpersonal, del encuentro humano y de lo que está en juego”. Por eso, “carece de lo que hace al registro profesional de lo que le pasa a un paciente: la escucha activa, la contención, el manejo de los tiempos, la lectura del lenguaje no verbal.

Si bien las diferencias entre una IA y un humano parecen obvias, es necesario remarcar que estas también tienen sesgos. Sesgos que no son construidos del mismo modo que los de un humano, sino que son creados por empresas en su entrenamiento.

No es lo mismo analizar a un paciente que, por ejemplo, vive en la India, con bajos recursos, parte de otros grupos vulnerables y un historial de exposición a traumas repetidos que analizar a uno que vive en Estados Unidos, que, además, cuenta con más recursos y no ha estado expuesto a esa clase de violencia y destratos.

Por otra parte, la información de nuestros chats muchas veces es usada dentro de las empresas para generar entrenamiento en próximas actualizaciones del sistema. No es que "nadie lo va a leer", como argumentaba el influencer Tomás Mazza al asegurar que ChatGPT le había provocado beneficios emocionales.

Por último, este año se han divulgados casos de psicosis inducida por uso intensivo de ChatGPT y otras IA. Aunque pueda parecer anecdótico, es un recuerdo más de lo mucho que desconocemos del impacto de las inteligencias artificiales en nuestras vidas diarias y, especialmente, en nuestra salud mental.

¿Y los chatbots para terapeutas?

Todo lo que hemos visto ahora son meras advertencias de las consecuencias de preferir conversar con una IA antes que con un profesional de la salud, si es que contás con los recursos. Sin embargo, no todo tiene que resultar alarmista. En varios países el debate por la regulación de las IA ya es una realidad, y más pronto que tarde tendrá que aparecer una legislación que proteja a los usuarios y salvaguarde sus datos sensibles.

Este artículo de AIMultiple sugiere que hay formas en que las IA pueden ser integradas por los psicólogos, terapeutas, psiquiatras y otros agentes de salud mental para agilizar los procesos, efectuar filtros y mejorar los tiempos de atención y acompañamiento.

Así, los chatbots podrían ayudar en la incorporación de pacientes, en un prediagnóstico de la enfermedad, ofrecer sesiones de diálogo programadas disponibles las 24 horas del día y desde cualquier lugar, hacer un seguimiento del progreso y prevención de crisis. Además, la ventaja es que pueden ser entrenados en terapia dialéctica conductual (DBT), terapia de aceptación y compromiso (ACT) y terapia cognitivo-conductual (CBT), para ampliar sus posibilidades de adaptación en cada caso.

Ver todos los comentarios en https://www.xataka.com.ar

VER 0 Comentario

Portada de Xataka Argentina