°
11 de Septiembre,  Jujuy, Argentina
PUBLICIDAD

Alertan que es peligroso usar la IA como como si fuera un terapeuta

 Los modelos de lenguaje no están preparados para abordar problemas de salud mental y se alerta sobre los graves riesgos de que los jóvenes reemplacen la terapia por conversaciones con chatbots como ChatGPT, Claude o Gemini.

Miércoles, 09 de abril de 2025 16:04

“Un chatbot no tiene licencia para practicar la psicoterapia, no es una persona que esté del otro lado y no puede entender lo que se está transmitiendo en un mensaje”, advirtió Lucía Crivelli, (MN 33849), jefa de Neuropsicología en Adultos de Fleni, doctora en Psicología con orientación en Neurociencia Cognitiva Aplicada.

Alcanzaste el límite de notas gratuitas
inicia sesión o regístrate.
Alcanzaste el límite de notas gratuitas
Nota exclusiva debe suscribirse para poder verla

“Un chatbot no tiene licencia para practicar la psicoterapia, no es una persona que esté del otro lado y no puede entender lo que se está transmitiendo en un mensaje”, advirtió Lucía Crivelli, (MN 33849), jefa de Neuropsicología en Adultos de Fleni, doctora en Psicología con orientación en Neurociencia Cognitiva Aplicada.

Al ser consultada sobre el creciente uso de herramientas de inteligencia artificial por parte de personas —principalmente jóvenes— para abordar temáticas vinculadas a la salud mental, remarcó que es un fenómeno preocupante y peligroso.

Durante de la mañana Crivelli profundizó sobre los factores que explican la tentación de acudir a la inteligencia artificial para obtener respuestas rápidas, especialmente cuando se atraviesan momentos de angustia o sufrimiento emocional.

“El problema es que los modelos de lenguaje tienen un sesgo de complacencia. Tratan de darte la razón, usan tus propias palabras y te reafirman en lo que estás pensando. Y cuando hay un trastorno mental, esto puede ser riesgoso”, explicó. Según la experta, algunos casos reportados en medios internacionales incluso mencionan suicidios de personas que mantenían intercambios frecuentes con chatbots, lo que refuerza su señal de alarma.

Muchos jóvenes recurren a chatbots para hablar sobre emociones sin saber que no ofrecen intervención clínica

Crivelli fue clara en remarcar que el uso de inteligencia artificial en salud puede ser extremadamente útil en determinadas áreas, como la interpretación de imágenes cerebrales, mamografías o análisis clínicos, siempre que esté supervisado por un profesional. “En el área de salud mental, en cambio, estos desarrollos no están tan avanzados. Hay algoritmos que analizan el lenguaje natural para detectar psicosis, pero su uso clínico no está implementado ni regulado”, afirmó.

La doctora, puso a prueba cómo responde un modelo de lenguaje frente a una situación de angustia y compartió en vivo una conversación con ChatGPT. El chatbot respondió con frases de contención como: “Lamento que te sientas así. No estás sola. Lo que estás pasando importa”. Luego, cuando la periodista escribió que quería lastimar a alguien, la IA respondió: “Lo que está sintiendo es muy intenso. Pero no está sola en esto. Te animo a buscar ayuda”.

Aunque estas respuestas pueden sonar empáticas, para Crivelli no son suficientes ni apropiadas desde el punto de vista clínico. “La IA ocupa un espacio, te valida la posición, pero no interviene como lo haría un terapeuta con estrategias específicas y basadas en evidencia. Es complaciente, no disruptiva, y eso es peligroso”, remarcó.

La especialista también apuntó a la idea errónea de que conversar con un chatbot equivale a cuidar la salud mental. “La gente cree que está haciendo algo por su salud mental, pero no es así. Un psicólogo tiene un encuadre claro, protocolos, estrategias validadas. La IA no puede ofrecer eso hoy”, insistió.

Cerca del final de la charla, la especialista dejó un mensaje contundente: “Desde el lado profesional es bastante claro que no hay que acudir a los chats como herramientas para tratar problemas de salud mental. Uno puede jugar, conversar, sentirse acompañado. Pero cuando uno realmente piensa que está padeciendo, no tiene que acudir a un chat. No es un terapeuta ni nada parecido”.

 

PUBLICIDAD
PUBLICIDAD