La inteligencia artificial (IA) ha irrumpido con fuerza en casi todos los ámbitos de nuestras vidas: desde sugerir rutas de viaje hasta redactar textos complejos o ayudarnos a programar. Herramientas como ChatGPT ofrecen respuestas rápidas y accesibles a preguntas de toda índole, lo que ha despertado tanto entusiasmo como preocupación entre expertos. Sin embargo, para el experto en IA Joan Hernández, convertir estos modelos en sustitutos de profesionales de la salud no es solo erróneo, sino potencialmente dañino —de ahí su tajante recomendación: “si conoces a alguien que la use de psicólogo, quítale el móvil” (según el vídeo de Roca Project). Aunque no existe regulación médica que avale a chatbots como terapeutas, muchas personas ya los utilizan de esa manera, especialmente jóvenes y en redes sociales.

La inteligencia artificial: usos positivos y negativos

El desarrollo de la IA ha traído múltiples beneficios. En educación, permite personalizar el aprendizaje; en negocios, mejora la eficiencia de procesos; y en la vida cotidiana, resuelve dudas o sugiere soluciones de forma inmediata. Estas herramientas pueden apoyar la escritura, ofrecer ideas para proyectos o ayudar a organizar tareas diarias. Este tipo de aplicaciones tiene un valor claro si se emplea con criterio y conociendo sus límites.

Imagen creada inteligencia artificial Freepik

No obstante, también existen usos problemáticos. Una de las preocupaciones más relevantes —y que subraya Hernández— es la utilización de chatbots como “psicólogos caseros”. La idea de conversar con una inteligencia artificial para hablar de emociones o problemas personales puede parecer atractiva por su accesibilidad y gratuidad, pero entraña riesgos importantes. Los chatbots no tienen licencia, no pueden evaluar contextos complejos ni reconocer situaciones de riesgo —por ejemplo, pensamientos suicidas o crisis emocional— ni ofrecer intervenciones clínicas seguras.

Diversos análisis señalan que herramientas como ChatGPT no están diseñadas ni certificadas para terapia psicológica y que, si se interpretan como equivalentes a profesionales, pueden dar lugar a información errónea o inadecuada, reforzar creencias dañinas o generar una dependencia emocional con la máquina.

Por qué no sirve como sustituto del psicólogo

Joan Hernández y otros especialistas coinciden en que el principal déficit de la IA como “psicólogo” es la falta de contexto humano y empatía real. Un psicoterapeuta humano no solo escucha palabras: percibe tonos, gestos, pausas, contradicciones y emociones complejas basadas en la historia de vida del paciente. La IA, por su parte, responde a patrones estadísticos de lenguaje sin comprender la experiencia subjetiva del usuario. Esto puede llevar a consejos que suenen útiles, pero no lo son, o incluso a validar de forma inadvertida pensamientos peligrosos.

Psicólogo

Además, al no contar con mecanismos clínicos de emergencia, una IA no puede identificar cuándo es necesaria una ayuda profesional inmediata, lo cual es crítico en salud mental.

Uso correcto de herramientas como ChatGPT

Esto no significa que la IA no pueda ser útil en ámbitos saludables: ChatGPT puede ser un complemento, no un sustituto. Usarlo como herramienta para organizar ideas, practicar escritura, explorar emociones en un nivel básico o reflexionar sobre hábitos es perfectamente válido. El truco está en mantener una perspectiva crítica, saber que los chatbots no reemplazan a profesionales formados y buscar ayuda humana cuando se trata de asuntos profundos o de riesgo.

En definitiva, la advertencia de Hernández subraya una realidad: la IA es poderosa y versátil, pero no tiene la capacidad terapéutica ni la responsabilidad clínica de un psicólogo humano. Utilizarla con criterio y límites claros puede aportar beneficios, pero confiar en ella como sustituta de la terapia profesional puede ser contraproducente para la salud mental de las personas.