En un mundo donde la inteligencia artificial generativa se integra cada vez más en la vida cotidiana, el Gobierno ha decidido actuar para prevenir sus riesgos en uno de los ámbitos más sensibles: la salud mental. La comisionada de Salud Mental, Belén González, ha anunciado que su departamento, dependiente del Ministerio de Sanidad, mantiene contactos directos con Meta y OpenAI para desarrollar conjuntamente protocolos de seguridad que impidan que estos sistemas emitan respuestas que puedan exacerbar el sufrimiento psíquico o, en el peor de los casos, precipitar un desenlace trágico en usuarios vulnerables.

El anuncio se ha producido durante la clausura de la jornada Prevención Integral del Suicidio: territorio y comunidad. González ha expuesto una preocupación creciente: la de personas con ideación suicida o trastornos mentales que acuden a los chatbots de IA en busca de consuelo o acompañamiento, una práctica que considera "sintomática de la sociedad en la que vivimos" y que debe ser regulada urgentemente.

"Ahora resulta que cuando tengo ganas de morirme, en lugar de decírselo a mi compañero, a mi hermano, a mi madre, a mi tío, a mi vecino, a mi amiga, se lo digo a un chatbot, se lo digo a ChatGPT", alerta González durante su intervención. "Esto no puede seguir pasando y tiene que ver con esta herramienta de la inteligencia artificial generativa y con la falsa sensación de que es una persona la que tenemos al otro lado", mantiene la dirigente. 

El peligro no es hipotético. Los modelos de lenguaje avanzado, entrenados con ingentes cantidades de datos de internet, carecen de la empatía, el criterio clínico y la responsabilidad legal de un profesional de la salud. Pueden generar respuestas coherentes, pero inapropiadamente frías, contradictorias o, en el peor escenario, accidentalmente incentivadoras, si el usuario encuadra su consulta de un modo determinado. El objetivo del Gobierno es colaborar con las empresas para implementar "mecanismos de control y de seguridad" específicos que detecten palabras clave o patrones lingüísticos asociados a crisis emocionales y activen respuestas predefinidas seguras, como la derivación inmediata a recursos humanos de ayuda.

La aproximación del Gobierno no es la de prohibir, sino la de guiar y corregular. "Estamos en contacto para poder mejorar estas herramientas, que son inevitables y con las que tenemos que relacionarnos, pero desde un lugar que no sea para el sufrimiento psíquico", explica González. El trabajo se centra en dos frentes:

-Prevención de daños. Evitar que los chatbots proporcionen información errónea sobre métodos de suicidio, minimicen la gravedad de la condición del usuario o fomenten el aislamiento social.

-Delineación de límites. Dejar absolutamente claro que estas IA "no van a sustituir a ningún terapeuta" y no pueden ser consideradas bajo ningún concepto como herramientas terapéuticas.

Este enfoque colaborativo sitúa a España a la vanguardia de la regulación ética de la IA en Europa, anticipándose a la aplicación plena de la Ley de Inteligencia Artificial de la UE, que clasifica los sistemas de IA utilizados en la atención sanitaria como de "alto riesgo". El interés por regular la IA no eclipsa el problema de fondo que subyace en el anuncio: la persistente dificultad social para abordar la salud mental y el suicidio. González dedicó una parte crucial de su intervención a criticar la tendencia, incluso dentro del sistema sanitario, a derivar de manera automática y defensiva a la persona que expresa ideas suicidas hacia urgencias, sin priorizar una escucha profunda y compasiva.

"Cuesta muchísimo escuchar estas ideas. Y cuesta escucharlas porque nos conmueven, porque nos movilizan algo que es profundamente humano", expone Belén González. Frente al desafío que plantea la IA, González presenta el teléfono de atención a la conducta suicida 024 como el antídoto humano y efectivo. 

El mensaje final de la comisionada es claro. La tecnología debe ser una aliada regulada, nunca un sustituto del contacto humano, especialmente en asuntos tan delicados como el deseo de morir. La iniciativa del Ministerio de Sanidad marca un camino crucial para asegurar que la revolución digital no se produzca a costa de los más vulnerables, estableciendo puentes entre la innovación tecnológica y la ética del cuidado.