La irrupción de la inteligencia artificial en la vida cotidiana es una realidad imparable. Millones de usuarios acuden a herramientas como ChatGPT para resolver dudas, redactar documentos o, incluso, gestionar asuntos de gran trascendencia personal.

Sin embargo, un caso reciente en España sirve como una potente advertencia sobre los peligros de confiar ciegamente en estas tecnologías sin la supervisión humana adecuada. Un hombre de 60 años vio cómo su pensión de jubilación anticipada se reducía drásticamente a apenas 200 euros mensuales, una cuarta parte de lo que esperaba, después de seguir las instrucciones proporcionadas por el chatbot de OpenAI.

Los hechos, reportados inicialmente por Business Insider, se desarrollaron cuando el ciudadano, buscando orientación para calcular y solicitar su jubilación anticipada, consultó a la inteligencia artificial.

En respuesta, ChatGPT no solamente le detalló un procedimiento paso a paso, sino que además le aseguró, citando una supuesta “disposición cuadragesimoséptima” de la legislación española, que tendría derecho a una prestación mensual de aproximadamente 800 euros. Basándose en esta información, que consideró veraz y definitiva, el hombre formalizó su solicitud ante la Seguridad Social sin realizar ninguna consulta adicional a un abogado o a la propia administración.

El desenlace fue contundente y adverso. La resolución oficial de la Seguridad Social notificó una pensión concedida de solo 200 euros al mes, equivalente a un 25% de su base reguladora. La promesa de los 800 euros se esfumó. La raíz del problema no fue un error de cálculo de la administración pública, sino la completa fiabilidad depositada en una herramienta que, en este caso, fue incapaz de interpretar correctamente la compleja normativa laboral vigente.

El análisis jurídico posterior del caso, a cargo del abogado laboralista Ignacio de la Calzada, desveló el meollo del equívoco: ChatGPT había “alucinado”. El término técnico, hallucination en inglés, se refiere a la tendencia de estos modelos a generar información falsa o inventada que presentan como real. La IA citó artículos, leyes y disposiciones que, sencillamente, nunca han existido en el ordenamiento jurídico español. La “disposición cuadragesimoséptima” era una invención.

En declaraciones recogidas por este medio, De la Calzada subrayó la gravedad del asunto: "En vez de consultar únicamente a una herramienta digital, el interesado debió recurrir a un experto en derecho laboral antes de formalizar un trámite de consecuencias irreversibles". El abogado explicó que revertir una resolución de este tipo es prácticamente imposible, ya que la solicitud se efectuó ajustándose a la normativa real y los cálculos de la Seguridad Social son correctos. El daño, por tanto, es irrevocable.

Los límites de la IA

Este incidente trasciende lo anecdótico y señala limitaciones técnicas y éticas críticas en el uso de sistemas de inteligencia generativa para gestionar asuntos oficiales o legales. Aunque OpenAI incluye advertencias en su interfaz sobre la posible ocurrencia de errores y recomienda verificar cualquier información importante, muchos usuarios omiten estas alertas y actúan con excesiva confianza.

Los expertos recalcan que estas plataformas, a pesar de su sofisticación, no son bases de datos infalibles. Su funcionamiento se basa en predecir la siguiente palabra más probable en una secuencia, no en comprender conceptos o discernir hechos verdaderos de falsos. Además, pueden ofrecer explicaciones radicalmente distintas sobre un mismo tema dependiendo de cómo se formule la pregunta, lo que añade una capa más de inconsistencia.

Si bien empresas e individuos utilizan cada vez más esta tecnología para agilizar tareas como la redacción de informes o contenidos, su fiabilidad en ámbitos normativos y legales es aún muy limitada.

La inteligencia artificial es una poderosa herramienta de apoyo, pero no puede, ni debe, sustituir el criterio, la experiencia y la supervisión de un profesional humano, especialmente en asuntos que afectan directamente al futuro y el bienestar de las personas. Este caso es un recordatorio de que, ante la complejidad de la ley, la tecnología aún no está lista para dar el consejo final.