En los últimos años hemos comenzado a hablar con aplicaciones que se presentan como amigas, asistentes virtuales que nos simulan “entendernos”, plataformas que ofrecen “compañía emocional” y hasta chatbots diseñados para escuchar nuestras angustias. La llamada inteligencia artificial emocional promete mucho más que eficiencia: ofrece empatía. ¿Pero puede una máquina sentir lo que sentimos los humanos? La respuesta, aunque obvia, se vuelve cada vez más borrosa en un escenario donde la simulación tecnológica parece sustituir a la experiencia real. 

Estos necesarios debates están teniendo lugar en algunos espacios académicos, aún todavía son escasos para la magnitud que este desafío presenta. Un ejemplo es el Máster en Gobernanza Ética de la IA de la Universidad Pontificia de Salamanca que aborda de manera interdisciplinaria cómo integrar la IA en la sociedad de forma respetuosa con los derechos humanos y posicionando al humano en el centro. También existen interesantes investigaciones, como la de la Universidad de Ginebra y la Universidad de Berna que examinaron seis sistemas de IA (entre ellos, ChatGPT), mediante pruebas de inteligencia emocional diseñadas originalmente para medirla en seres humanos. El resultado fue sorprendente: los LLM (large language model) consiguieron puntuaciones muy por encima de los humanos: un 82% de respuestas correctas frente al 56% de los seres humanos. 

La promesa de la empatía artificial

Empresas de tecnología ya comercializan asistentes que dicen reconocer emociones en la voz, el rostro o los textos de los usuarios. Estos sistemas “aprenden” a identificar patrones y devuelven respuestas diseñadas para transmitir comprensión y apoyo. Desde aplicaciones de salud mental hasta herramientas educativas, el discurso es seductor: si los algoritmos pueden acompañarnos en la soledad, aliviar la ansiedad o motivarnos a aprender, ¿por qué no aprovecharlo?

El problema surge cuando la simulación de la emoción se confunde con la emoción misma. La IA no siente tristeza cuando escucha un relato doloroso, ni alegría cuando celebramos un logro. Lo que hace es procesar datos, predecir estados emocionales y generar respuestas probablemente adecuadas. La empatía que ofrece es un espejo vacío: una imitación convincente, pero carente de experiencia subjetiva.

Riesgos psicológicos y sociales

El riesgo no está solo en la mentira tecnológica, sino en sus efectos humanos y eso es justamente de lo que se encarga la gobernanza ética de la IA. Para quienes atraviesan situaciones de vulnerabilidad emocional, interactuar con un sistema que “finge” comprender puede ser reconfortante en el corto plazo, pero también puede reforzar la dependencia de una relación asimétrica y ficticia. El usuario cree recibir apoyo genuino cuando en realidad interactúa con un simulacro optimizado para retener su atención.

Este engaño emocional no es trivial. La confianza en la tecnología se construye sobre la percepción de que “me escucha” y “me entiende”. Cuando ese lazo se quiebra, puede generar frustración, soledad aumentada y desconfianza generalizada. Además, los datos sensibles sobre estados emocionales —recogidos en momentos de vulnerabilidad— constituyen un recurso de altísimo valor para el mercado. La emoción se convierte en mercancía, y la intimidad emocional del usuario en un insumo comercial.

Ética y gobernanza de la IA emocional

Estos sistemas plantean enormes desafíos y debates. Por un lado, muchas personas que no pueden (por cuestiones económicas, por ejemplo) o no quieren (se sienten más cómodos interactuando con una máquina que con un humano porque no los juzga), acceder a un acompañamiento humano, obtienen indudables beneficios de estas interacciones, las que además no están limitadas ni en horario ni por el cansancio. Por el otro, un uso abusivo e inconsciente de estas tecnologías puede ocasionar grandes perjuicios. 

La pregunta de fondo no es si la IA puede imitar emociones —ya lo hace y lo hará cada vez mejor—, sino si queremos construir una sociedad que normalice el contacto con simulacros de empatía. El riesgo es que, en la búsqueda de compañía inmediata y sin conflicto, terminemos acostumbrándonos a relaciones desprovistas de autenticidad. La tecnología puede ser aliada en múltiples campos, pero nunca debería reemplazar lo que constituye lo más humano de lo humano: la experiencia compartida, la vulnerabilidad, el reconocimiento mutuo. Un algoritmo puede imitar nuestras palabras, pero no puede comprender el dolor que esas palabras encierran. Puede replicar gestos de ternura, pero no sentir ternura.

En tiempos donde los vínculos sociales están cada vez más mediados por pantallas, confiar nuestras emociones más profundas a una máquina que finge comprendernos puede ser un atajo peligroso. No porque la IA no tenga potencial, sino porque corremos el riesgo de olvidar lo que significa, en su esencia, ser escuchados de verdad. Frente a este panorama, urge plantear límites y reglas claras. No se trata de prohibir el desarrollo de tecnologías que puedan ayudar a mejorar la vida de las personas, sino de poner en el centro la protección de la autonomía, la dignidad y la salud mental de los usuarios y para ello, el debate ético es insoslayable.