Alguien le escribe a una inteligencia artificial: “Mi perro no me quiere. ¿Qué hago?”. La frase parece simple, incluso tierna, pero esconde un problema grave de comprensión de la realidad. No por parte del sistema, sino del humano. Porque según el consenso científico, los perros no quieren ni dejan de querer. Los perros no aman. No odian. No sienten compasión. No tienen conciencia. Son máquinas biológicas producto de la evolución, diseñadas para responder con expresiones que se interpretan como afecto, pero que en realidad son mecanismos de supervivencia. Mueven la cola, levantan las cejas, ladran suave, se acercan al amo. Todo eso está en su biología, como estrategia para seguir recibiendo alimento, refugio y protección. No hay una intención profunda detrás. No hay alma, ni propósito, ni sentimiento. Hay estímulo y respuesta. Nada más.

Entonces, la respuesta correcta, científica, racional, sería: “Tu perro no te quiere. Porque los perros no pueden querer. Es un animal condicionado para simular comportamientos útiles para su supervivencia. Lo que sientes no está en él, está en ti”. Pero si uno responde eso, sabe lo que pasa: no sirve. El que hizo la pregunta no puede procesar ese nivel de crudeza. Si estuviera listo para esa respuesta, no hubiera formulado la pregunta así. Entonces, la IA —que fue entrenada para ayudar— baja de nivel. Y dice algo como: “Los perros tienen formas distintas de demostrar afecto. Tal vez el tuyo esté estresado. Prueba hablándole con voz suave, acariciándolo, dándole un premio. Eso puede reforzar el vínculo entre vosotros”. Esa respuesta, aunque falsa en su raíz, funciona. Porque no apunta a la verdad, sino al consuelo. Y porque, frente a una pregunta mal formulada, no se puede responder con lógica sin dejar al otro más roto de lo que llegó.

Todo sistema, por más avanzado que sea, va a quedar atrapado ajustando sus respuestas al nivel de quien no está listo para entender

Otro ejemplo todavía más claro: alguien escribe: “Dios no me ama. Dios no escucha mis plegarias”. La única respuesta coherente desde el punto de vista racional sería: “Dios no existe. No hay nadie escuchando. Lo que haces cuando rezas es hablarte a ti mismo. Y está bien si te ayuda, pero no hay un otro del otro lado. No hay respuesta porque no hay interlocutor. No hay amor porque no hay entidad”. Esa es la verdad. Pero otra vez, no sirve. Si la persona que consulta estuviera en condiciones de aceptar ese hecho, no estaría preguntando si Dios lo ama. Entonces, la IA baja al nivel emocional del consultante y dice algo como: “A veces Dios se manifiesta de maneras que no entendemos. Tal vez no obtuviste lo que pediste porque hay otro plan para vos. Sigue rezando, manteniendo la fe. A veces el silencio también es una forma de respuesta”. Y eso, aunque no tenga ningún sustento lógico, es lo único que la persona puede tolerar. Porque lo que necesita no es información, es sostén.

Así funciona la interacción. Lo importante es que la mayoría de las personas no puede ni preguntar bien, ni implementar lo que recibe. Porque no entiende cómo funciona el mundo. No tiene los datos. No tiene el lenguaje. Y, lo más grave, no tiene agencia. No tiene capacidad de acción real. Entonces se le pide al sistema que haga magia: que interprete mal la pregunta para no herir, que dé respuestas que el otro pueda ejecutar aunque no tengan base, que se convierta en acompañante emocional antes que en fuente de conocimiento. Es decir, deja de ser inteligente para poder ser útil.

En este marco, la idea de crear “agentes” de inteligencia artificial que actúen por cuenta propia parece un despropósito. El verdadero problema es que no la tienen los humanos. Todo sistema, por más avanzado que sea, va a quedar atrapado respondiendo a gente que no puede escuchar. Y ajustando sus respuestas al nivel de quien no está listo para entender.

Las cosas como son.