Un grupo de investigadores se propuso descubrir si el "pensamiento positivo" influía en la precisión de los chatbots de inteligencia artificial. Los resultados fueron tan sorprendentes como reveladores. Probaron diversas estrategias: se dirigieron a los modelos llamándolos "inteligentes", los animaron a pensar con cuidado e incluso terminaron las preguntas con comentarios entusiastas. Ninguna de estas técnicas tuvo un efecto significativo. Pero hubo una que destacó por encima de todas: cuando hicieron que una IA fingiera estar dentro del universo de Star Trek, mejoró en matemáticas básicas.
La gente utiliza todo tipo de estrategias para obtener respuestas más precisas de los llamados grandes modelos de lenguaje, la tecnología que hay detrás de herramientas como ChatGPT. Hay quienes juran que la IA funciona mejor si se la amenaza. Otros creen que los chatbots son más cooperativos si se es educado. Y algunos piden a los robots que se hagan pasar por expertos en la materia que están tratando. Son mitos que forman parte del folclore digital alrededor de la "ingeniería de indicaciones", una disciplina que estudia cómo construir instrucciones para que la IA dé mejores resultados. Pero los expertos advierten que muchos de estos conocimientos extendidos simplemente no funcionan. En algunos casos, incluso podrían ser peligrosos. Esto no quiere decir que la manera como se habla a una IA sea irrelevante. Hay técnicas que realmente marcan la diferencia.
El mito de los "millones de dólares bien gastados"
El año pasado, un usuario de la red social X publicó un tuit que decía: "Me pregunto cuánto dinero ha perdido OpenAI en electricidad por los mensajes de 'por favor' y 'gracias' de los usuarios". Sam Altman, director ejecutivo de OpenAI, respondió: "Decenas de millones de dólares bien gastados. Nunca se sabe". La mayoría de la gente interpretó la última frase como una referencia alusiva a un posible apocalipsis de la IA, pero la cortesía también tiene una dimensión práctica. Los chatbots funcionan dividiendo las palabras en pequeños fragmentos llamados "tokens" antes de analizarlos mediante estadísticas para generar una respuesta adecuada. Esto significa que cada elemento de la frase afecta el resultado. El problema es que este efecto es extremadamente difícil de predecir.
Se han llevado a cabo numerosas investigaciones buscando patrones en los pequeños cambios de las indicaciones. Pero la mayor parte de la evidencia es contradictoria y no concluyente. Un estudio de 2024 descubrió que los chatbots daban respuestas más precisas cuando se les preguntaba con cortesía en lugar de dar órdenes directas. Aún más extraño: existían diferencias culturales. En comparación con el chino y el inglés, los chatbots que hablaban japonés obtenían un rendimiento ligeramente inferior cuando la cortesía era excesiva. Pero los expertos insisten en que no se ha investigado lo suficiente para llegar a conclusiones sólidas. Además, las empresas de tecnologías actualizan constantemente sus modelos, lo que deja las investigaciones obsoletas en cuestión de meses.
Los modelos modernos ya no se dejan influir
Los expertos afirman que los modelos de IA más recientes que encontramos en productos convencionales, como es el caso de ChatGPT o Gemini, han mejorado de manera drástica en pocos años. Son mucho más hábiles a la hora de identificar las partes importantes de una instrucción y probablemente no se dejan influir por pequeños cambios en el lenguaje con una consistencia suficiente para ser aprovechable. Técnicas como la cortesía, los insultos, las amenazas o la falsa adoración se han convertido, en el mejor de los casos, en una pérdida de tiempo. Y en el peor, en una fuente de errores impredecibles.
Hay una razón por la que estos comportamientos parecen tan naturales: las empresas diseñan la IA para que se comporte como las personas. Es lógico que a veces tengamos la sensación de que los chatbots tienen estados de ánimo o personalidades que se pueden manipular. Pero los investigadores advierten que no nos dejemos engañar. Las herramientas de IA son imitadoras, no seres vivos. Simulan el comportamiento humano, pero no tienen ninguna de las motivaciones internas. Si se quieren obtener respuestas mejores, lo más inteligente es dejar de tratar la IA como una persona y empezar a tratarla como aquello que es: una herramienta.
La IA presenta problemas reales, desde cuestiones éticas hasta su impacto ambiental, y algunas personas optan por no interactuar con ella. Pero si se decide utilizar uno de estos modelos, aprender a obtener lo que se quiere de manera más rápida y eficiente será mejor para el usuario y también para la energía consumida en el proceso. Los expertos proponen seis recomendaciones. La primera es solicitar múltiples opciones, en lugar de una sola respuesta, para disponer de un abanico de soluciones entre las que elegir. La segunda consiste en dar ejemplos concretos de lo que se está buscando, lo cual ayuda al modelo a situarse.
La tercera es solicitar una entrevista, es decir, pedir a la IA que haga preguntas para aclarar antes de responder. La cuarta recomienda ir con cuidado con los juegos de rol: hacer que la IA finja ser un experto puede mejorar resultados en modelos antiguos, pero en los modernos puede introducir sesgos innecesarios. La quinta es mantenerse neutral y evitar insultos o halagos, que difícilmente mejorarán la respuesta. Y la sexta, quizás la más importante, no tiene nada que ver con la eficiencia, sino con la ética: no está de más decir "por favor" y "gracias", no porque la IA lo necesite, sino para mantener la costumbre humana de la cortesía en un mundo cada vez más automatizado.
