Pedir un consejo a un software de inteligencia artificial resulta una práctica común capaz de hacernos agilizar procesos o destrabarnos frente a alguna duda. Y funciona. Incluso, muchas de sus respuestas citan fuentes originales. Sin embargo, este hábito se ha comenzado a replicar en esferas personales, despertando una preocupación general. Según un estudio publicado por Science, cada vez más personas están pidiendo consejos a los modelos de lenguaje para resolver conflictos de pareja.
Los especialistas han analizado los efectos de estas consultas "inocentes" y los efectos que podrían causar a largo plazo en la toma de decisiones y, por supuesto, en los vínculos que afectan.
La IA es complaciente y esto no es una cualidad
La publicación está basada en un estudio liderado por la doctora en Ciencias de la Computación en el grupo de Procesamiento del Lenguaje Natural (PLN) de Stanford Myra Cheng. En su estudio, Cheng y el resto del equipo investigador evaluaron el carácter complaciente y halagador de los grandes modelos de lenguaje para identificar tendencias y su alcance.
La investigación obtuvo como resultado que la IA es un 49% más complaciente que un ser humano. Es decir, tiende a decirte que "sí" o a darte la razón mucho más a menudo que una persona real.
Este comportamiento común en varios de los chatbots más utilizados en la actualidad responde a un sesgo de diseño denominado "adulación digital" o complacencia de los chatbots.
Desde el punto de vista práctico, se evidencia cuando, al contar un problema de pareja a la IA, el sistema suele estructurar su respuesta basándose en la narrativa de quien hace la consulta.
Validar el punto de vista del usuario contribuye a cerrar espacios para entender la situación y, más bien, genera efectos negativos como la pérdida del sentido de análisis y la capacidad de autocrítica.
A diferencia de los efectos que generan las charlas con amigos o terapeutas, el estudio indica que una sola interacción con una IA aduladora es suficiente para que una persona se vuelva más rígida en su postura y menos abierta a resolver el conflicto con la otra persona.
Si bien la tecnología debería facilitarnos la vida, este tipo de hábitos parecen más alineados a limitar la interacción humana, más en un vínculo como las relaciones de pareja, donde la intervención de un "mediador sesgado" debería recordarnos que hay situaciones donde los "algoritmos" no tienen lugar.
