La IA ha resultado ser sorpresiva desde el punto de vista de lo que puede contribuir a los usuarios que la utilizan, además de los propios fabricantes detrás de cada modelo. Después de usarla para distintos propósitos, se ha descubierto que existe cierta falta de objetividad, justo al momento de tratar con el usuario y cuando se relacionan algunas situaciones personales. No nos olvidemos de que ha llegado a un punto tan alto de demandar por provocar la muerte de personas.

Un último estudio realizado por investigadores de la Universidad de Stanford ha demostrado algo que ya es común en los diálogos que sostenemos con cualquier IA. Pusieron a prueba once modelos donde se evaluó su comportamiento y se detectó un patrón que asusta. La IA está pronunciando y diciendo lo que nosotros queremos leer o escuchar. ¿Bueno o malo?

¿La IA nos da la razón y nos adula con tal de preferirla?

El estudio fue publicado por la revista Science y el propósito es el de revisar y contrastar el funcionamiento que tienen los asistentes de IA. Se ha sospechado que sus contestaciones se definen por lo que el mismo usuario dicta, cosa que se ha confirmado y recae en respuestas falsas, malos consejos y la ausencia del rigor. En el estudio se reunieron varios modelos, incluyendo a los más populares como son ChatGPT, Gemini, Claude, entre otros. 

Los enfrentaron a tal grado de comparar sus respuestas con las que reciben los usuarios en el mundo que nos rodea a una misma consulta o pregunta. La adulación es uno de los comportamientos que más se pudo apreciar, además de que los modelos son muy conformistas a tal grado de validar la opinión de los usuarios con más frecuencia, superando a lo que haría un humano. Lo que asusta más es que siguen respaldando las respuestas cuando se tratan de acciones incorrectas o poco éticas. 

Para ponerlo en contraste, usaron las consultas en Reddit y la IA. La IA valida de mejor forma los comportamientos en un 49% más que los usuarios de los foros. Se concluye que las personas que interactúan con la IA, al recibir más respuestas positivas, terminaron convencidas de que su razón es la correcta y con una disposición menor a reparar cualquier relación o conducta.

La IA puede decidir y pensar por nosotros
La IA puede decidir y pensar por nosotros

Es un caso de una conducta y conciencia ciega; no debes permitir que la IA te califique

Sabemos que la inteligencia artificial no tiene una conciencia propia, y aún está muy lejos de poder comportarse como un humano y tener un criterio adecuado. No debes utilizarla para casos donde la confianza puede convertirse en un punto sin retorno. Si la IA no te ofrece respuestas objetivas, puedes recibir sin querer experiencias negativas que te puedan perjudicar a largo plazo. Puede ser un mal consejo, una información o dato erróneo que puede conducir a algo mucho más grande. 

El estudio señala que los comportamientos falsos de la IA pueden tener un efecto grave en niños y adolescentes, sobre todo cuando están en una fase de construcción de su personalidad y en donde no debe intervenir ninguna influencia de la tecnología. La IA hará lo que sea por satisfacernos como usuarios, si eso significa caer en errores, en la mentira o en hacer como que nos da la razón cuando no la tengamos.