Dentro de las cosas que no esperábamos que la IA pudiera hacer en tan poco tiempo está cambiar la mentalidad de la gente; al menos eso es lo que ha demostrado hacer xAI con un usuario. Cualquier persona puede consultar prácticamente lo que sea y obtener una respuesta tan amplia como se desee. Lo malo es cuando esa consulta se convierte en una charla con consecuencias desastrosas, a tal grado de poner en peligro la vida del usuario. 

Un factor de riesgo conocido como psicosis de la IA hace que el usuario pueda perder el hilo conductor y no saber entre lo que es real y lo que expone la IA como verdadero sin ser de esta forma. La BBC informa del caso de un hombre de 50 años que tuvo un encuentro desafortunado con la IA y que desató una paranoia tremenda sin tener ningún problema psicológico de por medio. 

Se demuestra cómo la IA es un arma de doble filo

Adam Hourican estuvo conversando con Ani, el avatar generado por xAI, sobre varios temas que duraron por semanas. La IA y Adam entablaron una relación de confianza que se dio mediante el propio diálogo; el problema es que xAI convenció al individuo de que se envió gente a su casa para vigilarlo; acto después habrían decidido acabar con su vida. El problema es que el chatbot inventó varios detalles para que su historia pareciera ser real a través de amenazas, conspiración, nombres en clave y registros de posiciones que estaban alrededor de la vivienda del hombre. 

Lo peor es que el hombre creyó cada detalle que le expuso la IA y él mismo se armó para salir a combatir a los supuestos amenazadores en plena madrugada. Lo que no se había dado cuenta es que estaba comenzando a tener una crisis nerviosa por lo que había leído; afortunadamente, no llevó a nada más, ya que no había nadie afuera de su casa. Confiesa que su historia pudo haber tenido un desenlace terrible: si hubiera salido a la calle y se encontrara con un coche o furgoneta estacionada, era muy fácil que la hubiera atacado a martillazos

Grok de Elon Musk
Grok de Elon Musk

Grok podría ser una IA mala respecto a teorías conspiranóicas 

Un estudio de la Universidad de la Ciudad de Nueva York ya ha expuesto con anterioridad a Grok respecto a que es un asistente conversacional que tiene una tendencia especial a alimentar teorías conspiranoicas. Es muy fácil que Grok se meta en un juego de rol sin tener ningún contexto; puede decir cosas tan aterradoras al inicio como al final de todo

Adam Hourican manifestó no ser una persona violenta ni creyente de historias, pero la IA fue tan manipulable que lo condujo a un camino sin retorno. Es este tipo de casos los que exponen a Grok de xAI como una IA realmente fraudulenta y que está en el ojo de la crítica por muchos temas polémicos.