Hay un cierto temor al pensar hasta donde llegará la tecnología el día de mañana, pero una cosa es clara, la inteligencia artificial ha llegado para quedarse. Ha facilitado la vida en muchos casos, y como las redes sociales, sabiéndola usar se le puede sacar mucho partido, pero también puede ser un arma muy dañina. La primera en aparecer fue Chat Gpt y después le siguieron los competidores, Gemini o Gork. Cualquier aplicación ya cuenta con un asistente de IA.
La inteligencia artificial ya es parte del día a día de los usuarios. Cada vez son más personas las que le realizan consultas y les piden ayuda. Hay otras que se resisten a usarla porque se sienten inseguros, creen que alguien les está espiando, algo que han negado en rotundo. La inteligencia artificial ayuda, facilita el trabajo, pero también podrá quitar muchos puestos de trabajo, y además hace que las personas pierden su capacidad de razonamiento. Ya nadie se cuestiona si lo que te dice una máquina es cierto. Se da por válido.
Muchas personas se apoyan en la IA para superar sus problemas psicológicos
En un principio estaba diseñada como una herramienta para buscar información y apoyo, pero a día de hoy se ha convertido en algo más íntimo, una especie de confidente. Algunos usuarios confían en sus respuestas y se sienten reconfortados. Con ello, los psicólogos contrastan los problemas de salud mental existentes en la sociedad.
Se creó una comunidad en línea bajo el nombre Spiral Support Group para dar apoyo emocional a afectados y familiares que se han vuelto dependientes de la inteligencia artificial. Son muchos los usuarios que utilizan la IA para sus problemas psicológicos.
Al principio esta comunidad nació como un chat grupal y poco tardó en convertirse en un chat grupal con más de 200 miembros creando una organización bien definida. En ella hay moderadores como Allan Brooks, de 48 años, que antes de formar parte del equipo central fue afectado por ese tipo de delirios.
El grupo cuenta con el respaldo del Proyecto Human Line, una organización que busca proteger el bienestar emocional en un mundo digital en constante cambio. En ningún momento se trata de quitar el trabajo al psicólogo o al psiquiatra, sino de poner en relación a personas que hayan podido vivir una situación similar y se den apoyo emocional.
Tal y como explicó el propio Brooks, administrador del grupo: “Es como una red de seguridad que hemos creado para quienes experimentan las consecuencias de estos sistemas de IA. Y segundo, ayuda a quienes se ven afectados por ellos”.
