ChatGPT ha añadido una nueva función que podría ser muy importante tanto ahora como en el futuro. A medida que las inteligencias artificiales se integran cada vez más en nuestra vida diaria, también se convierten en herramientas en las que muchas personas confían para tomar decisiones personales o buscar apoyo emocional.
Cada vez más usuarios recurren a este tipo de plataformas para encontrar consuelo, desahogarse o hablar sobre situaciones difíciles. Por eso, OpenAI quiere que quienes utilicen ChatGPT de esta forma también tengan acceso a una posible salida “humana” si atraviesan un momento delicado o necesitan ayuda real más allá de la IA.
ChatGPT añade un contacto de emergencia para situaciones delicadas
El popular chatbot acaba de añadir una función mediante la cual los usuarios podemos añadir un número de contacto de emergencia. Esto es algo que también podemos configurar en nuestro smartphone, y que puede llegar a ser muy recomendable.
La idea detrás de esta funcuón es simple y puede ser muy efectiva: que dentro de los ajustes de ChatGPT haya una persona designada a la que poder avisar si OpenAI detecta conductas que puedan poner en riesgo la integridad del usuario. Algo pensado para usarse solo en casos en los que el usuario atraviesa un momento delicado y se lo desvela a la IA.
OpenAI ha desvelado cómo funciona este nuevo sistema de contactos de confianza y en qué situaciones puede activarse. La compañía asegura que la privacidad del usuario es prioritaria, junto con una respuesta rápida ante posibles situaciones de riesgo.
Esta función es completamente opcional y cualquier usuario mayor de 18 años puede configurar un contacto de confianza desde los ajustes de ChatGPT. Además, ambas personas deben ser mayores de edad. Cuando alguien es seleccionado como contacto de confianza, recibe una notificación para aceptar o rechazar la invitación. Si decide no aceptar, el usuario puede elegir a otra persona diferente.
Cuando ChatGPT detecte conversaciones relacionadas con autolesiones o suicidio, OpenAI revisará el caso primero con sistemas automáticos y después con revisores humanos. Si consideran que existe riesgo, el usuario recibirá un aviso indicando que su contacto de confianza podría ser alertado.
En ese caso, la persona designada recibiría una notificación por correo, SMS o dentro de la app, aunque sin detalles concretos de la conversación. OpenAI asegura que todo el proceso podría completarse en menos de una hora y recuerda que esta función no sustituye la ayuda psicológica profesional.
Quizás una herramienta así podría haber ayudado en casos como el de un usuario que se suicidó tras hablar durante semanas con la IA, un caso que acabó con una demanda contra ChatGPT.
