El fiscal general de Florida, en Estados Unidos, ha anunciado este martes que ha abierto una investigación criminal contra ChatGPT y su empresa matriz, OpenAI, por, supuestamente, “aconsejar” al responsable de un tiroteo masivo que dejó dos víctimas mortales en el campus de la Universidad Estatal de Florida en 2025. En una rueda de prensa en la ciudad de Tampa, el fiscal general, James Uthmeier, del Partido Republicano, ha declarado que “Florida está liderando el camino al tomar medidas enérgicas contra el uso de la IA en el comportamiento criminal” y ha indicado que “si ChatGPT fuera una persona, estaría enfrentándose a cargos por asesinato”. El principal responsable de la acción jurídica del estado ha indicado que los mensajes que intercambiaron el tirador y el agente de IA sugerían que ChatGPT “ofreció consejos importantes al tirador antes de que cometiera crímenes tan atroces”, como el tipo de arma que debería usar o las municiones adecuadas para cada pistola.

La investigación ha surgido después de una revisión inicial del historial de conversaciones entre ChatGPT y Phoenix Ikner, un estudiante que entonces tenía 20 años y que es el acusado del tiroteo que dejó dos víctimas mortales y seis personas heridas, entre ellas un estudiante, en el centro estudiantil de la Universidad Estatal de Florida (FSU) —que tiene más de 43.000 estudiantes— en abril de 2025. Los fiscales han recopilado como pruebas los mensajes que el sospechoso, que se encuentra en prisión esperando ser juzgado por varios cargos de asesinato y asesinato en grado de tentativa, intercambió con la mensajería de IA. El mismo día del tiroteo, el tirador preguntó al chatbot cómo reaccionaría el país a un tiroteo en FSU, cuál sería la hora con más afluencia en el centro estudiantil o de qué manera castiga el estado de Florida a los tiradores escolares. Según ha indicado el fiscal, las indagaciones determinarán si OpenAI tiene responsabilidad criminal por el tiroteo, ya que la ley de Florida considera un delito “ayudar, incitar o aconsejar” a cualquiera que cometa un crimen. La familia de una víctima del tiroteo presentó una querella alegando que el sistema de IA ayudó a facilitar el ataque en el campus. 

Piden información a OpenAI

Las autoridades de Florida han pedido a OpenAI que entregue “todas las políticas y materiales de entrenamiento interno” sobre las amenazas de usuarios que podrían dañar a los demás o a uno mismo y sobre la cooperación con las autoridades, así como una lista de directivos, gerentes y trabajadores relacionados con esta cuestión. Uthmeier ha reconocido este martes que OpenAI es una empresa y no una persona, y que explorar su potencial culpabilidad criminal abre un territorio nuevo en la justicia. No obstante, ha asegurado que es su responsabilidad descubrir si “seres humanos pueden haber estado involucrados en el diseño, la gestión y el funcionamiento” del bot de conversación hasta el punto que “justificaría responsabilidad penal”.

El hecho refleja el creciente combate legal de Florida contra las empresas de IA, ya que en marzo trascendió que una familia del estado demandó al chatbot de Gemini, al que acusa de inducir a un hombre al suicidio al hacerle creer que mantenían una relación romántica y que su muerte era necesaria para estar juntos. Por otro lado, Mark Glass, comisionado del Departamento de Aplicación de la Ley de Florida, ha expuesto que “es importante que seamos conscientes de los riesgos de esta nueva tecnología, y los daños que puede causar y que ya ha causado a nuestras comunidades”. Por otro lado, el gobernador de Florida, Ron DeSantis, anunció en diciembre que insistirá en regular la IA en el estado, incluyendo la instalación de centros de datos y protecciones para los usuarios, y ha pedido a los legisladores locales que diseñen normativas sobre el uso de la IA en una sesión esta semana. Su posición choca con la postura más pro-IA del presidente de Estados Unidos, Donald Trump, que insiste en el hecho de que solo haya una normativa federal sobre esta tecnología para evitar que se puedan imponer restricciones a nivel estatal.