OpenAI se enfrenta a una investigación penal en Estados Unidos por la posible implicación de su tecnología ChatGPT en el asesinato de dos personas durante un tiroteo masivo en la Universidad Estatal de Florida el año pasado.
El fiscal general de Florida, James Uthmeier, declaró el martes que su oficina había estado investigando el uso del chatbot de inteligencia artificial (IA) por parte de un hombre que presuntamente disparó contra varias personas en el campus de Tallahassee.
«Nuestra revisión ha revelado que es necesaria una investigación criminal», dijo Uthmeier. «ChatGPT le brindó asesoramiento importante a este tirador antes de que cometiera crímenes tan atroces».
Un portavoz de OpenAI declaró: «ChatGPT no es responsable de este terrible crimen».
Al parecer, es la primera vez que OpenAI se ve sometida a una investigación penal por el uso de ChatGPT por parte de alguien que supuestamente cometió un delito.
El portavoz de OpenAI afirmó que la empresa ha cooperado con las autoridades y que ha «compartido de forma proactiva» información sobre «una cuenta de ChatGPT que se cree que está asociada con el sospechoso».
OpenAI fue cofundada por Sam Altman. Él y la compañía se unieron rápidamente a los nombres más reconocidos en la industria tecnológica tras el lanzamiento de ChatGPT en 2022, que ahora es una de las herramientas de IA más utilizadas en el mundo.
En cuanto a cómo interactuó el sospechoso, Phoenix Ikner, un estudiante de 20 años de la FSU que ahora está en la cárcel a la espera de juicio, con ChatGPT, el portavoz de OpenAI dijo que el chatbot «no alentó ni promovió actividades ilegales o dañinas».
«En este caso, ChatGPT proporcionó respuestas veraces a preguntas con información que podía encontrarse ampliamente en fuentes públicas de internet.»
Sin embargo, Uthmeier afirmó que ChatGPT «asesoró al tirador sobre qué tipo de arma usar» y sobre los tipos de munición.
Según explicó, ChatGPT también aconsejó al tirador sobre «a qué hora del día… y en qué lugar del campus podría encontrarse con una mayor concentración de personas».
«Mis fiscales han analizado el caso y me han dicho que si se tratara de una persona real al otro lado de la pantalla, la acusaríamos de asesinato», dijo Uthmeier.
Añadió que, según la ley de Florida, cualquier persona que «ayude, instigue o aconseje a alguien» a intentar cometer o a cometer un delito se considera un «autor principal» del mismo.
Aunque ChatGPT no se considera una persona, Uthmeier dijo que su oficina necesita determinar la «culpabilidad penal» de la empresa detrás del bot, OpenAI.
La empresa ya se enfrenta a una demanda por otro incidente en el que su chatbot podría haber tenido algo que ver.
A principios de este año, un joven de 18 años disparó y mató a nueve personas e hirió a otras veinticuatro en la Columbia Británica.
OpenAI declaró que, tras el incidente, identificó y bloqueó la cuenta del atacante basándose en su historial de uso, pero no denunció el caso a la policía. La compañía afirmó que tiene la intención de reforzar sus medidas de seguridad.
Los padres de una niña que resultó herida en el ataque presentaron una demanda contra la empresa.
El año pasado, una coalición de 42 fiscales generales estatales envió una carta a 13 empresas tecnológicas con chatbots de IA, entre ellas OpenAI, Google, Meta y Anthropic.
La carta exponía su preocupación por el aumento del uso de la IA por parte de personas «que quizás no se den cuenta de los peligros a los que pueden enfrentarse» y pedía «pruebas de seguridad rigurosas, procedimientos de retirada del mercado y advertencias claras para los consumidores».
La carta también citaba un número creciente de «tragedias en todo el país», incluidos asesinatos y suicidios que aparentemente implicaron algún uso de inteligencia artificial.