Florida inicia una investigación criminal sobre ChatGPT por el tiroteo en FSU: NPR


La policía investiga la escena de un tiroteo cerca de un sindicato de estudiantes en la Universidad Estatal de Florida el 17 de abril de 2025 en Tallahassee, Florida. En el ataque murieron dos personas y cinco resultaron heridas. El Fiscal General de Florida ahora está investigando OpenAI porque el presunto tirador utilizó ChatGPT para ayudar a planificar el ataque.

Miguel J. Rodríguez Carrillo/Getty Images


ocultar título

cambiar subtítulos

Miguel J. Rodríguez Carrillo/Getty Images

El Fiscal General de Florida inició una investigación criminal sobre ChatGPT y su empresa matriz OpenAI por acusaciones de que el presunto pistolero en el tiroteo de la Universidad Estatal de Florida el año pasado consultó con un chatbot de inteligencia artificial antes de matar a dos personas e herir a otras cinco.

El fiscal general republicano James Uthmeier dijo en una conferencia de prensa en Tampa el martes que el pistolero acusado Phoenix Ikner consultó a ChatGPT para pedir consejo antes del tiroteo, incluido qué tipo de arma usar, qué munición llevaba y a qué hora ir al campus para conocer a más personas, según una revisión preliminar de los registros de chat de Ikner.

«Mis fiscales investigaron esto y me dijeron que si fuera la persona detrás de escena, la acusaríamos de asesinato», dijo Uthmeier. «No podemos tener robots de inteligencia artificial que puedan dar consejos a las personas sobre cómo matar a otras personas».

La portavoz de OpenAI, Kate Waters, dijo en una declaración escrita a NPR: «El tiroteo masivo del año pasado en la Universidad Estatal de Florida fue una tragedia, pero ChatGPT no es responsable de este horrible crimen». Dijo que la compañía había intentado compartir información sobre la cuenta del presunto tirador con las autoridades después del tiroteo y continuó cooperando con las autoridades.

La oficina de Uthmeier emitió una citación a OpenAI en busca de información sobre sus políticas y materiales de capacitación internos relacionados con las amenazas de daño a los usuarios y cómo cooperan y denuncian delitos a las autoridades, que se remonta a marzo de 2024. En la conferencia de prensa, Uthmeier reconoció que la investigación estaba entrando en territorio inexplorado y no estaba seguro de si OpenAI tenía responsabilidad penal.

«Analizaremos quién sabía qué, quién diseñó qué o quién debería haber hecho qué», afirmó. «Y si está claro que los individuos sabían que un comportamiento peligroso como este era posible, que estos eventos trágicos y desafortunados eran posibles, pero aun así obtuvieron ganancias y permitieron que estas empresas operaran, entonces la sociedad debe rendir cuentas».

Waters de OpenAI dijo que el chatbot «proporciona respuestas objetivas a preguntas con información que se puede encontrar ampliamente en fuentes públicas en Internet, y no fomenta ni promueve actividades ilegales o peligrosas».

Continuó: «ChatGPT es una herramienta versátil utilizada por cientos de millones de personas todos los días con fines legítimos. Trabajamos continuamente para fortalecer nuestras protecciones para detectar intenciones maliciosas, limitar el abuso y responder adecuadamente cuando surgen riesgos de seguridad».

Ikner, de 21 años, enfrenta múltiples cargos de asesinato e intento de asesinato por el tiroteo de abril de 2025 cerca de un sindicato de estudiantes en el campus de FSU Tallahassee, donde era estudiante en ese momento. Su juicio comenzará el 19 de octubre. Según documentos judiciales, más de 200 mensajes de inteligencia artificial se han incluido como prueba en el caso.

Crecientes preocupaciones sobre los chatbots de IA

La investigación en Florida se produce en medio de crecientes preocupaciones sobre el papel de los chatbots de IA en la violencia masiva. Uthmeier ha anunciado una investigación civil sobre el papel de ChatGPT en el tiroteo de la FSU, que está en curso, y los abogados de la familia de una de las víctimas dijeron que planean demandar a OpenAI.

OpenAI ya se enfrenta a demandas de familiares de víctimas gravemente heridas en un ataque en Columbia Británica en febrero de 2026 que mató a ocho personas e hirió a decenas más. El presunto tirador discutió escenarios de violencia armada con ChatGPT e incluso fue expulsado de la plataforma meses antes del tiroteo, pero pudo evitar ser detectado y crear otra cuenta, dijo OpenAI a las autoridades canadienses.

Eso Diario de Wall Street informó que los sistemas internos de OpenAI marcaron las publicaciones de la cuenta y el personal estaba lo suficientemente preocupado como para considerar alertar a las autoridades, pero la compañía decidió no hacerlo. OpenAI dijo que realizó cambios para «fortalecer» sus protocolos para remitir cuentas a las autoridades después del tiroteo en Canadá.

También están aumentando las demandas contra OpenAI y otros fabricantes de chatbots de IA, alegando que están contribuyendo a la crisis de salud mental y a los suicidios. (OpenAI dice que estos casos son “situaciones extremadamente desgarradoras” y que está trabajando con expertos en salud mental para mejorar la forma en que ChatGPT responde a los signos de angustia mental o emocional).

En marzo se presentó una demanda por muerte por negligencia contra Google por el suicidio de un hombre de Florida que acusó al chatbot Gemini de la compañía de alentar al hombre a «llevar a cabo un ataque con víctimas masivas cerca del Aeropuerto Internacional de Miami». [and] cometió actos de violencia contra extranjeros inocentes», según documentos judiciales.

En respuesta a la demanda, Google dijo: «Gemini está diseñado para no fomentar la violencia en el mundo real ni sugerir autolesiones. Nuestro modelo generalmente funciona bien en conversaciones desafiantes como esta y le dedicamos importantes recursos, pero desafortunadamente no es perfecto». La compañía añadió que en este caso particular, Gemini había «remitido al individuo a la línea directa de crisis varias veces».



Fuente