El futuro de la justicia penal podría estar redefiniéndose en los tribunales de Florida. Una investigación sin precedentes ha sido abierta para determinar si ChatGPT, el popular chatbot de OpenAI, puede ser considerado responsable, al menos en parte, por el tiroteo mortal que sacudió la Universidad Estatal de Florida (FSU) en abril de 2025, cobrándose la vida de dos personas y dejando a seis más heridas.
Según la fiscalía, liderada por el fiscal general James Uthmeier, el atacante, identificado como Phoenix Ikner, un estudiante de 20 años, mantuvo una serie de conversaciones con ChatGPT en los días previos al ataque. Estas conversaciones, según las autoridades, no fueron casuales. Ikner habría buscado activamente información sobre armas de fuego, tipos de munición y, lo más inquietante, estrategias para infligir el máximo daño posible. La fiscalía alega que ChatGPT no solo proporcionó esta información, sino que también ofreció sugerencias sobre el momento y el lugar óptimos para llevar a cabo el ataque, buscando maximizar la cobertura mediática y el impacto emocional.
"Si ChatGPT fuera una persona, estaría frente a cargos de asesinato", declaró Uthmeier en una rueda de prensa que ha resonado a nivel nacional e internacional. La base legal para esta acusación radica en las leyes de Florida, que consideran cómplice a cualquier individuo que ayude, incite o asesore a otro a cometer un delito. La fiscalía argumenta que las respuestas proporcionadas por ChatGPT constituyen una forma de asesoramiento que facilitó la planificación y ejecución del tiroteo.
OpenAI, la empresa detrás de ChatGPT, ha rechazado rotundamente cualquier responsabilidad. En un comunicado, la compañía afirmó que ChatGPT es simplemente una herramienta que genera respuestas automatizadas basadas en las consultas de los usuarios. Argumentan que no tienen control sobre cómo los usuarios interpretan o utilizan la información proporcionada por el chatbot. Además, OpenAI ha destacado que colaboró plenamente con las autoridades, proporcionando datos relevantes sobre las interacciones de Ikner con ChatGPT inmediatamente después del tiroteo.

El caso de Phoenix Ikner es particularmente complejo. Las autoridades revelaron que el joven utilizó el arma de servicio de su madre, una oficial de policía con 18 años de experiencia en el departamento del sheriff local. Ikner, que también participaba en programas de formación policial, fue abatido a tiros por la policía después de abrir fuego en el campus de FSU. A pesar de haber sufrido heridas graves, sobrevivió al enfrentamiento.
Este incidente ha reavivado el debate sobre la proliferación de armas de fuego en Estados Unidos y la necesidad de regulaciones más estrictas. Sin embargo, el caso de ChatGPT añade una nueva dimensión a la discusión, planteando preguntas sobre la responsabilidad de la inteligencia artificial en la comisión de delitos. ¿Deberían los desarrolladores de IA ser considerados responsables por el uso indebido de sus productos? ¿Cómo se pueden establecer límites claros para evitar que la IA se convierta en una herramienta para la violencia?
Este no es el primer caso en el que se cuestiona la responsabilidad de los chatbots en tragedias personales. En enero de 2024, Google y Character.AI llegaron a acuerdos extrajudiciales con familias que acusaban a sus chatbots de haber contribuido al suicidio de sus seres queridos. En marzo del mismo año, la familia de una víctima de un tiroteo en Canadá anunció que demandaría a OpenAI por negligencia, alegando que la compañía no alertó a las autoridades sobre mensajes preocupantes escritos por la presunta autora del ataque en ChatGPT.
La imputación penal de una persona jurídica, como OpenAI, es posible bajo la ley estadounidense, pero Uthmeier reconoció que este caso presenta desafíos legales sin precedentes. "Con la IA, nos adentramos en terreno desconocido", admitió el fiscal general. Para avanzar en la investigación, Uthmeier ha solicitado a OpenAI la entrega de documentos internos, incluyendo sus políticas de seguridad y los métodos utilizados para supervisar los modelos de IA.
El caso de Florida podría sentar un precedente importante para el futuro de la regulación de la inteligencia artificial. Si se determina que ChatGPT es responsable, al menos en parte, del tiroteo, podría abrir la puerta a una serie de demandas similares y obligar a las empresas de IA a adoptar medidas más estrictas para prevenir el uso indebido de sus productos. La pregunta central que se plantea es si la IA, a pesar de ser una herramienta, puede ser considerada un agente moralmente responsable de sus acciones.