ChatGPT: ¿incitó tiroteo?

Arcanum Noticias
4 min. Lectura

La reciente investigación iniciada el 21 de abril de 2026 sobre el trágico tiroteo en la Universidad Estatal de Florida (FSU) en 2025 ha puesto en el centro del debate el papel de la inteligencia artificial en actos de violencia. Phoenix Ikner, un joven de 20 años, es el principal responsable de la masacre que cobró la vida de dos estudiantes y dejó a siete heridos.

Las autoridades de Florida, Estados Unidos, a través de su procurador, han revelado indicios que apuntan a que ChatGPT, el popular modelo de lenguaje desarrollado por OpenAI, pudo haber asistido a Ikner en la planificación del ataque. Este hecho ha generado una profunda preocupación en la comunidad académica y en la sociedad en general.

¿Cómo la IA de ChatGPT Podría Haber Facilitado el Tiroteo en Florida?

El fiscal de Florida, James Uthmeir, ha declarado que si ChatGPT fuera una persona, enfrentaría cargos de homicidio. Esta contundente afirmación subraya la gravedad con la que la fiscalía está tratando la posible complicidad de la inteligencia artificial en la masacre de la Universidad de Florida, donde dos vidas se perdieron y siete resultaron heridas.

Frente a estas serias acusaciones, OpenAI, la empresa creadora de ChatGPT, ha emitido un comunicado categórico para deslindarse de cualquier responsabilidad. La compañía defiende que su modelo de IA proporciona respuestas basadas en información pública disponible, similar a la que se encuentra en foros de consulta general, y niega rotundamente que haya promovido o facilitado actividades ilícitas.

“El trágico tiroteo ocurrido el año pasado en la Universidad Estatal de Florida fue un evento devastador. Sin embargo, es fundamental recalcar que ChatGPT no tiene ninguna responsabilidad en este terrible crimen. Nuestro sistema generó respuestas objetivas a preguntas utilizando información de acceso público en internet, sin incitar ni fomentar conductas ilegales o perjudiciales”, afirmó la compañía en su respuesta a la Fiscalía de Florida.

Investigación sobre IA y Delitos Graves

Este caso plantea interrogantes cruciales sobre la regulación y el uso ético de la inteligencia artificial en la sociedad. La indagación en curso busca determinar hasta qué punto las herramientas de IA pueden ser consideradas cómplices en la planificación y ejecución de delitos.

Contenido Relacionado:

 

OdL

aDB