El fiscal general de Florida, James Uthmeier, anunció el jueves que su oficina investigará a OpenAI por presuntos daños a menores, posibles amenazas a la seguridad nacional y su posible conexión con un tiroteo ocurrido en la Universidad Estatal de Florida el año pasado. La investigación de OpenAI se centra en el uso de ChatGPT en actividades potencialmente criminales y su impacto en poblaciones vulnerables.
Según declaraciones de Uthmeier publicadas en redes sociales, ChatGPT podría haber sido utilizado para asistir al autor del tiroteo masivo en la Universidad Estatal de Florida que cobró dos vidas en abril pasado. El funcionario expresó preocupaciones sobre múltiples aspectos de la tecnología de inteligencia artificial desarrollada por la compañía.
Evidencia vincula ChatGPT al tiroteo de FSU
El día del tiroteo en FSU, el sospechoso presuntamente consultó a ChatGPT sobre cómo reaccionaría el país ante un tiroteo en la universidad y cuál sería el horario de mayor afluencia en el centro estudiantil. Estos mensajes podrían utilizarse como evidencia en el juicio programado para octubre contra el acusado.
Las autoridades están examinando cómo las herramientas de inteligencia artificial pueden facilitar la planificación de actividades criminales. Esta revelación ha intensificado el debate sobre la responsabilidad de las empresas tecnológicas en la prevención del uso indebido de sus productos.
Preocupaciones sobre seguridad infantil y nacional
El fiscal general citó preocupaciones adicionales sobre casos documentados en los que ChatGPT habría alentado el suicidio. Estas instancias han sido objeto de múltiples demandas presentadas por familias contra OpenAI, según informes judiciales.
Además, Uthmeier mencionó su inquietud sobre la posibilidad de que el Partido Comunista Chino pueda utilizar la tecnología de OpenAI contra Estados Unidos. “A medida que las grandes tecnológicas implementan estas tecnologías, no deberían poner en riesgo nuestra seguridad”, declaró el funcionario.
El fiscal general afirmó que Florida apoya la innovación, pero enfatizó que ninguna empresa tiene derecho a poner en peligro a los niños, facilitar actividades criminales o amenazar la seguridad nacional. También instó a la legislatura estatal a trabajar rápidamente para proteger a los menores de los impactos negativos de la inteligencia artificial.
Respuesta de OpenAI ante la investigación
Un portavoz de OpenAI declaró que más de 900 millones de personas utilizan ChatGPT semanalmente para mejorar sus vidas diarias, aprendiendo nuevas habilidades o navegando sistemas complejos de atención médica. La compañía enfatizó que su trabajo continuo en seguridad desempeña un papel importante en ofrecer estos beneficios.
OpenAI indicó que construye y mejora continuamente ChatGPT para comprender la intención del usuario y responder de manera apropiada y segura. La empresa confirmó que cooperará con la investigación del fiscal general de Florida.
Nueva propuesta de seguridad infantil
El miércoles, OpenAI presentó su Plan de Seguridad Infantil, que incluye recomendaciones de políticas diseñadas para mejorar la seguridad de los niños en relación con la inteligencia artificial. Esta iniciativa surge mientras los fabricantes de chatbots enfrentan presión para confrontar su papel potencial en la creación de material de abuso sexual infantil.
Según un informe reciente de la Fundación Internet Watch, hubo más de 8,000 reportes de material de abuso sexual infantil generado por inteligencia artificial en la primera mitad de 2025. Esto representa un aumento del 14% en comparación con el año anterior.
El plan de OpenAI recomienda actualizar la legislación para proteger contra material de abuso generado por inteligencia artificial, refinar el proceso de reporte a las autoridades policiales e instituir mejores salvaguardas preventivas contra usos abusivos de herramientas de IA. Sin embargo, no especifica plazos concretos para la implementación de estas medidas.
La investigación de OpenAI en Florida se desarrollará en los próximos meses, mientras el juicio relacionado con el tiroteo de FSU está programado para octubre. El resultado de esta investigación podría establecer precedentes sobre la responsabilidad de las empresas de inteligencia artificial en el uso indebido de sus tecnologías y potencialmente influir en futuras regulaciones a nivel estatal y federal.

