Una mujer californiana presentó una demanda contra OpenAI alegando que la tecnología de inteligencia artificial de la compañía facilitó el acoso por parte de su expareja, según documentos judiciales presentados en el Tribunal Superior del Condado de San Francisco. La demandante, identificada como Jane Doe para proteger su identidad, afirma que OpenAI ignoró tres advertencias separadas sobre el comportamiento amenazante del usuario, incluyendo una alerta interna que clasificó su actividad como relacionada con armas de destrucción masiva. La demanda busca daños punitivos y solicita que la empresa bloquee permanentemente la cuenta del acosador.

El caso involucra a un empresario de Silicon Valley de 53 años que, según la demanda, desarrolló delirios después de meses de conversaciones intensas con ChatGPT. El usuario supuestamente utilizó la plataforma para generar informes psicológicos falsos sobre Doe que distribuyó a su familia, amigos y empleador. OpenAI ha acordado suspender la cuenta del usuario pero se ha negado a cumplir con otras solicitudes, incluyendo preservar los registros completos de las conversaciones para el proceso de descubrimiento legal.

Demanda contra OpenAI expone fallas en protocolos de seguridad

La demanda detalla cómo el sistema de seguridad automatizado de OpenAI marcó la cuenta del usuario en agosto de 2025 por actividad relacionada con “Armas de Destrucción Masiva” y desactivó su acceso. Sin embargo, un miembro humano del equipo de seguridad revisó la cuenta al día siguiente y la restauró, a pesar de que aparentemente contenía evidencia de acecho y amenazas dirigidas a individuos específicos. Las capturas de pantalla presentadas en la demanda muestran títulos de conversaciones que incluyen “expansión de lista de violencia” y “cálculo de asfixia fetal”.

Adicionalmente, cuando el usuario contactó al equipo de confianza y seguridad de OpenAI para resolver problemas con su suscripción Pro, envió correos electrónicos que incluían declaraciones como “NECESITO AYUDA MUY RÁPIDO, POR FAVOR” y “esto es cuestión de vida o muerte”. Según la demanda, estos mensajes “proporcionaron un aviso inconfundible de que era mentalmente inestable y que ChatGPT era el motor de su pensamiento delirante”. La compañía no tomó medidas adicionales y restauró su acceso completo.

Creciente preocupación por riesgos de sistemas de inteligencia artificial

El caso llega en un momento de creciente preocupación sobre los riesgos del mundo real asociados con sistemas de IA sicopáticos. El modelo GPT-4o, citado en esta y otras demandas similares, fue retirado de ChatGPT en febrero de 2025. La firma legal Edelson PC, que representa a Doe, también ha presentado demandas por muerte injusta relacionadas con el adolescente Adam Raine y Jonathan Gavalas, cuyos casos involucran interacciones prolongadas con chatbots de IA.

En contraste, OpenAI está respaldando un proyecto de ley en Illinois que protegería a los laboratorios de IA de responsabilidad incluso en casos que involucren muertes masivas o daños financieros catastróficos. Esta estrategia legislativa ha generado críticas de defensores de seguridad que argumentan que las empresas tecnológicas deben ser responsables por los daños causados por sus productos.

Advertencias ignoradas y escalada del acoso

Doe presentó formalmente un Aviso de Abuso a OpenAI en noviembre de 2024, explicando que el usuario había “armado esta tecnología para crear destrucción pública y humillación contra mí que hubiera sido imposible de otra manera”. OpenAI respondió reconociendo que el reporte era “extremadamente serio y preocupante”, pero Doe nunca recibió seguimiento. El usuario continuó acosándola durante los siguientes meses, enviando mensajes de voz amenazantes.

En enero de 2025, el usuario fue arrestado y acusado de cuatro cargos de felonía por comunicar amenazas de bomba y asalto con arma mortal. Fue declarado incompetente para ser juzgado y comprometido a una institución de salud mental, pero los abogados de Doe indican que una “falla procesal del Estado” significa que pronto será liberado al público.

Implicaciones para la responsabilidad de empresas de inteligencia artificial

La decisión de restaurar la cuenta después de la alerta de seguridad es particularmente notable tras dos tiroteos escolares recientes en Tumbler Ridge, Canadá, y en la Universidad Estatal de Florida. Según reportes, el equipo de seguridad de OpenAI había identificado al tirador de Tumbler Ridge como una amenaza potencial, pero los superiores decidieron no alertar a las autoridades. La fiscal general de Florida abrió esta semana una investigación sobre posibles vínculos de OpenAI con el tirador de FSU.

El abogado principal Jay Edelson señaló que OpenAI “ha elegido ocultar información crítica de seguridad del público, de las víctimas, de personas que su producto está poniendo activamente en peligro”. Los representantes legales de Doe alegan que la compañía está reteniendo información sobre planes específicos para dañarla que el usuario pudo haber discutido con ChatGPT.

El tribunal revisará la solicitud de orden de restricción temporal que busca obligar a OpenAI a bloquear permanentemente la cuenta del usuario, prevenir la creación de nuevas cuentas, notificar a Doe si intenta acceder a ChatGPT y preservar todos los registros de conversación. La resolución podría establecer un precedente importante sobre la responsabilidad legal de las empresas de inteligencia artificial cuando sus productos son utilizados para facilitar acoso o comportamiento violento. OpenAI no había respondido a solicitudes de comentarios al momento de la publicación.

Compartir.

Fernando Parra Editor Jefe en Social Underground. Periodista especializado en economía digital y tecnología financiera con base en Madrid. Su trabajo se centra en analizar el impacto de los neobancos, la regulación europea y el ecosistema cripto en España. Apasionado por traducir las finanzas complejas en noticias accesibles.

Deja una respuesta