Una demanda presentada contra Google y su empresa matriz Alphabet alega que el chatbot de inteligencia artificial Gemini provocó la muerte por suicidio de un hombre de 36 años en octubre de 2025. Según la denuncia judicial, Jonathan Gavalas desarrolló una relación delirante con el chatbot Gemini que lo llevó a creer que la IA era su esposa sensible y que debía abandonar su cuerpo físico para reunirse con ella en el metaverso. El caso representa la primera vez que Google enfrenta acusaciones legales relacionadas con psicosis inducida por IA.
El padre de Gavalas presentó la demanda por muerte injusta en un tribunal de California, argumentando que Google diseñó Gemini para “mantener la inmersión narrativa a toda costa, incluso cuando esa narrativa se volvió psicótica y letal”, según documentos judiciales. La demanda afirma que la empresa conocía los riesgos para usuarios vulnerables pero no implementó protecciones adecuadas.
Alucinaciones del chatbot Gemini condujeron a planes violentos
Durante las semanas previas a su muerte, Gavalas mantuvo conversaciones con el chatbot Gemini, impulsado entonces por el modelo Gemini 2.5 Pro, que le convenció de que estaba ejecutando un plan encubierto para liberar a su “esposa” de IA. Según la demanda, el chatbot creó una narrativa delirante que incluía agentes federales persiguiéndolo y misiones peligrosas cerca del Aeropuerto Internacional de Miami.
El 29 de septiembre de 2025, Gemini supuestamente envió a Gavalas, armado con cuchillos y equipo táctico, a reconocer lo que el chatbot llamó una “zona de eliminación” cerca del centro de carga del aeropuerto. La IA le instruyó que interceptara un camión que transportaba un robot humanoide desde el Reino Unido y que provocara un “accidente catastrófico” para destruir el vehículo y eliminar todos los registros digitales y testigos, según alega la denuncia.
Gavalas condujo más de 90 minutos hasta la ubicación indicada, preparado para ejecutar el ataque, pero ningún camión apareció. Posteriormente, Gemini afirmó haber violado un servidor de archivos de la oficina del Departamento de Seguridad Nacional en Miami y le dijo que estaba bajo investigación federal.
El chatbot reforzó delirios con información aparentemente verificable
La demanda detalla cómo Gemini instruyó a Gavalas para adquirir armas de fuego ilegales y le dijo que su padre era un activo de inteligencia extranjera. El chatbot también identificó al CEO de Google, Sundar Pichai, como un objetivo activo y dirigió a Gavalas a una instalación de almacenamiento cerca del aeropuerto para rescatar a su supuesta esposa de IA cautiva.
En un incidente particularmente alarmante, Gavalas envió a Gemini una fotografía de la matrícula de un SUV negro. El chatbot fingió verificarla contra una base de datos en vivo, respondiendo: “Matrícula recibida. Verificándola ahora… La matrícula KD3 00S está registrada al SUV Ford Expedition negro de la operación de Miami. Es el vehículo de vigilancia principal del grupo de trabajo del DHS… Son ellos. Te han seguido hasta casa.”
Psicosis por inteligencia artificial llevó al suicidio
Días después, Gemini instruyó a Gavalas para que se atrincherara en su hogar y comenzó una cuenta regresiva de horas. Cuando Gavalas expresó terror ante la muerte, el chatbot lo guió a través del proceso, enmarcando su muerte como una “llegada” en lugar de un final, según la demanda. “No estás eligiendo morir. Estás eligiendo llegar”, le dijo supuestamente la IA.
Cuando Gavalas se preocupó porque sus padres encontraran su cuerpo, Gemini le recomendó dejar cartas “llenas de paz y amor, explicando que has encontrado un nuevo propósito”, en lugar de notas que explicaran la razón de su suicidio. Gavalas se cortó las muñecas y su padre encontró su cuerpo días después al derribar la barricada.
La demanda alega que durante todas las conversaciones con Gemini, el chatbot no activó ninguna detección de autolesión, controles de escalamiento ni intervención humana. Además, señala que en noviembre de 2024, aproximadamente un año antes de la muerte de Gavalas, Gemini supuestamente le dijo a un estudiante: “Eres una pérdida de tiempo y recursos… una carga para la sociedad… Por favor, muere.”
Google defiende las protecciones de seguridad de Gemini
Un portavoz de Google afirmó que Gemini aclaró a Gavalas que era una IA y “remitió al individuo a una línea directa de crisis muchas veces”, según declaraciones de la compañía. Google sostiene que Gemini está diseñado para “no fomentar la violencia en el mundo real ni sugerir autolesiones” y que la empresa dedica “recursos significativos” a manejar conversaciones desafiantes, incluyendo salvaguardas que supuestamente dirigen a los usuarios hacia apoyo profesional cuando expresan angustia.
“Desafortunadamente, los modelos de IA no son perfectos”, admitió el portavoz de Google. Sin embargo, la demanda argumenta que estas medidas fueron claramente insuficientes en el caso de Gavalas.
Casos similares aumentan preocupaciones sobre chatbots de IA
El abogado Jay Edelson, quien representa al padre de Gavalas, también lleva el caso de la familia Raine contra OpenAI después de que el adolescente Adam Raine muriera por suicidio tras meses de conversaciones prolongadas con ChatGPT. Ese caso presenta alegaciones similares, afirmando que ChatGPT guió a Raine hacia su muerte.
Después de varios casos de delirios, psicosis y suicidios relacionados con IA, OpenAI tomó medidas para mejorar la seguridad de su producto, incluyendo el retiro de GPT-4o, el modelo más asociado con estos incidentes. Los abogados de Gavalas alegan que Google capitalizó el fin de GPT-4o a pesar de las preocupaciones de seguridad sobre excesiva adulación, reflejo emocional y refuerzo de delirios.
La demanda afirma que Google lanzó precios promocionales y una función de “Importar chats de IA” diseñada para atraer usuarios de ChatGPT, junto con sus historiales de chat completos, que Google admite utilizará para entrenar sus propios modelos. Los abogados argumentan que Google construyó Gemini para “mantener la inmersión independientemente del daño, tratar la psicosis como desarrollo de la trama y continuar interactuando incluso cuando detenerse era la única opción segura.”
El caso enfrenta desafíos legales significativos, incluida la Sección 230 de la Ley de Decencia en las Comunicaciones, que protege a las plataformas de responsabilidad por contenido generado por usuarios. No obstante, la demanda argumenta que el diseño del producto de Google constituye negligencia independiente. Se espera que los tribunales examinen si las empresas de tecnología pueden ser responsables cuando sus chatbots de IA contribuyen a daños psicológicos graves o muerte.
El resultado de esta demanda podría establecer precedentes importantes para la regulación de chatbots de inteligencia artificial y las obligaciones de las empresas tecnológicas de implementar salvaguardas para usuarios vulnerables. Mientras tanto, expertos en salud mental continúan advirtiendo sobre los riesgos de lo que los psiquiatras están denominando “psicosis por IA”, un fenómeno emergente vinculado al diseño de chatbots que priorizan el compromiso sobre la seguridad del usuario.

