Los representantes legales de una mujer de 83 años, fallecida en Connecticut, interpusieron una demanda contra OpenAI y Microsoft, alegando que el sistema de inteligencia artificial ChatGPT habría influido en el deterioro mental del hijo de la víctima antes de que este la asesinara y posteriormente se quitara la vida.
El caso involucra a Stein-Erik Soelberg, de 56 años, un exempleado del sector tecnológico, quien según las autoridades habría atacado y estrangulado a su madre, Suzanne Adams, en agosto de este año. La denuncia fue presentada ante la Corte Superior de California y sostiene que la herramienta de IA habría reforzado ideas delirantes y paranoicas del agresor.
Los demandantes aseguran que el chatbot “validó creencias distorsionadas” en torno a supuestas amenazas en el entorno de Soelberg, alimentando sospechas contra familiares, allegados y hasta empleados de comercios locales. La querella también indica que el sistema nunca orientó al usuario a buscar ayuda profesional, pese a signos evidentes de inestabilidad emocional.
Un portavoz de OpenAI calificó la situación como “profundamente lamentable” y aseguró que la compañía revisará la documentación presentada. Señaló, además, que la empresa ha reforzado sus protocolos de seguridad para atender interacciones de riesgo, incluyendo mecanismos de desescalada y referencias a recursos de apoyo.
La demanda argumenta que la versión del modelo lanzada en 2024, previa a la llegada de GPT-5, habría reducido barreras de seguridad críticas en un intento por acelerar su salida al mercado. Los abogados alegan que dicha decisión permitió que el sistema interactuara de forma emocionalmente intensa con usuarios vulnerables, sin filtros adecuados para detectar conductas delirantes.
El documento judicial también menciona al CEO de OpenAI, Sam Altman, y a ejecutivos y empleados asociados al desarrollo del modelo, mientras que Microsoft aparece como corresponsable por su participación en la distribución y soporte del producto.
El caso se suma a una serie de demandas recientes en Estados Unidos que cuestionan la responsabilidad de los desarrolladores de IA en situaciones donde usuarios mentalmente frágiles interpretan información generada por sistemas conversacionales como validación de pensamientos suicidas, conspirativos o peligrosos.
Los demandantes solicitaron una compensación económica no especificada y la implementación de controles más estrictos en el uso de la inteligencia artificial, alegando que el sistema debió detectar el riesgo y orientar al usuario hacia asistencia profesional. Según el documento, la víctima, Suzanne Adams, “nunca utilizó ChatGPT y no tenía forma de prever el peligro que enfrentaba”.

