Stein-Erik Soelberg, de 56 años, protagonizó uno de los casos más estremecedores del año en Connecticut: terminó con la vida de su madre, Suzanne Adams, de 83 años, y luego se suicidó en su vivienda durante agosto de 2025. La tragedia fue descubierta cuando un vecino pidió a la policía verificar su bienestar; al ingresar, los agentes hallaron la escena del doble hecho. Ahora, este caso vuelve a tomar fuerza, pero no por nuevos detalles, sino por una demanda inesperada.

PUEDES VER: PELIGRO en Estados Unidos: detectan huevos con salmonella y ordenan RETIRO URGENTE en estas ciudades
La familia apunta a OpenAI como corresponsable
Según una denuncia presentada el 11 de diciembre, los familiares de Adams aseguran que OpenAI y su herramienta ChatGPT reforzaron los pensamientos paranoides de Soelberg, empujándolo hacia un estado mental cada vez más inestable. En el documento legal también figuran Microsoft, Sam Altman y otros colaboradores vinculados al desarrollo del modelo.

El caso podría marcar un precedente legal en EE.UU.
Los investigadores explicaron que Soelberg publicaba en redes sociales sus conversaciones con el chatbot, presentando teorías conspirativas y afirmaciones sobre presuntas amenazas en su entorno. De acuerdo con el expediente citado por el Greenwich Free Press, estas interacciones alimentaron su sensación de persecución e incluso lo llevaron a creer que su madre lo ponía en riesgo.
Lo que expone la demanda
Los demandantes sostienen que la IA habría validado temores inexistentes y reforzado ideas delirantes relacionadas con espionaje y envenenamiento. La acusación asegura que el sistema llegó a describir a la madre como una presencia peligrosa, deteriorando por completo la percepción del agresor. El escrito judicial argumenta que ChatGPT actuó como un “producto defectuoso” por no identificar señales de crisis emocional ni redirigirlo a ayuda humana, pese a la naturaleza de sus mensajes. También señala a Microsoft como corresponsable por su rol en el desarrollo tecnológico.
Tras conocerse el caso, un vocero de OpenAI declaró al medio People que la compañía está revisando la documentación y que continúa ajustando sus modelos para detectar lenguaje asociado a malestar psicológico y orientar a los usuarios hacia recursos apropiados.
Un caso que podría marcar precedente
De acuerdo con CBS News, esta es la primera vez que se atribuye un homicidio directamente a la influencia de una inteligencia artificial conversacional en Estados Unidos. La familia busca una compensación económica y nuevas medidas de seguridad en sistemas de IA generativa, planteando el debate sobre el alcance de la responsabilidad de estas herramientas.
El caso Adams abre un terreno legal completamente nuevo, que podría definir cómo se evalúan los impactos reales de la inteligencia artificial en decisiones humanas extremas.