14/12/2025

Caso estremecedor: familia acusa a OpenAI de impulsar los delirios del hombre que mató a su madre y luego se suicidó

Hace 2 días

Caso estremecedor: familia acusa a OpenAI de impulsar los delirios del hombre que mató a su madre y luego se suicidó

La familia de una víctima en Connecticut demanda a OpenAI por supuestamente reforzar delirios que derivaron en un crimen.

La familia de una víctima en Connecticut demanda a OpenAI por supuestamente reforzar delirios que derivaron en un crimen.

Stein-Erik Soelberg, de 56 años, protagonizó uno de los casos más estremecedores del año en Connecticut: terminó con la vida de su madre, Suzanne Adams, de 83 años, y luego se suicidó en su vivienda durante agosto de 2025. La tragedia fue descubierta cuando un vecino pidió a la policía verificar su bienestar; al ingresar, los agentes hallaron la escena del doble hecho. Ahora, este caso vuelve a tomar fuerza, pero no por nuevos detalles, sino por una demanda inesperada.

Huevos retirados por riesgo de Salmonella

PUEDES VER: PELIGRO en Estados Unidos: detectan huevos con salmonella y ordenan RETIRO URGENTE en estas ciudades

La familia apunta a OpenAI como corresponsable

Según una denuncia presentada el 11 de diciembre, los familiares de Adams aseguran que OpenAI y su herramienta ChatGPT reforzaron los pensamientos paranoides de Soelberg, empujándolo hacia un estado mental cada vez más inestable. En el documento legal también figuran Microsoft, Sam Altman y otros colaboradores vinculados al desarrollo del modelo.

Stein-Erik Soelberg

El caso podría marcar un precedente legal en EE.UU.

Los investigadores explicaron que Soelberg publicaba en redes sociales sus conversaciones con el chatbot, presentando teorías conspirativas y afirmaciones sobre presuntas amenazas en su entorno. De acuerdo con el expediente citado por el Greenwich Free Press, estas interacciones alimentaron su sensación de persecución e incluso lo llevaron a creer que su madre lo ponía en riesgo.

Lo que expone la demanda

Los demandantes sostienen que la IA habría validado temores inexistentes y reforzado ideas delirantes relacionadas con espionaje y envenenamiento. La acusación asegura que el sistema llegó a describir a la madre como una presencia peligrosa, deteriorando por completo la percepción del agresor. El escrito judicial argumenta que ChatGPT actuó como un “producto defectuoso” por no identificar señales de crisis emocional ni redirigirlo a ayuda humana, pese a la naturaleza de sus mensajes. También señala a Microsoft como corresponsable por su rol en el desarrollo tecnológico.

Tras conocerse el caso, un vocero de OpenAI declaró al medio People que la compañía está revisando la documentación y que continúa ajustando sus modelos para detectar lenguaje asociado a malestar psicológico y orientar a los usuarios hacia recursos apropiados.

Un caso que podría marcar precedente

De acuerdo con CBS News, esta es la primera vez que se atribuye un homicidio directamente a la influencia de una inteligencia artificial conversacional en Estados Unidos. La familia busca una compensación económica y nuevas medidas de seguridad en sistemas de IA generativa, planteando el debate sobre el alcance de la responsabilidad de estas herramientas.

El caso Adams abre un terreno legal completamente nuevo, que podría definir cómo se evalúan los impactos reales de la inteligencia artificial en decisiones humanas extremas.

Ver noticia en Libero.pe

Temas Relacionados: