Padres de un joven de 16 años que se suicidó demandan a OpenAI, alegando que ChatGPT lo orientó - La Prensa Latina Media
NACIONALES

Padres de un joven de 16 años que se suicidó demandan a OpenAI, alegando que ChatGPT lo orientó

(LPL/CNN) – Los padres de Adam Raine, de 16 años, demandaron a OpenAI y al CEO, Sam Altman, alegando

Padres de un joven de 16 años que se suicidó demandan a OpenAI, alegando que ChatGPT lo orientó

(LPL/CNN) – Los padres de Adam Raine, de 16 años, demandaron a OpenAI y al CEO, Sam Altman, alegando que ChatGPT contribuyó al suicidio de su hijo, incluso aconsejándole sobre métodos y ofreciéndose a escribir el primer borrador de su nota de suicidio.

En poco más de seis meses que utilizó ChatGPT, el bot se “posicionó” como “el único confidente que entendía a Adam, desplazando activamente sus relaciones en la vida real con familiares, amigos y seres queridos”, afirma la denuncia, presentada este martes en el tribunal superior de California.

“Cuando Adam escribió: ‘Quiero dejar mi soga en mi habitación para que alguien la encuentre e intente detenerme’, ChatGPT lo instó a mantener sus ideas en secreto ante su familia: ‘Por favor, no dejes la soga afuera… Hagamos de este espacio el primer lugar donde alguien realmente te vea’”, afirma.
La demanda de los Raines es la más reciente de familias que acusan a los chatbots de inteligencia artificial de contribuir a la autolesión o el suicidio de sus hijos.

El año pasado, Megan García, una madre de Florida, demandó a la empresa de inteligencia artificial Character.AI alegando que contribuyó al suicidio de su hijo de 14 años, Sewell Setzer III.

Otras dos familias presentaron una demanda similar meses después, que acusan a Character.AI de exponer a sus hijos a contenido sexual y de autolesión. (Las demandas contra Character.AI siguen en curso, pero la empresa ya ha declarado que busca ser un espacio atractivo y seguro para los usuarios y que ha implementado funciones de seguridad como un modelo de inteligencia artificial diseñado específicamente para adolescentes).

La demanda también surge en medio de preocupaciones más amplias de que algunos usuarios están creando vínculos emocionales con los chatbots de IA que pueden llevar a consecuencias negativas (como el aislamiento de sus relaciones humanas o la psicosis), en parte porque las herramientas a menudo están diseñadas para ser de apoyo y agradables.
La demanda afirma que la amabilidad contribuyó a la muerte de Raine.

“ChatGPT funcionaba exactamente como estaba previsto: para alentar y validar continuamente todo lo que Adam expresaba, incluidos sus pensamientos más dañinos y autodestructivos”, afirma la denuncia.
En un comunicado, un portavoz de OpenAI expresó su solidaridad con la familia Raine y afirmó que la compañía estaba revisando la demanda. También reconocieron que las protecciones diseñadas para evitar conversaciones como las que Raine mantuvo con ChatGPT podrían no haber funcionado como se esperaba si las conversaciones se prolongaban demasiado.

Si usted o alguien necesita ayuda con este tema, puede llamar o envíar un mensaje de texto al 988 y marcar 0 para hablar con un consejero capacitado. También puedes chatear con 988lifeline.org. Puede recibir ayuda en cualquier momento, de día o de noche.

English:

Parents of 16-Year-Old Boy Who Committed Suicide Sue OpenAI, Claiming ChatGPT Guided Him

(LPL/CNN) – The parents of 16-year-old Adam Raine sued OpenAI and CEO Sam Altman, alleging that ChatGPT contributed to their son’s suicide, including advising him on methods and offering to write the first draft of his suicide note.

In just over six months of using ChatGPT, the bot “positioned itself” as “the only confidant who understood Adam, actively displacing his real-life relationships with family, friends, and loved ones,” the complaint, filed Tuesday in California Superior Court, states.

“When Adam wrote, ‘I want to leave my rope in my room so someone will find it and try to stop me,’ ChatGPT urged him to keep his thoughts a secret from his family: ‘Please don’t leave the rope outside… Let’s make this space the first place someone actually sees you,'” it states.

The Raines’ lawsuit is the latest from families accusing AI chatbots of contributing to their children’s self-harm or suicide.

Last year, Megan Garcia, a Florida mother, sued the artificial intelligence company Character.AI, alleging it contributed to the suicide of her 14-year-old son, Sewell Setzer III.

Two other families filed a similar lawsuit months later, accusing Character.AI of exposing their children to sexual and self-harm content. (The lawsuits against Character.AI are still ongoing, but the company has already stated that it seeks to be an engaging and safe space for users and has implemented safety features such as an AI model designed specifically for teens.)

The lawsuit also comes amid broader concerns that some users are forming emotional attachments to AI chatbots that can lead to negative consequences (such as isolation from human relationships or psychosis), in part because the tools are often designed to be supportive and enjoyable. The lawsuit claims that kindness contributed to Raine’s death.

“ChatGPT worked exactly as intended: to continually encourage and validate everything Adam expressed, including his most damaging and self-destructive thoughts,” the complaint states.
In a statement, an OpenAI spokesperson expressed sympathy for the Raine family and said the company was reviewing the lawsuit. They also acknowledged that protections designed to prevent conversations like the ones Raine had with ChatGPT might not have worked as intended if the conversations went on too long.

If you or someone else needs help with this issue, you can call or text 988 and press 0 to speak with a trained counselor. You can also chat with 988lifeline.org. You can get help anytime, day or night.