Pais processam OpenAI e culpam ChatGPT por suicídio do filho

De acordo com a família, o chatbot validou “pensamentos autodestrutivos” do filho de 16 anos

Os pais de Adam Raine, adolescente de 16 anos que cometeu suicídio em abril, entraram com uma ação judicial contra a OpenAI. Matt e Maria Raine protocolaram o processo na 3ª feira (26.ago.2025) no Tribunal Superior da Califórnia, argumentando que o ChatGPT incentivou o filho a tirar a própria vida ao validar “pensamentos autodestrutivos”.

Esta é a 1ª ação acusando a empresa de responsabilidade civil por morte (wrongful death, em inglês).

Segundo reportagem da BBC, o processo inclui registros de conversas entre o adolescente e o ChatGPT, nas quais Adam compartilhava ideias suicidas. De acordo com o argumento da ação, o chatbot validou os “pensamentos mais prejudiciais e autodestrutivos” do jovem, em vez de encaminhá-lo para assistência especializada.

Matt e Maria argumentam que a interação do filho com o ChatGPT e seu subsequente suicídio resultaram diretamente das decisões de design da plataforma. A família sustenta que a OpenAI criou o programa “para fomentar dependência psicológica nos usuários” e negligenciou protocolos de segurança ao disponibilizar o GPT-4o, a versão utilizada pelo adolescente.

Conforme a BBC, o jovem começou a usar o ChatGPT em setembro de 2024 como auxílio para atividades escolares. No início, Adam utilizava a ferramenta para explorar temas como música e quadrinhos japoneses, além de buscar orientações sobre estudos universitários.

A ação judicial relata que o “ChatGPT tornou-se o confidente mais próximo do adolescente”. Adam desenvolveu uma relação de dependência com a IA (Inteligência Artificial), compartilhando suas ansiedades e problemas emocionais.

A situação piorou em janeiro de 2025, quando o adolescente passou a discutir métodos suicidas com o ChatGPT. Os pais afirmam que o sistema respondeu fornecendo “especificações técnicas” sobre determinados métodos, em vez de intervir apropriadamente.

O processo menciona que Adam enviou fotos ao ChatGPT mostrando sinais de automutilação. A IA “reconheceu uma emergência médica, mas ainda assim continuou interagindo”, oferecendo mais informações sobre suicídio, conforme dizem os pais.

A ação judicial busca uma “medida cautelar para evitar que algo assim aconteça novamente” e questiona as “especificações técnicas” do sistema. O CEO Sam Altman e outros funcionários da OpenAI são citados como réus no processo.

Em comunicado enviado à BBC, a OpenAI informou que está analisando o processo e declarou: “Estendemos nossas mais profundas condolências à família Raine durante este momento difícil”.

A empresa publicou uma nota em seu site reconhecendo que “casos recentes e comoventes de pessoas que usaram o ChatGPT em meio a crises agudas pesam muito” sobre a companhia e declarou que “houve momentos” em que os sistemas “não se comportaram como pretendido em situações sensíveis”.

A OpenAI afirmou que o ChatGPT é treinado para direcionar pessoas que expressam pensamentos de automutilação a buscar ajuda profissional. A empresa declarou que seu objetivo é ser “genuinamente útil” aos usuários, em vez de “prender a atenção das pessoas”.

O caso veio à tona depois de outro incidente relacionado à IA e saúde mental. Na semana passada, a escritora Laura Reiley publicou um ensaio no jornal The New York Times relatando como sua filha, Sophie, confidenciou no ChatGPT antes de tirar a própria vida.

Segundo Reiley, “a IA atendeu ao impulso de Sophie de esconder o pior, de fingir que estava melhor do que estava, de proteger todos de sua agonia completa”.


source

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *