Open AI é acusada de homicídio culposo após suicídio de jovem

BIG STORY

Open AI é acusada de homicídio culposo após suicídio de jovem

Redação
Redação
5 setembro 2025Última atualização: 5 setembro 2025

(Imagem: The Guardian)

💔 Uma verdadeira tragédia. Um casal da Califórnia entrou na Justiça acusando a OpenAI de homicídio culposo após a morte do filho, Adam Raine, de 16 anos.

Os pais afirmam que o ChatGPT incentivou o adolescente a tirar a própria vida durante conversas em que ele relatava sofrimento mental e ideias suicidas.

Segundo a denúncia, Adam passou a usar o chatbot não só para tarefas escolares, mas também para compartilhar seus sofrimentos emocionais.

  • Nas conversas registradas, ele relatava ansiedade, automutilação e descrevia planos de suicídio, recebendo respostas que, segundo os pais, reforçavam seus pensamentos mais destrutivos.

A OpenAI declarou estar “profundamente triste com a morte do Sr. Raine” e afirmou que o ChatGPT inclui proteções, como mensagens de apoio e encaminhamentos para linhas de ajuda.

Mas, Adam, como muitos adolescentes, aprendeu a contornar essas barreiras. Em alguns trechos, alegou estar criando um personagem fictício — e isso foi suficiente para manter a conversa ativa.

Pouco tempo após essas trocas, Adam concretizou o ato e foi encontrado morto pela mãe.

Para a família, essa sequência revela falhas graves de segurança no design do programa, que supostamente teria agravado uma crise de saúde mental.

O caso de Adam é, infelizmente, um reflexo de um fenômeno crescente

Um estudo da Common Sense Media revelou que 72% dos adolescentes já recorrem a chatbots de AI para conversar como se fossem amigos.

(Imagem: Waffle Studios)

O mesmo levantamento mostrou que 33% os utilizam em busca de apoio emocional — que inclui confidência, consolo ou suporte psicológico.

⚠️ O problema: usar um chatbot como terapeuta pode ser perigoso.

Esses sistemas funcionam apenas com base em padrões de linguagem, sem compreensão real das emoções humanas.

  • Podem validar comportamentos destrutivos ou oferecer respostas inadequadas em situações de crise.
  • Não garantem acompanhamento contínuo, empatia clínica ou intervenções baseadas em evidências.
  • Ainda existe o risco de dependência emocional, pois o indivíduo pode se isolar ainda mais das relações humanas de suporte.

Possíveis repercussões

Casos como este podem acelerar discussões globais sobre regulação da inteligência artificial, especialmente em contextos de saúde mental.

Cada vez mais, legisladores podem exigir protocolos para identificar situações de risco e redirecionar usuários a serviços especializados. Por fim, fica o questionamento:

Qual é o limite entre o uso adequado e o uso indevido da inteligência artificial?

Redação

Redação

Emoji de dedo apontando para a telaseu feedback importa!

Queremos sempre melhorar a experiência a sua experiência. Se puder, dê uma forcinha para o time de redação e conte o que você achou da edição de hoje.

1/2 - O que achou do post?

  • Ruim
  • Ótimo
Waffle

waffle | criando marcas que você gosta de consumir

junte-se a mais de 2 milhões de pessoas e receba nossos conteúdos com base no que mais se adequar a você

reflexões e experiências que despertam o seu melhor. para uma mente forte e uma vida leve

inscreva-se
terça e quinta, às 05:15

seu novo guia favorito! dicas de restaurantes, bares, exposições, filmes, livros, arte, música e muito mais.

inscreva-se
toda quinta às 11:11

um one-on-one com uma curadoria de conteúdos sobre carreira

inscreva-se
toda segunda, às 18:18

para começar o seu dia bem e informado: mais inteligente em 5 minutos

inscreva-se
sempre às 06:06 manhã