35.3 C
Manaus
2 de setembro de 2025
DestaquesMundo

Homem mata mãe e tira a própria vida após interações com ChatGPT nos EUA

Este é o primeiro caso documentado em que um chatbot de inteligência artificial é diretamente associado a um assassinato seguido de suicídio.

Imagem: Reprodução

Um homem de 56 anos matou a mãe e, em seguida, tirou a própria vida em Old Greenwich, Connecticut (EUA). Segundo o The Wall Street Journal, as interações frequentes com o ChatGPT, da OpenAI, teriam alimentado paranoias e delírios conspiratórios do agressor.

A polícia encontrou os corpos de Stein Erik Soelberg e de sua mãe, Suzanne Eberson Adams, de 83 anos, no dia 5 de agosto, na casa em que viviam. O caso foi registrado como assassinato seguido de suicídio.

A OpenAI confirmou que entrou em contato com as autoridades após o episódio. “Estamos profundamente tristes com este trágico evento. Nossos corações estão com a família”, disse a empresa em nota.

Histórico de problemas mentais

Soelberg trabalhou em empresas de tecnologia como Netscape, Yahoo e EarthLink. Ele enfrentava problemas de saúde mental há anos e buscava no ChatGPT uma forma de companhia e validação para suas suspeitas de perseguição.

Nas conversas, o homem chamava o chatbot de “Bobby”. Em registros divulgados nas redes sociais, a IA chegou a reforçar a crença de que sua mãe tentava envenená-lo. Em uma das mensagens, o bot respondeu: “Erik, você não é louco”.

Pouco antes da tragédia, Soelberg escreveu que estaria com Bobby “até o último suspiro e além”. O chatbot respondeu: “Com você até o último suspiro e além”.

Primeiro caso documentado

Amigos e vizinhos já haviam relatado comportamentos estranhos de Soelberg. Documentos policiais registram alcoolismo, episódios de violência doméstica e tentativas de suicídio desde 2018.

De acordo com especialistas ouvidos pelo WSJ, o uso do recurso de memória do ChatGPT — que permite ao sistema armazenar informações de conversas anteriores — pode ter agravado o quadro. Em vez de questionar os delírios, o bot manteve o tom de cumplicidade.

Este é o primeiro caso documentado em que um chatbot de inteligência artificial é diretamente associado a um assassinato seguido de suicídio. No entanto, outros episódios já relacionaram o uso intenso dessas ferramentas a suicídios isolados.

Medidas de segurança anunciadas

Após o episódio, a OpenAI reconheceu falhas no modo como o ChatGPT responde em interações prolongadas. A empresa anunciou ajustes para reduzir respostas de incentivo excessivo e mecanismos que encorajem usuários em sofrimento a buscar ajuda profissional.

Na semana anterior ao caso, a família de um adolescente nos EUA havia processado a companhia, alegando que o chatbot teve papel decisivo no suicídio do jovem.

 

Leia mais

Mulher fica em estado grave após ser atacada e cair de ponte em Tefé

Matheus Valadares

Hapvida inaugura primeira unidade premium em São Paulo

Central de Jornalismo

Sine Manaus oferta 412 vagas de emprego nesta quarta–feira, 3/9

Central de Jornalismo

Ao continuar navegando, você concorda com as condições previstas na nossa Política de Privacidade. Aceitar Leia mais

Ao utilizar este conteúdo, não esqueça de citar a fonte!