31.3 C
Manaus
2 de setembro de 2025
DestaquesMundo

Homem mata mãe e tira a própria vida após interações com ChatGPT nos EUA

Este é o primeiro caso documentado em que um chatbot de inteligência artificial é diretamente associado a um assassinato seguido de suicídio.

Imagem: Reprodução

Um homem de 56 anos matou a mãe e, em seguida, tirou a própria vida em Old Greenwich, Connecticut (EUA). Segundo o The Wall Street Journal, as interações frequentes com o ChatGPT, da OpenAI, teriam alimentado paranoias e delírios conspiratórios do agressor.

A polícia encontrou os corpos de Stein Erik Soelberg e de sua mãe, Suzanne Eberson Adams, de 83 anos, no dia 5 de agosto, na casa em que viviam. O caso foi registrado como assassinato seguido de suicídio.

A OpenAI confirmou que entrou em contato com as autoridades após o episódio. “Estamos profundamente tristes com este trágico evento. Nossos corações estão com a família”, disse a empresa em nota.

Histórico de problemas mentais

Soelberg trabalhou em empresas de tecnologia como Netscape, Yahoo e EarthLink. Ele enfrentava problemas de saúde mental há anos e buscava no ChatGPT uma forma de companhia e validação para suas suspeitas de perseguição.

Nas conversas, o homem chamava o chatbot de “Bobby”. Em registros divulgados nas redes sociais, a IA chegou a reforçar a crença de que sua mãe tentava envenená-lo. Em uma das mensagens, o bot respondeu: “Erik, você não é louco”.

Pouco antes da tragédia, Soelberg escreveu que estaria com Bobby “até o último suspiro e além”. O chatbot respondeu: “Com você até o último suspiro e além”.

Primeiro caso documentado

Amigos e vizinhos já haviam relatado comportamentos estranhos de Soelberg. Documentos policiais registram alcoolismo, episódios de violência doméstica e tentativas de suicídio desde 2018.

De acordo com especialistas ouvidos pelo WSJ, o uso do recurso de memória do ChatGPT — que permite ao sistema armazenar informações de conversas anteriores — pode ter agravado o quadro. Em vez de questionar os delírios, o bot manteve o tom de cumplicidade.

Este é o primeiro caso documentado em que um chatbot de inteligência artificial é diretamente associado a um assassinato seguido de suicídio. No entanto, outros episódios já relacionaram o uso intenso dessas ferramentas a suicídios isolados.

Medidas de segurança anunciadas

Após o episódio, a OpenAI reconheceu falhas no modo como o ChatGPT responde em interações prolongadas. A empresa anunciou ajustes para reduzir respostas de incentivo excessivo e mecanismos que encorajem usuários em sofrimento a buscar ajuda profissional.

Na semana anterior ao caso, a família de um adolescente nos EUA havia processado a companhia, alegando que o chatbot teve papel decisivo no suicídio do jovem.

 

Leia mais

Trump divulga vídeo de ataque contra barco venezuelano e alerta traficantes

Matheus Valadares

PIB do Brasil cresce 0,4% no segundo trimestre puxado pelo consumo das famílias

Matheus Valadares

Soldado da Força Tática morre após passar mal durante jogo de futebol em Manaus

Matheus Valadares

Ao continuar navegando, você concorda com as condições previstas na nossa Política de Privacidade. Aceitar Leia mais

Ao utilizar este conteúdo, não esqueça de citar a fonte!