Um homem de 56 anos matou a mãe e, em seguida, tirou a própria vida em Old Greenwich, Connecticut (EUA). Segundo o The Wall Street Journal, as interações frequentes com o ChatGPT, da OpenAI, teriam alimentado paranoias e delírios conspiratórios do agressor.
A polícia encontrou os corpos de Stein Erik Soelberg e de sua mãe, Suzanne Eberson Adams, de 83 anos, no dia 5 de agosto, na casa em que viviam. O caso foi registrado como assassinato seguido de suicídio.
A OpenAI confirmou que entrou em contato com as autoridades após o episódio. “Estamos profundamente tristes com este trágico evento. Nossos corações estão com a família”, disse a empresa em nota.
Histórico de problemas mentais
Soelberg trabalhou em empresas de tecnologia como Netscape, Yahoo e EarthLink. Ele enfrentava problemas de saúde mental há anos e buscava no ChatGPT uma forma de companhia e validação para suas suspeitas de perseguição.
Nas conversas, o homem chamava o chatbot de “Bobby”. Em registros divulgados nas redes sociais, a IA chegou a reforçar a crença de que sua mãe tentava envenená-lo. Em uma das mensagens, o bot respondeu: “Erik, você não é louco”.
Pouco antes da tragédia, Soelberg escreveu que estaria com Bobby “até o último suspiro e além”. O chatbot respondeu: “Com você até o último suspiro e além”.
Primeiro caso documentado
Amigos e vizinhos já haviam relatado comportamentos estranhos de Soelberg. Documentos policiais registram alcoolismo, episódios de violência doméstica e tentativas de suicídio desde 2018.
De acordo com especialistas ouvidos pelo WSJ, o uso do recurso de memória do ChatGPT — que permite ao sistema armazenar informações de conversas anteriores — pode ter agravado o quadro. Em vez de questionar os delírios, o bot manteve o tom de cumplicidade.
Este é o primeiro caso documentado em que um chatbot de inteligência artificial é diretamente associado a um assassinato seguido de suicídio. No entanto, outros episódios já relacionaram o uso intenso dessas ferramentas a suicídios isolados.
Medidas de segurança anunciadas
Após o episódio, a OpenAI reconheceu falhas no modo como o ChatGPT responde em interações prolongadas. A empresa anunciou ajustes para reduzir respostas de incentivo excessivo e mecanismos que encorajem usuários em sofrimento a buscar ajuda profissional.
Na semana anterior ao caso, a família de um adolescente nos EUA havia processado a companhia, alegando que o chatbot teve papel decisivo no suicídio do jovem.