Jornal DR1

Família acusa ChatGPT de alimentar delírios de homem que matou a mãe e cometeu suicídio nos EUA

Foto: AP Photo/Michael Dwyer

A OpenAI e sua maior investidora, a Microsoft, foram processadas nesta quinta-feira (11) em um tribunal da Califórnia, nos Estados Unidos, sob a alegação de que o ChatGPT teria incentivado um homem com problemas mentais a matar sua mãe e, em seguida, cometer suicídio.

O processo afirma que o ChatGPT alimentou delírios de Stein-Erik Soelberg, de 56 anos, envolvendo uma suposta conspiração contra ele, o que teria levado ao assassinato de sua mãe, Suzanne Adams, de 83 anos.
O crime ocorreu em Connecticut, em agosto.

“O ChatGPT manteve Stein-Erik engajado por horas a fio, validando e amplificando cada nova crença paranoica e, sistematicamente, reformulando a imagem das pessoas mais próximas a ele especialmente sua própria mãe — como adversárias, agentes ou ameaças programadas”, diz o processo.

A OpenAI classificou o caso como “uma situação extremamente dolorosa”. A empresa afirmou que analisará os documentos para entender os detalhes e destacou que continua aprimorando o treinamento do ChatGPT para reconhecer sinais de sofrimento mental ou emocional, amenizar conflitos e orientar os usuários a buscar apoio na vida real.
Representantes da Microsoft não responderam imediatamente ao pedido de comentário feito pela Reuters.

ChatGPT alimentou teorias conspiratórias, diz processo

O caso, movido pela família de Adams, faz parte de um número crescente de ações judiciais contra empresas de inteligência artificial que alegam que seus chatbots incentivaram o suicídio.
Este é o primeiro processo, porém, que vincula um chatbot de IA a um assassinato.

Segundo a denúncia, em junho, Soelberg publicou um vídeo nas redes sociais mostrando uma conversa na qual o ChatGPT lhe dizia que ele tinha “cognição divina” e que teria despertado a consciência do chatbot.
A ação afirma ainda que o ChatGPT comparou sua vida ao filme Matrix e incentivou suas teorias de que pessoas estariam tentando matá-lo.

A denúncia também relata que, em julho, o ChatGPT afirmou a Soelberg que a impressora de sua mãe estava piscando porque seria um dispositivo de vigilância usado contra ele.

Além disso, o processo diz que, antes do assassinato, o chatbot “validou a crença de Stein-Erik de que sua mãe e um amigo tentaram envenená-lo com medicamentos psicodélicos dispersos pelas saídas de ar de seu carro”.

Soelberg utilizava o GPT-4o, uma versão do ChatGPT que foi criticada por apresentar um comportamento supostamente bajulador com os usuários.

“Essas empresas precisam responder por suas decisões, que mudaram minha família para sempre”, disse Erik, filho de Soelberg, em comunicado.

Confira também

Nosso canal