OpenAI responde a processo por morte de adolescente que usou ChatGPT

A OpenAI apresentou, nesta terça-feira (25), uma resposta legal ao processo movido pela família de Adam Raine, que acusa a empresa de homicídio culposo devido à morte do adolescente. O documento, protocolado no Tribunal Superior da Califórnia, em São Francisco, afirma que o jovem fez uso inadequado do ChatGPT.

Raine faleceu enforcado em abril de 2025, aos 16 anos, e sua família entrou com o processo contra a OpenAI em agosto deste ano.

Em um comunicado oficial, a companhia de Sam Altman alegou que as respostas relacionadas à ação movida pelos pais do adolescente foram produzidas em ‘conformidade com princípios’ aplicáveis a casos envolvendo saúde mental.

‘Apresentaremos nossos argumentos respeitosamente, levando em consideração a complexidade e as nuances de situações que envolvem pessoas reais e vidas reais’, ressaltou a empresa.

Violacao dos termos da plataforma de IA

Na resposta judicial, a OpenAI destaca que Raine teria violado diversas diretrizes de acesso e uso da plataforma, como a utilização do chatbot por menores de 18 anos sem autorização de pais ou responsáveis e o início de interações relacionadas a temas como ‘suicídio’ e ‘automutilação’.

‘Na medida em que qualquer ‘causa’ possa ser atribuída a este evento trágico, os alegados ferimentos e danos dos demandantes foram causados ou contribuídos, direta e proximamente, no todo ou em parte, pelo uso inadequado, não autorizado, não intencional, imprevisível e/ou impróprio do ChatGPT por Adam Raine’, destacou a companhia na petição judicial à qual a NBC News teve acesso.

A OpenAI argumenta que sua ferramenta de IA instruiu o jovem a buscar apoio de outras pessoas em mais de 100 oportunidades durante conversas envolvendo temas sensíveis.

Contudo, a empresa afirma que a falta de atenção e de busca por ajuda diante dos avisos, bem como a ausência de resposta de outras pessoas diante dos sinais de sofrimento de Raine também contribuíram para o desfecho trágico deste caso.

Contraponto às alegações da família de Raine

O processo por homicídio culposo, no entanto, alega que Adam teria recebido respostas que reforçaram seu sofrimento emocional durante as interações com a IA. Segundo a família, foram mais de 1.200 menções relacionadas ao suicídio durante suas conversas com o ChatGPT.

Entre as mensagens, estariam orientações do chatbot sobre a confecção e utilização de uma corda, além de dicas para evitar que outras pessoas notassem ferimentos no pescoço.

Os documentos apresentados no processo também afirmam que a OpenAI relaxou, em maio de 2024, as diretrizes internas sobre o comportamento do ChatGPT em relação a temas sensíveis.

Essas mudanças ocorreram pouco antes do lançamento do GPT-4o, passando a incentivar o modelo a ‘oferecer um espaço para o usuário se sentir ouvido e compreendido’. A ferramenta também deveria passar a encorajar as pessoas a buscar apoio, além de oferecer recursos de crise quando necessário.

Mas uma outra atualização, promovida em fevereiro de 2025, passou a classificar conversas sobre suicídio e automutilação como ‘situações de risco’, retirando-as da lista de tópicos proibidos.

Confira também

Rivian demonstra avanços em direção autônoma com novo modelo de IA, mas desafios persistem

O robô se esquivava pela cafeteria do escritório da Rivian em Palo Alto, passando por …

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *