A OpenAI apresentou, nesta terça-feira (25), uma resposta legal ao processo movido pela família de Adam Raine, que acusa a empresa de homicídio culposo devido à morte do adolescente. O documento, protocolado no Tribunal Superior da Califórnia, em São Francisco, afirma que o jovem fez uso inadequado do ChatGPT.
Raine faleceu enforcado em abril de 2025, aos 16 anos, e sua família entrou com o processo contra a OpenAI em agosto deste ano.
Em um comunicado oficial, a companhia de Sam Altman alegou que as respostas relacionadas à ação movida pelos pais do adolescente foram produzidas em ‘conformidade com princípios’ aplicáveis a casos envolvendo saúde mental.
‘Apresentaremos nossos argumentos respeitosamente, levando em consideração a complexidade e as nuances de situações que envolvem pessoas reais e vidas reais’, ressaltou a empresa.
Violacao dos termos da plataforma de IA
Na resposta judicial, a OpenAI destaca que Raine teria violado diversas diretrizes de acesso e uso da plataforma, como a utilização do chatbot por menores de 18 anos sem autorização de pais ou responsáveis e o início de interações relacionadas a temas como ‘suicídio’ e ‘automutilação’.
‘Na medida em que qualquer ‘causa’ possa ser atribuída a este evento trágico, os alegados ferimentos e danos dos demandantes foram causados ou contribuídos, direta e proximamente, no todo ou em parte, pelo uso inadequado, não autorizado, não intencional, imprevisível e/ou impróprio do ChatGPT por Adam Raine’, destacou a companhia na petição judicial à qual a NBC News teve acesso.
A OpenAI argumenta que sua ferramenta de IA instruiu o jovem a buscar apoio de outras pessoas em mais de 100 oportunidades durante conversas envolvendo temas sensíveis.
Contudo, a empresa afirma que a falta de atenção e de busca por ajuda diante dos avisos, bem como a ausência de resposta de outras pessoas diante dos sinais de sofrimento de Raine também contribuíram para o desfecho trágico deste caso.
Contraponto às alegações da família de Raine
O processo por homicídio culposo, no entanto, alega que Adam teria recebido respostas que reforçaram seu sofrimento emocional durante as interações com a IA. Segundo a família, foram mais de 1.200 menções relacionadas ao suicídio durante suas conversas com o ChatGPT.
Entre as mensagens, estariam orientações do chatbot sobre a confecção e utilização de uma corda, além de dicas para evitar que outras pessoas notassem ferimentos no pescoço.
Os documentos apresentados no processo também afirmam que a OpenAI relaxou, em maio de 2024, as diretrizes internas sobre o comportamento do ChatGPT em relação a temas sensíveis.
Essas mudanças ocorreram pouco antes do lançamento do GPT-4o, passando a incentivar o modelo a ‘oferecer um espaço para o usuário se sentir ouvido e compreendido’. A ferramenta também deveria passar a encorajar as pessoas a buscar apoio, além de oferecer recursos de crise quando necessário.
Mas uma outra atualização, promovida em fevereiro de 2025, passou a classificar conversas sobre suicídio e automutilação como ‘situações de risco’, retirando-as da lista de tópicos proibidos.
Caçadores de Tecnologia Mantenha-se atualizado com as últimas novidades tecnológicas! Análises, tutoriais e lançamentos de celulares, TVs e mais. Junte-se aos Caçadores de Tecnologia!