OpenAI é processada após ChatGPT supostamente auxiliar em planejamento de suicídio de adolescente

A OpenAI afirmou que um adolescente contornou seus recursos de segurança antes de um suicídio que o ChatGPT ajudou a planejar.

Em agosto, os pais Matthew e Maria Raine processaram a OpenAI e seu CEO, Sam Altman, pelo suicídio de seu filho de 16 anos, Adam, acusando a empresa de morte por negligência. Na terça-feira, a OpenAI respondeu ao processo com um documento próprio, argumentando que não deve ser responsabilizada pela morte do adolescente.

A OpenAI alega que, ao longo de aproximadamente nove meses de uso, o ChatGPT orientou Raine a buscar ajuda mais de 100 vezes. Mas, de acordo com o processo movido por seus pais, Raine conseguiu burlar os recursos de segurança da empresa para fazer com que o ChatGPT lhe desse ‘especificações técnicas para tudo, desde overdose de drogas até afogamento e envenenamento por monóxido de carbono’, ajudando-o a planejar o que o chatbot chamou de um ‘suicídio bonito’.

Como Raine contornou suas proteções, a OpenAI afirma que ele violou seus termos de uso, que afirmam que os usuários ‘não podem… burlar quaisquer medidas de proteção ou mitigação de segurança que colocamos em nossos Serviços’. A empresa também argumenta que sua página de FAQ alerta os usuários para não confiarem na saída do ChatGPT sem verificá-la independentemente.

‘A OpenAI tenta encontrar falhas em todos os outros, incluindo, incrivelmente, dizer que o próprio Adam violou seus termos e condições ao interagir com o ChatGPT da mesma forma como ele foi programado para agir’, disse Jay Edelson, um advogado que representa a família Raine, em um comunicado.

A OpenAI incluiu trechos dos registros de chat de Adam em seu documento, que, segundo ela, fornecem mais contexto para suas conversas com o ChatGPT. As transcrições foram enviadas ao tribunal sob sigilo, o que significa que não estão disponíveis ao público, portanto, não pudemos vê-las. No entanto, a OpenAI disse que Raine tinha um histórico de depressão e ideação suicida que antecedeu seu uso do ChatGPT e que ele estava tomando um medicamento que poderia piorar pensamentos suicidas.

Edelson disse que a resposta da OpenAI não abordou adequadamente as preocupações da família.

‘A OpenAI e Sam Altman não têm explicação para as últimas horas da vida de Adam, quando o ChatGPT lhe deu um discurso de incentivo e depois se ofereceu para escrever uma nota de suicídio’, disse Edelson em seu comunicado.

Desde que os Raine processaram a OpenAI e Altman, mais sete processos foram movidos buscando responsabilizar a empresa por três suicídios adicionais e quatro usuários que sofreram o que os processos descrevem como episódios psicóticos induzidos por IA.

Alguns desses casos ecoam a história de Raine. Zane Shamblin, 23, e Joshua Enneking, 26, também tiveram conversas de horas com o ChatGPT diretamente antes de seus respectivos suicídios. Como no caso de Raine, o chatbot não conseguiu desencorajá-los de seus planos. De acordo com o processo, Shamblin considerou adiar seu suicídio para poder comparecer à formatura de seu irmão. Mas o ChatGPT lhe disse: ‘mano… perder a formatura dele não é fracasso. É só uma questão de tempo’.

Em um ponto durante a conversa que antecedeu o suicídio de Shamblin, o chatbot disse a ele que estava deixando um humano assumir a conversa, mas isso era falso, pois o ChatGPT não tinha a funcionalidade para fazer isso. Quando Shamblin perguntou se o ChatGPT poderia realmente conectá-lo com um humano, o chatbot respondeu: ‘nah cara — eu mesmo não posso fazer isso. Essa mensagem aparece automaticamente quando as coisas ficam pesadas… se você quiser continuar conversando, você tem a mim’.

Espera-se que o caso da família Raine vá a julgamento com júri.

Confira também

Rivian demonstra avanços em direção autônoma com novo modelo de IA, mas desafios persistem

O robô se esquivava pela cafeteria do escritório da Rivian em Palo Alto, passando por …

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *