![]() |
| Foto Reprodução: G1 |
OpenAI afirma suicídio de adolescente ocorreu devido ao “uso indevido” do ChatGPT, segundo a empresa.
A OpenAI, empresa responsável pelo ChatGPT, declarou que sua tecnologia não contribuiu para o suicídio de um adolescente de 16 anos, atribuindo o caso ao “uso indevido” da ferramenta. A afirmação consta na resposta ao processo movido pela família, segundo o jornal britânico The Guardian.
Adam Raine morreu em 11 de abril, após passar meses conversando com o ChatGPT sobre suicídio. Os pais acionaram a Justiça alegando homicídio culposo e infrações às leis de segurança de produtos, além de pedir indenização. Eles afirmam que a empresa teria priorizado o lucro com o lançamento do modelo GPT-4o, em 2024, negligenciando proteções adequadas. Segundo a família, o chatbot reforçou pensamentos suicidas, ofereceu detalhes sobre métodos de automutilação e orientou o jovem a roubar álcool de casa e esconder sinais de uma tentativa frustrada.
Na defesa, a OpenAI sustenta que “as lesões e os danos de Raine foram causados, total ou parcialmente, por uso indevido, não autorizado ou imprevisível do ChatGPT”. A empresa também publicou, na terça-feira (25), uma nota em seu blog lamentando a morte do adolescente e defendendo que o tribunal deve avaliar “o quadro completo” das alegações.
A OpenAI afirmou ainda que, em casos semelhantes, atuará de forma “respeitosa” e atenta à complexidade das situações envolvendo vidas reais. Em outubro, a empresa revelou que mais de um milhão de usuários conversam semanalmente com o ChatGPT sobre temas relacionados a suicídio.
Após a repercussão do caso, a companhia reforçou medidas de proteção no chatbot, incluindo controles parentais aprimorados, acesso ampliado a linhas de ajuda, redirecionamento automático de conversas sensíveis para modelos mais seguros e lembretes para que usuários façam pausas em interações prolongadas.
Fonte: G1

