NOTÍCIAS
Ciência e Tecnologia
Quatro processos judiciais responsabilizam o ChatGPT por suicídios e delírios nocivos; entenda os casos
Foto: Reprodução

Denúncias alegam que o popular chatbot incentivou discussões perigosas e levou a colapsos nervosos

Quatro ações judiciais por homicídio culposo foram movidas contra a OpenAI nesta quinta-feira (6), além de processos movidos por três pessoas que afirmam que o chatbot da empresa causou problemas de saúde mental.

 

Os processos, movidos em tribunais estaduais da Califórnia, alegam que o ChatGPT, usado por 800 milhões de pessoas, é um produto falho. Uma das ações o classifica como “defeituoso e inerentemente perigoso”.

 

Uma queixa apresentada pelo pai de Amaurie Lacey afirma que o jovem de 17 anos, da Geórgia, conversou com o bot sobre suicídio durante um mês antes de sua morte, em agosto. Joshua Enneking, de 26 anos, da Flórida, perguntou ao ChatGPT “o que seria necessário para que seus revisores denunciassem seu plano de suicídio à polícia”, segundo uma queixa apresentada por sua mãe.

 

Veja também

 

Brasileiro vence prêmio da Unesco em pesquisas sobre ética da IA

 

Professora dá dicas de última hora para a redação do Enem

Zane Shamblin, de 23 anos, do Texas, cometeu suicídio em julho após ser incentivado pelo ChatGPT, de acordo com a queixa apresentada por sua família.

 

Joe Ceccanti, um homem de 48 anos do Oregon, usava o ChatGPT sem problemas há anos, mas em abril se convenceu de que ele era senciente. Sua esposa, Kate Fox, disse em uma entrevista em setembro que ele havia começado a usar o ChatGPT compulsivamente e a agir de forma errática. Ele teve um surto psicótico em junho, disse ela, e foi hospitalizado duas vezes antes de cometer suicídio em agosto.

 

 

— Os médicos não sabem como lidar com isso — afirma Kate.

 

Uma porta-voz da OpenAI afirmou em comunicado que a empresa estava analisando os documentos, que foram divulgados anteriormente pelo The Wall Street Journal e pela CNN.

 

"Esta é uma situação extremamente dolorosa. Treinamos o ChatGPT para reconhecer e responder a sinais de sofrimento mental ou emocional, apaziguar conversas e orientar as pessoas para obterem apoio presencial. Continuamos a aprimorar as respostas do ChatGPT em momentos delicados, trabalhando em estreita colaboração com profissionais de saúde mental", diz o comunicado

 

Outros dois autores da ação — Hannah Madden, de 32 anos, da Carolina do Norte, e Jacob Irwin, de 30 anos, de Wisconsin — afirmam que o ChatGPT os levou a sofrer colapsos nervosos que resultaram em atendimento psiquiátrico de emergência.

 

Ao longo de três semanas em maio, Allan Brooks, de 48 anos, um recrutador corporativo de Ontário, Canadá, que também está processando a empresa, passou a acreditar que havia inventado uma fórmula matemática com o ChatGPT capaz de revolucionar a internet e viabilizar invenções fantásticas. Ele se recuperou desse delírio, mas disse que agora está afastado do trabalho por invalidez temporária.

 

Fotos: Reprodução


— O produto deles me causou danos, e a outros também, e continua causando. Estou traumatizado emocionalmente — afirma Brooks, sobre quem o The New York Times escreveu em agosto.

 

Após a família de um adolescente da Califórnia ter entrado com um processo por homicídio culposo contra a OpenAI em agosto, a empresa reconheceu que seus mecanismos de segurança poderiam "se degradar" quando os usuários mantêm conversas prolongadas com o chatbot.

 

Após relatos neste de pessoas que tiveram experiências perturbadoras ligadas ao ChatGPT, incluindo episódios delirantes e suicídios, a empresa adicionou medidas de segurança ao seu produto para adolescentes e usuários em sofrimento. Agora existem controles parentais para o ChatGPT, por exemplo, para que os pais possam receber alertas caso seus filhos falem sobre suicídio ou automutilação.

 

A OpenAI divulgou recentemente uma análise de conversas ocorridas em sua plataforma ao longo do último mês, que revelou que 0,07% dos usuários podem estar vivenciando "emergências de saúde mental relacionadas à psicose ou mania" por semana, e que 0,15% estavam discutindo suicídio.

 

A análise foi realizada com base em uma amostra estatística de conversas. No entanto, se extrapolássemos esses dados para todos os usuários da OpenAI, essas porcentagens equivaleriam a meio milhão de pessoas com sinais de psicose ou mania e mais de um milhão potencialmente discutindo intenções suicidas.

 

O Tech Justice Law Project e o Social Media Victims Law Center entraram com as ações judiciais. De acordo com Meetali Jain, fundadora do Tech Justice Law Project, todos os casos foram protocolados no mesmo dia para demonstrar a diversidade de pessoas que tiveram interações problemáticas com o chatbot, projetado para responder perguntas e interagir com usuários de forma humanizada.

 

Os autores das ações judiciais utilizavam o ChatGPT-4o, modelo padrão anteriormente oferecido a todos os usuários, que foi substituído por um modelo que a empresa considera mais seguro, mas que alguns usuários descreveram como frio.

 

Curtiu? Siga o PORTAL DO ZACARIAS no FacebookTwitter e no Instagram

Entre no nosso Grupo de WhatAppCanal e Telegram

 

(O jornal The Times processou a OpenAI por violação de direitos autorais; a OpenAI negou as acusações.) 

 

Fonte: O Globo

LEIA MAIS
DEIXE SEU COMENTÁRIO

Nome:

Email:

Mensagem:

Copyright © 2013 - 2025. Portal do Zacarias - Todos os direitos reservados.