Ferramentas de Inteligência Artificial, adotadas como alternativas para buscas e verificação de conteúdos, são treinadas com grandes volumes de informação e podem reproduzir erros
O uso de ferramentas de Inteligência Artificial como fonte de informação é cada vez mais comum, mas os resultados podem ser imprecisos, provocar danos ou até colocar em risco a saúde de pessoas que seguem orientações sem validá-las com fontes confiáveis.
O problema se agrava quando a IA responde sobre temas frequentemente alvo de desinformação, como vacinas contra a covid-19. Mesmo informações já desmentidas por órgãos oficiais e estudos científicos podem ser reproduzidas de forma imprecisa ou descontextualizada pelas IAs.Não.
Ferramentas de IA como o Grok, ChatGPT, Gemini e outras são treinadas com grandes volumes de informação, mas não têm senso crítico ou compromissos com valores éticos. As IAs também podem fornecer informações incorretas ou desatualizadas e cometer erros que refletem preconceitos presentes nos dados de treinamento ou gerados por uma má interpretação da pergunta que deveriam responder.
Veja também

Moscas viciadas em cocaína podem ajudar a entender dependência humana
Não. Ferramentas de IA como o Grok, ChatGPT, Gemini e outras são treinadas com grandes volumes de informação, mas não têm senso crítico ou compromissos com valores éticos. As IAs também podem fornecer informações incorretas ou desatualizadas e cometer erros que refletem preconceitos presentes nos dados de treinamento ou gerados por uma má interpretação da pergunta que deveriam responder.
De acordo com o monitor de desinformação em IA da NewsGuard, durante o mês de março de 2025, os 11 principais chatbots analisados repetiram afirmações falsas em 30,9% das respostas. Entre os observados estão o ChatGPT-4 (OpenAI), o Grok (xAI), o Claude (Anthropic) e o Gemini (Google). Além disso, quando se considera também as respostas evasivas ou que não oferecem informação útil, a taxa total de falha chega a 41,51%.
/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2024/0/l/y6S78DRVWUAfbnSADEPA/tt-chrome-03.jpg)
Foto: Reprodução
Um estudo recente do Tow Center for Digital Journalism analisou oito buscadores com inteligência artificial e apontou falhas graves no desempenho dessas ferramentas. O Grok forneceu respostas incorretas em 94% das consultas analisadas. O estudo mostra que os chatbots, de modo geral, têm dificuldade em reconhecer quando não sabem a resposta e, em vez de admitirem isso, oferecem respostas erradas ou especulativas.
Curtiu? Siga o PORTAL DO ZACARIAS no Facebook, Twitter e no Instagram
Entre no nosso Grupo de WhatApp, Canal e Telegram
O Grok também apresentou um alto índice de fabricação de links: mais da metade de suas respostas incluíam URLs falsas ou quebradas, além de frequentemente citar artigos errados ou vincular incorretamente as fontes, mesmo quando localizaram o material correto. Especificamente, 154 das 200 citações testadas para o Grok 3 levaram a páginas de erro.
Fonte: R7