NOTÍCIAS
Ciência e Tecnologia
Ferramentas de IA podem falhar em checagens e buscas. Entenda por quê
Foto: Reprodução

Ferramentas de Inteligência Artificial, adotadas como alternativas para buscas e verificação de conteúdos, são treinadas com grandes volumes de informação e podem reproduzir erros

O uso de ferramentas de Inteligência Artificial como fonte de informação é cada vez mais comum, mas os resultados podem ser imprecisos, provocar danos ou até colocar em risco a saúde de pessoas que seguem orientações sem validá-las com fontes confiáveis.

 

O problema se agrava quando a IA responde sobre temas frequentemente alvo de desinformação, como vacinas contra a covid-19. Mesmo informações já desmentidas por órgãos oficiais e estudos científicos podem ser reproduzidas de forma imprecisa ou descontextualizada pelas IAs.Não.

 

Ferramentas de IA como o Grok, ChatGPT, Gemini e outras são treinadas com grandes volumes de informação, mas não têm senso crítico ou compromissos com valores éticos. As IAs também podem fornecer informações incorretas ou desatualizadas e cometer erros que refletem preconceitos presentes nos dados de treinamento ou gerados por uma má interpretação da pergunta que deveriam responder.

 

Veja também 

 

Após demitir 2 mil funcionários, FDA vai usar IA na aprovação de medicamentos para 'aumentar radicalmente a eficiência'

 

Moscas viciadas em cocaína podem ajudar a entender dependência humana

Não. Ferramentas de IA como o Grok, ChatGPT, Gemini e outras são treinadas com grandes volumes de informação, mas não têm senso crítico ou compromissos com valores éticos. As IAs também podem fornecer informações incorretas ou desatualizadas e cometer erros que refletem preconceitos presentes nos dados de treinamento ou gerados por uma má interpretação da pergunta que deveriam responder.

 

De acordo com o monitor de desinformação em IA da NewsGuard, durante o mês de março de 2025, os 11 principais chatbots analisados repetiram afirmações falsas em 30,9% das respostas. Entre os observados estão o ChatGPT-4 (OpenAI), o Grok (xAI), o Claude (Anthropic) e o Gemini (Google). Além disso, quando se considera também as respostas evasivas ou que não oferecem informação útil, a taxa total de falha chega a 41,51%.

 

5 motivos pelos quais as IAs ainda não substituem a pesquisa do Google

Foto: Reprodução

 

Um estudo recente do Tow Center for Digital Journalism analisou oito buscadores com inteligência artificial e apontou falhas graves no desempenho dessas ferramentas. O Grok forneceu respostas incorretas em 94% das consultas analisadas. O estudo mostra que os chatbots, de modo geral, têm dificuldade em reconhecer quando não sabem a resposta e, em vez de admitirem isso, oferecem respostas erradas ou especulativas.

 

Curtiu? Siga o PORTAL DO ZACARIAS no FacebookTwitter e no Instagram

Entre no nosso Grupo de WhatAppCanal e Telegram

 

O Grok também apresentou um alto índice de fabricação de links: mais da metade de suas respostas incluíam URLs falsas ou quebradas, além de frequentemente citar artigos errados ou vincular incorretamente as fontes, mesmo quando localizaram o material correto. Especificamente, 154 das 200 citações testadas para o Grok 3 levaram a páginas de erro.

 

Fonte: R7

LEIA MAIS
DEIXE SEU COMENTÁRIO

Nome:

Mensagem:

Copyright © 2013 - 2026. Portal do Zacarias - Todos os direitos reservados.