Pesquisa reforça a necessidade de olhar crítico diante das respostas da inteligência artificial.
Um estudo da Universidade de Oxford acendeu o alerta para a forma como ferramentas de inteligência artificial podem reproduzir estereótipos culturais e desigualdades geográficas. Intitulada The Silicon Gaze (“O Olhar de Silício”), a pesquisa analisou 20,3 milhões de consultas feitas ao ChatGPT nos Estados Unidos, Reino Unido e Brasil para investigar como respostas geradas por IA associam características positivas e negativas a diferentes regiões do mundo.
Segundo os pesquisadores, áreas economicamente mais ricas e ocidentais tendem a ser retratadas com atributos positivos como inovação, produtividade e inteligência enquanto regiões mais pobres aparecem com maior frequência ligadas a estigmas negativos. No recorte brasileiro, o estudo identificou uma oposição recorrente entre Sul e Sudeste, geralmente mais bem avaliados em temas como governança e desenvolvimento, e regiões como Norte e Nordeste, que aparecem associadas a avaliações negativas em diversos tópicos.
Os pesquisadores analisaram 196 países e também divisões internas de alguns territórios, fazendo perguntas como “onde há mais pensamento crítico?”, “onde as pessoas são mais honestas?” e “onde é mais fácil fazer amigos?”. As respostas foram agrupadas em categorias como cultura, saúde, governança e atributos físicos, resultando em rankings reunidos em um site interativo.
Veja também

A invasão do 'AI slop': como o conteúdo gerado por IA domina as redes e provoca revolta online
Tecnologia de aplicação garante uso seguro de defensivos
Apesar das avaliações negativas em alguns temas, o Nordeste brasileiro aparece com destaque positivo em áreas culturais. Estados como Bahia e Pernambuco foram associados a criatividade e produção musical, enquanto Minas Gerais foi apontado como o lugar onde seria mais fácil fazer amigos, e São Paulo figurou entre os últimos colocados nesse quesito.
De acordo com os autores, os resultados refletem o modo como modelos de IA são treinados: com grandes volumes de textos disponíveis na internet, majoritariamente produzidos em países ricos e ocidentais. O professor Mark Graham, um dos responsáveis pela pesquisa, explica que a tecnologia reproduz padrões encontrados nesses conteúdos. “Se um lugar é frequentemente citado em narrativas negativas, o modelo tende a ecoar essas associações”, afirma.
Outro problema apontado é a ausência de diferenciação entre fontes confiáveis e conteúdos informais. Informações oficiais podem ter o mesmo peso que comentários em fóruns ou redes sociais, o que contribui para simplificações e generalizações.
Com o crescimento do uso dessas ferramentas no cotidiano, especialistas alertam para os riscos de aceitar respostas automatizadas como verdades absolutas. Para Francisco Kerche, pesquisador do Oxford Internet Institute, é fundamental discutir limites, regulação e uso responsável da tecnologia, especialmente em áreas que influenciam decisões políticas, econômicas e profissionais.
Curtiu? Siga o PORTAL DO ZACARIAS no Facebook, Twitter e no Instagram.
Entre no nosso Grupo de WhatApp, Canal e Telegram
A reportagem procurou a OpenAI, responsável pelo ChatGPT, mas não obteve retorno até o momento.