A Inteligência Artificial generativa permite criar falsificações quase indistinguíveis do material real, o que pode ser um risco à ciência
De manipulações em dados a artigos falsos produzidos em massa, as fraudes na literatura acadêmica não são novidade. No entanto, com o avanço da Inteligência Artificial (IA) generativa, esse problema tem se agravado ainda mais.
Cientistas forenses, conhecidos como “detetives científicos”, dedicam-se a identificar e coibir falsificações em estudos acadêmicos, mas a chegada de IA sofisticada tornou esse trabalho cada vez mais complexo. Como essas ferramentas podem criar textos, imagens e dados realistas, existe agora o temor de uma “corrida armamentista” entre fraudadores e investigadores que tentam proteger a integridade científica.
A IA generativa oferece oportunidades sem precedentes para falsificadores, que conseguem criar artigos com dados e imagens falsas, quase indistinguíveis do material legítimo. Em uma reportagem da revista Nature, Jana Christopher, analista de integridade de imagem da FEBS Press, na Alemanha, aponta que os profissionais de integridade científica estão “cada vez mais preocupados com as possibilidades” abertas por essa tecnologia.
Veja também
Fapeam expõe projetos na área da nutrição e tecnologia de alimentos na ExpoAmazônia BIO&TIC
Secretário Serafim Corrêa destaca importância de ciência e inovação na Expo Amazônia Bio&TIC 2024
Elisabeth Bik, especialista em análise forense de imagens, ressalta que, enquanto algumas revistas já permitem o uso de IA para gerar textos, a criação de dados e imagens artificiais ainda é vista com cautela. “Podemos permitir textos gerados por IA, mas a linha é tênue quando se trata de dados”.
A geração de imagens científicas com IA é um problema crescente, especialmente porque muitas dessas imagens são tão realistas que se tornam impossíveis de distinguir a olho nu. Christopher relata que já suspeita de imagens geradas por IA em artigos diariamente, mas sem provas claras, é difícil agir.
Foto: Reprodução
Em um caso famoso, uma imagem de um rato manipulada via IA, com características absurdas e sem sentido, foi publicada por engano, gerando repercussão e retirada rápida. Episódios como esse revelam o quanto essa tecnologia permite criar gráficos e dados falsificados de forma quase imperceptível.Ao longo dos anos, os detetives científicos aprenderam a identificar indícios de manipulação digital, como padrões idênticos em imagens de biologia celular. No entanto, a IA torna esse trabalho mais difícil. “Vejo muitos artigos onde as imagens não parecem reais, mas isso não é prova suficiente”, observa Bik. Por outro lado, sinais de textos escritos por IA, como o uso de frases típicas de chatbots, estão se tornando mais evidentes.
Com a proliferação de imagens e textos gerados por IA, novas ferramentas estão sendo desenvolvidas para ajudar na detecção. Empresas como Imagetwin e Proofig estão expandindo seus algoritmos para detectar irregularidades criadas por IA em figuras científicas. De acordo com Dror Kolodkin-Gal, cofundador da Proofig, sua ferramenta de detecção de imagens microscópicas criadas por IA foi testada com sucesso em milhares de imagens, alcançando uma taxa de acerto de 98%.
No entanto, esses sistemas ainda dependem da revisão humana para validação dos resultados, e Christopher destaca que, embora sejam limitadas, “são ferramentas valiosas para aumentar os esforços de triagem de envios”. A revista Science, por exemplo, já utiliza o Proofig para verificar a integridade das imagens nos artigos submetidos. A Springer Nature, editora da Nature, desenvolveu suas próprias ferramentas de detecção, chamadas Geppetto e SnapShot, que identificam anomalias para análise humana.
Curtiu? Siga o PORTAL DO ZACARIAS no Facebook, Twitter e no Instagram
Entre no nosso Grupo de WhatApp, Canal e Telegram
s sejam promissores, especialistas alertam que há uma necessidade urgente de novos padrões e tecnologias para validar dados e imagens de maneira eficiente. A criação de marcas d’água invisíveis para identificar imagens capturadas por microscópios, por exemplo, pode ser uma solução, sugere Christopher.A Associação Internacional de Editores Científicos, Técnicos e Médicos (STM), sediada no Reino Unido, lançou projetos como o United2Act e o STM Integrity Hub, voltados para enfrentar as chamadas “fábricas de artigos” – empresas que produzem pesquisas falsas em massa para atender à demanda por publicações acadêmicas.
Fonte: Olhar Digital