NOTÍCIAS
Ciência e Tecnologia
'Hallucinate' é a palavra do ano: entenda por que a inteligência artificial pode 'alucinar'
Foto: Reprodução

Escolha foi feita pelo Cambridge Diccionary após termo ganhar um novo significado por estar relacionado a quando sistemas de IA generativa dão respostas que não condizem com perguntas feitas

Na última sexta-feira, “Hallucinate” (alucinar em português) foi eleita a palavra do ano de 2023 pelo Cambridge Diccionary, o dicionário on-line mais popular do mundo, depois de o verbo ganhar um novo significado este ano na esteira da popularização de sistemas de inteligência artificial (IA), como os robôs virtuais ChatGPT e Bard.

 

A escolha vem do fato de que esses chatbots “alucinam”. Pelo menos é assim que os especialistas classificam respostas erradas ou sem sentido, desvinculadas do que foi perguntado, por parte da inteligência artificial.

 

Uma publicação no site do dicionário justificou a escolha afirmando que o novo significado de “alucinar” toca no ponto principal do debate despertado no mundo pelo avanço da IA generativa: trata-se de uma ferramenta poderosa, mas (como o ser humano, aliás) longe de ser perfeita. Estamos todos ainda aprendendo a interagir com ela de forma segura e eficaz. Mas afinal, como e por que sistemas que rodam em máquinas tão sofisticadas alucinam?

 

Veja também 

 

Bill Gates vê possibilidade de semana de 3 dias de trabalho com avanço da IA

 

Receita do X, antigo Twitter, pode cair R$ 360 milhões por saída de anunciantes; entenda


Há duas semanas, pela primeira vez, pesquisadores mediram a frequência com que sistemas de IA literalmente “viajam na maionese”. A startup Vectara, fundada por ex-funcionários do Google, esquadrinhou ferramentas de IA e constatou que as alucinações ocorrem com uma frequência que varia entre 3% e 27%.


Simon Hughes, pesquisador da Vectara que liderou o projeto, explicou que sua equipe pediu para esses sistemas realizarem uma tarefa simples e direta, facilmente verificável: resumir artigos de notícias. Mesmo assim, os chatbots persistentemente inventaram informações.

 

— O fato de o sistema ainda poder apresentar erros é um problema fundamental — acrescentou Amr Awadallah, CEO da Vectara.

 

As tecnologias da OpenAI — a criadora do ChatGPT, que viveu uma montaha-russa na semana passada com a demissão e recondução de seu CEO, Sam Altman — tiveram a taxa mais baixa taxa de alucinação, em torno de 3%. Os sistemas da Meta, dona de Facebook, Instagram e WhatsApp, ficaram em torno de 5%.

 

O sistema Claude 2, oferecido pela Anthropic, uma concorrente da OpenAI também sediada em São Francisco, ultrapassou os 8%. Um sistema do Google, o Palm chat, teve a taxa mais alta: nada menos que 27% do que respondeu era, digamos, “abobrinha”.

 

Isso pode não ser um problema para quem usa as interfaces de inteligência artificial como mera diversão. Entretanto, pode gerar uma grande dor de cabeça em usos como informações médicas, dados comerciais sensíveis ou documentos judiciais. Sem falar no potencial de reforçar a crença em notícias falsas.

 

O executivo de tecnologia Helbert Costa, autor do livro “ChatGPT Explicado”, explica que as IAs generativas não foram desenhadas para serem factuais. Pelo contrário, foram estimuladas a ter uma pitada de criatividade para tornar a interação mais real e humanizada. Seu grau de alucinação é grande porque ela é programada para dar respostas independentemente do nível de certeza. Ou seja: se não está seguro da resposta, ele "enrola".


— Uma IA que detecta carros, por exemplo, quando exposta a algum tipo de imagem, identifica a mais próxima. Se tiver 27% de semelhança com uma caminhonete, vai dizer que é uma caminhonete — explica. — Da mesma forma funciona para os textos. A IA pega as palavras que estão mais conectadas ao contexto e usa.

 

André Aizim Kelmanson, sócio da Grana Capital — fintech que lançou recentemente no Brasil o aplicativo Grana IA, com foco em informações do mercado — diz que, para evitar a alucinação, é necessário um trabalho constante para fazer o modelo entender que não precisa ser criativo quando não encontrar a resposta requisitada.

 

Ele diz que a chance de erro é reduzida em inteligências artificiais treinadas para assuntos específicos, pelo fato de serem alimentadas com bancos de dados mais restritos e ligados a um determinado contexto. Ainda assim, diz Kelmanson, é preciso “educar” a máquina:

 

— Em quase 10 mil horas de treinamento, a gente reduziu as alucinações a praticamente zero. Existem centenas de técnicas para trazer a consistência nos dados. Uma delas envolve dizer: “você não pode inventar uma resposta quando não souber”, assim como se ensina uma criança todas as vezes em que ela erra — afirma.


Ele acrescenta:

 

— Outro modo é o que se chama de cadeia de pensamento. Em vez de só fazer uma pergunta para a inteligência artificial, pedimos também para ela explicar a resposta. Ela pode dar uma resposta inicialmente errada, mas quando começa a explicar, entende que havia se equivocado e se corrige no final.

 

Bruno Diniz, sócio-fundador da consultoria de inovação Spiralem, alerta que, para o usuário, o importante é usar senso crítico e fazer a busca em diferentes bases:

 

Curtiu? Siga o PORTAL DO ZACARIAS no FacebookTwitter e no Instagram

Entre no nosso Grupo de WhatApp e Telegram

 

— O problema é terceirizar totalmente nosso julgamento para ferramentas como essas. Esse é um dos grandes problemas que podemos enfrentar como civilização. (*Com agências internacionais)

 

Fonte: O Globo

LEIA MAIS
Copyright © 2013 - 2026. Portal do Zacarias - Todos os direitos reservados.