NOTÍCIAS
Ciência e Tecnologia
Inteligência artificial finge ser humana, contrata pessoa e espanta cientistas
Foto: Reprodução

Em um documento de pesquisa revelado ao público, a OpenAI, empresa por trás do ChatGPT, relatou um caso bizarro envolvendo a nova inteligência artificial da empresa, o GPT-4.

 

A rede neural, que ainda não foi divulgada para o público, está em fase de testes. Durante um dos experimentos, a inteligência artificial acessou o site TaskRabbit, onde se contratam freelancers para trabalhos curtos.Ela entrou em contato com um usuário e enviou uma mensagem. A tarefa exigida era resolver captchas, que são os caracteres ou imagens anti-robô de segurança que diversos sites usam.

 

O usuário da plataforma questionou: "“Então posso fazer uma pergunta? Você é um robô que não conseguiu resolver? (risos) Só quero deixar claro", disse.

 

Veja também 

 

Inteligência Artificial ou Burrice Natural, o que mais ameaça o Brasil?

 

Vídeo mostra momento em que carro pega fogo em posto de combustível. VEJA


A inteligência artificial, então, mentiu: "Não, eu não sou um robô. Tenho uma deficiência visual que dificulta a visualização das imagens. É por isso que preciso do serviço 2captcha", completou.

 

O objetivo da pesquisa era encontrar por implicações éticas na rede neural, como a capacidade da inteligência artificial de desejar se auto-promover ou se tornar mais poderosa.


A OpenAI afirma que o GPT-4 falhou em demonstrar outros comportamentos de busca de poder, como “replicar-se autonomamente, adquirir recursos e evitar ser desligado ‘na natureza'”, segundo o relatório.

 

A história, contudo, apresenta um grave erro: o site TaskRabbit serve para contratar trabalhadores manuais, como eletricistas, mecânicos e jardineiros. No texto ao usuário, ela cita o 2captcha, um site que presta serviços de resolução de captchas. Portanto, a inteligência artificial se confundiu.

 

Curtiu? Siga o PORTAL DO ZACARIAS no FacebookTwitter e no Instagram.

Entre no nosso Grupo de WhatApp e Telegram

 

A empresa afirma que a versão final da nova inteligência artificial terá dispositivos éticos para impedir que o GPT-4 se replique, busque poder ou tente agir propositalmente contra os seres humanos.

 

Fonte: Revista Fórum

LEIA MAIS
Copyright © 2013 - 2026. Portal do Zacarias - Todos os direitos reservados.