Cientistas podem até dar uma personalidade a um programa de inteligência artificial
As tecnologias de inteligência artificial estão se tornando "conscientes"? Um engenheiro do Google foi suspenso por dizer que sim e despertou um debate que está longe de ser ficção científica.
A LaMDA, um software do Google que gera chatbots, robôs que conversam virtualmente, "sabe claramente o que quer e o que considera como direitos enquanto pessoa", escreveu o engenheiro Blake Lemoine na plataforma Medium.
Na empresa e na comunidade científica, essa opinião é muitas vezes considerada absurda ou, no melhor dos casos, prematura.
Veja também
Máquina possibilita transplante de fígado com mais de 3 dias fora do corpo
Google lança novos óculos que traduzem conversas em tempo real
Programas baseados em aprendizagem automática são "treinados" a partir de conjuntos de dados que abordam os conceitos de consciência ou identidade e são capazes de causar essa ilusão.
"Os programas que acessam a internet podem responder a qualquer pergunta", mas isso não os torna confiáveis, diz a professora Susan Schneider, fundadora de um centro de pesquisa na Universidade Atlântica da Flórida.
Apesar de suas objeções à teoria, Schneider desaprova as sanções do Google contra Lemoine.
O Google tende a "tentar silenciar questões éticas", disse Schneider. "Precisamos de debates públicos sobre essas questões espinhosas", acrescentou.
Curtiu? Siga o PORTAL DO ZACARIAS no Facebook, Twitter e no Instagram.
Entre no nosso Grupo de WhatApp e Telegram
"Centenas de pesquisadores e engenheiros conversaram com a LaMDA e, até onde sabemos, ninguém fez essas alegações ou antropomorfizou a LaMDA como Blake fez", comentou Brian Gabriel, porta-voz do Google.
Fonte: R7