Estudo revela que, apesar dos avanços, a inteligência artificial ainda não consegue captar nuances das interações sociais como os humanos
Pesquisadores da Universidade Johns Hopkins compararam a capacidade de humanos e modelos de inteligência artificial (IA) em interpretar interações sociais em vídeos e imagens curtas.
Enquanto voluntários humanos conseguiram avaliar com precisão sinais como proximidade e comunicação entre pessoas, os modelos de IA falharam em identificar essas nuances.
Nos vídeos analisados, cenas mostravam desde um chef conversando com uma mulher sorridente até um pai abraçando o filho durante uma atividade, e uma jogadora de tênis observada por um árbitro.
Veja também

BYD chega a 180 concessionárias e tem app com 1.500 eletropostos de recarga
Embora os humanos concordassem nas avaliações, as IAs — tanto de vídeo quanto de imagens estáticas — não conseguiram determinar com segurança se as pessoas estavam interagindo.Radu Soricut, do Google DeepMind, concorda que as IAs ainda têm dificuldade com sinais sociais, mas prevê que com mais dados e integração em dispositivos como óculos inteligentes, a IA poderá melhorar e até ajudar pessoas com dificuldades em interpretar interações sociais.
Curtiu? Siga o PORTAL DO ZACARIAS no Facebook, Twitter e no Instagram
Entre no nosso Grupo de WhatApp, Canal e Telegram
“Nem todos são bons em ler o ambiente, e a IA pode ser uma ferramenta útil para sinalizar quando uma conversa pode estar indo mal”, conclui Soricut.
Fonte: Olhar Digital