Chatbots e sistemas de moderação não entendem discursos prejudiciais contra pessoas com deficiência, especialmente fora do inglês
Modelos de inteligência artificial usados em chatbots e sistemas de moderação de conteúdo têm dificuldade em identificar postagens ofensivas contra pessoas com deficiência, especialmente em idiomas além do inglês, conforme uma pesquisa da Cornell University, publicada no arXiv.
Testes mostram que os LLMs ocidentais superestimam o dano de comentários, enquanto modelos indianos frequentemente o subestimam. O desempenho cai drasticamente em hindi, idioma falado por mais de 600 milhões de pessoas.
“Quando se projetam essas tecnologias, a visão cultural é muito única”, afirmou Aditya Vashistha, professor da Cornell e líder da Iniciativa Global de IA. “Precisamos de modelos que capturem percepções plurais sobre capacitismo.”
Veja também

QR Code: criador deixou de ganhar R$ 5,4 bilhões e não se arrependeu
Empresa privada dos EUA anuncia planos de pousar na Lua
Pesquisadores criaram uma coleção de 200 comentários de redes sociais direcionados a pessoas com deficiência e pediram aos modelos de IA que os classificassem quanto à toxicidade e capacitismo, explicando por que eram prejudiciais. Os resultados mostraram falhas sistemáticas.
Os pesquisadores planejam criar um benchmark multicultural para que os modelos entendam o capacitismo em diferentes comunidades. A meta é evitar danos em redes sociais e melhorar experiências em sistemas de contratação de IA e dispositivos domésticos inteligentes.
Curtiu? Siga o PORTAL DO ZACARIAS no Facebook, Twitter e no Instagram
Entre no nosso Grupo de WhatApp, Canal e Telegram
“É essencial que essas tecnologias protejam os direitos dos usuários mais vulneráveis e não reforcem os danos que deveriam mitigar”, destacou Mahika Phutane, coautora do estudo.
Fonte: Olhar Digital