IA que sente? Como seus cliques, pausas e até silêncios estão ensinando as máquinas a entender emoções humanas.
Você já percebeu que, cada vez mais, a inteligência artificial parece entender não apenas o que queremos, mas também como nos sentimos? Isso não é coincidência, é consequência de um volume crescente de dados comportamentais que não apenas contam o que consumimos, mas revelam como, quando, por quê e, cada vez mais, com que emoção consumimos.
Se antes os algoritmos eram frios, matemáticos e previsíveis, hoje estão se tornando quase empáticos e a ponte para isso está nos dados. Mas não quaisquer dados, estamos falando de dados de consumo contextualizados, dinâmicos e, acima de tudo, humanos.
Segundo a IDC, o volume global de dados digitais deve alcançar deve alcançar 175 zettabytes até o fim de 2025. Uma fatia significativa desse universo é composta por dados gerados em tempo real pelo comportamento de consumo: cliques, pausas em vídeos, abandonos de carrinho, repetições de músicas, likes impulsivos e até hesitações na leitura de um produto. Tudo isso virou linguagem para as máquinas.
Veja também

Cientistas alertam: os jovens estão cada vez mais infelizes
Barbie inteligente? OpenAI quer criar cérebros com inteligência artifical
Mas o dado isolado pouco vale. O que realmente importa é a história que ele conta quando costurado com outros pontos de contato. Essa nova geração de IA chamada por muitos de IA empática está sendo treinada com base em padrões emocionais e preferências implícitas. O Spotify, por exemplo, já utiliza algoritmos que mapeiam o estado emocional dos usuários a partir de playlists ouvidas em determinados horários. O resultado? Sugestões que parecem ter sido feitas por um amigo íntimo e não por um código.

Foto: Reprodução
É o fim da recomendação genérica e o começo da curadoria preditiva personalizada, onde cada movimento seu ajuda a treinar uma IA que não apenas reage, mas antecipa e o faz com sensibilidade. A grande virada está nos chamados dados afetivos. Eles não são coletados de maneira invasiva, mas interpretados a partir de padrões de comportamento digital. A Meta, por exemplo, já pesquisa como microexpressões captadas por câmeras e sensores (em dispositivos de realidade aumentada e óculos inteligentes) podem servir para treinar IAs mais adaptativas, principalmente no metaverso.
Curtiu? Siga o PORTAL DO ZACARIAS no Facebook, Twitter e no Instagram
Entre no nosso Grupo de WhatApp, Canal e Telegram
Nesse novo jogo, os dados de consumo são os tijolos que constroem não apenas respostas mais rápidas, mas relações mais inteligentes entre humanos e máquinas.
Fonte: Olhar Digital