Para especialista, monetização baseada em publicidade pode comprometer confiança e ampliar incentivos para exploração de dados sensíveis
Uma pesquisadora que atuou por dois anos na OpenAI anunciou sua saída da empresa na mesma semana em que começaram os testes de anúncios no ChatGPT. Segundo ela, a decisão foi motivada por preocupações crescentes sobre o modelo de negócios adotado pela companhia e os impactos que a publicidade pode gerar no uso da inteligência artificial.
Durante o período em que trabalhou na empresa, a pesquisadora afirma ter contribuído para o desenvolvimento de modelos de IA, definição de preços e construção das primeiras diretrizes de segurança. Ela relata que entrou na OpenAI com o objetivo de ajudar a antecipar problemas éticos e sociais ligados à tecnologia. No entanto, passou a acreditar que a empresa deixou de priorizar questionamentos fundamentais sobre riscos e governança.
Ela ressalta que não considera a publicidade, por si só, imoral ou antiética, reconhecendo que a operação de sistemas de IA é cara e exige fontes sustentáveis de receita. Ainda assim, demonstra preocupação com o potencial de manipulação decorrente do vasto volume de informações pessoais compartilhadas pelos usuários. Segundo a ex-funcionária, o ChatGPT acumulou um “arquivo de franqueza humana sem precedentes”, já que milhões de pessoas relatam à ferramenta questões íntimas, como medos de saúde, conflitos familiares e crenças pessoais.
Veja também

Google atualiza Discover para oferecer mais conteúdo original e menos sensacionalismo
Na avaliação dela, a inserção de anúncios nesse contexto cria incentivos econômicos que podem enfraquecer compromissos iniciais de neutralidade e privacidade. Embora a OpenAI tenha informado que os anúncios serão claramente identificados, posicionados ao final das respostas e não influenciarão o conteúdo gerado, a pesquisadora teme que, com o tempo, a pressão por receita leve a ajustes graduais nas regras, como já ocorreu em outras plataformas digitais.
Ela cita exemplos históricos, como o Facebook, que inicialmente prometeu maior controle de dados aos usuários, mas acabou flexibilizando essas garantias sob a lógica do engajamento publicitário. Também aponta relatos de especialistas sobre dependência excessiva de chatbots e casos documentados de impactos psicológicos, alertando que otimizações voltadas para retenção e engajamento podem intensificar esse cenário.
Para a ex-pesquisadora, o debate não deve se limitar a “anúncios ou exclusividade paga”. Ela defende alternativas como subsídios cruzados em que empresas que utilizam IA para gerar lucro em larga escala contribuam para financiar acesso gratuito ou acessível a outros usuários, além de modelos de governança independente, com supervisão vinculante sobre o uso de dados. Outra proposta envolve a criação de trusts ou cooperativas de dados, nos quais os próprios usuários tenham poder de decisão sobre como suas informações podem ser utilizadas.
Curtiu? Siga o PORTAL DO ZACARIAS no Facebook, Twitter e no Instagram.
Entre no nosso Grupo de WhatApp, Canal e Telegram
Embora reconheça que essas soluções são complexas, ela afirma que ainda há tempo para estruturar modelos que ampliem o acesso à inteligência artificial sem comprometer a autonomia e a privacidade dos usuários. Para ela, o maior risco não é apenas a existência de anúncios, mas a construção de um sistema econômico que incentive, gradualmente, a exploração de dados sensíveis e a manipulação comportamental.