NOTÍCIAS
Ciência e Tecnologia
Ex-pesquisadora deixa OpenAI após testes de anúncios e alerta para riscos de manipulação
Foto: Reproduçao

Para especialista, monetização baseada em publicidade pode comprometer confiança e ampliar incentivos para exploração de dados sensíveis

Uma pesquisadora que atuou por dois anos na OpenAI anunciou sua saída da empresa na mesma semana em que começaram os testes de anúncios no ChatGPT. Segundo ela, a decisão foi motivada por preocupações crescentes sobre o modelo de negócios adotado pela companhia e os impactos que a publicidade pode gerar no uso da inteligência artificial.

 

Durante o período em que trabalhou na empresa, a pesquisadora afirma ter contribuído para o desenvolvimento de modelos de IA, definição de preços e construção das primeiras diretrizes de segurança. Ela relata que entrou na OpenAI com o objetivo de ajudar a antecipar problemas éticos e sociais ligados à tecnologia. No entanto, passou a acreditar que a empresa deixou de priorizar questionamentos fundamentais sobre riscos e governança.

 

Ela ressalta que não considera a publicidade, por si só, imoral ou antiética, reconhecendo que a operação de sistemas de IA é cara e exige fontes sustentáveis de receita. Ainda assim, demonstra preocupação com o potencial de manipulação decorrente do vasto volume de informações pessoais compartilhadas pelos usuários. Segundo a ex-funcionária, o ChatGPT acumulou um “arquivo de franqueza humana sem precedentes”, já que milhões de pessoas relatam à ferramenta questões íntimas, como medos de saúde, conflitos familiares e crenças pessoais.

 

Veja também 

 

Google atualiza Discover para oferecer mais conteúdo original e menos sensacionalismo

 

MPF, ANPD e Senacon dão prazo ao X para barrar conteúdos sexuais gerados por IA envolvendo crianças e vítimas sem consentimento


Na avaliação dela, a inserção de anúncios nesse contexto cria incentivos econômicos que podem enfraquecer compromissos iniciais de neutralidade e privacidade. Embora a OpenAI tenha informado que os anúncios serão claramente identificados, posicionados ao final das respostas e não influenciarão o conteúdo gerado, a pesquisadora teme que, com o tempo, a pressão por receita leve a ajustes graduais nas regras, como já ocorreu em outras plataformas digitais.

 

Ela cita exemplos históricos, como o Facebook, que inicialmente prometeu maior controle de dados aos usuários, mas acabou flexibilizando essas garantias sob a lógica do engajamento publicitário. Também aponta relatos de especialistas sobre dependência excessiva de chatbots e casos documentados de impactos psicológicos, alertando que otimizações voltadas para retenção e engajamento podem intensificar esse cenário.

 

Para a ex-pesquisadora, o debate não deve se limitar a “anúncios ou exclusividade paga”. Ela defende alternativas como subsídios cruzados em que empresas que utilizam IA para gerar lucro em larga escala contribuam para financiar acesso gratuito ou acessível a outros usuários, além de modelos de governança independente, com supervisão vinculante sobre o uso de dados. Outra proposta envolve a criação de trusts ou cooperativas de dados, nos quais os próprios usuários tenham poder de decisão sobre como suas informações podem ser utilizadas.

 

Curtiu? Siga o PORTAL DO ZACARIAS no FacebookTwitter e no Instagram.

Entre no nosso Grupo de WhatAppCanal e Telegram 

 

Embora reconheça que essas soluções são complexas, ela afirma que ainda há tempo para estruturar modelos que ampliem o acesso à inteligência artificial sem comprometer a autonomia e a privacidade dos usuários. Para ela, o maior risco não é apenas a existência de anúncios, mas a construção de um sistema econômico que incentive, gradualmente, a exploração de dados sensíveis e a manipulação comportamental. 

LEIA MAIS
DEIXE SEU COMENTÁRIO

Nome:

Mensagem:

Copyright © 2013 - 2026. Portal do Zacarias - Todos os direitos reservados.