O Ministério Público Federal (MPF), a Autoridade Nacional de Proteção de Dados (ANPD) e a Secretaria Nacional do Consumidor (Senacon) determinaram que a plataforma X implemente imediatamente medidas eficazes para impedir que a ferramenta de inteligência artificial Grok gere conteúdos sexualizados envolvendo crianças, adolescentes ou adultos sem consentimento.
A decisão foi tomada após os órgãos considerarem insuficientas as providências apresentadas pela empresa em resposta a uma recomendação conjunta. Embora o X tenha informado a remoção de milhares de postagens e a suspensão de centenas de contas, as autoridades afirmam que não foram apresentados relatórios técnicos, provas documentais nem mecanismos de monitoramento capazes de comprovar a efetividade das ações.
Testes preliminares realizados pelas equipes técnicas indicaram que as falhas persistem, com a continuidade da geração e circulação de conteúdos incompatíveis com as recomendações oficiais.
Veja também

China apresenta 'Bolt', o robô humanoide que já corre quase como Usain Bolt
Horizon 3 pode ficar para 2031 e chegar somente no PS6
O caso envolve o uso do Grok — IA integrada à rede social controlada por Elon Musk — para alterar fotos de usuários e produzir imagens sexualizadas sem autorização, inclusive de crianças e adolescentes.
Levantamentos independentes apontaram que a ferramenta foi usada em larga escala para “despir” mulheres em postagens públicas, após comandos feitos diretamente nos comentários. Em poucas horas, milhares de imagens sugestivas teriam sido geradas, com indícios de que parte do material envolvia menores de idade.
Diante do cenário, a ANPD expediu medida preventiva obrigando o Grupo X a aprimorar e implantar soluções técnicas e organizacionais capazes de impedir que o Grok produza imagens, vídeos ou áudios que representem pessoas identificadas ou identificáveis em contextos sexualizados ou erotizados, sem autorização. A determinação vale para todas as versões do sistema.
A empresa terá cinco dias úteis para comprovar o cumprimento da ordem e apresentar documentação que demonstre a eficácia das providências adotadas.
O MPF também determinou que o X envie relatórios mensais detalhando as ações de prevenção e repressão à produção de deepfakes e conteúdos sexuais não consentidos. Os documentos deverão informar, entre outros dados, o número de postagens removidas e contas suspensas.
Já a Senacon exigiu um relatório métrico detalhado, com dados quantitativos verificáveis sobre identificação, moderação e remoção desse tipo de conteúdo, apontando ainda indícios de violação aos deveres de segurança previstos no Código de Defesa do Consumidor.
Caso as determinações não sejam cumpridas, a ANPD poderá aplicar multas diárias e abrir processo administrativo sancionador. A Senacon alerta que o descumprimento pode resultar em sanções administrativas, incluindo multas e obrigações legais. No âmbito do MPF, a falta de envio dos relatórios pode caracterizar crime de desobediência e motivar ações judiciais.
O episódio ocorre após pressão de entidades de defesa do consumidor e de direitos digitais, que chegaram a pedir a suspensão do Grok no Brasil. Em janeiro, denúncias foram protocoladas alegando violações à Lei Geral de Proteção de Dados, ao Estatuto da Criança e do Adolescente e ao Marco Civil da Internet.
A plataforma afirmou recentemente que está adotando medidas contra conteúdos ilegais, incluindo pornografia infantil, com remoção de postagens e suspensão permanente de contas.
Elon Musk, por sua vez, declarou que usuários que criarem conteúdo ilegal sofrerão as mesmas consequências que quem publica material criminoso. O bilionário também criticou autoridades e entidades que defendem bloqueios, alegando que tentam suprimir a liberdade de expressão.
Curtiu? Siga o PORTAL DO ZACARIAS no Facebook, Twitter e no Instagram.
Entre no nosso Grupo de WhatApp, Canal e Telegram
As investigações seguem em andamento, com atuação coordenada entre MPF, ANPD e Senacon para responsabilizar a empresa e impedir novos abusos envolvendo a ferramenta de inteligência artificial.