top of page

Atualizado: 10 de jan.

A máquina de fake news do século XXI: Deepfakes crescem 830% no Brasil e ameaçam integridade Eleitoral em 2026


Geração de vídeos realistas por IA a custo zero, combinada com plataformas generativas, criou ferramentas perfeitas para fabricação de narrativas políticas falsas. Enquanto regulação avança, capacidade de detecção falha e beneficiários da desinformação lucram com impunidade.


Da Redação d`O estopim Tech | 10 de janeiro de 2026


Arte: Bruno Fonseca e Larissa Fernandes/Agência Pública
Arte: Bruno Fonseca e Larissa Fernandes/Agência Pública

Em setembro de 2024, no bairro Monte Sinai em Manaus, moradores receberam em redes sociais uma publicação impactante: um trecho de telejornalismo do Jornal Nacional onde o apresentador William Bonner recomendava voto em um candidato local a vereador. O problema: o vídeo era totalmente falso, gerado por inteligência artificial.​


Casos como esse multiplicam-se pelo Brasil. Entre 2024 e janeiro de 2026, deepfakes—conteúdos gerados ou manipulados por IA para substituir rostos, vozes e corpos em vídeos—cresceram 830% em um ano. Enquanto isso, ferramentas cada vez mais sofisticadas de geração de conteúdo sintético (como Sora do OpenAI e Veo 3 do Google) democratizaram a produção de desinformação: qualquer pessoa com um computador pode, em minutos, criar narrativas falsas hiperrealistas praticamente indistinguíveis da verdade.​


A tecnologia que prometia eficiência tornou-se a arma mais refinada da desordem democrática. E enquanto o Estado responde com legislação, quem se beneficia da incapacidade de distinguir verdade de ficção gerada por máquina continua operando com impunidade.


830%: o crescimento vertiginoso da fraude digital


Em 2023, a Sumsub (empresa de verificação de identidade) publicou seu Identity Fraud Report, analisando 2 milhões de tentativas de fraude em 224 países. O Brasil apresentou um fenômeno singular: enquanto a América do Norte registrava aumento de 1.740% em deepfakes e a América Latina média de 410%, o Brasil disparava isoladamente com 830% de crescimento.​


Contextualizando: enquanto a Espanha enfrentava o maior volume absoluto de deepfakes do mundo (um em cada dez ataques globais ocorre lá), o Brasil superava todos os demais países latino-americanos juntos em incidentes dessa natureza.​


Mais recente ainda: entre 2023 e 2024, deepfakes envolvendo abuso infantil explodiram de 4,7 mil para 67 mil casos—um aumento de 1.325%. Crianças reais tiveram seus rostos inseridos em conteúdo sexual gerado por IA. Em escolas brasileiras, pelo menos 16 casos de deepfakes sexuais foram identificados em 10 estados entre 2024 e 2025.​


Mas os números mais perturbadores não estão apenas em estatísticas globais. Estão em operações do crime organizado. Um grupo com 46 mil membros no Brasil foi mapeado em 2024 comercializando deepfakes de celebridades brasileiras por valores entre R$ 19,90 e R$ 25—industrializando a criação de desinformação.​


Foto: Divulgação Google
Google Veo 3, a IA de vídeos da Google | Foto: Divulgação Google

De ferramentas de entretenimento a armas políticas


Até 2023, deepfakes eram principalmente curiosidade: vídeos de celebridades em situações absurdas, montagens humorísticas. A técnica era complexa, cara e necessitava de expertise. Mudou drasticamente quando OpenAI, Google, Meta e outras gigantes lançaram ferramentas de geração de vídeo acessíveis, baratas ou gratuitas.​


Em dezembro de 2024, OpenAI anunciou Sora, um modelo capaz de gerar vídeos com até um minuto de duração, com qualidade cinematográfica, a partir de um texto simples. Praticamente simultâneo, Google lançou Veo 3. Essas ferramentas não demandam conhecimento de programação. Um clique, um prompt em linguagem natural, e em minutos: um vídeo fake pronto para viralizar.​


A democratização da desinformação ocorreu em velocidade exponencial.


Durante as eleições municipais de 2024 no Brasil, o Observatório IA Nas Eleições—parceria entre Data Privacy Brasil, Aláfia Lab e Desinformante mapeou 78 casos de materiais confirmados ou alegadamente criados por meio de IA. Mas esse número subestima a realidade.​


Casos emblemáticos:


Em São Paulo, o candidato Pablo Marçal (PRTB) postou uma deepfake sem sinalizar o uso de IA, como exige a resolução do TSE. No vídeo, um rosto é trocado pelo de Marçal e a pessoa assopra pó branco uma referência a acusações infundadas contra rival.​


Em Salvador, o prefeito reeleito Bruno Reis (União) postou vídeos nos quais seu rosto é adicionado ao corpo de um homem que dança o jingle da campanha. No Instagram, veio com aviso "feito com IA." No TikTok, nenhuma advertência.​


Em Manaus, como mencionado, William Bonner apareceu em deepfake recomendando voto em vereador.​


Havia ainda deepnudes imagens com teor sexual gerado por IA. Candidatas em Rio de Janeiro e Bauru (SP) registraram boletins de ocorrência após serem alvo de deepfakes pornográficos postados em redes sociais e sites de conteúdo adulto.​


Google, Meta e a perversão da "IA Democrática"


Enquanto candidatos usavam IA para criar conteúdo falso, as próprias gigantes de tecnologia continuavam alimentando a máquina de desinformação.


Em setembro de 2024, o Jornal da Paraíba revelou que o Gemini, IA do Google, continuava fornecendo informações sobre candidatos à prefeitura de João Pessoa, apesar das promessas públicas do Google em restringir respostas políticas pela ferramenta.​


O Gemini também havia gerado informações sobre candidatos à prefeitura de São Paulo: Ricardo Nudes (MDB), Pablo Marçal (PRTB), José Luiz Datena (PSDB) e Marina Helena (Novo).​


A Meta, por sua vez, usou chatbots e algoritmos de recomendação que amplificavam conteúdo desinformativo. Enquanto isso, investigadores sugerem que a empresa monitora remoção de conteúdo de forma lenta e defasada, deixando deepfakes circularem por horas ou dias antes de ação.​


O padrão é claro: essas plataformas ganham com desinformação (quanto mais polêmica, mais engajamento; quanto mais engagement, mais publicidade vendida), enquanto externamente celebram investimentos em "segurança eleitoral."


Regulação das Redes Sociais e Big Techs | Foto: Reprodução
Regulação das Redes Sociais e Big Techs | Foto: Reprodução

A regulação que não consegue acompanhar a tecnologia


Reconhecendo o risco, o Tribunal Superior Eleitoral (TSE) editou a Resolução nº 23.732/2024, que alterou regulações de propaganda eleitoral.​


As principais inovações:

  • Proibição absoluta de deepfakes usados em propaganda eleitoral

  • Obrigação de aviso explícito quando qualquer conteúdo sintético é usado

  • Responsabilização de big techs: plataformas que não removem conteúdo desinformativo "imediatamente" podem sofrer sanções

  • Criação de repositório de decisões do TSE para agilizar processos de remoção


O presidente do TSE, ministro Alexandre de Moraes, chamou a resolução de "uma das normas mais modernas do mundo" com relação ao combate a desinformação.​


Mas a realidade jurídica revelou-se complexa. Um estudo do Instituto de Direito Público (IDP), em parceria com Ethics4AI e Mackenzie, analisou 56 decisões de Tribunais Regionais Eleitorais envolvendo possíveis deepfakes. O achado alarmante: em 25% dos casos, os juízes nem consideraram que se tratava de conteúdo eleitoral.​​


Juízes, frequentemente sem expertise em tecnologia, classificavam conteúdos desinformativos como "discurso político legítimo"—não como fraude eleitoral.​


Além disso, a Resolução TSE funciona primordialmente para conteúdo visível em plataformas públicas. Mas a maioria dos deepfakes circula em grupos privados de WhatsApp, Telegram e Discord—ambientes onde moderação é praticamente inexistente e plataformas argumentam não ter responsabilidade.​


O PL 2338: ambição regulatória encontra realidade tecnológica


Em paralelo, o Projeto de Lei 2338/2023 (Marco Legal da IA) foi aprovado pelo Senado e tramita na Câmara dos Deputados.​


O PL segue modelo similar ao AI Act da União Europeia, classificando sistemas de IA em níveis de risco: excessivo (proibido), alto (requisitos rigorosos), médio e baixo.​


Especificamente para deepfakes, o PL inclui proteção contra deepfakes de imagens íntimas não consentidas, responsabilidade de desenvolvedores de sistemas de IA, e cláusulas de proteção à liberdade de expressão (sátira e paródia permanecem).​


Mas há problema crítico: o PL responsabiliza desenvolvedores de IA, não usuários ou distribuidores. Um criminoso que baixa um programa gratuito de deepfake, cria conteúdo falso e o distribui não é diretamente responsabilizado.​


É como responsabilizar fabricantes de faca por crimes de faca—útil em alguns casos, insuficiente em outros.


Além disso, o PL ainda não foi aprovado. A lacuna regulatória permanece aberta enquanto tecnologias evoluem.​


Marco Legal da IA: o texto aprovado pelo Senado traz impactos relevantes para os agentes de IA, principalmente para aqueles que desenvolvam ou utilizem as tecnologias classificadas como de alto risco (Arte: TUTU)
Marco Legal da IA: o texto aprovado pelo Senado traz impactos relevantes para os agentes de IA, principalmente para aqueles que desenvolvam ou utilizem as tecnologias classificadas como de alto risco (Arte: TUTU)

Detecção vs. Geração: uma corrida que a defesa está perdendo


Aqui emerge um paradoxo fundamental: a mesma tecnologia que permite criar deepfakes é usada para detectá-los.​


No Brasil, laboratórios como o recod.ai da Unicamp (200 pesquisadores no campus, 350 colaboradores globais) desenvolvem algoritmos que analisam pistas invisíveis ao olho humano—iluminação, sombras, textura da pele, ruídos digitais—para diferenciar vídeos reais de sintéticos.​


O coordenador do recod.ai, Anderson Rocha, descreve uma "corrida de gato e rato": conforme pesquisadores criam detector novo, outro grupo cria gerador melhor para escapar da detecção.​


O problema é assimétrico: criadores de deepfakes demandam minutos. Detectores demandam análise longa. Distribuidores de conteúdo não têm incentivo para fazer análise automaticamente.​


Além disso, modelos de detecção frequentemente falham com diversidade. Se treinados principalmente com rostos brancos e jovens, falham detectando deepfakes de pessoas mais velhas ou de outras etnias.​


Instituições públicas como TSE, STF e Polícia Federal têm ferramentas de detecção, mas com capacidade limitada, especialmente para conteúdo em ambientes privados.​


O Mercado Criminoso da Desinformação: quem lucra?


A comercialização de deepfakes alcançou escala industrial. Um grupo com 46 mil membros—mapeado pela SaferNet em 2024—vendia deepfakes de celebridades brasileiras por preços acessíveis.​


Esses grupos operam em Dark Web, Telegram e plataformas criptografadas.


Mas quem lucra mais não são microempreendedores de deepfakes. São:


Big Techs: Google, Meta, Amazon e Microsoft lucram com publicidade enquanto plataformas amplificam conteúdo desinformativo. Algoritmos são otimizados para engajamento, não para verdade. Desinformação gera mais engajamento.​


Candidatos e partidos políticos: 85 candidatos declararam gastos com empresas que fornecem conteúdos gerados por IA, sendo que ao menos 38 publicaram conteúdos sintéticos sem avisar ao eleitor.​


Criminosos organizados: Fraudes por deepfake crescem. Golpistas usam áudio de CEO para convencer funcionário a fazer transferência bancária. Usam rostos falsos para abrir contas em fintechs. Entre janeiro e julho de 2025, 1,242 milhão de tentativas de fraude por deepfake foram registradas só na Serasa Experian.​


Atores geopolíticos: Análise de especialistas sugere que agências de inteligência estrangeira experimentam com deepfakes em eleições de países rivais.​


Quem NÃO lucra: democracia, confiança pública, eleitores que votam baseados em informações falsas.


Um especialista em cibersegurança alertou: "A probabilidade de um criminoso digital sendo pego ainda é baixa. É muito mais vantajoso para um cibercriminoso estando no Brasil cometer crimes, inclusive fora do país."


Regular as Redes e Big Techs é preciso | Ilustração: Paula Villar
Regular as Redes e Big Techs é preciso | Ilustração: Paula Villar

A incerteza jurídica como campo fértil para Desinformação


Um fenômeno paralelo ocorre nas cortes: disputas judiciais sobre responsabilidade de plataformas deixam vácuo temporal onde desinformação prospera sem risco significativo de remoção.


Em 2024, o Supremo Tribunal Federal declarou o artigo 19 do Marco Civil da Internet parcialmente inconstitucional, aumentando responsabilidade de plataformas por conteúdo de terceiros.​


Mas houve oito embargos de declaração (recursos judiciais). A incerteza jurídica resultante significa que big techs não fazem investimentos robustos em moderação, argumentando estar à espera de clareza legal.​


Esse "compasso de espera favorece justamente aqueles que se beneficiam da disseminação de desinformação."​


Para 2026, quando ocorrem eleições presidenciais, essa incerteza jurídica é particularmente danosa. Especialistas temem que deepfakes se proliferem ainda mais porque nem plataformas nem autoridades têm linhas claras de ação.​


2026: o laboratório eleitoral aprimorado


As eleições municipais de 2024 foram chamadas de "laboratório" por especialistas.​


Os testes indicaram: (1) deepfakes funcionam para manipular narrativas; (2) regulação TSE tem lacunas; (3) detecção é insuficiente; (4) distribuição em apps privados é incontrolável; (5) população tem dificuldade em identificar conteúdo falso.​


Para 2026, o cenário é mais ameaçador. Presidenciais implicam apostas mais altas. Polarização é extrema. Tecnologia evoluiu (Sora, Veo 3). Criminosos têm 16 meses para aprimorar técnicas.​


Um relatório da R7 em dezembro de 2025 alertou: "Ataques com deepfake crescem 126% em 2025; materiais gerados por IA forjam rostos, vozes e vídeos."

O especialista Antônio Netto enfatizou: "O deepfake tem potencial de convencimento muito maior que conteúdo genérico IA. Um vídeo alterado para colocar palavras na boca de um político é exatamente o que deepfake se propõe fazer: simular realidade e potencialmente enganar."


Caminho das Fake News — Foto: Wagner Magalhães/g1
Caminho das Fake News — Foto: Wagner Magalhães/g1

A verdade como Produto Raro


A raiz do problema não está na tecnologia. Está na economia política da desinformação.


Quem se beneficia quando população não consegue distinguir verdade? Narrativa política conveniente mas falsa. Candidato cuja mensagem é ampliada mesmo sendo desinformativa. Plataforma que lucra com cliques de conteúdo polarizador. Ator geopolítico que quer desestabilizar democracia rival.


Para todos esses agentes, verdade é custo, não benefício.


Um pesquisador da área resumiu: "Modelos de negócio de redes sociais instrumentalizam emoções. Verdade é chata. Falsidade sensacionalista vira viral."

A solução proposta por educadores é "letramento em IA"—ensinar população a reconhecer sinais de síntese. Mas isso é trabalho de longa duração (anos), e tecnologia evolui em meses.​


Enquanto isso, desinformação não espera por alfabetização. Ela se propaga, influencia voto, corrói confiança em instituições.


Iniciativas de contra-ataque: Unicamp, TSE e limites da resistência


Não há inação completa. A Unicamp criou ferramentas usadas pela Polícia Federal para detectar pornografia infantil. O TRE-GO desenvolveu GuaIA, um projeto de IA para monitorar automaticamente desinformação em redes sociais sobre eleições estaduais.​


A UERJ e UNICAMP desenvolveram Vota AI, ferramenta que analisa programas de governo (ao menos 60 mil).​


Mas iniciativas acadêmicas e judiciais enfrentam desafios:

  • Recursos limitados: Universidades e cortes eleitorais têm orçamentos reduzidos comparado ao investimento de big techs

  • Velocidade da evolução: Modelo de detecção de 2024 pode ser obsoleto em 2025

  • Ambientes privados: Ferramentas funcionam em conteúdo público; WhatsApp, Telegram e Discord são praticamente invulneráveis

  • Expertise limitada: Número reduzido de especialistas em deepfake detection no Brasil


Iniciativa traz vídeos, textos e áudios com conteúdos elaborados por professores e equipe de reportagem (imagem: divulgação)
Iniciativa traz vídeos, textos e áudios com conteúdos elaborados por professores e equipe de reportagem (imagem: divulgação)

A arquitetura da impunidade


A máquina de fake news do século XXI não existe por acaso. É produto de:

  • Tecnologia acessível: Ferramentas generativas baratas/gratuitas

  • Incentivos perversos: Plataformas lucram com engajamento, não com verdade

  • Lacunas regulatórias: Lei atrasa tecnologia; criminalidade avança

  • Ambientes incontroláveis: Mensageria privada escapa de moderação

  • Assimetria de poder: Criadores de deepfakes operam rapidamente; detectores são lentos

  • Beneficiários: Candidatos, plataformas, criminosos, atores geopolíticos—todos ganham quando democracia desconfiar de sua própria vista


A pergunta que fica para 2026 é: conseguirá o Brasil estabelecer defesa robusta contra desinformação sintetizada antes que eleição presidencial seja contaminada por narrativas indistinguíveis de realidade?


Ou continuaremos em um mundo onde a verdade é privada de quem pode produzir ficção convincente a custo zero?


Essa não é mais questão tecnológica. É questão política.

 
 
 

A ilusão da Soberania Digital: como o Brasil investe em nuvem "soberana" enquanto entrega seus dados às Big Techs americanas


Enquanto o governo celebra a Nuvem de Governo como marco de autonomia, 60% dos dados brasileiros residem em servidores estrangeiros controlados por Google, Meta, Amazon e Microsoft. A promessa de inovação mascara uma transferência silenciosa de poder.


Da Redação d`O estopim Tech | Investigação em Tecnologia e Geopolítica Digital | 10 de janeiro de 2026


Bandeira brasileira em código binário | Foto: Reprodução
Bandeira brasileira em código binário | Foto: Reprodução

O Brasil inaugurou, com pompa, sua Nuvem de Governo Soberana em 2025. Infraestrutura de última geração, datacenters em Brasília e São Paulo, investimento de R$ 700 milhões. A narrativa era clara: autonomia tecnológica, proteção de dados estratégicos, independência das gigantes americanas.


Mas há um detalhe que desmente a história de soberania completa: os próprios servidores dessa nuvem "soberana" rodam em equipamentos das big techs—AWS, Google, Oracle, Microsoft—instalados em território brasileiro. E, mais importante, continuam sujeitos à legislação americana, particularmente ao Cloud Act de 2018, que autoriza o governo dos EUA a acessar qualquer dado armazenado em empresas americanas, independentemente de onde os servidores estejam fisicamente localizados.​


Enquanto isso, aproximadamente 60% da carga digital do Brasil é executada em datacenters localizados fora do país, principalmente nos EUA. Para contexto: históricos bancários de 180 milhões de brasileiros, prontuários de pacientes, pesquisas de universidades, comunicações privadas—tudo sob controle de atores geopolíticos americanos, operando sob leis americanas.​


O que o Brasil chama de "inovação tecnológica" é, de fato, uma transferência silenciosa de soberania.


Soberania Digital o arranjo que não é soberano


Quando especialistas falam sobre a Nuvem de Governo Soberana, citam frequentemente uma entrevista do presidente do Serpro em fevereiro de 2025. Nela, reconheceu que a infraestrutura opera com "equipamentos e tecnologia das maiores big techs do setor, como AWS, Google, Huawei, Oracle e Microsoft, instalados no seu datacenter em Brasília".​


A justificativa oficial é que as estatais brasileiras operam a nuvem; as empresas americanas apenas fornecem a infraestrutura. Uma distinção jurídica que oculta três vulnerabilidades estruturais:


  • Código-fonte fechado: Os algoritmos que processam os dados não são auditáveis pelo Estado brasileiro. Se há brechas de segurança, o Brasil descobre quando terceiros exploram.


  • Controle de atualizações: As correções de segurança vêm de empresas americanas, seguindo cronogramas americanos, com prioridades americanas.


  • Jurisdição americana permanente: O Cloud Act torna irrelevante a localização física do servidor. Um arquivo confidencial do Ministério da Educação armazenado em servidores Microsoft no Rio de Janeiro pode ser requisitado por ordem judicial americana, sem notificação às autoridades brasileiras.​


A União Europeia entendeu essa lição. Em 2024, aplicou multa histórica de €1,2 bilhão à Meta justamente por tentar transferir dados de cidadãos europeus para servidores americanos, onde estariam sujeitos ao Cloud Act e a programas de vigilância como o PRISM.​


O Brasil? Continua operando a ilusão.


US Cloud Act | Foto: Reprodução
US Cloud Act | Foto: Reprodução

O Cloud Act: a lei que torna fronteiras irrelevantes


Poucos brasileiros ouviram falar do Cloud Act (Clarifying Lawful Overseas Use of Data Act). Ainda assim, ele molda a realidade digital em que vivemos.​


Aprovado pelo Congresso americano em 2018, autoriza o governo dos EUA a exigir que empresas americanas forneçam dados, independentemente de onde estejam armazenados fisicamente. Isso significa que a Microsoft, a Amazon, o Google têm obrigação legal de cumprir ordens judiciais americanas, mesmo que o servidor esteja no Brasil, Índia ou Indonésia.​


Investigadores federais americanos investigam um suspeito de terrorismo? Podem acessar todos os seus emails armazenados na nuvem Microsoft, ainda que o servidor esteja em São Paulo. Agências de inteligência suspeitam de espionagem? Podem usar o FISA para acessar dados sem supervisão judicial.​


O Brasil, enquanto isso, gasta recursos em soberania de fachada. Entre 2014 e 2025, o governo federal investiu pelo menos R$ 23 bilhões em licenças de software, computação em nuvem e segurança digital. Grande parte flui para empresas americanas que respondem primeiro ao governo dos EUA, depois às leis brasileiras—quando é conveniente.​


Dados de brasileiros nas mãos de americanos | Foto: Reprodução
Dados de brasileiros nas mãos de americanos | Foto: Reprodução

60% dos Dados Brasileiros No Exterior


Uma estatística pouco divulgada revela a extensão da dependência: aproximadamente 60% da carga digital do Brasil é executada em datacenters localizados nos EUA e em países estrangeiros. O restante, frequentemente, também está sob controle de empresas americanas, mesmo quando fisicamente no Brasil.​


Esse número não é abstrato. Representa:


  • Históricos bancários de milhões de brasileiros processados em servidores da AWS

  • Prontuários médicos de pacientes guardados em infraestrutura Google

  • Pesquisas acadêmicas de universidades federais em datacenters Microsoft

  • Comunicações privadas de cidadãos transitando por redes de empresas americanas


Um especialista foi direto: "Aproximadamente 40% dos dados gerados por brasileiros são processados no exterior por falta de capacidade instalada em território nacional. Esse cenário amplifica a dependência tecnológica, eleva riscos à soberania digital e contribui para o déficit de US$ 6,8 bilhões registrado na balança comercial de TI em 2024."

A vulnerabilidade não é teórica. Em agosto de 2025, após Trump anunciar tarifas de 50% sobre produtos brasileiros, o Brasil experimentou: aumento de 30% em tentativas de invasão cibernética com origem nos EUA, especialmente contra infraestruturas críticas.​


O Supremo Tribunal Federal registrou mais de 750 milhões de tentativas de ataque em meses subsequentes.


Samsung e Google | Foto: Reprodução
Samsung e Google | Foto: Reprodução

Samsung, Google e a extração de dados em escala massíva


Em janeiro de 2026, a Samsung fez anúncio pouco notado pela maioria dos brasileiros, mas que ilustra perfeitamente como a dependência opera: dobraria o número de smartphones equipados com Gemini, a inteligência artificial do Google, passando de 400 milhões para 800 milhões de aparelhos até o final do ano.​


O Brasil não tem alternativa competitiva. Não há IA brasileira com escala global. Não há smartphone brasileiro que dispute mercado. A Samsung domina o mercado brasileiro, e agora integra massivamente a IA do Google.


Essa integração não é meramente técnica. É um mecanismo de coleta de dados estruturado. O co-CEO da Samsung afirmou: "Vamos aplicar IA a todos os produtos, todas as funções e todos os serviços o mais rápido possível."

Cada interação do usuário brasileiro com Gemini—busca de informação, consumo de mídia, até reconhecimento de objetos pela câmera—alimenta a máquina de treinamento do Google. O Google ganha acesso a dados de 800 milhões de dispositivos em tempo real, vindos de um mercado de 180 milhões de pessoas.


O que o Brasil ganha? Dependência aprofundada.


Meta é dona do Facebook, do Instagram e do WhatsApp | Foto: JN
Meta é dona do Facebook, do Instagram e do WhatsApp | Foto: JN

Meta e o episódio da ANPD: uma "vitória" que desmente a Soberania


Em junho de 2024, a Meta anunciou atualização na política de privacidade autorizando o uso de dados publicamente disponíveis de usuários brasileiros para treinar sua inteligência artificial generativa.​


A ANPD reagiu rapidamente. Em 2 de julho de 2024, emitiu medida preventiva suspendendo a prática, impondo multa diária de R$ 50 mil por descumprimento.​


Mas em setembro de 2024, após a Meta recorrer, a ANPD reverteu a decisão preventiva, permitindo que o uso de dados prosseguisse com restrições administrativas.​


O que esse episódio revela é fundamental: a regulação brasileira não consegue bloquear práticas corporativas; consegue, no máximo, negociar suas condições.

Enquanto a União Europeia implementou o GDPR, que estabelece direitos com mecanismos de enforçamento reais, o Brasil negocia planos de conformidade que funcionam como exercícios de convencimento público, não de proteção efetiva.


Com salário de mais de R$ 3 milhões ao ano, cargo de ‘Head of Preparedness’ da OpenAI terá foco em saúde mental, cibersegurança e riscos extremos Foto: Michael Dwyer/AP
Com salário de mais de R$ 3 milhões ao ano, cargo de ‘Head of Preparedness’ da OpenAI terá foco em saúde mental, cibersegurança e riscos extremos Foto: Michael Dwyer/AP

OpenAI: a vigilância silenciosa que ninguém legisla


Milhões de brasileiros usam ChatGPT diariamente. Poucos sabem exatamente o que acontece com seus dados.​


Segundo a política de privacidade da OpenAI, a empresa processa dados pessoais em servidores localizados em várias jurisdições, incluindo tratamento nos EUA. Dados técnicos coletados—endereço IP, tipo de navegador, padrões de interação—alimentam o treinamento de modelos.​


A empresa compartilha dados com "fornecedores e prestadores de serviços," inclusive para "computação em nuvem" e "segurança." A cadeia de custódia dos dados brasileiros não é transparente. Quantos terceiros tocam esses dados? Quem são? Qual é seu vínculo com o governo americano?


Ninguém sabe. E o Brasil não legislou sobre isso.


Portaria 5960 e a brecha da segurança aparente


Em resposta às vulnerabilidades, o governo aprovou a Portaria 5960/2023, que estabelece o modelo de contratação de software para órgãos públicos federais.​


A norma exige que dados sensíveis permaneçam em "nuvem de governo," com armazenamento em datacenters brasileiros.


Mas contém brecha significativa: permite o uso de equipamentos das big techs americanas dentro de datacenters brasileiros, desde que o isolamento lógico e físico seja assegurado.​


Um servidor da AWS dentro do Brasil continua sendo um servidor da AWS—sujeito à legislação americana.​


PL 2790: uma lei simbólica mas necessária


Em abril de 2025, o Congresso Nacional aprovou o Projeto de Lei 2790/2022, que estabelece que todos os dados eleitorais devem permanecer no Brasil, sob gestão de órgãos públicos eleitorais.​


O relator argumentou que a medida "reforça o conceito de soberania digital, alinhando-se aos princípios constitucionais".​


A lógica é impecável. Mas a aprovação desse projeto ilustra o problema central: o Brasil precisa legislar sobre dados específicos (eleitorais) porque a soberania geral foi cedida. É como colocar segurança redobrada em uma sala de um prédio cujas outras portas estão escancaradas.


Logo Abin | Foto: Gov.br
Logo Abin | Foto: Gov.br

O alerta da Abin: vulnerabilidade caracterizada como estratégica


Em dezembro de 2025, a Agência Brasileira de Inteligência (Abin) emitiu relatório alertando para a "dependência estrutural de hardwares estrangeiros e concentração de poder em big techs" como ameaça crítica.​


O documento destacou que a IA pode se transformar em "agente ofensivo autônomo, capaz de planejar, executar e adaptar ataques," elevando o risco de ciberconflitos evoluírem para confrontos militares.​


A Abin caracterizou a dependência como "vulnerabilidade estratégica severa" capaz de facilitar interferência externa, incluindo "guerra cognitiva"—campanhas de desinformação catalisadas por algoritmos estrangeiros.​


A ilusão da inovação: de quem é o benefício?


Quando Samsung anuncia 800 milhões de smartphones com Gemini, celebra-se como avanço. Quando Meta treina IA com dados brasileiros, fala-se de "ferramentas inteligentes." Quando Google oferece educação gratuita, celebra-se "inclusão digital."


Nenhuma narrativa é falsa em si. Há inovação real. Mas estão encapsuladas em modelo onde a proprietária dos dados e do algoritmo não é brasileira, não responde ao Estado brasileiro e não pode ser impedida de mudar de rumo.


A "inovação" brasileira tornou-se, em realidade, consentimento gerenciado ao imperialismo de dados.

Um especialista resumiu: "Os dados do setor público não podem estar na mão das big techs, ainda mais quando elas são linha de frente do poder político de Trump." Mas estão.​


O custo material da dependência


Entre 2014 e 2025, o governo brasileiro despendeu pelo menos R$ 23 bilhões em licenças de software, nuvem e segurança. Para 2025-2026, estão previstos R$ 6 bilhões adicionais em licenças, R$ 9 bilhões em nuvem e R$ 1,9 bilhão em segurança digital.​


Esses não são gastos em inovação ou capacidade brasileira. São aluguel perpétuo de infraestrutura que não pertence ao Brasil. É dinheiro público abastecendo o caixa das corporações que moldam as relações de poder no século 21.


Comparativamente, o Chile oferece terreno gratuito e isenção fiscal por dez anos para data centers. O Brasil oferece mercado de 180 milhões de consumidores para ser extraído.​


A janela de oportunidade que se fecha


O Brasil ainda possui janela para reverter parte dessa trajetória. Mas há urgência.​


A consultoria Eurasia alertou que "o Brasil está exposto a mudanças repentinas no apetite global por risco, com espaço limitado para amortecer choques."

Especialmente em contexto onde o governo americano se sente empoderado para exercer extraterritorialidade de forma cada vez mais agressiva. Trump 2.0 não responde a apelos diplomáticos; responde a poder.


A soberania não é decorativa


A Nuvem de Governo Soberana é passo real e necessário. Mas é insuficiente enquanto a infraestrutura global continuar controlada por atores estrangeiros.​


Enquanto legislações como o Cloud Act operarem sem contrapartida brasileira. Enquanto o Brasil legislar apenas sobre dados eleitorais porque perdeu autonomia sobre os demais.


Nações que confundem inclusão digital com dependência digital invariavelmente acordam tarde demais em futuro onde suas decisões podem ser constrangidas por poderes que já não controlam.


Para o Brasil, a questão é simples: será que conseguirá construir autonomia genuína antes que as cadeias invisíveis se tornem correntes explícitas? Ou continuará celebrando a inovação enquanto entrega sua soberania?


Investigação em Tecnologia e Geopolítica Digital

 
 
 
bottom of page