top of page

Segurança Digital

A privatização da memória: como a corrida por IA transformou componentes em commodities escassas e encarecidas


Enquanto data centers de IA desviam capacidade de produção de memória, fabricantes lucram bilhões e consumidor brasileiro médio enfrenta aumento de até 30% no preço de smartphones. A inovação beneficia corporações; o custo, as pessoas comuns.


As caríssimas memórias RAM | Foto: Reprodução
As caríssimas memórias RAM | Foto: Reprodução

Em dezembro de 2025, a Micron Technology, terceira maior fabricante mundial de memória RAM e armazenamento, fez um anúncio que ecoou pela indústria: descontinuaria sua linha de produtos Crucial, voltada a consumidores domésticos, após 29 anos de operação.


A empresa não citaria problemas econômicos ou falhas de mercado. A justificativa era simples e brutal: a demanda por memória de alta largura de banda (HBM) para data centers de IA era tão lucrativa que não fazia sentido continuar vendendo componentes a consumidores individuais.


"O crescimento impulsionado pela IA nos data centers levou a um surto na demanda por memória," explicou Sumit Sadana, executivo da Micron. "Nós tomamos a decisão de sair do mercado de consumidores para melhorar o suprimento a nossos clientes estratégicos maiores em segmentos que crescem mais rapidamente."

Em outras palavras: lucrar com a IA é mais importante que fornecer memória ao consumidor comum.


O resultado? Smartphones e computadores pessoais enfrentam escassez histórica de componentes. Preços explodem. Consumidor brasileiro, já atingido por inflação e tributação agressiva, vê seu poder de compra de tecnologia despencar. E quem lucra? Investidores em data centers, fornecedores de chips de IA, fundos de capital privado e fabricantes que veem suas ações dispararem em valor enquanto planeta enfrenta crise de componentes.


Esta é a história de como a "inovação" em inteligência artificial transformou-se em transferência silenciosa de riqueza dos muitos para os poucos.


O êxodo da memória: quando lucro determina oferta


Como decisões corporativas criam escassez artificial? Até 2024, a indústria de memória funcionava em premissa simples: oferta e demanda. Havia demanda por chips de memória para consumidores (smartphones, PCs, laptops), então fabricantes mantinham linhas de produção diversificadas.


Tudo mudou aceleradamente entre 2024 e 2025. A explosão de investimentos em data centers de IA, impulsionada por Google, Amazon, Meta, Microsoft e startups como OpenAI, criou demanda sem precedentes por memória de altíssima performance. E, crucialmente, essa demanda oferecia margens de lucro radicalmente superiores.


A Samsung é exemplo clássico. Em outubro de 2024, o vice-presidente executivo de memória da Samsung, Jaejune Kim, afirmou que a empresa "observou uma forte demanda por dispositivos de memória para IA e data centers" no terceiro trimestre. Mas havia consequência: essa demanda levaria a "escassez que se intensificará ainda mais" para dispositivos móveis e PCs.


Tradução corporativa: Samsung está desviando capacidade de produção de smartphones para data centers de IA porque ganha mais dinheiro.


A Micron simplesmente formalizou o que outras estavam fazendo tranquilamente. Fechou divisão de consumo. Redirecionou 100% da capacidade para data centers.


SK Hynix fez o mesmo, embora menos dramaticamente. Western Digital reduziu produção de armazenamento consumer.


O resultado acumulativo: produção de memória para consumidor despencou em oferta enquanto demanda permanecia estável (ou crescente).


Um especialista resumiu: "A situação é bastante drástica e generalizada." Segundo pesquisa da Counterpoint Research, o mercado de smartphones enfrentará queda de 2,1% em 2026, revertendo previsões de crescimento.


Crise das Memórias RAM | Foto: Reprodução
Crise das Memórias RAM | Foto: Reprodução

Os números da escassez: quanto mais raro, mais caro


Inflação de componentes em escala histórica. Quando oferta se contrai enquanto demanda permanece elevada, preço sobe. Simples economia. Mas os números são vertiginosos.


Memória RAM DDR4: Um módulo de 16 GB da linha Corsair Vengeance RGB Pro custava R$ 650 em 10 de novembro de 2025. No dia 2 de dezembro, mesmo produto: R$ 1.599. Alta de 146% em três semanas.


Chips de memória DRAM: De acordo com o DigiTimes, negociações de fornecimento de DRAM tiveram reajustes entre 80% e 100% apenas em dezembro de 2024, enquanto chips DDR5 experimentaram picos de preço quatro vezes maiores do que no início do ano.


Memória NAND para empresas: Subiu até 60% em novembro de 2025, segundo relatório setorial.


Samsung e SK Hynix: Anunciaram aumentos de até 60% nos preços de seus chips de memória, com mais reajustes previstos.


Qualcomm Snapdragon: Aumentou 20% no preço do processador que equipará celulares topo de linha Android em 2026.


O impacto para smartphones é direto. Apenas os 12 GB de memória de um Samsung Galaxy topo de linha passaram a custar quase US$ 40 a mais que no ano anterior.


Mais preocupante ainda: a Counterpoint projeta que o preço da memória suba mais 40% até meados de 2026, pressionando ainda mais custos finais.


O brasileiro médio e o efeito cascata


Quando decisões corporativas americanas atingem a carteira de quem ganha salário mínimo. Os números são suficientes para assustadores. Mas para o consumidor brasileiro, a realidade é ainda mais dura.


A Counterpoint Research estima que preços de smartphones subirão até 30% no quarto trimestre de 2025, com possível alta adicional de 20% no início de 2026. Alguns modelos poderiam alcançar aumentos acumulados de até 50% se pressão continuar.


No Brasil especificamente, a Samsung estima reajustes entre 10% e 20% nos preços de smartphones das linhas básicas e intermediárias, enquanto smartphones intermediários devem ter altas de 10% a 15%.


Para contexto: um smartphone de entrada que custava R$ 800 em 2025 passará a custar entre R$ 880 e R$ 960 em 2026. Para quem ganha salário mínimo (R$ 1.518 em janeiro de 2026), comprar novo aparelho consome entre 58% a 63% da renda mensal, praticamente impossível sem crédito predatório.


E há problema adicional: impostos. De acordo com o Instituto Brasileiro de Planejamento Tributação (IBPT), 37,5% do valor final de um smartphone premium são impostos, ou até 68,8% se incluir carga indireta. A Samsung desistiu de reduzir preços há tempo porque, em suas palavras, "as margens de lucro são muito apertadas" dada a carga tributária.


Então consumidor não ganha em dobro: sofre tanto com aumento de componentes quanto com sistema tributário regressivo que captura maior porcentagem de sua renda que de milionários.


Um gerente de loja de eletrônicos em Belém previu:


"O efeito mais perceptível nos valores deve aparecer já no primeiro trimestre de 2026 e de forma mais expressiva a partir de abril."

Os investidores bilionários: quem ganha bilhões com a escassez


Capital privado, hyperscalers e fundos de infraestrutura transformam crise em ouro. Enquanto consumidor sofre, quem lucra? Investigação de padrões de investimento revela um ecossistema específico.


Data centers recebem US$ 61 bilhões em investimentos em 2025, ultrapassando recorde anterior de 2024. Desde 2019, apenas EUA e Canadá acumulam US$ 160 bilhões em transações envolvendo empresas de data centers. Ásia-Pacífico atingiu quase US$ 40 bilhões, Europa US$ 24,2 bilhões.


Mas quem investe? Segundo analista da S&P Global:


"O grande interesse vem dos patrocinadores financeiros. Empresas de capital privado são compradores ávidos."

No Brasil, entrou em cena um carrossel de investidores:


  • Goldman Sachs—gigante americana que apostou bilhões em data centers de IA.

  • BTG Pactual—maior banco de investimentos brasileiro, posicionando-se na corrida por IA.

  • Patria Investimentos—fundo de capital privado que co-investe com ByteDance (proprietária do TikTok) em data center de R$ 200 bilhões em Fortaleza.

  • General Atlantic—controladora da Actis, investidora de infraestrutura com US$ 108 bilhões sob gestão.

  • Digital Bridge—gestora de recursos com US$ 96 bilhões de ativos sob gestão.


Sete empresas brasileiras de data center foram anunciadas (Scala, Elea, Omnia, Tecto, Aurea, 247 Data Centers e Terranova), todas com ligação a "grandes investidores, incluindo bilionárias gestoras estrangeiras."


O governo brasileiro, por sua vez, criou incentivo fiscal chamado Redata (Regime Especial de Tributação para Serviços de Data Center), atraindo investidores bilionários com benefícios tributários enquanto classe trabalhadora enfrenta carga de 68,8%.


Enquanto isso, ações de fabricantes de chips explodem em valor:


  • Micron: Acumula valorização de aproximadamente 175% em 2025. CEO da Micron projeta que condições de escassez persistirão "além de 2026".

  • SK Hynix: Ações subiram quase quatro vezes em 2025.

  • Samsung: Ações mais que dobraram de valor em 2025.


A mensagem é clara: escassez = rentabilidade. E rentabilidade atrai capital.


Possível cartel? Um histórico perturbador


Investigações passadas sugerem coordenação, não coincidência. Aqui emerge pergunta crucial: essa redireção de memória para data centers é coincidência de três maiores fabricantes (Samsung 45% do mercado, SK Hynix 28%, Micron 23%), ou coordenação?


Histórico da indústria é preocupante. Em 2018, escritório de advocacia Hagens Berman entrou com ação coletiva contra Samsung, Micron e SK Hynix, acusando-as de cartel de preços entre 2016 e 2017.


De acordo com a ação, as três empresas "combinaram os preços de seus produtos com propósito de aumentar os valores." O aumento de 47% no preço de DRAM em 2017 foi o maior em 30 anos, segundo acusação, possível apenas porque as três juntas dominam 96% do mercado de DRAM.


A mesma investigação apontou que governo chinês investigou o caso por anos, e crime foi "interrompido abruptamente quando governo chinês passou a investigar de perto." Implicação: criminoso suspende atividade quando sob vigilância.


Isso não é especulação. Em 2006, o mesmo escritório conseguiu pagamento de US$ 300 milhões em ação anterior contra cartel de preços de DRAM. Samsung e SK Hynix também foram condenadas a pagar multa conjunta criminal de US$ 731 milhões.


A China reconheceu a tensão. Em 2018, regulador antitruste chinês (Wu Zhenguo) afirmou que investigação sobre Micron, Samsung e SK Hynix fez "progresso significativo," acumulando "grande quantidade de informações."


Agora, em 2025-2026, observamos exatamente o mesmo padrão: três mesmas empresas simultaneamente redirecionam capacidade de produção de consumidor para segmento mais lucrativo (data centers de IA). Cada uma justifica com "demanda crescente de IA."


Um cético poderia argumentar: coincidência. Três empresas independentes fizeram exatamente mesma decisão estratégica, simultaneamente, por mesma razão.


Ou: elas coordenaram, como fizeram em 2016-2017.


Não há prova "fumegante". Mas padrão é perturbador.


Preços nas alturas | Foto: Reprodução
Preços nas alturas | Foto: Reprodução

Consequências para consumidor: menos memória, mesmo preço (ou pior)


Fabricantes usam escassez para degradar produtos. A Micron não apenas encerrou divisão de consumidor. Outras fabricantes estão fazendo algo mais sutil e potencialmente mais prejudicial: reduzindo configurações de memória enquanto mantêm (ou aumentam) preço.


De acordo com TrendForce, em 2026 esperamos:


  • Modelos com 12 GB de RAM: Redução de até 40%, sendo substituídos por versões de 6 ou 8 GB.

  • Modelos com 16 GB: Devem sofrer rápida redução após breve período como padrão.

  • Modelos com 4 GB: Devem apresentar crescimento significativo em linhas de entrada.


Paulo Vizaco, diretor da Kingston no Brasil (fabricante de componentes), reconheceu:


"Os consumidores podem passar a ver fabricantes entregando celulares com configurações mais simples, mas cobrando o mesmo valor que era praticado antes."

Em outras palavras: você paga mais, recebe menos. É degradação de produto. Um outro especialista do IFSP complementa:


"No Brasil, o consumidor pode sentir ainda mais no bolso por causa de fatores adicionais, como câmbio, impostos e custos logísticos, o que tende a tornar os reajustes mais agressivos."

A "Inovação" em IA: beneficia corporações, custeia pessoas comuns


Retórica de avanço tecnológico mascara transferência de recursos. A narrativa oficial é: "IA demanda muita memória, por isso é natural redirecionar produção para data centers."


Essa narrativa é tecnicamente verdadeira mas politicamente falsa.


Sim, IA exige infraestrutura volumosa. Mas decisão de qual infraestrutura priorizar é escolha política, não necessidade técnica. Samsung, Micron e SK Hynix poderiam aumentar capacidade de produção para atender tanto data centers quanto consumidor. Eletrônica não é jogo de soma-zero.


O que explica recusa em aumentar produção? Lucro. Memória HBM para data centers de IA oferece margens superiores. Memória para consumidor oferece margens modestas.


Empresas escolhem lucro máximo, não bem-estar social máximo. Essa é a natureza do capitalismo corporativo. Mas resultado é:


IA beneficia gigantes de tecnologia que constroem data centers. Consumidor médio paga o preço.


Um analista resumiu:


"A situação é inédita e afeta toda a cadeia de eletrônicos. Cerca de 90% dos aparelhos dependem de memória RAM."

Pior: Brasil é particularmente vulnerável. O país não produz chips de memória em escala competitiva. Importa 100% da memória que consome. Quando mercado global se contrai, Brasil sofre primeiro e mais intensamente.


Enquanto isso, Google, Amazon, Meta, Microsoft, proprietárias de data centers que criam escassez, continuam crescendo. Seus dados centros de IA são "máquinas de ganhar dinheiro," mesmo que isso encareca tecnologia para população brasileira.


MDIC abre consulta para definir lista de equipamentos de Data Centers elegíveis ao Redata | Foto: Reprodução Gov.br
MDIC abre consulta para definir lista de equipamentos de Data Centers elegíveis ao Redata | Foto: Reprodução Gov.br

Governo brasileiro: incentivos invertidos


Redata favorece investidores estrangeiros enquanto consumidor comum sofre. Numa reviravolta irónica, governo brasileiro, em vez de proteger consumidor, criou incentivo fiscal para atrair investidores em data centers de IA.


A Redata (Regime Especial de Tributação para Serviços de Data Center) oferece benefícios tributários para empresas que construem data centers.


Resultado: Bloomberg Sachs, Patria Investimentos, General Atlantic e outras gigantes estrangeiras veem Brasil como mercado atrativo para IA. Investem bilhões. Lucram bilhões. Pagam alíquota reduzida.


Enquanto isso, consumidor brasileiro enfrenta sistema tributário que captura 68,8% do preço de um smartphone em carga indireta.


A desigualdade não é acidental. É resultado de políticas públicas que priorizam investimento estrangeiro sobre bem-estar doméstico.


Governo deveria estabelecer requisitos mínimos para proteção do consumidor (ex: mantém preços acessíveis em mercado doméstico, investe em capacidade de produção local). Em vez disso, oferece isenções e espera "mercado resolver."


Mercado não resolve a favor de quem ganha salário mínimo.


A questão que não será respondida


Quem se beneficia da incapacidade de consumidor comum acessar tecnologia?


Samsung, SK Hynix, Micron:


  • Lucram com escassez

  • Ações disparam em valor

  • CEOs e acionistas ficam mais ricos

  • Consumidor fica mais pobre


Investidores em data centers:


  • Goldman Sachs, Patria, General Atlantic, Digital Bridge

  • Financiam infraestrutura que cria escassez

  • Depois lucram com demanda por serviços em data centers

  • Enquanto isso, lucram com aumento de valor de propriedades (data centers como ativos físicos)


Google, Amazon, Meta, Microsoft:


  • Construem data centers com chips escassos

  • Treinam IA com acesso ilimitado a memória

  • Consumidor precisa pagar mais por memória cada vez mais escassa

  • Assimetria de recursos: gigantes com acesso ilimitado, cidadão comum com acesso restrito


Governo brasileiro:


  • Oferece isenções fiscais para atrair investidores bilionários

  • Coleta impostos de consumidor comum

  • Net result: transferência de riqueza para capital estrangeiro


Resposta à pergunta "quem se beneficia?" é simples: não é você, se você depende de renda de trabalho para comprar tecnologia.


O Silêncio da Inovação


Por que mídia celebra IA enquanto omite impacto em acessibilidade. É revelador que mídia tech celebra avanços em IA (GPU mais rápida, modelo maior, capacidade superior) com fervor quase religioso. Enquanto isso, custo de acesso a tecnologia básica sobe exponencialmente.


Ninguém diz: "IA avançou 40%, smartphone ficou 40% mais caro para trabalhador brasileiro."


A narrativa é selecionada. Inovação é celebrada em abstrato, sem mencionar distribuição desigual de benefício.


Um pesquisador poderia argumentar: "Bem, IA eventual mente beneficiará todos quando custos caírem."


Mas não há indicação que custos cairão. Micron diz escassez persistirá "além de 2026." Samsung alerta que restrições podem durar anos.


Enquanto isso, Samsung está retirando 12 GB de RAM de smartphones médios e substituindo por 8 GB, mantendo preço ou aumentando.


Não é caminho para queda de preço. É caminho para permanente inacessibilidade.


A Privatização da Memória


A memória se tornou recurso privatizado. Não no sentido literal (não há proprietário único), mas no sentido econômico: decisões sobre alocação são determinadas por lucro corporativo, não por bem-estar coletivo.


Micron fechou sua divisão de consumidor. Não porque não conseguisse produzir memória para consumidores. Porque lucrava significativamente menos com consumidores que com data centers de IA.


  • Samsung, SK Hynix fizeram decisão similar.

  • Investidores em data centers lucram bilhões.

  • CEO de Micron afirmou esperar escassez persistente "além de 2026."


Consumidor brasileiro enfrenta preços 20-30% mais altos, produtos com menos capacidade, sistema tributário que captura 68% de seu orçamento.


A pergunta final: "A inovação em IA beneficia corporações ou pessoas comuns?"


Resposta está em seu bolso.



Por Raul Silva | Analista de Sistemas, Jornalista e Professor Data: 11 de janeiro de 2026 | Tempo de Leitura: 6 min


Como a Tecnopolítica manipula a Política Pernambucana? Raul Silva analisa o uso de algoritmos e dados nas eleições de Arcoverde, revelando o novo "Curral Eleitoral Digital".


Exemplos práticos de Tecnopolítica são apps que permitem ao usuário enviar ou assinar projetos de lei e robôs que fiscalizam gastos públicos.
Exemplos práticos de Tecnopolítica são apps que permitem ao usuário enviar ou assinar projetos de lei e robôs que fiscalizam gastos públicos. | Foto: Reprodução

Era uma tarde de domingo na Praça da Bandeira. Antigamente, em ano eleitoral como este de 2026, esse cenário estaria tomado por carros de som, bandeiras e o aperto de mão suado dos candidatos. Hoje, a praça está silenciosa. O barulho mudou de lugar: ele agora vibra no bolso da calça, na notificação do WhatsApp, na timeline infinita do Instagram.


Não se engane: o "coronelismo" não morreu, ele apenas fez um upgrade.


Como jornalista que cobre os bastidores da Prefeitura de Arcoverde e, acima de tudo, como Bacharel em Sistemas de Informação que entende o que roda por trás da tela preta do seu celular, trago um alerta urgente. O voto de cabresto, que antes era trocado por um par de botinas ou um saco de cimento, foi digitalizado. O cabo eleitoral agora é um bot e o favor trocado é a validação do seu próprio ódio. Bem-vindos à era da Tecnopolítica no Sertão.


Do Coronel de Pano ao Coronel de Dados: a modernização do atraso


A Política Pernambucana sempre foi marcada por figuras carismáticas, os chamados "caciques". Mas em 2026, o carisma foi substituído pela eficiência fria da métrica. O novo coronel não precisa saber o nome da sua mãe ou ir ao batizado do seu filho; ele só precisa saber o seu padrão de navegação.


Enquanto a imprensa tradicional se limita a noticiar quem apoia quem, nós precisamos olhar para o invisível. Em cidades do interior como a nossa, a política virou uma guerra de narrativas segmentadas. O candidato não sobe mais no palanque para falar com a multidão; ele usa o Dark Post (publicação fantasma que só aparece para um público específico). Para o bairro São Cristóvão, ele promete segurança; para o Centro, promete incentivo fiscal. As promessas podem até ser contraditórias, mas como os públicos não se cruzam nas redes, a mentira não é descoberta.


Isso fragmenta a nossa sociedade. O Sertão, que sempre foi lugar de encontro e prosa na calçada, está sendo fatiado em bolhas digitais onde o vizinho não reconhece mais a realidade do outro.


A engenharia do Voto: um olhar de quem constrói sistemas


Aqui entro na minha seara técnica. Para muitos, o algoritmo é mágica. Para mim, como analista de sistemas, o algoritmo é uma sequência lógica de instruções finitas — e, mais importante, ele tem um "dono".


O que está acontecendo em Arcoverde é a aplicação bruta de Microtargetting (Microdirecionamento). Funciona assim: grandes bancos de dados cruzam informações públicas (seu CPF na farmácia, seu Like na foto do São João, sua geolocalização). Com isso, cria-se um perfil psicométrico.


Tecnicamente, o sistema não quer saber se você é de esquerda ou de direita. Ele quer saber qual gatilho emocional gera mais engajamento (leia-se: tempo de tela e compartilhamento).


  1. Viés de Confirmação: O código é escrito para lhe mostrar apenas o que você concorda. Se você tem medo da violência, o algoritmo vai inundar seu feed com notícias de crimes (muitas vezes antigas ou falsas), preparando o terreno para o candidato "da ordem".


  2. Câmaras de Eco: O sistema suprime o contraditório. Isso não é erro de sistema; é feature (funcionalidade). É assim que se radicaliza um eleitorado pacífico como o nosso.


Quando você acha que "escolheu" um candidato porque viu três vídeos dele falando "verdades", cuidado: pode ter sido apenas uma query (consulta) de banco de dados bem executada que selecionou você como alvo perfeito.


O Analfabetismo Digital é o novo Voto de Cabresto


Estou na sala de aula há quase quatorze anos. Vejo diariamente jovens com smartphones de última geração nas mãos, capazes de editar vídeos incríveis para o TikTok, mas incapazes de checar a fonte de uma notícia recebida no grupo da família.


O abismo da desigualdade social no Brasil agora tem uma nova camada: a desigualdade cognitiva digital. A Educação pública, apesar dos esforços heroicos de nós professores, ainda não conseguiu integrar o Letramento Midiático ao currículo de forma eficaz.


Ensinamos a fórmula de Bhaskara, mas não ensinamos como funciona a monetização do ódio nas Big Techs. O resultado? Um eleitorado vulnerável. Em Arcoverde, o novo analfabeto não é quem não sabe ler letras; é quem não sabe ler intenções por trás de um link. Enquanto não tratarmos a tecnologia como disciplina fundamental — tão importante quanto Português ou Matemática —, nossa democracia será apenas uma simulação rodando em um servidor estrangeiro.


Hackeando o Sistema


Arcoverde precisa de mais do que obras de pedra e cal; precisa de uma atualização de software moral. O Sertão não pode ser apenas consumidor de tecnologia; precisa ser crítico dela.


A tecnopolítica é uma ferramenta. Na mão do tirano, é controle. Na mão do cidadão consciente, pode ser libertação e transparência.


Como seu editor no O estopim, meu compromisso é este: usar o conhecimento técnico para iluminar o que tentam esconder no código-fonte da política local. Não seja um usuário passivo. Seja um cidadão com privilégios de administrador.

Atualizado: 10 de jan.

A máquina de fake news do século XXI: Deepfakes crescem 830% no Brasil e ameaçam integridade Eleitoral em 2026


Geração de vídeos realistas por IA a custo zero, combinada com plataformas generativas, criou ferramentas perfeitas para fabricação de narrativas políticas falsas. Enquanto regulação avança, capacidade de detecção falha e beneficiários da desinformação lucram com impunidade.


Da Redação d`O estopim Tech | 10 de janeiro de 2026


Arte: Bruno Fonseca e Larissa Fernandes/Agência Pública
Arte: Bruno Fonseca e Larissa Fernandes/Agência Pública

Em setembro de 2024, no bairro Monte Sinai em Manaus, moradores receberam em redes sociais uma publicação impactante: um trecho de telejornalismo do Jornal Nacional onde o apresentador William Bonner recomendava voto em um candidato local a vereador. O problema: o vídeo era totalmente falso, gerado por inteligência artificial.​


Casos como esse multiplicam-se pelo Brasil. Entre 2024 e janeiro de 2026, deepfakes—conteúdos gerados ou manipulados por IA para substituir rostos, vozes e corpos em vídeos—cresceram 830% em um ano. Enquanto isso, ferramentas cada vez mais sofisticadas de geração de conteúdo sintético (como Sora do OpenAI e Veo 3 do Google) democratizaram a produção de desinformação: qualquer pessoa com um computador pode, em minutos, criar narrativas falsas hiperrealistas praticamente indistinguíveis da verdade.​


A tecnologia que prometia eficiência tornou-se a arma mais refinada da desordem democrática. E enquanto o Estado responde com legislação, quem se beneficia da incapacidade de distinguir verdade de ficção gerada por máquina continua operando com impunidade.


830%: o crescimento vertiginoso da fraude digital


Em 2023, a Sumsub (empresa de verificação de identidade) publicou seu Identity Fraud Report, analisando 2 milhões de tentativas de fraude em 224 países. O Brasil apresentou um fenômeno singular: enquanto a América do Norte registrava aumento de 1.740% em deepfakes e a América Latina média de 410%, o Brasil disparava isoladamente com 830% de crescimento.​


Contextualizando: enquanto a Espanha enfrentava o maior volume absoluto de deepfakes do mundo (um em cada dez ataques globais ocorre lá), o Brasil superava todos os demais países latino-americanos juntos em incidentes dessa natureza.​


Mais recente ainda: entre 2023 e 2024, deepfakes envolvendo abuso infantil explodiram de 4,7 mil para 67 mil casos—um aumento de 1.325%. Crianças reais tiveram seus rostos inseridos em conteúdo sexual gerado por IA. Em escolas brasileiras, pelo menos 16 casos de deepfakes sexuais foram identificados em 10 estados entre 2024 e 2025.​


Mas os números mais perturbadores não estão apenas em estatísticas globais. Estão em operações do crime organizado. Um grupo com 46 mil membros no Brasil foi mapeado em 2024 comercializando deepfakes de celebridades brasileiras por valores entre R$ 19,90 e R$ 25—industrializando a criação de desinformação.​


Foto: Divulgação Google
Google Veo 3, a IA de vídeos da Google | Foto: Divulgação Google

De ferramentas de entretenimento a armas políticas


Até 2023, deepfakes eram principalmente curiosidade: vídeos de celebridades em situações absurdas, montagens humorísticas. A técnica era complexa, cara e necessitava de expertise. Mudou drasticamente quando OpenAI, Google, Meta e outras gigantes lançaram ferramentas de geração de vídeo acessíveis, baratas ou gratuitas.​


Em dezembro de 2024, OpenAI anunciou Sora, um modelo capaz de gerar vídeos com até um minuto de duração, com qualidade cinematográfica, a partir de um texto simples. Praticamente simultâneo, Google lançou Veo 3. Essas ferramentas não demandam conhecimento de programação. Um clique, um prompt em linguagem natural, e em minutos: um vídeo fake pronto para viralizar.​


A democratização da desinformação ocorreu em velocidade exponencial.


Durante as eleições municipais de 2024 no Brasil, o Observatório IA Nas Eleições—parceria entre Data Privacy Brasil, Aláfia Lab e Desinformante mapeou 78 casos de materiais confirmados ou alegadamente criados por meio de IA. Mas esse número subestima a realidade.​


Casos emblemáticos:


Em São Paulo, o candidato Pablo Marçal (PRTB) postou uma deepfake sem sinalizar o uso de IA, como exige a resolução do TSE. No vídeo, um rosto é trocado pelo de Marçal e a pessoa assopra pó branco uma referência a acusações infundadas contra rival.​


Em Salvador, o prefeito reeleito Bruno Reis (União) postou vídeos nos quais seu rosto é adicionado ao corpo de um homem que dança o jingle da campanha. No Instagram, veio com aviso "feito com IA." No TikTok, nenhuma advertência.​


Em Manaus, como mencionado, William Bonner apareceu em deepfake recomendando voto em vereador.​


Havia ainda deepnudes imagens com teor sexual gerado por IA. Candidatas em Rio de Janeiro e Bauru (SP) registraram boletins de ocorrência após serem alvo de deepfakes pornográficos postados em redes sociais e sites de conteúdo adulto.​


Google, Meta e a perversão da "IA Democrática"


Enquanto candidatos usavam IA para criar conteúdo falso, as próprias gigantes de tecnologia continuavam alimentando a máquina de desinformação.


Em setembro de 2024, o Jornal da Paraíba revelou que o Gemini, IA do Google, continuava fornecendo informações sobre candidatos à prefeitura de João Pessoa, apesar das promessas públicas do Google em restringir respostas políticas pela ferramenta.​


O Gemini também havia gerado informações sobre candidatos à prefeitura de São Paulo: Ricardo Nudes (MDB), Pablo Marçal (PRTB), José Luiz Datena (PSDB) e Marina Helena (Novo).​


A Meta, por sua vez, usou chatbots e algoritmos de recomendação que amplificavam conteúdo desinformativo. Enquanto isso, investigadores sugerem que a empresa monitora remoção de conteúdo de forma lenta e defasada, deixando deepfakes circularem por horas ou dias antes de ação.​


O padrão é claro: essas plataformas ganham com desinformação (quanto mais polêmica, mais engajamento; quanto mais engagement, mais publicidade vendida), enquanto externamente celebram investimentos em "segurança eleitoral."


Regulação das Redes Sociais e Big Techs | Foto: Reprodução
Regulação das Redes Sociais e Big Techs | Foto: Reprodução

A regulação que não consegue acompanhar a tecnologia


Reconhecendo o risco, o Tribunal Superior Eleitoral (TSE) editou a Resolução nº 23.732/2024, que alterou regulações de propaganda eleitoral.​


As principais inovações:

  • Proibição absoluta de deepfakes usados em propaganda eleitoral

  • Obrigação de aviso explícito quando qualquer conteúdo sintético é usado

  • Responsabilização de big techs: plataformas que não removem conteúdo desinformativo "imediatamente" podem sofrer sanções

  • Criação de repositório de decisões do TSE para agilizar processos de remoção


O presidente do TSE, ministro Alexandre de Moraes, chamou a resolução de "uma das normas mais modernas do mundo" com relação ao combate a desinformação.​


Mas a realidade jurídica revelou-se complexa. Um estudo do Instituto de Direito Público (IDP), em parceria com Ethics4AI e Mackenzie, analisou 56 decisões de Tribunais Regionais Eleitorais envolvendo possíveis deepfakes. O achado alarmante: em 25% dos casos, os juízes nem consideraram que se tratava de conteúdo eleitoral.​​


Juízes, frequentemente sem expertise em tecnologia, classificavam conteúdos desinformativos como "discurso político legítimo"—não como fraude eleitoral.​


Além disso, a Resolução TSE funciona primordialmente para conteúdo visível em plataformas públicas. Mas a maioria dos deepfakes circula em grupos privados de WhatsApp, Telegram e Discord—ambientes onde moderação é praticamente inexistente e plataformas argumentam não ter responsabilidade.​


O PL 2338: ambição regulatória encontra realidade tecnológica


Em paralelo, o Projeto de Lei 2338/2023 (Marco Legal da IA) foi aprovado pelo Senado e tramita na Câmara dos Deputados.​


O PL segue modelo similar ao AI Act da União Europeia, classificando sistemas de IA em níveis de risco: excessivo (proibido), alto (requisitos rigorosos), médio e baixo.​


Especificamente para deepfakes, o PL inclui proteção contra deepfakes de imagens íntimas não consentidas, responsabilidade de desenvolvedores de sistemas de IA, e cláusulas de proteção à liberdade de expressão (sátira e paródia permanecem).​


Mas há problema crítico: o PL responsabiliza desenvolvedores de IA, não usuários ou distribuidores. Um criminoso que baixa um programa gratuito de deepfake, cria conteúdo falso e o distribui não é diretamente responsabilizado.​


É como responsabilizar fabricantes de faca por crimes de faca—útil em alguns casos, insuficiente em outros.


Além disso, o PL ainda não foi aprovado. A lacuna regulatória permanece aberta enquanto tecnologias evoluem.​


Marco Legal da IA: o texto aprovado pelo Senado traz impactos relevantes para os agentes de IA, principalmente para aqueles que desenvolvam ou utilizem as tecnologias classificadas como de alto risco (Arte: TUTU)
Marco Legal da IA: o texto aprovado pelo Senado traz impactos relevantes para os agentes de IA, principalmente para aqueles que desenvolvam ou utilizem as tecnologias classificadas como de alto risco (Arte: TUTU)

Detecção vs. Geração: uma corrida que a defesa está perdendo


Aqui emerge um paradoxo fundamental: a mesma tecnologia que permite criar deepfakes é usada para detectá-los.​


No Brasil, laboratórios como o recod.ai da Unicamp (200 pesquisadores no campus, 350 colaboradores globais) desenvolvem algoritmos que analisam pistas invisíveis ao olho humano—iluminação, sombras, textura da pele, ruídos digitais—para diferenciar vídeos reais de sintéticos.​


O coordenador do recod.ai, Anderson Rocha, descreve uma "corrida de gato e rato": conforme pesquisadores criam detector novo, outro grupo cria gerador melhor para escapar da detecção.​


O problema é assimétrico: criadores de deepfakes demandam minutos. Detectores demandam análise longa. Distribuidores de conteúdo não têm incentivo para fazer análise automaticamente.​


Além disso, modelos de detecção frequentemente falham com diversidade. Se treinados principalmente com rostos brancos e jovens, falham detectando deepfakes de pessoas mais velhas ou de outras etnias.​


Instituições públicas como TSE, STF e Polícia Federal têm ferramentas de detecção, mas com capacidade limitada, especialmente para conteúdo em ambientes privados.​


O Mercado Criminoso da Desinformação: quem lucra?


A comercialização de deepfakes alcançou escala industrial. Um grupo com 46 mil membros—mapeado pela SaferNet em 2024—vendia deepfakes de celebridades brasileiras por preços acessíveis.​


Esses grupos operam em Dark Web, Telegram e plataformas criptografadas.


Mas quem lucra mais não são microempreendedores de deepfakes. São:


Big Techs: Google, Meta, Amazon e Microsoft lucram com publicidade enquanto plataformas amplificam conteúdo desinformativo. Algoritmos são otimizados para engajamento, não para verdade. Desinformação gera mais engajamento.​


Candidatos e partidos políticos: 85 candidatos declararam gastos com empresas que fornecem conteúdos gerados por IA, sendo que ao menos 38 publicaram conteúdos sintéticos sem avisar ao eleitor.​


Criminosos organizados: Fraudes por deepfake crescem. Golpistas usam áudio de CEO para convencer funcionário a fazer transferência bancária. Usam rostos falsos para abrir contas em fintechs. Entre janeiro e julho de 2025, 1,242 milhão de tentativas de fraude por deepfake foram registradas só na Serasa Experian.​


Atores geopolíticos: Análise de especialistas sugere que agências de inteligência estrangeira experimentam com deepfakes em eleições de países rivais.​


Quem NÃO lucra: democracia, confiança pública, eleitores que votam baseados em informações falsas.


Um especialista em cibersegurança alertou: "A probabilidade de um criminoso digital sendo pego ainda é baixa. É muito mais vantajoso para um cibercriminoso estando no Brasil cometer crimes, inclusive fora do país."


Regular as Redes e Big Techs é preciso | Ilustração: Paula Villar
Regular as Redes e Big Techs é preciso | Ilustração: Paula Villar

A incerteza jurídica como campo fértil para Desinformação


Um fenômeno paralelo ocorre nas cortes: disputas judiciais sobre responsabilidade de plataformas deixam vácuo temporal onde desinformação prospera sem risco significativo de remoção.


Em 2024, o Supremo Tribunal Federal declarou o artigo 19 do Marco Civil da Internet parcialmente inconstitucional, aumentando responsabilidade de plataformas por conteúdo de terceiros.​


Mas houve oito embargos de declaração (recursos judiciais). A incerteza jurídica resultante significa que big techs não fazem investimentos robustos em moderação, argumentando estar à espera de clareza legal.​


Esse "compasso de espera favorece justamente aqueles que se beneficiam da disseminação de desinformação."​


Para 2026, quando ocorrem eleições presidenciais, essa incerteza jurídica é particularmente danosa. Especialistas temem que deepfakes se proliferem ainda mais porque nem plataformas nem autoridades têm linhas claras de ação.​


2026: o laboratório eleitoral aprimorado


As eleições municipais de 2024 foram chamadas de "laboratório" por especialistas.​


Os testes indicaram: (1) deepfakes funcionam para manipular narrativas; (2) regulação TSE tem lacunas; (3) detecção é insuficiente; (4) distribuição em apps privados é incontrolável; (5) população tem dificuldade em identificar conteúdo falso.​


Para 2026, o cenário é mais ameaçador. Presidenciais implicam apostas mais altas. Polarização é extrema. Tecnologia evoluiu (Sora, Veo 3). Criminosos têm 16 meses para aprimorar técnicas.​


Um relatório da R7 em dezembro de 2025 alertou: "Ataques com deepfake crescem 126% em 2025; materiais gerados por IA forjam rostos, vozes e vídeos."

O especialista Antônio Netto enfatizou: "O deepfake tem potencial de convencimento muito maior que conteúdo genérico IA. Um vídeo alterado para colocar palavras na boca de um político é exatamente o que deepfake se propõe fazer: simular realidade e potencialmente enganar."


Caminho das Fake News — Foto: Wagner Magalhães/g1
Caminho das Fake News — Foto: Wagner Magalhães/g1

A verdade como Produto Raro


A raiz do problema não está na tecnologia. Está na economia política da desinformação.


Quem se beneficia quando população não consegue distinguir verdade? Narrativa política conveniente mas falsa. Candidato cuja mensagem é ampliada mesmo sendo desinformativa. Plataforma que lucra com cliques de conteúdo polarizador. Ator geopolítico que quer desestabilizar democracia rival.


Para todos esses agentes, verdade é custo, não benefício.


Um pesquisador da área resumiu: "Modelos de negócio de redes sociais instrumentalizam emoções. Verdade é chata. Falsidade sensacionalista vira viral."

A solução proposta por educadores é "letramento em IA"—ensinar população a reconhecer sinais de síntese. Mas isso é trabalho de longa duração (anos), e tecnologia evolui em meses.​


Enquanto isso, desinformação não espera por alfabetização. Ela se propaga, influencia voto, corrói confiança em instituições.


Iniciativas de contra-ataque: Unicamp, TSE e limites da resistência


Não há inação completa. A Unicamp criou ferramentas usadas pela Polícia Federal para detectar pornografia infantil. O TRE-GO desenvolveu GuaIA, um projeto de IA para monitorar automaticamente desinformação em redes sociais sobre eleições estaduais.​


A UERJ e UNICAMP desenvolveram Vota AI, ferramenta que analisa programas de governo (ao menos 60 mil).​


Mas iniciativas acadêmicas e judiciais enfrentam desafios:

  • Recursos limitados: Universidades e cortes eleitorais têm orçamentos reduzidos comparado ao investimento de big techs

  • Velocidade da evolução: Modelo de detecção de 2024 pode ser obsoleto em 2025

  • Ambientes privados: Ferramentas funcionam em conteúdo público; WhatsApp, Telegram e Discord são praticamente invulneráveis

  • Expertise limitada: Número reduzido de especialistas em deepfake detection no Brasil


Iniciativa traz vídeos, textos e áudios com conteúdos elaborados por professores e equipe de reportagem (imagem: divulgação)
Iniciativa traz vídeos, textos e áudios com conteúdos elaborados por professores e equipe de reportagem (imagem: divulgação)

A arquitetura da impunidade


A máquina de fake news do século XXI não existe por acaso. É produto de:

  • Tecnologia acessível: Ferramentas generativas baratas/gratuitas

  • Incentivos perversos: Plataformas lucram com engajamento, não com verdade

  • Lacunas regulatórias: Lei atrasa tecnologia; criminalidade avança

  • Ambientes incontroláveis: Mensageria privada escapa de moderação

  • Assimetria de poder: Criadores de deepfakes operam rapidamente; detectores são lentos

  • Beneficiários: Candidatos, plataformas, criminosos, atores geopolíticos—todos ganham quando democracia desconfiar de sua própria vista


A pergunta que fica para 2026 é: conseguirá o Brasil estabelecer defesa robusta contra desinformação sintetizada antes que eleição presidencial seja contaminada por narrativas indistinguíveis de realidade?


Ou continuaremos em um mundo onde a verdade é privada de quem pode produzir ficção convincente a custo zero?


Essa não é mais questão tecnológica. É questão política.

bottom of page