top of page

Atualizado: 10 de jan.

A máquina de fake news do século XXI: Deepfakes crescem 830% no Brasil e ameaçam integridade Eleitoral em 2026


Geração de vídeos realistas por IA a custo zero, combinada com plataformas generativas, criou ferramentas perfeitas para fabricação de narrativas políticas falsas. Enquanto regulação avança, capacidade de detecção falha e beneficiários da desinformação lucram com impunidade.


Da Redação d`O estopim Tech | 10 de janeiro de 2026


Arte: Bruno Fonseca e Larissa Fernandes/Agência Pública
Arte: Bruno Fonseca e Larissa Fernandes/Agência Pública

Em setembro de 2024, no bairro Monte Sinai em Manaus, moradores receberam em redes sociais uma publicação impactante: um trecho de telejornalismo do Jornal Nacional onde o apresentador William Bonner recomendava voto em um candidato local a vereador. O problema: o vídeo era totalmente falso, gerado por inteligência artificial.​


Casos como esse multiplicam-se pelo Brasil. Entre 2024 e janeiro de 2026, deepfakes—conteúdos gerados ou manipulados por IA para substituir rostos, vozes e corpos em vídeos—cresceram 830% em um ano. Enquanto isso, ferramentas cada vez mais sofisticadas de geração de conteúdo sintético (como Sora do OpenAI e Veo 3 do Google) democratizaram a produção de desinformação: qualquer pessoa com um computador pode, em minutos, criar narrativas falsas hiperrealistas praticamente indistinguíveis da verdade.​


A tecnologia que prometia eficiência tornou-se a arma mais refinada da desordem democrática. E enquanto o Estado responde com legislação, quem se beneficia da incapacidade de distinguir verdade de ficção gerada por máquina continua operando com impunidade.


830%: o crescimento vertiginoso da fraude digital


Em 2023, a Sumsub (empresa de verificação de identidade) publicou seu Identity Fraud Report, analisando 2 milhões de tentativas de fraude em 224 países. O Brasil apresentou um fenômeno singular: enquanto a América do Norte registrava aumento de 1.740% em deepfakes e a América Latina média de 410%, o Brasil disparava isoladamente com 830% de crescimento.​


Contextualizando: enquanto a Espanha enfrentava o maior volume absoluto de deepfakes do mundo (um em cada dez ataques globais ocorre lá), o Brasil superava todos os demais países latino-americanos juntos em incidentes dessa natureza.​


Mais recente ainda: entre 2023 e 2024, deepfakes envolvendo abuso infantil explodiram de 4,7 mil para 67 mil casos—um aumento de 1.325%. Crianças reais tiveram seus rostos inseridos em conteúdo sexual gerado por IA. Em escolas brasileiras, pelo menos 16 casos de deepfakes sexuais foram identificados em 10 estados entre 2024 e 2025.​


Mas os números mais perturbadores não estão apenas em estatísticas globais. Estão em operações do crime organizado. Um grupo com 46 mil membros no Brasil foi mapeado em 2024 comercializando deepfakes de celebridades brasileiras por valores entre R$ 19,90 e R$ 25—industrializando a criação de desinformação.​


Foto: Divulgação Google
Google Veo 3, a IA de vídeos da Google | Foto: Divulgação Google

De ferramentas de entretenimento a armas políticas


Até 2023, deepfakes eram principalmente curiosidade: vídeos de celebridades em situações absurdas, montagens humorísticas. A técnica era complexa, cara e necessitava de expertise. Mudou drasticamente quando OpenAI, Google, Meta e outras gigantes lançaram ferramentas de geração de vídeo acessíveis, baratas ou gratuitas.​


Em dezembro de 2024, OpenAI anunciou Sora, um modelo capaz de gerar vídeos com até um minuto de duração, com qualidade cinematográfica, a partir de um texto simples. Praticamente simultâneo, Google lançou Veo 3. Essas ferramentas não demandam conhecimento de programação. Um clique, um prompt em linguagem natural, e em minutos: um vídeo fake pronto para viralizar.​


A democratização da desinformação ocorreu em velocidade exponencial.


Durante as eleições municipais de 2024 no Brasil, o Observatório IA Nas Eleições—parceria entre Data Privacy Brasil, Aláfia Lab e Desinformante mapeou 78 casos de materiais confirmados ou alegadamente criados por meio de IA. Mas esse número subestima a realidade.​


Casos emblemáticos:


Em São Paulo, o candidato Pablo Marçal (PRTB) postou uma deepfake sem sinalizar o uso de IA, como exige a resolução do TSE. No vídeo, um rosto é trocado pelo de Marçal e a pessoa assopra pó branco uma referência a acusações infundadas contra rival.​


Em Salvador, o prefeito reeleito Bruno Reis (União) postou vídeos nos quais seu rosto é adicionado ao corpo de um homem que dança o jingle da campanha. No Instagram, veio com aviso "feito com IA." No TikTok, nenhuma advertência.​


Em Manaus, como mencionado, William Bonner apareceu em deepfake recomendando voto em vereador.​


Havia ainda deepnudes imagens com teor sexual gerado por IA. Candidatas em Rio de Janeiro e Bauru (SP) registraram boletins de ocorrência após serem alvo de deepfakes pornográficos postados em redes sociais e sites de conteúdo adulto.​


Google, Meta e a perversão da "IA Democrática"


Enquanto candidatos usavam IA para criar conteúdo falso, as próprias gigantes de tecnologia continuavam alimentando a máquina de desinformação.


Em setembro de 2024, o Jornal da Paraíba revelou que o Gemini, IA do Google, continuava fornecendo informações sobre candidatos à prefeitura de João Pessoa, apesar das promessas públicas do Google em restringir respostas políticas pela ferramenta.​


O Gemini também havia gerado informações sobre candidatos à prefeitura de São Paulo: Ricardo Nudes (MDB), Pablo Marçal (PRTB), José Luiz Datena (PSDB) e Marina Helena (Novo).​


A Meta, por sua vez, usou chatbots e algoritmos de recomendação que amplificavam conteúdo desinformativo. Enquanto isso, investigadores sugerem que a empresa monitora remoção de conteúdo de forma lenta e defasada, deixando deepfakes circularem por horas ou dias antes de ação.​


O padrão é claro: essas plataformas ganham com desinformação (quanto mais polêmica, mais engajamento; quanto mais engagement, mais publicidade vendida), enquanto externamente celebram investimentos em "segurança eleitoral."


Regulação das Redes Sociais e Big Techs | Foto: Reprodução
Regulação das Redes Sociais e Big Techs | Foto: Reprodução

A regulação que não consegue acompanhar a tecnologia


Reconhecendo o risco, o Tribunal Superior Eleitoral (TSE) editou a Resolução nº 23.732/2024, que alterou regulações de propaganda eleitoral.​


As principais inovações:

  • Proibição absoluta de deepfakes usados em propaganda eleitoral

  • Obrigação de aviso explícito quando qualquer conteúdo sintético é usado

  • Responsabilização de big techs: plataformas que não removem conteúdo desinformativo "imediatamente" podem sofrer sanções

  • Criação de repositório de decisões do TSE para agilizar processos de remoção


O presidente do TSE, ministro Alexandre de Moraes, chamou a resolução de "uma das normas mais modernas do mundo" com relação ao combate a desinformação.​


Mas a realidade jurídica revelou-se complexa. Um estudo do Instituto de Direito Público (IDP), em parceria com Ethics4AI e Mackenzie, analisou 56 decisões de Tribunais Regionais Eleitorais envolvendo possíveis deepfakes. O achado alarmante: em 25% dos casos, os juízes nem consideraram que se tratava de conteúdo eleitoral.​​


Juízes, frequentemente sem expertise em tecnologia, classificavam conteúdos desinformativos como "discurso político legítimo"—não como fraude eleitoral.​


Além disso, a Resolução TSE funciona primordialmente para conteúdo visível em plataformas públicas. Mas a maioria dos deepfakes circula em grupos privados de WhatsApp, Telegram e Discord—ambientes onde moderação é praticamente inexistente e plataformas argumentam não ter responsabilidade.​


O PL 2338: ambição regulatória encontra realidade tecnológica


Em paralelo, o Projeto de Lei 2338/2023 (Marco Legal da IA) foi aprovado pelo Senado e tramita na Câmara dos Deputados.​


O PL segue modelo similar ao AI Act da União Europeia, classificando sistemas de IA em níveis de risco: excessivo (proibido), alto (requisitos rigorosos), médio e baixo.​


Especificamente para deepfakes, o PL inclui proteção contra deepfakes de imagens íntimas não consentidas, responsabilidade de desenvolvedores de sistemas de IA, e cláusulas de proteção à liberdade de expressão (sátira e paródia permanecem).​


Mas há problema crítico: o PL responsabiliza desenvolvedores de IA, não usuários ou distribuidores. Um criminoso que baixa um programa gratuito de deepfake, cria conteúdo falso e o distribui não é diretamente responsabilizado.​


É como responsabilizar fabricantes de faca por crimes de faca—útil em alguns casos, insuficiente em outros.


Além disso, o PL ainda não foi aprovado. A lacuna regulatória permanece aberta enquanto tecnologias evoluem.​


Marco Legal da IA: o texto aprovado pelo Senado traz impactos relevantes para os agentes de IA, principalmente para aqueles que desenvolvam ou utilizem as tecnologias classificadas como de alto risco (Arte: TUTU)
Marco Legal da IA: o texto aprovado pelo Senado traz impactos relevantes para os agentes de IA, principalmente para aqueles que desenvolvam ou utilizem as tecnologias classificadas como de alto risco (Arte: TUTU)

Detecção vs. Geração: uma corrida que a defesa está perdendo


Aqui emerge um paradoxo fundamental: a mesma tecnologia que permite criar deepfakes é usada para detectá-los.​


No Brasil, laboratórios como o recod.ai da Unicamp (200 pesquisadores no campus, 350 colaboradores globais) desenvolvem algoritmos que analisam pistas invisíveis ao olho humano—iluminação, sombras, textura da pele, ruídos digitais—para diferenciar vídeos reais de sintéticos.​


O coordenador do recod.ai, Anderson Rocha, descreve uma "corrida de gato e rato": conforme pesquisadores criam detector novo, outro grupo cria gerador melhor para escapar da detecção.​


O problema é assimétrico: criadores de deepfakes demandam minutos. Detectores demandam análise longa. Distribuidores de conteúdo não têm incentivo para fazer análise automaticamente.​


Além disso, modelos de detecção frequentemente falham com diversidade. Se treinados principalmente com rostos brancos e jovens, falham detectando deepfakes de pessoas mais velhas ou de outras etnias.​


Instituições públicas como TSE, STF e Polícia Federal têm ferramentas de detecção, mas com capacidade limitada, especialmente para conteúdo em ambientes privados.​


O Mercado Criminoso da Desinformação: quem lucra?


A comercialização de deepfakes alcançou escala industrial. Um grupo com 46 mil membros—mapeado pela SaferNet em 2024—vendia deepfakes de celebridades brasileiras por preços acessíveis.​


Esses grupos operam em Dark Web, Telegram e plataformas criptografadas.


Mas quem lucra mais não são microempreendedores de deepfakes. São:


Big Techs: Google, Meta, Amazon e Microsoft lucram com publicidade enquanto plataformas amplificam conteúdo desinformativo. Algoritmos são otimizados para engajamento, não para verdade. Desinformação gera mais engajamento.​


Candidatos e partidos políticos: 85 candidatos declararam gastos com empresas que fornecem conteúdos gerados por IA, sendo que ao menos 38 publicaram conteúdos sintéticos sem avisar ao eleitor.​


Criminosos organizados: Fraudes por deepfake crescem. Golpistas usam áudio de CEO para convencer funcionário a fazer transferência bancária. Usam rostos falsos para abrir contas em fintechs. Entre janeiro e julho de 2025, 1,242 milhão de tentativas de fraude por deepfake foram registradas só na Serasa Experian.​


Atores geopolíticos: Análise de especialistas sugere que agências de inteligência estrangeira experimentam com deepfakes em eleições de países rivais.​


Quem NÃO lucra: democracia, confiança pública, eleitores que votam baseados em informações falsas.


Um especialista em cibersegurança alertou: "A probabilidade de um criminoso digital sendo pego ainda é baixa. É muito mais vantajoso para um cibercriminoso estando no Brasil cometer crimes, inclusive fora do país."


Regular as Redes e Big Techs é preciso | Ilustração: Paula Villar
Regular as Redes e Big Techs é preciso | Ilustração: Paula Villar

A incerteza jurídica como campo fértil para Desinformação


Um fenômeno paralelo ocorre nas cortes: disputas judiciais sobre responsabilidade de plataformas deixam vácuo temporal onde desinformação prospera sem risco significativo de remoção.


Em 2024, o Supremo Tribunal Federal declarou o artigo 19 do Marco Civil da Internet parcialmente inconstitucional, aumentando responsabilidade de plataformas por conteúdo de terceiros.​


Mas houve oito embargos de declaração (recursos judiciais). A incerteza jurídica resultante significa que big techs não fazem investimentos robustos em moderação, argumentando estar à espera de clareza legal.​


Esse "compasso de espera favorece justamente aqueles que se beneficiam da disseminação de desinformação."​


Para 2026, quando ocorrem eleições presidenciais, essa incerteza jurídica é particularmente danosa. Especialistas temem que deepfakes se proliferem ainda mais porque nem plataformas nem autoridades têm linhas claras de ação.​


2026: o laboratório eleitoral aprimorado


As eleições municipais de 2024 foram chamadas de "laboratório" por especialistas.​


Os testes indicaram: (1) deepfakes funcionam para manipular narrativas; (2) regulação TSE tem lacunas; (3) detecção é insuficiente; (4) distribuição em apps privados é incontrolável; (5) população tem dificuldade em identificar conteúdo falso.​


Para 2026, o cenário é mais ameaçador. Presidenciais implicam apostas mais altas. Polarização é extrema. Tecnologia evoluiu (Sora, Veo 3). Criminosos têm 16 meses para aprimorar técnicas.​


Um relatório da R7 em dezembro de 2025 alertou: "Ataques com deepfake crescem 126% em 2025; materiais gerados por IA forjam rostos, vozes e vídeos."

O especialista Antônio Netto enfatizou: "O deepfake tem potencial de convencimento muito maior que conteúdo genérico IA. Um vídeo alterado para colocar palavras na boca de um político é exatamente o que deepfake se propõe fazer: simular realidade e potencialmente enganar."


Caminho das Fake News — Foto: Wagner Magalhães/g1
Caminho das Fake News — Foto: Wagner Magalhães/g1

A verdade como Produto Raro


A raiz do problema não está na tecnologia. Está na economia política da desinformação.


Quem se beneficia quando população não consegue distinguir verdade? Narrativa política conveniente mas falsa. Candidato cuja mensagem é ampliada mesmo sendo desinformativa. Plataforma que lucra com cliques de conteúdo polarizador. Ator geopolítico que quer desestabilizar democracia rival.


Para todos esses agentes, verdade é custo, não benefício.


Um pesquisador da área resumiu: "Modelos de negócio de redes sociais instrumentalizam emoções. Verdade é chata. Falsidade sensacionalista vira viral."

A solução proposta por educadores é "letramento em IA"—ensinar população a reconhecer sinais de síntese. Mas isso é trabalho de longa duração (anos), e tecnologia evolui em meses.​


Enquanto isso, desinformação não espera por alfabetização. Ela se propaga, influencia voto, corrói confiança em instituições.


Iniciativas de contra-ataque: Unicamp, TSE e limites da resistência


Não há inação completa. A Unicamp criou ferramentas usadas pela Polícia Federal para detectar pornografia infantil. O TRE-GO desenvolveu GuaIA, um projeto de IA para monitorar automaticamente desinformação em redes sociais sobre eleições estaduais.​


A UERJ e UNICAMP desenvolveram Vota AI, ferramenta que analisa programas de governo (ao menos 60 mil).​


Mas iniciativas acadêmicas e judiciais enfrentam desafios:

  • Recursos limitados: Universidades e cortes eleitorais têm orçamentos reduzidos comparado ao investimento de big techs

  • Velocidade da evolução: Modelo de detecção de 2024 pode ser obsoleto em 2025

  • Ambientes privados: Ferramentas funcionam em conteúdo público; WhatsApp, Telegram e Discord são praticamente invulneráveis

  • Expertise limitada: Número reduzido de especialistas em deepfake detection no Brasil


Iniciativa traz vídeos, textos e áudios com conteúdos elaborados por professores e equipe de reportagem (imagem: divulgação)
Iniciativa traz vídeos, textos e áudios com conteúdos elaborados por professores e equipe de reportagem (imagem: divulgação)

A arquitetura da impunidade


A máquina de fake news do século XXI não existe por acaso. É produto de:

  • Tecnologia acessível: Ferramentas generativas baratas/gratuitas

  • Incentivos perversos: Plataformas lucram com engajamento, não com verdade

  • Lacunas regulatórias: Lei atrasa tecnologia; criminalidade avança

  • Ambientes incontroláveis: Mensageria privada escapa de moderação

  • Assimetria de poder: Criadores de deepfakes operam rapidamente; detectores são lentos

  • Beneficiários: Candidatos, plataformas, criminosos, atores geopolíticos—todos ganham quando democracia desconfiar de sua própria vista


A pergunta que fica para 2026 é: conseguirá o Brasil estabelecer defesa robusta contra desinformação sintetizada antes que eleição presidencial seja contaminada por narrativas indistinguíveis de realidade?


Ou continuaremos em um mundo onde a verdade é privada de quem pode produzir ficção convincente a custo zero?


Essa não é mais questão tecnológica. É questão política.

 
 
 

Da Redação de O estopim | 07 de Janeiro de 2026 | Produzido com Inteligência Artificial



A América do Sul vive um momento explosivo de transformações políticas, influências externas e desafios digitais. Da intervenção americana na Venezuela ao papel do Congresso brasileiro no cenário da política nacional, as relações entre países, governos e cidadãos têm se tornado cada vez mais complexas. No centro deste tabuleiro está a crise diplomática entre Brasil e Estados Unidos. Tensões em torno da Venezuela, críticas de Washington às políticas brasileiras e debates sobre liberdade de imprensa criam um ambiente de desconfiança e incerteza, alimentando a indústria da desinformação. A censura digital imposta pelo governo venezuelano obrigou ativistas e jornalistas a recorrerem a VPNs e criptoativos, fortalecendo a resistência digital contra ataques cibernéticos e violações de direitos humanos. No Brasil, a defesa da democracia e a ética jornalística tornam-se essenciais diante do crescimento da desinformação, principalmente em temas sensíveis como corrupção no Congresso, liberdade de imprensa e direitos fundamentais. O Jornalismo de Esquerda se firma como voz crítica, especialmente no contexto Anti-Bolsonaro, abordando denúncias, análise política e a atuação do Congresso Nacional, da Câmara dos Deputados e do Senado. A geopolítica latino-americana reflete-se também em Pernambuco, onde a política estadual ganha destaque tanto em Recife quanto no Sertão pernambucano. Notícias Arcoverde/PE e região trazem à tona movimentações políticas locais, debates culturais e iniciativas cidadãs. A cultura do Sertão emerge como força de resistência e identidade, contraponto à instabilidade política do Governo de Pernambuco e do cenário nacional. A política pernambucana, marcada por disputas internas e busca por reformas, é observada com atenção por jornalistas e analistas políticos, que tentam separar fatos de manipulações. A ética jornalística torna-se crucial em um ambiente onde a indústria da desinformação tenta silenciar críticas e legitimar abusos. Diante desse quadro, a defesa da democracia e dos direitos humanos na América Latina exige mais do que denúncias: demanda resistência digital, articulação política e valorização da cultura regional. Ao conectar as movimentações globais e locais, da crise venezuelana às notícias de Arcoverde, revela-se a importância de uma imprensa livre e comprometida em informar com responsabilidade. Em resumo, compreender a política sul-americana hoje é enxergar um mosaico de crises, resistências e esperanças. A era digital impôs novos desafios, mas também abriu caminhos para a luta pela democracia e ética, tanto nas grandes capitais como no Sertão pernambucano.

 
 
 

Por que as massas aceitam sua própria opressão? A resposta não está na violência — está em um sistema sofisticado de manipulação que convence os explorados de que a ordem estabelecida é natural, inevitável e até desejável.


Por Raul Silva para O estopim | 06 de janeiro de 2026

Raul Silva é escritor, jornalista e especialista em Ciência Política. Professor de Língua Portuguesa e especialista em Literatura, escreve semanalmente no portal O Estopim sobre política, história, sociedade e cultura — com compromisso com os fatos, a democracia e a ética no debate público.


O sistema que não parece sistema


Se alguém disse a você que as elites brasileiras usam um único instrumento de controle — um partido, uma emissora, um algoritmo — você provavelmente duvidaria. E teria razão em duvidar. O que existe é algo muito mais sofisticado: uma arquitetura integrada de dominação onde cada componente alimenta e valida os outros, criando um ciclo praticamente impossível de romper.


Este sistema não governa apenas através da força. Governa através do consentimento. Faz as massas acreditarem que aquilo que as oprime é aquilo que as liberta.


A história da concentração de mídia no Brasil é exemplar. Dez conglomerados controlam a maioria dos veículos de comunicação do país. Mas isto não é meramente um problema econômico. É um problema político, simbólico e histórico. Aqueles que controlam estes meios controlam o que você acessa, quais narrativas são legitimadas, quais informações são suprimidas — e fazem isto enquanto fingem ser "jornalismo imparcial".


Durante a ditadura militar, o papel dos meios de comunicação era explícito: executar a vontade do regime. Hoje, o papel é mais sutil, mas fundamentalmente idêntico: gerenciar a realidade política em favor daqueles que já detêm poder econômico. A diferença é que agora a manipulação é tão sofisticada que a maioria nem percebe que está sendo manipulada.


Arquitetura Integrada de Controle Social: Como as Elites Mantêm Dominância
Arquitetura Integrada de Controle Social: Como as Elites Mantêm Dominância 

O Psicopolítica Digital: quando o Algoritmo pensa por você


Os algoritmos das redes sociais não são neutros. São instrumentos deliberados de psicopolítica que operam ao nível da emoção, do inconsciente, da "liberdade vigiada". Você acredita que está escolhendo o que assistir, o que ler, em quem confiar. Mas sua escolha já foi antecipada. Já foi canalizada. Já foi convenientemente oferecida a você pelo algoritmo, em um processo tão invisível que você jura que é livre.


A ilusão é perfeita justamente porque é invisível.


Durante as eleições brasileiras, campanhas políticas pagaram para segmentar mensagens a públicos específicos usando dados psicográficos. Isto não é publicidade convencional. É manipulação emocional em massa, operando em tempo real, ajustando mensagens de acordo com os perfis psicológicos de cada grupo. O resultado é que você recebe uma realidade completamente diferente daquela que seu vizinho recebe — e ambos acreditam estar vendo a "verdade".


Pesquisas revelam que 63% dos brasileiros admitem ter sido influenciados por algoritmos. Apenas 30% reconhecem fazer parte de uma bolha. A ironia é que quanto mais manipulado você está, mais convencido fica de estar livre.


Os robôs amplificam isto. Durante as eleições de 2014, mais de 10% do debate no Twitter era gerado por bots. Minorias organizadas criam a ilusão de consenso popular. A democracia se torna um teatro onde a vontade real das massas é irrelevante.


As Elites, a indústria da Desinformação e o sucateamento intencional da Educação Pública


A desinformação deixou de ser fenômeno episódico. Tornou-se uma indústria global profissionalizada que opera permanentemente no Brasil.


A dinâmica é sofisticada. Um meme falso viraliza nas redes. É replicado por veículos alinhados à direita. É levado a parlamentares que o legitimam em discursos. Finalmente, a "grande mídia" o cobre como notícia. Neste processo, aquilo que começou como mentira organizada é transformado em fato, em realidade política que molda comportamentos e decisões.


Isto não é novo. Mas tornou-se profissional, sistemático e praticamente impossível de contra-atacar.


A pandemia foi um laboratório perfeito. Movimentos antivacina, alimentados por desinformação nas redes, conseguiram reduzir coberturas vacinais no Brasil. A manipulação informacional não é apenas política — ela mata. Grupos evangélicos, conservadores e extremistas utilizam estas plataformas para disseminar desinformação sobre saúde, educação e direitos. Perpetuam ciclos de vulnerabilidade que servem aos interesses das elites.


Dois Caminhos: A Reprodução Intergeracional da Desigualdade no Brasil
Dois Caminhos: A Reprodução Intergeracional da Desigualdade no Brasil

Ao mesmo tempo que criam uma rede de desinformação deliberada, as Elites Políticas e Econômicas buscam acabar com qualquer ferramenta que possa contradizer as fake news recorrentes e veiculadas em massa. Seu principal alvo? A educação pública. O Brasil não sofre de falta de recursos para educação. Sofre de prioridades políticas que escolhem investir em outros setores enquanto a educação é intencionalmente esvaziada.


Desde os anos 1990, observa-se cortes orçamentários substanciais, redução de pessoal docente, deterioração da infraestrutura escolar. Isto não é negligência. É política deliberada.


E aqui reside algo ainda mais perverso: enquanto a educação pública é destruída, surge um fenômeno que parece ser seu oposto, mas na verdade a complementa perfeitamente.



O Influenciador Digital: quando a ignorância virou liberdade


Influenciadores sem formação acadêmica acumulam milhões de seguidores através de conteúdo superficial. Seu discurso é consistente: estude menos, trabalhe por conta própria, fique rico rápido, a CLT é escravidão, educação formal é desnecessária.


Esta narrativa é particularmente apelativa para jovens pobres que já enfrentam uma educação pública falida. Oferece-lhes esperança fácil, ainda que falsa. A ironia é que quanto mais pobre é o jovem, menor é sua probabilidade real de sucesso através deste caminho. Ele ainda precisa de capital simbólico, de redes de contato, de conhecimento técnico — coisas que a educação formal fornece, mas que o influenciador nunca vai mencionar.


O discurso antieducação não é apenas alienação. É alienação sofisticada: faz você acreditar que está sendo libertado enquanto está sendo encarcerado. Faz você atacar sindicatos, rejeitar direitos trabalhistas, celebrar precarização — tudo porque foi convencido de que isto é progresso, liberdade, força.


A geração mais conectada também é mais alienada
A geração mais conectada também é mais alienada

Capital Cultural: a barreira invisível


Pierre Bourdieu ajuda a entender isto. O conceito de capital cultural revela algo que a ideologia dominante prefere esconder: a desigualdade educacional não é mérito. É herança.

Uma criança nascida em uma família de professores, rodeada de livros, com conversas sobre filosofia e política ao redor da mesa — possui capital cultural vastamente superior ao de uma criança cuja família nunca completou o ensino médio, que não possui livros, cuja conversa é dominada pela luta pela sobrevivência.


Quando estas duas crianças chegam à escola, aquela com maior capital cultural já está predestinada ao sucesso. Seu modo de falar é o modo da escola. Seus interesses são os interesses da escola. A outra criança, mesmo inteligente, enfrenta uma barreira invisível mas intransponível.


E aqui está o crime: a escola toma isto como evidência de falta de aptidão. Transforma uma barreira estrutural em um atributo individual. Assim, a desigualdade é legitimada como natural, como mérito.


O ciclo fechado: a reprodução geracional da Miséria Intelectual


O resultado de todos estes mecanismos é um sistema quase hermético onde:


  • Uma criança pobre nasce em um Brasil onde sua escola é sucateada, onde seu capital cultural é desvalorizado, onde a mídia a convence de que educação não importa, onde os algoritmos a radicalizam, onde a religião a conforma, onde o mercado de trabalho a explora.

  • Uma criança rica nasce em um Brasil onde tudo é invertido. Sua escola é excelente, seu capital cultural é o padrão, a mídia a inspira, os algoritmos a educam, a religião a legitima, o mercado de trabalho a premia.

  • E quando uma criança pobre, através de esforço sobre-humano, consegue vencer todos estes obstáculos? Frequentemente encontra um ambiente universitário onde ainda não pertence — onde seus pares são majoritariamente ricos, onde há violências simbólicas sutis que a fazem sentir-se estranha.

  • As cotas, ainda que importantes e necessárias, não resolvem este problema fundamental. Apenas permitem que uma minoria escape do ciclo. O ciclo permanece intacto.


A Religião como arma: o Inconsciente Coletivo sob ataque


A religião, historicamente utilizada para manter a população conformada, experimentou um ressurgimento de influência política. A bancada evangélica não apenas legisla sobre temas morais — pauta a política do país, frequentemente em contradição com direitos humanos e democracia.


Pastores chegam a pressionar fiéis para votarem em determinados candidatos, ameaçando que quem vote diferente "não é cristão". A religião, que deveria ser assunto privado em um Estado laico, tornou-se uma ferramenta de controle estatal e de manipulação de comportamento político em massa.


O controle ideológico é tão efetivo porque não é percebido como controle. Funciona ao nível do inconsciente, da fé, do inefável. Pessoas se recusam a questionar porque as convicções religiosas definem identidade. Quando a política se dissolve na religião, torna-se impossível criticar uma sem criticar a outra.


Mas e o controle unificado (político-religioso) acabar tornando-se difícil de manter, descobriu-se algo mais efetivo: controle através da fragmentação.


Os algoritmos recompensam extremismo porque extremismo produz engajamento. Conteúdo radical viraliza mais que conteúdo moderado. Resultado: pessoas são progressivamente radicalizadas, movem-se para posições extremas, isolam-se em bolhas onde todos pensam igual, tornam-se incapazes de diálogo.


Isto serve perfeitamente aos interesses das elites: uma população fragmentada em células antagônicas é incapaz de se unificar contra seus opressores. Enquanto esquerda e direita brigam entre si, a elite concentra ainda mais riqueza e poder.



A Hegemonia como consentimento: o segredo da Dominação perfeita


O que torna o sistema de dominação das elites brasileiras tão efetivo é que ele operacionaliza a hegemonia cultural em seu sentido mais gramsciano. Não governa apenas através da força — governa através do consentimento. Faz a população acreditar que a ordem atual é a única possível, a mais natural, até desejável.


Transforma privilégio em mérito. Desigualdade em oportunidade perdida. Exploração em liberdade de empreender.


Nenhum destes elementos opera isoladamente. Formam um sistema integrado e auto-reforçador onde cada elemento alimenta e valida os outros.


  • A educação pública sucateada torna atraente o discurso do influenciador antieducação.

  • Os algoritmos amplificam este discurso para crianças pobres.

  • A mídia concentrada legitima esta narrativa.

  • A religião a absorve e a santifica.

  • O mercado de trabalho a confirma através da precarização.

  • Cada ciclo geracional reproduz isto com maior intensidade.


Juntos, criam uma realidade onde o pobre internaliza sua pobreza como fracasso pessoal. Onde o trabalhador celebra sua exploração como liberdade. Onde o ignorante rejeita o conhecimento como arrogância de elite.


O Intelectual Orgânico da classe trabalhadora: o caminho necessário


Gramsci observou que as classes subalternas, quando não possuem sua própria intelectualidade orgânica, absorvem a ideologia das classes dominantes. Isto é exatamente o que vemos no Brasil contemporâneo.


A superação desta arquitetura de dominação requer não pequenas reformas, mas transformação estrutural — na propriedade dos meios de comunicação, na educação pública, na distribuição de recursos, nas relações de poder.


Exige aquilo que Gramsci chamava de "reforma intelectual e moral": a construção de uma contra-hegemonia onde as classes trabalhadoras e populares desenvolvem seus próprios intelectuais orgânicos, sua própria narrativa, sua própria visão de mundo que desafie a ordem estabelecida.


Enquanto isto não ocorre, o sistema permanece inabalável, reproduzindo-se a cada geração, capturando consciências através de múltiplos vetores, fragmentando potenciais unidades de resistência, e convertendo estruturalmente as vítimas em defensoras da própria opressão.


O estopim que precisamos acender não é um comercial de chinelos. É a tomada de consciência de que cada estrutura que nos rodeia — cada algoritmo, cada coluna de jornal, cada canal religioso, cada decisão educacional — foi desenhada para nos manter onde estamos. E que a primeira revolução acontece quando recusamos acreditar que isto é inevitável.

 
 
 
bottom of page