Por Raul Silva para O estopim | 9 de abril de 2026
Pré-candidatos à Presidência, o presidente Lula, o senador Flávio Bolsonaro e o governador Ronaldo Caiado destacam-se na política nacional enquanto planejam suas campanhas. | Foto: Montagem com fotos de Brenno Carvalho/Agência O Globo
A nova pesquisa Meio/Ideia, realizada entre 3 e 7 de abril, mostra que a corrida presidencial de 2026 entra em uma fase de maior incerteza. Depois do fim da janela partidária e do período de desincompatibilização para parte dos pré-candidatos, 51,4% dos entrevistados dizem que ainda podem mudar de voto até outubro. O dado, somado ao empate técnico entre Luiz Inácio Lula da Silva e Flávio Bolsonaro em um dos cenários de segundo turno, indica uma eleição aberta, com espaço real para reorganização das forças políticas nos próximos meses.
O principal achado do levantamento não é apenas a liderança de Lula no primeiro turno estimulado, com 40,4%, diante de 37% de Flávio Bolsonaro. O dado mais relevante é a erosão da convicção do eleitor. Em janeiro, 64,5% se declaravam decididos. Em abril, esse grupo caiu para 48,6%. A curva se inverteu, e os eleitores disponíveis para trocar de candidato passaram a ser maioria.
Evolução da decisão de voto de janeiro a abril de 2026: A proporção de eleitores decididos diminui de 64,5% para 48,6%, enquanto a porcentagem de eleitores que ainda podem mudar seu voto aumenta de 35,5% para 51,4%. | Fonte: Pesquisa Meio/Ideia de abril de 2026
Essa mudança ajuda a explicar por que o quadro permanece instável mesmo depois de uma etapa importante do calendário eleitoral. A janela partidária terminou em 3 de abril, e os prazos de desincompatibilização passaram a incidir em abril para parte dos ocupantes de cargos públicos, o que tende a reduzir a zona cinzenta sobre quem de fato pretende disputar a Presidência. Ainda assim, a definição institucional não se converteu em cristalização do voto.
No cenário estimulado de primeiro turno, Lula aparece na dianteira, mas sem uma vantagem capaz de encerrar a disputa. Flávio Bolsonaro concentra a maior parte do voto de direita já transferido, porém ainda opera em terreno menos consolidado do que o do presidente. Entre os eleitores de Lula, 73,4% dizem estar decididos. Entre os de Flávio, esse índice cai para 39,6%.
Cenário eleitoral do 1º turno estimulado: Lula lidera com 40,4%, seguido por Flávio Bolsonaro com 37,0%. Outros candidatos apresentam porcentagens menores, enquanto 8,5% dos entrevistados ainda não sabem em quem votar. | Fonte: Pesquisa Meio/Ideia de abril de 2026
A espontânea reforça esse retrato. Lula marca 32,6%, enquanto Flávio tem 19,4%. Jair Bolsonaro ainda aparece com 6%, mesmo fora do jogo formal. Isso sugere que uma parcela do eleitorado bolsonarista continua dispersa, seja por resistência à transferência automática do capital político, seja por espera estratégica de novos movimentos no campo conservador.
Em termos práticos, Lula tem hoje um eleitorado mais consistente. Flávio, por sua vez, demonstra maior capacidade de competitividade numérica imediata, mas com base mais fluida. É uma diferença decisiva para entender a campanha: um candidato pode estar perto no placar e, ainda assim, depender mais de reacomodações do que de fidelidade consolidada.
O levantamento mostra que a direita ainda não concluiu seu processo de aglutinação. Ronaldo Caiado aparece com 6,5% no cenário estimulado, enquanto Romeu Zema e Renan Santos marcam 3% cada. Aldo Rebelo surge com 0,6%. O número mais eloquente, porém, está no grau de firmeza desses eleitorados. Entre os apoiadores de Caiado, 69,4% ainda admitem mudar de voto. Entre os de Zema, o índice chega a 80%.
Isso significa que a disputa no campo conservador está longe de resolvida. Há voto disponível, mas ainda sem travamento definitivo. Para Lula, esse quadro tem duas leituras possíveis. A primeira é positiva: a fragmentação adversária dificulta a formação de uma maioria estável já no primeiro turno. A segunda é mais arriscada: uma eventual convergência mais adiante pode reduzir rapidamente a vantagem hoje observada.
É no segundo turno que a pesquisa ganha maior densidade política. Contra Flávio Bolsonaro, Lula marca 45,5%, e o adversário, 45,8%. A diferença de 0,3 ponto percentual configura empate técnico dentro da margem de erro. Contra Caiado, Lula vence por 45% a 39%. Contra Zema, a vantagem é de 44,7% a 38,7%. Diante de Renan Santos e Aldo Rebelo, a distância cresce ainda mais.
Gráfico comparativo do 2º turno mostra empate com Flávio Bolsonaro e vantagem dos adversários sobre outros candidatos. | Fonte: Pesquisa Meio/Ideia de abril de 2026
A leitura é objetiva. O nome que hoje apresenta maior potência eleitoral contra Lula é Flávio Bolsonaro. Não porque tenha o eleitorado mais sólido, mas porque já ocupa o ponto de maior eficiência na transferência do campo bolsonarista para um cenário competitivo. Ao mesmo tempo, a alta volatilidade do seu apoio indica que esse desempenho ainda pode crescer ou encolher de forma relevante.
A pesquisa também ajuda a entender o humor material do eleitor. Sete em cada dez brasileiros afirmam que o custo de vida aumentou no último ano. Quatro em cada dez dizem estar mais endividados. E 74,7% classificam custo de vida e endividamento como temas muito importantes ou importantes na hora de votar.
Avaliação do governo Lula: 70,4% dos entrevistados percebem aumento no custo de vida, 40% sentem maior endividamento, e 74,7% consideram esses temas importantes na decisão de voto. | Fonte: Pesquisa Meio/Ideia de abril de 2026
Esse bloco de dados dialoga diretamente com a avaliação do governo. Na medição geral, Lula soma 46,4% de ruim ou péssimo, contra 32,2% de ótimo ou bom. Na economia, o saldo negativo também é superior ao positivo. Na segurança pública, a diferença piora e o governo registra seu pior desempenho setorial, com 53,9% de ruim ou péssimo.
Avaliação do governo: segurança pública recebe a pior avaliação, com 53,9% considerando ruim/péssimo, enquanto a economia tem 44,6% de avaliação negativa e a geral 46,4%. | Fonte: Pesquisa Meio/Ideia de abril de 2026
Em uma eleição nacional, percepção econômica e sensação de ordem cotidiana costumam funcionar como chaves de decisão tardia. Quando mais da metade do eleitorado declara que ainda pode mudar de voto, essas variáveis ganham peso adicional. Não se trata apenas de rejeição ideológica ou identidade partidária. Trata-se de custo de vida, dívida e sensação de perda de controle sobre a rotina.
Outro aspecto relevante do levantamento é a presença de temas institucionais no imaginário do eleitor. Para 42,5% dos entrevistados, a maior ameaça à democracia brasileira hoje é a concentração de poder no Judiciário. O índice supera com folga a corrupção dos políticos, a polarização, a desinformação e a influência estrangeira nas eleições.
Para os entrevistados, a principal ameaça à democracia é o "Poder no Judiciário", com 42,5%, seguido pela "Corrupção dos políticos" com 16,5%. | Fonte: Pesquisa Meio/Ideia de abril de 2026
Na pergunta sobre anistia após os atos de 8 de janeiro, 41% se dizem contra qualquer tipo de perdão. Mas a soma dos favoráveis chega a 53%, dividida entre anistia ampla, inclusive para Jair Bolsonaro e militares, e anistia restrita aos manifestantes, sem alcançar lideranças. O tema, portanto, não está resolvido socialmente. Ele segue aberto e pode ser mobilizado tanto pelo campo conservador quanto por setores que apostam no discurso de pacificação.
Esses números sugerem que a eleição de 2026 não será decidida apenas entre economia e rejeição partidária. Haverá também uma disputa de narrativa sobre sistema de Justiça, limites institucionais, memória do 8 de janeiro e legitimidade da mediação internacional sobre o processo eleitoral.
A pesquisa oferece três conclusões firmes. A primeira é que Lula continua competitivo e lidera o primeiro turno estimulado. A segunda é que Flávio Bolsonaro, hoje, é o adversário mais forte para um eventual segundo turno. A terceira é que a maioria do eleitorado ainda não fechou posição.
Mas há também limites claros. Pesquisa é fotografia, não roteiro definitivo. O levantamento capta um momento em que o cardápio de candidaturas ficou mais nítido, mas ainda não entrou na fase mais intensa de campanha, alianças, exposição publicitária, debates e eventual deslocamento de apoios regionais. Em outras palavras, o cenário está menos nebuloso do que no começo do ano, mas segue longe de uma consolidação.
A implicação política é evidente. Lula chega ao meio do primeiro semestre com vantagem competitiva, porém sem margem para acomodação. A direita, por sua vez, já tem um nome capaz de ameaçar o presidente, mas ainda depende de coesão, disciplina e retenção de voto para transformar potencial em maioria.
A pesquisa Meio/Ideia ouviu 1.500 pessoas entre 3 e 7 de abril de 2026, com margem de erro de 2,5 pontos percentuais e intervalo de confiança de 95%. O levantamento está registrado no Tribunal Superior Eleitoral sob o protocolo BR-00605/2026-BRASIL.
O retrato de abril deixa um diagnóstico central: a eleição presidencial de 2026 está aberta porque o eleitor está aberto. E, quando o eleitor ainda não travou sua decisão, a campanha deixa de ser apenas disputa entre nomes e passa a ser uma guerra por sensação de segurança, memória política, autoridade institucional e capacidade de falar ao bolso.
O estopim — O começo da notícia!
Acesse o nosso perfil no Instagram e veja essa e outras notícias: @oestopim_ & @muira.ubi
Raul Silva é jornalista e produtor de conteúdo de O estopim. Atua na cobertura de política, eleições, dados públicos e temas de interesse coletivo.
Corte eleitoral muda a presidência a partir de junho e deve enfrentar debates sobre elegibilidade, IA e fiscalização de conteúdos nas eleições deste ano.
Imagem: Reprodução
O Tribunal Superior Eleitoral (TSE) terá novo comando a partir de junho, com mudanças na presidência e na composição da corte responsável por conduzir as eleições de 2026. Segundo análise publicada pelo G1, o tribunal chega ao ano eleitoral com desafios ligados às mudanças na Lei da Ficha Limpa e à fiscalização de conteúdos produzidos com inteligência artificial.
A partir de junho, o ministro Kassio Nunes Marques assumirá a presidência do TSE no lugar de Cármen Lúcia, enquanto André Mendonça ficará com a vice-presidência. A composição também contará com Dias Toffoli na terceira vaga destinada ao Supremo Tribunal Federal. Será a primeira vez que dois ministros indicados pelo ex-presidente Jair Bolsonaro ao STF estarão, ao mesmo tempo, à frente da Corte Eleitoral.
O TSE é composto por sete ministros: três do STF, dois do STJ e dois juristas nomeados pelo presidente da República a partir de listas indicadas pelo Supremo, além de ministros substitutos. A função da corte é organizar e supervisionar as eleições, julgar ações eleitorais, analisar prestações de contas e aplicar as regras da propaganda política.
Entre os principais temas que devem pressionar o tribunal em 2026 está a aplicação das mudanças na Lei da Ficha Limpa, alterada em 2025. Segundo especialistas ouvidos pelo G1, a nova regra pode abrir espaço para que nomes antes considerados inelegíveis tentem registrar candidatura, o que tende a ampliar disputas judiciais sobre elegibilidade.
Outro ponto sensível será o uso de inteligência artificial na campanha. As regras aprovadas para as eleições de 2026 ampliaram a regulação sobre o tema e passaram a proibir a circulação de conteúdos produzidos por IA nas 72 horas anteriores ao pleito e nas 24 horas posteriores à votação. A avaliação de especialistas é que o maior desafio será a capacidade de monitoramento e resposta rápida durante o curto período oficial de campanha.
O perfil da nova composição também deve influenciar a atuação da corte. Declarações recentes de Kassio Nunes Marques e André Mendonça indicam uma postura menos expansiva do que a adotada em 2022, quando o TSE, sob presidência de Alexandre de Moraes, respondeu de forma mais direta a fake news, ataques às urnas e tentativas de interferência no processo eleitoral.
Entre os ministros que comporão a corte em 2026 estão, pelo STF, Kassio Nunes Marques, André Mendonça e Dias Toffoli; pelo STJ, Antônio Carlos Ferreira, Ricardo Villas Bôas Cueva e, a partir de setembro, Sebastião Reis; além dos juristas Floriano de Azevedo Marques Neto e Estela Aranha.
Com nova presidência, novas regras e maior pressão sobre temas como IA, inelegibilidade e crime organizado, a atuação do TSE deve ser um dos pontos mais observados do processo eleitoral brasileiro em 2026.
O estopim — O começo da notícia!
Acesse o nosso perfil no Instagram e veja essa e outras notícias: @oestopim_
A máquina de fake news do século XXI: Deepfakes crescem 830% no Brasil e ameaçam integridade Eleitoral em 2026
Geração de vídeos realistas por IA a custo zero, combinada com plataformas generativas, criou ferramentas perfeitas para fabricação de narrativas políticas falsas. Enquanto regulação avança, capacidade de detecção falha e beneficiários da desinformação lucram com impunidade.
Da Redação d`O estopim Tech | 10 de janeiro de 2026
Arte: Bruno Fonseca e Larissa Fernandes/Agência Pública
Em setembro de 2024, no bairro Monte Sinai em Manaus, moradores receberam em redes sociais uma publicação impactante: um trecho de telejornalismo do Jornal Nacional onde o apresentador William Bonner recomendava voto em um candidato local a vereador. O problema: o vídeo era totalmente falso, gerado por inteligência artificial.
Casos como esse multiplicam-se pelo Brasil. Entre 2024 e janeiro de 2026, deepfakes—conteúdos gerados ou manipulados por IA para substituir rostos, vozes e corpos em vídeos—cresceram 830% em um ano. Enquanto isso, ferramentas cada vez mais sofisticadas de geração de conteúdo sintético (como Sora do OpenAI e Veo 3 do Google) democratizaram a produção de desinformação: qualquer pessoa com um computador pode, em minutos, criar narrativas falsas hiperrealistas praticamente indistinguíveis da verdade.
A tecnologia que prometia eficiência tornou-se a arma mais refinada da desordem democrática. E enquanto o Estado responde com legislação, quem se beneficia da incapacidade de distinguir verdade de ficção gerada por máquina continua operando com impunidade.
830%: o crescimento vertiginoso da fraude digital
Em 2023, a Sumsub (empresa de verificação de identidade) publicou seu Identity Fraud Report, analisando 2 milhões de tentativas de fraude em 224 países. O Brasil apresentou um fenômeno singular: enquanto a América do Norte registrava aumento de 1.740% em deepfakes e a América Latina média de 410%, o Brasil disparava isoladamente com 830% de crescimento.
Contextualizando: enquanto a Espanha enfrentava o maior volume absoluto de deepfakes do mundo (um em cada dez ataques globais ocorre lá), o Brasil superava todos os demais países latino-americanos juntos em incidentes dessa natureza.
Mais recente ainda: entre 2023 e 2024, deepfakes envolvendo abuso infantil explodiram de 4,7 mil para 67 mil casos—um aumento de 1.325%. Crianças reais tiveram seus rostos inseridos em conteúdo sexual gerado por IA. Em escolas brasileiras, pelo menos 16 casos de deepfakes sexuais foram identificados em 10 estados entre 2024 e 2025.
Mas os números mais perturbadores não estão apenas em estatísticas globais. Estão em operações do crime organizado. Um grupo com 46 mil membros no Brasil foi mapeado em 2024 comercializando deepfakes de celebridades brasileiras por valores entre R$ 19,90 e R$ 25—industrializando a criação de desinformação.
Google Veo 3, a IA de vídeos da Google | Foto: Divulgação Google
De ferramentas de entretenimento a armas políticas
Até 2023, deepfakes eram principalmente curiosidade: vídeos de celebridades em situações absurdas, montagens humorísticas. A técnica era complexa, cara e necessitava de expertise. Mudou drasticamente quando OpenAI, Google, Meta e outras gigantes lançaram ferramentas de geração de vídeo acessíveis, baratas ou gratuitas.
Em dezembro de 2024, OpenAI anunciou Sora, um modelo capaz de gerar vídeos com até um minuto de duração, com qualidade cinematográfica, a partir de um texto simples. Praticamente simultâneo, Google lançou Veo 3. Essas ferramentas não demandam conhecimento de programação. Um clique, um prompt em linguagem natural, e em minutos: um vídeo fake pronto para viralizar.
A democratização da desinformação ocorreu em velocidade exponencial.
Durante as eleições municipais de 2024 no Brasil, o Observatório IA Nas Eleições—parceria entre Data Privacy Brasil, Aláfia Lab e Desinformante mapeou 78 casos de materiais confirmados ou alegadamente criados por meio de IA. Mas esse número subestima a realidade.
Casos emblemáticos:
Em São Paulo, o candidato Pablo Marçal (PRTB) postou uma deepfake sem sinalizar o uso de IA, como exige a resolução do TSE. No vídeo, um rosto é trocado pelo de Marçal e a pessoa assopra pó branco uma referência a acusações infundadas contra rival.
Em Salvador, o prefeito reeleito Bruno Reis (União) postou vídeos nos quais seu rosto é adicionado ao corpo de um homem que dança o jingle da campanha. No Instagram, veio com aviso "feito com IA." No TikTok, nenhuma advertência.
Em Manaus, como mencionado, William Bonner apareceu em deepfake recomendando voto em vereador.
Havia ainda deepnudes imagens com teor sexual gerado por IA. Candidatas em Rio de Janeiro e Bauru (SP) registraram boletins de ocorrência após serem alvo de deepfakes pornográficos postados em redes sociais e sites de conteúdo adulto.
Google, Meta e a perversão da "IA Democrática"
Enquanto candidatos usavam IA para criar conteúdo falso, as próprias gigantes de tecnologia continuavam alimentando a máquina de desinformação.
Em setembro de 2024, o Jornal da Paraíba revelou que o Gemini, IA do Google, continuava fornecendo informações sobre candidatos à prefeitura de João Pessoa, apesar das promessas públicas do Google em restringir respostas políticas pela ferramenta.
O Gemini também havia gerado informações sobre candidatos à prefeitura de São Paulo: Ricardo Nudes (MDB), Pablo Marçal (PRTB), José Luiz Datena (PSDB) e Marina Helena (Novo).
A Meta, por sua vez, usou chatbots e algoritmos de recomendação que amplificavam conteúdo desinformativo. Enquanto isso, investigadores sugerem que a empresa monitora remoção de conteúdo de forma lenta e defasada, deixando deepfakes circularem por horas ou dias antes de ação.
O padrão é claro: essas plataformas ganham com desinformação (quanto mais polêmica, mais engajamento; quanto mais engagement, mais publicidade vendida), enquanto externamente celebram investimentos em "segurança eleitoral."
Regulação das Redes Sociais e Big Techs | Foto: Reprodução
A regulação que não consegue acompanhar a tecnologia
Reconhecendo o risco, o Tribunal Superior Eleitoral (TSE) editou a Resolução nº 23.732/2024, que alterou regulações de propaganda eleitoral.
As principais inovações:
Proibição absoluta de deepfakes usados em propaganda eleitoral
Obrigação de aviso explícito quando qualquer conteúdo sintético é usado
Responsabilização de big techs: plataformas que não removem conteúdo desinformativo "imediatamente" podem sofrer sanções
Criação de repositório de decisões do TSE para agilizar processos de remoção
O presidente do TSE, ministro Alexandre de Moraes, chamou a resolução de "uma das normas mais modernas do mundo" com relação ao combate a desinformação.
Mas a realidade jurídica revelou-se complexa. Um estudo do Instituto de Direito Público (IDP), em parceria com Ethics4AI e Mackenzie, analisou 56 decisões de Tribunais Regionais Eleitorais envolvendo possíveis deepfakes. O achado alarmante: em 25% dos casos, os juízes nem consideraram que se tratava de conteúdo eleitoral.
Juízes, frequentemente sem expertise em tecnologia, classificavam conteúdos desinformativos como "discurso político legítimo"—não como fraude eleitoral.
Além disso, a Resolução TSE funciona primordialmente para conteúdo visível em plataformas públicas. Mas a maioria dos deepfakes circula em grupos privados de WhatsApp, Telegram e Discord—ambientes onde moderação é praticamente inexistente e plataformas argumentam não ter responsabilidade.
O PL 2338: ambição regulatória encontra realidade tecnológica
Em paralelo, o Projeto de Lei 2338/2023 (Marco Legal da IA) foi aprovado pelo Senado e tramita na Câmara dos Deputados.
O PL segue modelo similar ao AI Act da União Europeia, classificando sistemas de IA em níveis de risco: excessivo (proibido), alto (requisitos rigorosos), médio e baixo.
Especificamente para deepfakes, o PL inclui proteção contra deepfakes de imagens íntimas não consentidas, responsabilidade de desenvolvedores de sistemas de IA, e cláusulas de proteção à liberdade de expressão (sátira e paródia permanecem).
Mas há problema crítico: o PL responsabiliza desenvolvedores de IA, não usuários ou distribuidores. Um criminoso que baixa um programa gratuito de deepfake, cria conteúdo falso e o distribui não é diretamente responsabilizado.
É como responsabilizar fabricantes de faca por crimes de faca—útil em alguns casos, insuficiente em outros.
Além disso, o PL ainda não foi aprovado. A lacuna regulatória permanece aberta enquanto tecnologias evoluem.
Marco Legal da IA: o texto aprovado pelo Senado traz impactos relevantes para os agentes de IA, principalmente para aqueles que desenvolvam ou utilizem as tecnologias classificadas como de alto risco (Arte: TUTU)
Detecção vs. Geração: uma corrida que a defesa está perdendo
Aqui emerge um paradoxo fundamental: a mesma tecnologia que permite criar deepfakes é usada para detectá-los.
No Brasil, laboratórios como o recod.ai da Unicamp (200 pesquisadores no campus, 350 colaboradores globais) desenvolvem algoritmos que analisam pistas invisíveis ao olho humano—iluminação, sombras, textura da pele, ruídos digitais—para diferenciar vídeos reais de sintéticos.
O coordenador do recod.ai, Anderson Rocha, descreve uma "corrida de gato e rato": conforme pesquisadores criam detector novo, outro grupo cria gerador melhor para escapar da detecção.
O problema é assimétrico: criadores de deepfakes demandam minutos. Detectores demandam análise longa. Distribuidores de conteúdo não têm incentivo para fazer análise automaticamente.
Além disso, modelos de detecção frequentemente falham com diversidade. Se treinados principalmente com rostos brancos e jovens, falham detectando deepfakes de pessoas mais velhas ou de outras etnias.
Instituições públicas como TSE, STF e Polícia Federal têm ferramentas de detecção, mas com capacidade limitada, especialmente para conteúdo em ambientes privados.
O Mercado Criminoso da Desinformação: quem lucra?
A comercialização de deepfakes alcançou escala industrial. Um grupo com 46 mil membros—mapeado pela SaferNet em 2024—vendia deepfakes de celebridades brasileiras por preços acessíveis.
Esses grupos operam em Dark Web, Telegram e plataformas criptografadas.
Mas quem lucra mais não são microempreendedores de deepfakes. São:
Big Techs: Google, Meta, Amazon e Microsoft lucram com publicidade enquanto plataformas amplificam conteúdo desinformativo. Algoritmos são otimizados para engajamento, não para verdade. Desinformação gera mais engajamento.
Candidatos e partidos políticos: 85 candidatos declararam gastos com empresas que fornecem conteúdos gerados por IA, sendo que ao menos 38 publicaram conteúdos sintéticos sem avisar ao eleitor.
Criminosos organizados: Fraudes por deepfake crescem. Golpistas usam áudio de CEO para convencer funcionário a fazer transferência bancária. Usam rostos falsos para abrir contas em fintechs. Entre janeiro e julho de 2025, 1,242 milhão de tentativas de fraude por deepfake foram registradas só na Serasa Experian.
Atores geopolíticos: Análise de especialistas sugere que agências de inteligência estrangeira experimentam com deepfakes em eleições de países rivais.
Quem NÃO lucra: democracia, confiança pública, eleitores que votam baseados em informações falsas.
Um especialista em cibersegurança alertou: "A probabilidade de um criminoso digital sendo pego ainda é baixa. É muito mais vantajoso para um cibercriminoso estando no Brasil cometer crimes, inclusive fora do país."
Regular as Redes e Big Techs é preciso | Ilustração: Paula Villar
A incerteza jurídica como campo fértil para Desinformação
Um fenômeno paralelo ocorre nas cortes: disputas judiciais sobre responsabilidade de plataformas deixam vácuo temporal onde desinformação prospera sem risco significativo de remoção.
Em 2024, o Supremo Tribunal Federal declarou o artigo 19 do Marco Civil da Internet parcialmente inconstitucional, aumentando responsabilidade de plataformas por conteúdo de terceiros.
Mas houve oito embargos de declaração (recursos judiciais). A incerteza jurídica resultante significa que big techs não fazem investimentos robustos em moderação, argumentando estar à espera de clareza legal.
Esse "compasso de espera favorece justamente aqueles que se beneficiam da disseminação de desinformação."
Para 2026, quando ocorrem eleições presidenciais, essa incerteza jurídica é particularmente danosa. Especialistas temem que deepfakes se proliferem ainda mais porque nem plataformas nem autoridades têm linhas claras de ação.
2026: o laboratório eleitoral aprimorado
As eleições municipais de 2024 foram chamadas de "laboratório" por especialistas.
Os testes indicaram: (1) deepfakes funcionam para manipular narrativas; (2) regulação TSE tem lacunas; (3) detecção é insuficiente; (4) distribuição em apps privados é incontrolável; (5) população tem dificuldade em identificar conteúdo falso.
Para 2026, o cenário é mais ameaçador. Presidenciais implicam apostas mais altas. Polarização é extrema. Tecnologia evoluiu (Sora, Veo 3). Criminosos têm 16 meses para aprimorar técnicas.
Um relatório da R7 em dezembro de 2025 alertou: "Ataques com deepfake crescem 126% em 2025; materiais gerados por IA forjam rostos, vozes e vídeos."
O especialista Antônio Netto enfatizou: "O deepfake tem potencial de convencimento muito maior que conteúdo genérico IA. Um vídeo alterado para colocar palavras na boca de um político é exatamente o que deepfake se propõe fazer: simular realidade e potencialmente enganar."
Caminho das Fake News — Foto: Wagner Magalhães/g1
A verdade como Produto Raro
A raiz do problema não está na tecnologia. Está na economia política da desinformação.
Quem se beneficia quando população não consegue distinguir verdade? Narrativa política conveniente mas falsa. Candidato cuja mensagem é ampliada mesmo sendo desinformativa. Plataforma que lucra com cliques de conteúdo polarizador. Ator geopolítico que quer desestabilizar democracia rival.
Para todos esses agentes, verdade é custo, não benefício.
Um pesquisador da área resumiu: "Modelos de negócio de redes sociais instrumentalizam emoções. Verdade é chata. Falsidade sensacionalista vira viral."
A solução proposta por educadores é "letramento em IA"—ensinar população a reconhecer sinais de síntese. Mas isso é trabalho de longa duração (anos), e tecnologia evolui em meses.
Enquanto isso, desinformação não espera por alfabetização. Ela se propaga, influencia voto, corrói confiança em instituições.
Iniciativas de contra-ataque: Unicamp, TSE e limites da resistência
Não há inação completa. A Unicamp criou ferramentas usadas pela Polícia Federal para detectar pornografia infantil. O TRE-GO desenvolveu GuaIA, um projeto de IA para monitorar automaticamente desinformação em redes sociais sobre eleições estaduais.
A UERJ e UNICAMP desenvolveram Vota AI, ferramenta que analisa programas de governo (ao menos 60 mil).
Mas iniciativas acadêmicas e judiciais enfrentam desafios:
Recursos limitados: Universidades e cortes eleitorais têm orçamentos reduzidos comparado ao investimento de big techs
Velocidade da evolução: Modelo de detecção de 2024 pode ser obsoleto em 2025
Ambientes privados: Ferramentas funcionam em conteúdo público; WhatsApp, Telegram e Discord são praticamente invulneráveis
Expertise limitada: Número reduzido de especialistas em deepfake detection no Brasil
Iniciativa traz vídeos, textos e áudios com conteúdos elaborados por professores e equipe de reportagem (imagem: divulgação)
A arquitetura da impunidade
A máquina de fake news do século XXI não existe por acaso. É produto de:
Incentivos perversos: Plataformas lucram com engajamento, não com verdade
Lacunas regulatórias: Lei atrasa tecnologia; criminalidade avança
Ambientes incontroláveis: Mensageria privada escapa de moderação
Assimetria de poder: Criadores de deepfakes operam rapidamente; detectores são lentos
Beneficiários: Candidatos, plataformas, criminosos, atores geopolíticos—todos ganham quando democracia desconfiar de sua própria vista
A pergunta que fica para 2026 é: conseguirá o Brasil estabelecer defesa robusta contra desinformação sintetizada antes que eleição presidencial seja contaminada por narrativas indistinguíveis de realidade?
Ou continuaremos em um mundo onde a verdade é privada de quem pode produzir ficção convincente a custo zero?
Essa não é mais questão tecnológica. É questão política.