O Xadrez das Big Techs
Quando o algoritmo se torna a principal arma das autocracias
O debate contemporâneo sobre a crise democrática concentra-se excessivamente em uma narrativa sedutora, porém incompleta, de que as Big Techs são as vilãs principais contra as democracias. Algoritmos que maximizam engajamento, modelos de negócio baseados em vigilância, amplificação de conteúdo divisivo - todos esses elementos compõem o repertório crítico dominante.
Essa visão, embora contenha verdades importantes, comete um erro estratégico fundamental, tratando as plataformas digitais primariamente como atores corporativos irresponsáveis, cujas práticas negligentes acontecem por prejudicar a democracia, quando a realidade mais perigosa e estranhamente esquecida nos debates é que essas mesmas plataformas foram transformadas no teatro de operações preferencial de uma guerra híbrida conduzida por regimes tirânicos contra sociedades democráticas.
A distinção é a seguinte: para as Big Techs, a desinformação pode ser uma externalidade indesejada de seu modelo de negócios; para autocracias organizadas em uma “cooperação internacional”, ela constitui uma doutrina de Estado — uma ferramenta central de poder geopolítico.
Enquanto democracias debatem políticas de moderação de conteúdo e remédios antitruste, Rússia, China, Irã e uma rede crescente de regimes autoritários profissionalizaram a weaponização dessas plataformas, transformando a abertura característica das sociedades liberais em sua vulnerabilidade mais explorada.
Em 2024, verificamos mais de 45.000 incidentes de coordenação entre governos e partidos autoritários, incluindo parcerias de mídia estratégicas e reuniões ministeriais de alto nível. (1)
Em 2025, 45 países registraram movimento mensurável de afastamento da democracia em direção à autocracia. Atualmente, governos no espectro autoritário representam mais de 70% da população mundial e controlam 46% do PIB global. Esses representam uma massa de poder econômico, militar e tecnológico mobilizada deliberadamente contra a arquitetura da democracia liberal. (4)
A verdadeira ameaça à democracia não reside apenas no fato de as plataformas lucrarem com engajamento, mas na maestria com que regimes autoritários sequestraram essas infraestruturas para subverter a soberania popular.
A questão fundamental não é simplesmente “como as Big Techs ameaçam a democracia?”, mas sim: “como as autocracias usam as Big Techs para nos dividir?”
Precisamos entender que o algoritmo é apenas a arma; o atirador é o Estado autocrático (em alguns casos do Estado cujo regime está entrando em transição autocratizante - mas neste artigo não vamos tratar do tema, conquanto ele seja de vital importância como estamos vendo com os EUA sob o segundo governo Trump).
E esse atirador está se tornando progressivamente mais organizado, mais sofisticado, e mais efetivo.
A instrumentalização estratégica da infraestrutura digital
A transformação das redes sociais de condutas neutras em agentes de estratégia geopolítica representa uma das mais significativas evoluções táticas do século XXI. Essa mudança é operacional, documentada e deliberada.
Em setembro de 2025, três dos autocratas mais proeminentes do mundo, Xi Jinping, Kim Jong-un e Vladimir Putin, reuniram-se em Pequim para consolidar uma rede de cooperação econômica, militar e de segurança que projeta desafio explícito às normas liberais internacionais.
Essa cooperação não permanece confinada aos territórios autocráticos mas estende sua influência diretamente para arenas democráticas, corroendo a transparência e pluralismo através das mesmas plataformas digitais que conectam sociedades livres.
Enquanto sociedades democráticas permaneceram preocupadas, de forma legítima, com questões de privacidade, proteção de dados e accountability corporativa, regimes autoritários reconheceram essas plataformas como multiplicadores de força para competição geopolítica.
A diferença operacional é um abismo. Enquanto democracias tratam plataformas digitais como desafios regulatórios, as autocracias as tratam como infraestrutura bélica.
A demonstração paradigmática dessa instrumentalização veio da Internet Research Agency (IRA), uma organização envolvida em operações durante a eleição presidencial americana de 2016. (2)
Não foi trolling aleatório ou discurso político orgânico, mas uma operação coordenada, financiada pelo Estado Russo, empregando centenas de operativos através de múltiplos fusos horários, criando milhares de contas falsas, gerando conteúdo original projetado para inflamar tensões raciais e políticas, e gastando milhões em publicidade direcionada.
O Relatório Mueller documentou meticulosamente como a Internet Research Agency organizou comícios presenciais reais, personificou organizações políticas americanas e criou sistemas elaborados de gerenciamento de personas para construir perfis credivelmente autênticos ao longo de meses e até anos.
A sofisticação dessas operações é sistematicamente subestimada. Operativos russos não simplesmente postaram propaganda grosseira; estudaram divisões culturais americanas, testaram estratégias de mensagem através de testes A/B, construíram comunidades online autenticamente aparentes, e exploraram cada característica da arquitetura de plataforma — das ferramentas de publicidade do Facebook aos algoritmos de trending topics do Twitter até as capacidades de storytelling visual do Instagram.
Eles compreenderam esses sistemas melhor do que as empresas que os construíram compreendiam como poderiam ser instrumentalizados.
Diferentemente do que ocorria na primeira Guerra Fria — quando blocos ideológicos operavam em esferas relativamente separadas —, essa nova rede autoritária opera de forma coordenada e suas atividades se reforçam mutuamente através de aprendizado compartilhado e coordenação estratégica.
O perigo real emerge quando a infraestrutura tecnológica das Big Techs é simultaneamente utilizada para normalizar repressão em contextos domésticos e exportar caos para democracias, diluindo a responsabilidade estatal através de operações de influência que parecem orgânicas, mas são profissionalmente orquestradas.
A guerra híbrida de exaustão cognitiva
A assimetria no coração desse desafio é profunda e frequentemente não reconhecida. Sociedades democráticas operam sob constrangimentos que regimes autoritários exploram implacavelmente. Enquanto democracias devem balancear regulação de plataformas com proteções de liberdade de expressão, respeitar devido processo em moderação de conteúdo, e manter transparência sobre envolvimento governamental em espaços informacionais, autocracias não enfrentam tais limitações.
Existe uma assimetria evidente aqui, enquanto sociedades abertas tentam mitigar danos internos respeitando direitos individuais, regimes como os da Rússia e Irã profissionalizaram “fazendas de trolls” e operações de influência coordenadas para distorcer o debate público e influenciar eleições em países como França, Moldávia, Romênia, EUA, entre outros.
Essas são operações de guerra informacional funcionando com trabalho em turnos, quotas de produção, métricas de performance e papéis especializados. Alguns focam na criação inicial de conteúdo, outros em amplificação, e outros em engajar-se com usuários genuínos para atraí-los para conversações divisivas.
Eles estudam analytics de plataforma, testam mensagens iterativamente e refinam abordagens baseadas em dados de engajamento. Isso é guerra informacional conduzida com organização de estilo militar.
A abordagem russa, articulada por estrategistas na tradição de Vladislav Surkov, não busca primariamente convencer audiências de uma verdade particular, mas criar uma névoa de narrativas competidoras na qual a própria verdade torna-se irrelevante.
A tática é saturar o debate público com versões contraditórias, inundar a zona com informação paradoxal, teorias conspiratórias e explicações alternativas até que cidadãos percam a capacidade de distinguir fato de ficção e, crucialmente, percam fé na própria possibilidade de conhecer a verdade.
Operações como a “Doppelgänger”, exposta inicialmente em 2022 mas persistindo com variações desde então, demonstram essa estratégia perfeitamente. Russos clonaram sites de grandes veículos de imprensa europeus, replicando seu exato design, logo e layout para circular desinformação pró-Kremlin que parecia vir de fontes respeitáveis. (5)
O objetivo era gerar dúvida suficiente de que nenhuma conclusão definitiva pudesse se estabelecer na consciência pública.
Essa estratégia foi visível no rescaldo da derrubada do voo MH17 da Malaysia Airlines sobre a Ucrânia em 2014. A mídia estatal russa e operações em redes sociais não estabeleceram uma única explicação alternativa mas promoveram múltiplas teorias contraditórias simultaneamente: 1. que foi abatido por forças ucranianas, 2. que foi uma operação CIA, 3. que as vítimas eram corpos já mortos encenados para efeito de propaganda.
A meta não era tornar qualquer história singular crível, mas criar dúvida suficiente de que nenhuma conclusão definitiva pudesse prevalecer.
O Irã similarmente profissionalizou suas operações informacionais. Em 2018, Facebook e Twitter removeram centenas de contas vinculadas à mídia estatal iraniana que passaram anos construindo audiências, posando como veículos noticiosos independentes, páginas culturais e comentaristas políticos.
Essas operações não visavam apenas dissidentes iranianos no exterior, mas também debates políticos americanos, britânicos e latino-americanos. O fio comum era usar a infraestrutura de plataformas abertas para injetar narrativas cuidadosamente elaboradas, projetadas para amplificar linhas de falha existentes.
O objetivo dessas operações estende-se além de campanhas individuais. Elas buscam deslegitimar processos eleitorais em si, paralisar tomada de decisão criando controvérsia perpétua sobre fatos básicos, e fomentar o cinismo generalizado no qual cidadãos acreditam que todos atores políticos são igualmente corruptos e toda informação é igualmente suspeita. Quando nada é verdadeiro, tudo é possível, e a governança democrática torna-se impossível.
Essa é a guerra híbrida de exaustão: não conquistar território, mas exaurir a capacidade cognitiva de sociedades abertas de funcionar como democracias.
Rede de cooperação autoritária
A análise contemporânea deve reconhecer que autocracias modernas não operam isoladamente, elas já formam uma “rede de cooperação” caracterizada por colaboração estratégica, aprendizado compartilhado e suporte mútuo. Essa rede não possui a estrutura formal de alianças militares tradicionais, mas suas atividades se reforçam mutuamente de maneiras que tornam o retrocesso democrático globalmente mais difícil de combater.
Os mais de 45.000 incidentes de coordenação das autocracias documentados em 2024 (1) não representam eventos isolados, mas um padrão sistemático com parcerias de mídia que amplificam narrativas autoritárias através de fronteiras, reuniões ministeriais de alto nível coordenando políticas de segurança digital, compartilhamento de tecnologias de vigilância e controle social, e apoio diplomático mútuo em fóruns internacionais para bloquear normas democráticas.
Essa cooperação estende a influência autoritária para arenas democráticas através de múltiplos vetores. Redes de mídia estatal como Russia Today, CGTN chinesa, Press TV iraniana, não apenas transmitem propaganda doméstica, mas coordenam narrativas que exploram divisões em sociedades abertas.
Quando protestos eclodem em democracias ocidentais, essas redes amplificam interpretações que retratam instituições democráticas como fundamentalmente hipócritas ou falidas para corroer confiança nas próprias possibilidades democráticas.
A rede opera também através de canais econômicos. Investimento estratégico chinês através da Belt and Road Initiative frequentemente vem acompanhado de acordos que dão ao governo chinês influência sobre infraestrutura de comunicação em países receptores. Empréstimos russos para partidos políticos europeus contrários à UE criam dependências que se traduzem em apoio político. Treinamento em técnicas de controle social e supressão de dissidência é compartilhado entre autocracias, criando um repositório comum de táticas repressivas.
Essa rede de cooperação autoritária utiliza as próprias instituições e liberdades democráticas como vetores de ataque. Liberdade de expressão permite que operações de influência operem abertamente até serem detectadas. Processos judiciais transparentes demoram para remover conteúdo malicioso. Mercados abertos permitem que plataformas subordinadas a regimes autoritários compitam livremente. Normas diplomáticas de não-interferência são invocadas por autocracias mesmo enquanto interferem massivamente em processos democráticos de outros países.
O fato de que governos autoritários agora representam mais de 70% da população mundial e controlam 46% do PIB global representa capacidade material massiva para sustentar essa rede iliberal. Esse poder econômico financia operações de influência, desenvolve tecnologias de controle, compra acesso político e cria dependências que tornam democracias relutantes em confrontar comportamento autoritário.
Quando plataforma e estado são indistinguíveis
Se operações russas e iranianas representam a instrumentalização de plataformas ocidentais, plataformas chinesas representam algo qualitativamente diferente e potencialmente mais ameaçador: a integração completa de infraestrutura de plataforma com inteligência estatal e objetivos estratégicos.
Aqui, a distinção entre meio e agente colapsa completamente.
A Lei de Inteligência Nacional de 2017 da República Popular da China é uma obrigação legal respaldada pelo poder completo do Estado chinês. A lei requer que todas organizações e cidadãos “apoiem, assistam e cooperem com trabalho de inteligência estatal.” (6)
Para empresas como ByteDance (proprietária do TikTok), Tencent e Alibaba, não existe distinção significativa entre coleta de dados corporativa e potencial acesso estatal a esses dados. A questão não é se o governo chinês pode acessar dados de usuários dessas plataformas, mas quando e como ele escolhe fazê-lo.
Isso cria um cenário competitivo fundamentalmente diferente. Plataformas ocidentais, quaisquer que sejam suas falhas, operam como entidades privadas frequentemente em tensão com seus próprios governos. Apple lutou contra o FBI sobre backdoors de encriptação. Meta resistiu a pedidos governamentais de dados. Twitter (antes de sua aquisição) regularmente litigou contra ordens de vigilância.
Essas empresas podem ter práticas de negócio problemáticas, mas não são extensões de poder estatal (ainda - mas esse é um assunto que poderemos tratar mais adiante). Existe separação — imperfeita, contestada, mas real — entre autoridade corporativa e autoridade governamental.
Plataformas chinesas existem dentro de um framework autoritário onde autonomia corporativa é sempre condicionada ao alinhamento com objetivos do Partido Comunista Chinês (PCC).
ByteDance pode ter acionistas não-chineses e operar globalmente, mas seus algoritmos, políticas de armazenamento de dados e curadoria de conteúdo são em última instância sujeitos a controle do PCC sob lei chinesa. Esse é o framework legal explícito dentro do qual essas empresas operam.
As implicações estendem-se além de privacidade de dados para questões de influência algorítmica. O extraordinário sucesso do TikTok reside parcialmente em seu sofisticado motor de recomendação, que mantém usuários engajados por horas aprendendo suas preferências com precisão desconcertante. Mas quem controla o que esse algoritmo otimiza? Na China, a versão doméstica da ByteDance (Douyin) ativamente promove conteúdo educacional e limita uso para menores. Versões globais maximizam engajamento sem tais guardrails. Isso não reflete diferenças documentadas em como a plataforma opera em diferentes ambientes regulatórios.
A preocupação estratégica não é que TikTok esteja sendo usado atualmente para propaganda óbvia, mas que infraestrutura para influência está sendo construída na dieta informacional de centenas de milhões de usuários globalmente, com potencial para essa influência ser ativada ou exercida sutilmente de maneiras difíceis de detectar. Isso representa competição não meramente sobre market share, mas sobre a arquitetura de fluxos informacionais globais.
Pequim também utiliza redes de associações da diáspora e mídia estatal para suprimir críticas no exterior e apoiar candidatos pró-China em países como Austrália e Taiwan.
Operações de influência chinesas na Austrália foram tão extensivas que levaram à legislação específica sobre interferência estrangeira. Em Taiwan, operações de influência digital chinesas tentam constantemente minar a confiança em instituições democráticas e promover candidatos favoráveis à unificação. Na arena digital, o fluxo de dados e curadoria algorítmica de plataformas chinesas são, por definição, extensões da estratégia do PCC. (3)
Nesse cenário, a competição tecnológica deixa de ser apenas comercial para se tornar uma questão de segurança nacional e sobrevivência civilizacional para o Ocidente.
A questão é sobre o reconhecimento de que plataformas operando sob controle autoritário representam vetores de influência estratégica fundamentalmente diferentes de plataformas operando sob jurisdição democrática.
Poder corporativo versus poder estatal: uma distinção fundamental
No meio da urgência necessária sobre ameaças autoritárias é fundamental não cometer o erro oposto de equiparar poder corporativo com poder estatal, eles são qualitativamente diferentes em maneiras que importam crucialmente para estratégia democrática.
O poder de uma corporação, por maior que seja, permanece fundamentalmente diferente do poder de um Estado tirano.
Nas Big Techs ocidentais, o uso é voluntário. Ninguém é obrigado a usar Facebook, Google ou Amazon. Cidadãos podem escolher alternativas, podem organizar boicotes, podem pressionar por regulação.
Empresas devem responder — imperfeitamente, muitas vezes inadequadamente, mas devem responder — à pressão pública, escrutínio regulatório e competição de mercado.
Elas não detêm o monopólio da violência legítima. Não podem prender dissidentes. Não controlam sistemas judiciais. Não comandam forças militares.
O Estado autocrático, em contraste, detém o monopólio da força e utiliza tecnologia não apenas para lucro mas para eliminar dissenso de forma definitiva. Quando o governo chinês usa tecnologia de reconhecimento facial para identificar e prender uigures em Xinjiang, isso não é análogo a Facebook vendendo dados de publicidade.
Quando a Rússia usa plataformas digitais para identificar e envenenar opositores políticos no exterior, isso não é comparável a práticas questionáveis de moderação de conteúdo.
Quando o Irã usa registros digitais para rastrear e executar manifestantes, isso não é equivalente a algoritmos amplificando desinformação.
A distinção importa estrategicamente porque afeta como as democracias devem alocar atenção e recursos. As corporações respondem a incentivos, podem ser reguladas, podem ser processadas, podem ser sujeitas a competição. Estados autoritários não respondem a petições de acionistas ou campanhas de relações públicas. Eles respondem apenas a poder econômico, diplomático, militar.
Isso não absolve as Big Techs de responsabilidade. Práticas corporativas que facilitam exploração autoritária, falta de transparência algorítmica, verificação inadequada de contas, enforcement lento contra coordenação inautêntica, devem ser confrontadas de forma contundente. Mas o framework para confrontá-las deve reconhecer que o objetivo final não é punir empresas, mas fortalecer resiliência democrática contra adversários estatais.
Quando focamos exclusivamente em poder corporativo enquanto ignoramos ação estatal autoritária, cometemos um erro crasso, tratando sintomas enquanto ignoramos patógenos.
Pior, corremos o risco de enfraquecer atores que, apesar de suas falhas, operam sob jurisdição democrática enquanto deixamos intocados atores que operam como instrumentos de regimes repressivos.
Regulação como defesa estratégica: além da proteção ao consumidor
O reconhecimento de que autocracias instrumentalizam plataformas contra democracia não absolve Big Tech de responsabilidade, mas deve fundamentalmente reorientar como democracias abordam regulação. O impulso regulatório atual frequentemente trata essas empresas primariamente como questões de proteção ao consumidor ou preocupações antitruste, quando a dimensão mais urgente é segurança nacional e resiliência democrática.
A regulação das redes sociais não pode ser tratada meramente como defesa do consumidor ou combate ao discurso de ódio, mas sim uma questão de defesa estratégica. Democracias precisam abandonar ingenuidade e exigir transparência total sobre algoritmos e rastreabilidade de financiamento estatal estrangeiro operando em suas redes.
Regulação efetiva deve proceder de avaliação clara do cenário de ameaças. Isso significa várias coisas:
Primeiro, requisitos de transparência devem focar não apenas em como plataformas lucram, mas em como podem ser exploradas por atores estatais. Transparência algorítmica é importante, mas também é rastreabilidade de comportamento inautêntico coordenado, divulgação de afiliações com mídia estatal, e rotulagem clara de conteúdo de fontes governamentais estrangeiras. O objetivo não deve ser censurar discurso, mas sim tornar visíveis operações de influência que precisam parecer orgânicas.
Segundo, frameworks regulatórios devem contabilizar a assimetria fundamental entre plataformas sujeitas a oversight democrático e aquelas operando como extensões de Estados autoritários. Uma abordagem regulatória que impõe custos pesados de compliance em plataformas ocidentais enquanto deixa plataformas chinesas livres para operar sob estruturas de governança opacas não protege a democracia — potencialmente a enfraquece direcionando usuários para plataformas menos sujeitas a accountability democrática.
O risco de regulação excessivamente punitiva apenas para empresas ocidentais é a criação de vácuo de poder. Se enfraquecermos demais plataformas que operam sob leis democráticas, esse espaço será preenchido por redes subordinadas a regimes autocráticos que não respondem a valores de pluralismo e abertura. A regulação deve portanto isolar fluxos financeiros ilícitos que abastecem cofres autoritários enquanto fortalece plataformas democráticas contra exploração.
Terceiro, regulação de plataforma deve ser acoplada a estratégias mais amplas para resiliência social: educação em literacia digital, suporte a jornalismo independente, pesquisa sobre operações de influência, e coordenação internacional entre democracias enfrentando ameaças similares. Plataformas são o terreno no qual a guerra informacional é conduzida, mas estratégia defensiva não pode focar exclusivamente em mudar o terreno sem endereçar adversários operando nele.
O padrão apropriado não é se regulação impõe custos a empresas, mas se aprimora a capacidade de sociedades democráticas de resistir à guerra informacional autoritária enquanto preserva expressão genuinamente livre. Isso requer sofisticação regulatória que democracias ainda não desenvolveram completamente — capacidade de distinguir discurso orgânico de operações de influência profissionalizadas, debate legítimo de desinformação coordenada por Estados, e competição comercial normal de competição geopolítica disfarçada.
A regulação deve ser livre de ingenuidade, reconhecendo que autocracias não jogarão com as mesmas regras e usarão cada abertura que as democracias permitem para destruí-las. Mas deve também evitar o erro oposto de resposta tão punitiva que enfraquecem democracias mais do que protegem. O objetivo é fortalecer instituições democráticas e capacidade de sociedades abertas funcionarem efetivamente, não criar versões imitativas de controles autoritários.
Problemas reais da Big Techs
Nada desta análise deve ser lido como defesa das práticas atuais das Big Techs. As preocupações que impulsionaram escrutínio regulatório são legítimas e sérias: amplificação algorítmica favorece conteúdo emocionalmente carregado sobre discussão sutil; modelos de negócio baseados em capitalismo de vigilância commodificam atenção humana de maneiras perturbadoras; consolidação de plataforma levanta preocupações anticompetitivas genuínas; moderação de conteúdo em escala global envolve trade offs difíceis que empresas frequentemente manejaram mal.
Mas reconhecer esses problemas é diferente de tratá-los como a ameaça primária à democracia. A distinção importa porque afeta prioridades estratégicas e design de soluções. Um framework que vê as Big Techs como vilão principal pode levar a soluções que endereçam comportamento corporativo enquanto deixam sociedades mais vulneráveis à guerra informacional autoritária.
Considere a diferença: quando algoritmos do Facebook amplificam conteúdo divisivo, isso é falha corporativa em alinhar incentivos com o bem social, endereçável através de regulação, pressão pública e inovação em modelo de negócio.
Quando o IRA da Rússia usa ferramentas como Facebook para organizar comícios armados de competidores no Texas — incidente documentado de 2016 — isso é operação de inteligência estrangeira explorando infraestrutura disponível. O primeiro é desafio regulatório; o segundo aproxima-se de ato de guerra.
A abordagem mais efetiva provavelmente envolve simultaneamente endereçar falhas de design de plataforma e defender contra sua exploração por atores autoritários. Mas o framing importa. Se a conversação permanece focada exclusivamente em poder das Big Techs e ignora maneiras como autocracias weaponizam esse poder, sociedades democráticas lutam a batalha errada enquanto perdem a guerra real.
O problema não é que críticas às Big Techs sejam inválidas, mas que quando tratadas como explicação completa para a crise democrática, elas obscurecem dinâmicas mais fundamentais. Algoritmos problemáticos são ferramentas; regimes autoritários os transformaram em armas. Práticas de negócio questionáveis criam vulnerabilidades; Estados autocráticos as exploram sistematicamente. Poder corporativo concentrado levanta preocupações legítimas; mas poder estatal tirânico representa ameaça categorialmente diferente.
Democracia como ecologia de dissensos
A democracia não é — e nunca foi — um sistema de produção de consenso. Ela é um modo pazeante de regulação de conflitos que opera dentro de uma ecologia de dissensos, onde oponentes permanecem oponentes mas não se tornam inimigos irreconciliáveis, onde competição política é intensa mas delimitada por regras compartilhadas, onde verdade factual permanece contestável, mas em última análise discernível através de instituições credíveis. (7)
As autocracias atacam precisamente essa capacidade de conviver com conflito pazeado. Ela usa o ambiente digital para transformar oponentes em inimigos existenciais, para fazer competição política parecer guerra total, para tornar verdade factual irrelevante através de saturação informacional, e para corroer confiança nas instituições que tornam a governança democrática possível.
O cenário atual é mais urgente do que muitas análises reconhecem. Em 2025, 45 países registraram movimento mensurável de afastamento de democracias em direção à autocracia. Esse declínio não é causado simplesmente por dados ou algoritmos, mas por ação política deliberada de autocratas que aprendem uns com os outros e compartilham táticas de sobrevivência. Os mais de 45.000 incidentes de colaboração autoritária documentados em 2024 (1) representam profissionalização crescente dessa coordenação autocrática.
O fato de que regimes autoritários agora representam mais de 70% da população global e controlam 46% do PIB mundial significa que essa não é uma anomalia temporária ou problema periférico mas sim o desafio central de nosso tempo — massa de poder econômico, militar e tecnológico mobilizada contra arquitetura de sociedades abertas.
Para defender a liberdade, democracias precisam reconhecer que Big Techs foram transformadas em armas — não apenas por suas próprias práticas corporativas, mas pela maestria com que regimes autoritários sequestraram essas infraestruturas. O debate não pode mais se enquadrar como simplesmente “regulação da Big Tech”, mas deve ser compreendido como defesa estratégica de ecossistemas informacionais democráticos contra adversários estatais sofisticados.
Isso requer mudança fundamental em como as democracias pensam sobre segurança. Tradicionalmente, a segurança nacional focou em ameaças militares a território físico. Mas quando 70% da população mundial vive sob algum grau de regime autoritário, e esses regimes profissionalizaram uso de plataformas digitais para minar instituições democráticas remotamente, a fronteira entre segurança externa e governança doméstica colapsa.
Precisamos regular plataformas com olhar atento à geopolítica, garantindo que o tabuleiro digital não seja entregue a quem visa, em última instância, o fim da própria liberdade.
Mas a regulação sozinha é insuficiente. Sociedades democráticas precisam desenvolver resiliência mais profunda — literacia digital que permite cidadãos reconhecerem operações de influência, jornalismo independente que pode investigar e expor campanhas de desinformação, instituições de pesquisa que podem rastrear e analisar operações autoritárias, e coordenação internacional entre democracias que permita resposta coletiva a ameaças compartilhadas.
O eixo autocrático move uma netwar global contra as democracias liberais — explorando a abertura contra si mesma, transformando liberdade de expressão em vetor de ataque, usando transparência democrática como vulnerabilidade, e tratando toda plataforma digital como infraestrutura bélica potencial.
A pergunta correta não é apenas “como as Big Techs lucram com nossa atenção?”, mas “como as autocracias usam as plataformas para nos dividir, exaurir nossa capacidade de discernir verdade, minar confiança em instituições, e em última análise tornar a autogovernança democrática impossível?”
Até que sociedades democráticas reconheçam que o algoritmo é a arma, mas o atirador é o Estado autocrático — e que esse atirador está se tornando progressivamente mais organizado, mais sofisticado e mais efetivo — continuaremos regulando o palco enquanto ignoramos atores que buscam queimar a casa.
A sobrevivência da democracia no século XXI depende não apenas de regular tecnologia melhor, mas de reconhecer e responder efetivamente à realidade de que vivemos em era de guerra híbrida permanente, onde o campo de batalha é cognitivo, as armas são informacionais, e os adversários são Estados tirânicos que tratam cada plataforma digital como infraestrutura para subverter a possibilidade mesma de sociedades livres e abertas.
Esta é a verdadeira ameaça. E reconhecê-la claramente é o primeiro passo necessário para defender efetivamente a ecologia de dissensos que torna a democracia possível.
Notas e referências
1. CHEESEMAN, Nic; BIANCHI, Matías; CYR, Jennifer. The Illiberal International: Authoritarian Cooperation Is Reshaping the Global Order. Foreign Affairs Magazine, [S. l.], 23 out. 2024. Disponível em: https://www.foreignaffairs.com/china/illiberal-international-cheeseman-bianchi-cyr. Acesso em: 1 jan. 2026.
2. U.S. DEPARTMENT OF JUSTICE. Report On The Investigation Into Russian Interference In The 2016 Presidential Election. U.S. Department of Justice, Washington, DC, mar. 2019. Disponível em: https://www.justice.gov/archives/sco/file/1373816/dl?inline=. Acesso em: 1 jan. 2026.
3. THE UNIVERSITY OF MELBOURNE. Understanding Mass Influence: A case study of the Internet Research Agency. University of New South Wales (UNSW), Canberra, fev. 2023. Disponível em: https://www.unsw.edu.au/content/dam/pdfs/unsw-canberra/dri/2023-02-research/2023-02-Understanding-Mass-Influence---A-case-study-of-the-Internet-Research-Agency.pdf. Acesso em: 1 jan. 2026.
4. V-DEM INSTITUTE. DEMOCRACY REPORT 2025: 25 Years of Autocratization – Democracy Trumped?. V-Dem Institute, Gothenburg, mar. 2025. Disponível em: https://www.v-dem.net/documents/61/v-dem-dr__2025_lowres_v2.pdf. Acesso em: 1 jan. 2026.
5. EU DISINFO LAB. Doppelganger: Media clones serving Russian propaganda. EU Disinfo Lab, [S. l.], set. 2022. Disponível em: https://www.disinfo.eu/wp-content/uploads/2022/09/Doppelganger-1.pdf. Acesso em: 1 jan. 2026.
6. CHINA. PRC National Intelligence Law (as amended in 2018). Tradução de China Law Translate. China Law Translate, [S. l.], 2018. Disponível em: https://www.chinalawtranslate.com/en/national-intelligence-law-of-the-p-r-c-2017/. Acesso em: 1 jan. 2026.
7. FRANCO, Augusto. Por que democracia?. Dagobah, [S. l.], [2022]. Disponível em: https://dagobah.com.br/por-que-democracia/. Acesso em: 1 jan. 2026.








