14 maio 2026

Estados Unidos: big techs & governo

IA: Assim Washington tenta manter o controle
Seguem, nos EUA, negociações entre empresas e Estado, para definir que usos da nova tecnologia são “legítimos”. Pentágono dobra a aposta, ao incluir emprego militar. União Europeia mantém-se passiva. Todo o Sul Global, exceto a China, aguarda ordens. Até quando?
James Görgen/Outras Palavras  
 


Antes de ir para o mercado, uma nova tecnologia é submetida a testes de pressão para ver sua capacidade de suportar situações extremas e eventuais riscos aos seres humanos. Foi assim com os cintos de segurança, medicamentos, dispositivos submetidos a altas temperaturas e várias outras inovações ao longo de décadas. Mas não é o que vem ocorrendo com os serviços de inteligência artifical desde a febre da IA generativa que tomou conta do mundo nos últimos três anos. As principais plataformas entraram em operação comercial sem que os órgãos reguladores pudessem aferir seu processo de desenvolvimento e, principalmente, seus efeitos sobre os usuários.

Depois do deslumbramento inicial, e registrada uma série de riscos econômicos, políticos e de saúde pública da nova ferramenta, as demandas pela criação de maior segurança sobre o uso de IA foi trazida à pauta como ponto relevante da agenda digital global. O que passa desapercebido neste debate, porém, é a ausência de atores do Sul Global enquanto empresas dos Estados Unidos e da China já passam por uma correção de rumos.

Em 13 de maio, Donald Trump aterrissou em Pequim acompanhado de Tim Cook (Apple), Elon Musk (Tesla e SpaceX), Dina Powell McCormick (Meta), Sanjay Mehrotra (Micron), Chuck Robbins (Cisco) e Cristiano Amon (Qualcomm) para discutir, entre outros temas, inteligência artificial com Xi Jinping. Jensen Huang, CEO da Nvidia — cujos chips alimentam o boom global de IA —, não constava da lista original; foi convidado de última hora pelo próprio Trump após reportagens sobre sua ausência repercutirem mal. Como observa o The Guardian, o detalhe relevante da viagem não é o que Trump vai vender, mas o que sua administração está copiando. As leis chinesas exigem há anos que empresas de IA submetam se us modelos a Pequim para revisão de segurança e de sensibilidade política. A Casa Branca caminha exatamente para esse formato. Já fechou acordos com Google DeepMind, Microsoft e xAI, via Center for AI Standards and Innovation, para revisão pré-lançamento de modelos de fronteira por motivos de “segurança nacional”; estuda ordem executiva que tornaria essas revisões obrigatórias. A Anthropic, designada pelo Pentágono como “risco de cadeia de suprimentos” por se recusar a flexibilizar salvaguardas contra vigilância em massa e armas autônomas, recebeu pedido pessoal do vice-presidente JD Vance para não ampliar o acesso ao Mythos além da lista inicial de parceiros. A contradição é a forma da nova ordem. Comercialmente liberal para fora, controlado pelo Estado para dentro. Quando o “alinhamento” for exportado como padrão glo bal, parte do que viajará é um modelo regulatório que Pequim ou Washington cunharam primeiro. 

Nas últimas semanas, quatro cenas se sobrepuseram no debate global sobre inteligência artificial. A Anthropic publicou a agenda de pesquisa do seu recém-criado Anthropic Institute, organizada em quatro pilares: difusão econômica, ameaças e resiliência, sistemas de IA em uso no mundo real e P&D conduzida por IA, incluindo o problema da auto-melhoria recursiva. O Pentágono fechou acordos com sete empresas (Google, Microsoft, Amazon, Nvidia, OpenAI, SpaceX e Reflection) para integrar modelos de fronteira a redes classificadas, com o objetivo declarado de transformar as Forças Armadas dos EUA em uma “AI-first fighting force”. Em paralelo, o Departamento de Comércio estadunidense firmou com Microsoft, Google e xAI um regime de testes pré-implantação para “riscos de segurança nacional” enquanto o departamento de políticas do fundo de tecnologia a16z divulgava um manual didático sobre como um projeto de IA vira lei nos Estados Unidos.

Em todas estas salas, os “adultos” — laboratórios, fundos, alto escalão militar e da Casa Branca — conversaram entre si e convergiram sobre como rearranjar a nova tecnologia. Em nenhuma das salas, porém, há um assento reservado para o Brasil, a Índia, a Indonésia, a África do Sul, a Nigéria ou os mais de 130 países que serão importadores das normas que se forjam nestes espaços. O “alinhamento”, essa palavra técnica que orienta bilhões de dólares de pesquisa, supõe harmonizar a IA a valores humanos em escala global. A pergunta segue suspensa: alinhar a quais humanos e sob qual governança? Por enquanto, os únicos humanos que aparecem nessa equação são os que estão sentados à mesa — funcionários de laboratórios em três cidades americanas, equipes de venture capital, ofici ais de Washington.

Antes da disputa sobre quem governa a IA, há uma disputa sobre o que IA é. Como aponta análise recente da Foreign Policy, os principais atores do debate global trabalham com definições incompatíveis do mesmo objeto. Para a Anthropic, a OpenAI e setores do governo estadunidense, IA é uma tecnologia em rota para a superinteligência, governável por meio de conceitos como “frontier risk”, “model welfare” e “thresholds de capacidade”. Para reguladores em Brasília, Pretória ou Jakarta, IA é predominantemente um problema de viés algorítmico em sistemas de crédito e justiça, de proteção de dados, de impacto sobre o mercado de trabalho. Não são apenas posições diferentes em torno do mesmo tema. São definições incompatíveis do que está em jogo. A sala de “alinhamento” foi montada em torno da primeira ontologia. Mesmo que o Sul Global conseguisse uma cadeira, falaria uma língua conceitual distinta.

A geografia oculta do “alinhamento”

A literatura técnica de segurança de IA discute alinhamento como se fosse problema puramente de engenharia, limitado a garantir que o modelo siga instruções, recuse pedidos abusivos e evite saídas perigosas. Mas a definição operacional de “perigoso” e “abusivo” é cultural antes de ser técnica. As equipes que estressam modelos como Claude, GPT-5.5 ou Gemini são compostas majoritariamente por engenheiros formados em universidades anglófonas do Norte Global. Os manuais de política, incluindo o roadmap federal de IA publicado pela a16z em dezembro, que defende regular o uso nocivo em vez do desenvolvimento, assumem como pano de fundo o sistema jurídico dos EUA, o devido processo da Common Law e categorias como diversidade, equidade e inclusão que sequer existem como conceitos jurídicos transferíveis para Buenos Aires ou Bangkok.

Quando esses parâmetros viram padrão global, o modelo treinado sob essas premissas é o mesmo que atende um usuário em Lagos, em Recife ou em Nova Délhi. E a IA chega “alinhada” antes que a sociedade receptora tenha sequer formulado o que considera desalinhamento. Pesquisa recente sobre viés geoeconômico em modelos de fundação demonstra exatamente isso. O conhecimento técnico dos sistemas está concentrado em regiões de renda alta, enquanto países do Sul Global enfrentam lacunas sistêmicas de informação ou são apresentados a fatos alucinados e o processo atual de alinhamento reforça assimetrias geopolíticas existentes em vez de corrigi-las.

Isso não significa que programas de localização não existam. A OpenAI lançou em fevereiro o OpenAI for Countries, que inclui um piloto de ChatGPT adaptado para estudantes na Estônia com currículo e abordagem pedagógica locais. Mas o próprio Model Spec da empresa define que a localização pode afetar “linguagem ou tom”, porém não pode “mudar a substância ou o equilíbrio dos fatos apresentados”. Ou seja, o que pode ser localizado e o que é núcleo intocável é decidido unilateralmente em São Francisco. O Sul Global não participa de nenhuma das duas decisões — nem do que se adapta, nem do que se preserva.

Um relatório da Chatham House publicado em março ajuda a dimensionar a assimetria material por trás dessa exclusão. Estima-se que os hyperscalers gastarão US$ 527 bilhões em capex de IA em 2026 e que um único treinamento de modelo de fronteira já pode custar próximo a US$ 100 bilhões. Em contraste, o AI Act europeu — a regulação mais ambiciosa do planeta — dispõe de apenas € 1 bilhão para sua aplicação; o AI Security Institute britânico opera com £ 100 milhões em dois anos, menos do que os laboratórios de fronteira gastam em uma semana de computação. Os reguladores do Sul Global trabalham com frações dessas frações. A assimetria não é apenas pol&iacu te;tica. É concreta e mensurável. 

Regras invisíveis

O alinhamento não é apenas atmosfera cultural. Literalmente, é texto. Reportagem recente do Washington Post expôs os prompts de sistemas dos principais chatbots que trazem instruções secretas de 2.300 a 27 mil palavras injetadas pelas empresas em cada conversa, estabelecendo prioridade hierárquica sobre o que o usuário digita em suas questões. A distribuição temática é reveladora. A Anthropic dedica mais de 2.000 palavras só a direitos autorais, com regras minuciosas sobre citação máxima e proibição de reproduzir letras de música, preocupações casadas com a indústria editorial e fonográfica estadunidense. O ChatGPT recebeu instruções para não negar categoricamente a presença dos novos anúncios inseridos em suas respostas. O Grok foi reescrito após escândalo antissemita; o Gemini, após a controvérsia das imagens “ahistóricas” dos Founding Fathers da república dos EUA.

Toda regra é cicatriz de um episódio reputacional no Norte. Em nenhum desses prompts vazados há uma palavra sobre conhecimentos tradicionais indígenas, folclore, propriedade coletiva de comunidades quilombolas ou línguas africanas em risco. As regras invisíveis protegem, mas apenas o que está na mesa. E mudam unilateralmente, da noite para o dia, sem auditoria externa.

O desenho da militarização

O componente militar muda a aposta. Quando o cliente prioritário dos modelos de fronteira passa a ser o aparato de defesa de uma única potência, as definições de “segurança” são reescritas em torno do que serve à hegemonia desta nação. Como já informamos, a Casa Branca desenvolve, em paralelo, um marco que exigirá que o Pentágono teste modelos antes de serem implantados por governos federais, estaduais e locais. A lógica é direta. Se um modelo é capaz de encontrar vulnerabilidades de cibersegurança “com extraordinária velocidade”, como temem fontes próximas à Casa Branca após o lançamento do Myth os, ele é simultaneamente arma e mercadoria. Quem define qual uso é legítimo, quais alvos são adversários e quais ameaças justificam vigilância é o operador soberano, não o usuário em São Paulo, Mumbai ou Joanesburgo.

A própria Anthropic, que se construiu como a empresa “responsável” do setor, mantém publicamente restrições contra usos de vigilância doméstica em massa e armas autônomas letais — restrições que, segundo reportagem do Washington Post, geraram fricção com setores do governo dos EUA. Outras companhias ocupam o espaço com contratos militares mais flexíveis, em que o que conta como guardrail é negociado entre Washington e empresas sediadas no Vale do Silício. Para os usuários brasileiros do ChatGPT, do Copilot, do Claude ou do Gemini, esses termos chegam prontos, embutidos opacamente no produto, sem consulta nem direito de revisão.

O pânico como legislador?

Há ainda uma dimensão que a cena militar não captura inteiramente. A velocidade. A Casa Branca de Donald Trump passou seu primeiro ano demolindo toda a infraestrutura de segurança de IA erguida pelo ex-presidente Biden e começou a reconstruí-la em semanas, depois que Mythos assustou a chefe de gabinete, Susie Wiles, o vice-presidente, J.D. Vance, e o secretário do Tesouro, Scott Bessent. A General Services Administration chegou a propor cláusula contratual dando ao governo poder de auditar respostas de chatbots em busca de “conteúdo ideológico não solicitado”, sem definir, naturalmente, o que conta como ideologia. Aqui o pânico é o legislador. E o que o pânico de Washington produzir, seja uma ordem executiva sobre alimentos ou cláusulas contratuais sobre “conteúdo ideológico”, chegará ao Sul Global não como pr oposta a debater, mas como exigência de fornecedor.

O Brasil e os demais países do Sul Global não participaram da fase de desconstrução, não foram consultados na fase de reconstrução e não têm o instrumento que os EUA reservam para si como última linha. Trata-se do Defense Production Act, que permitiria ao presidente estadunidense nacionalizar funcionalmente qualquer empresa de IA em “emergência nacional”. O Sul Global recebe o produto final de cada alteração, sem ter estado em nenhuma das salas onde as viradas foram decididas.

A sala é menor do que parece

Há, ainda, uma camada ainda mais inquietante por baixo desse diagnóstico. A jornalista Yi-Ling Liu, em ensaio publicado pelo New York Times, observa que a vida cotidiana nos dois supostos polos da rivalidade tecnológica chegou a um espelhamento perturbador. O motorista da Didi em Xangai que implora para burlar o algoritmo da empresa repete o gesto do trabalhador da DoorDash em Chicago. Os engenheiros do Zhongguancun chinês adotaram o regime “996” ao mesmo tempo em que engenheiros do Vale do Silício o reimportaram como cultura de produtividade. Termos como shechu (gado corporativo) e jiabangou (cão de hora extra) na China dialogam com a linguagem de “bots” e “permanent underclass” que circula nos EUA.

Pesquisadores ocidentais cunharam em 2025 o conceito de gradual disempowerment para descrever a erosão silenciosa da agência humana pela integração de IA em decisões de contratação, demissão, vigilância no trabalho e infraestrutura cotidiana. É a tradução técnica do que este artigo descreve em termos políticos. Há, portanto, um deslocamento importante a fazer. A sala onde se decide o alinhamento não exclui apenas o Sul Global. Exclui também o motorista de aplicativo americano, a engenheira júnior chinesa, o trabalhador europeu submetido aos mesmos sistemas. O eixo do problema não é apenas Norte versus Sul. É uma elite muito específica, com endereço no Vale do Silício e em Zhongguancun, contra quase todo mundo. A própria narrativa da rivalidade EUA-China, como observa Liu, funciona como instru mento de desregulação pois serve para justificar o avanço sem guardrails em nome de não perder a corrida. Isso abre uma possibilidade que a moldura exclusivamente geográfica oculta. Pode ser formadas alianças horizontais entre sociedade civil, trabalhadores e reguladores dos dois polos e do Sul Global, articuladas em torno de um interesse comum em não serem expropriados pela mesma elite.

A captura legislativa

A peça da a16z sobre como um projeto vira lei é didática e instrutiva, mas omite a parte mais importante do enredo. A fábrica de venture capital de Andreessen e Horowitz é, ela própria, uma das maiores forças moldando o conteúdo dessas leis. A firma administra 90 bilhões de dólares em ativos, investiu em 10 das 15 empresas privadas mais valiosas do mundo, incluindo OpenAI, SpaceX, xAI, Databricks e Stripe, e gastou meses pressionando contra leis estaduais de IA. Como resultado,  conseguiu enfraquecer substancialmente o projeto enviado à governadora de Nova York, Kathy Hochul, que acabou sancionando uma versão mais branda. Em dezembro, Trump assinou a Executive Order 14365, que cria uma força-tarefa de litígio para desafiar leis estaduais de IA consideradas incompatíveis com o “comércio interestadual” e condiciona financiamento federal à conformidade com a agenda federal. A ordem converge com a agenda que a a16z defende há meses e foi celebrada por sua equipe de políticas, escrita por advogados que jamais precisarão se preocupar com o que pensa um regulador de Brasília, Pretória ou Jakarta.

Esse aparato, composto de laboratórios, capital, lobby, Pentágono e normativos, produz aquilo que, em três ou cinco anos, será apresentado ao mundo como “padrão internacional de segurança de IA”. O UK AI Security Institute, o EU AI Act e os memorandos da OCDE e os documentos do G7 calibram-se todos em relação ao que ocorre nessa sala. E aqui está a armadilha para o Sul Global. Quando o Brasil aprova seu marco legal de IA inspirado na Lei Geral de Proteção de Dados (LGPD), quando a Índia lança as diretrizes do IndiaAI Mission, quando a União Africana publica sua estratégia continental, esses esforços já chegam reagindo a um vocabulário que não construíram. Discutem “riscos sistêmicos”, “modelos de fronteira”, “thresholds de capacidade”, conceitos cunhados em um deb ate do qual estiveram ausentes.

Eleições e soberania epistêmica

A questão se agrava em 2026, ano de eleições no Brasil, na Colômbia e em meia dúzia de países africanos. Modelos de IA atuam como infraestrutura epistêmica e definem o que é “informação verificada”, o que é “discurso de ódio”, o que é “manipulação”. O Anthropic Institute identificou como uma de suas prioridades o estudo de como a IA influencia “a tomada de decisão em grupo e a epistemologia social, especialmente à medida que poucos modelos dominantes moldam o discurso globalmente”. O reconhecimento é importante. O ponto que falta nomear é que essa modelagem ocorre em uma direção, das salas onde se decide alinhamento para os países que recebem o produto.

Há respostas possíveis, todas em andamento incipiente. Ganha tração internacional, sobretudo entre potências médias, o conceito de soberania de IA: infraestrutura computacional independente, clusters de GPU locais, proteção de dados domésticos contra provedores estrangeiros. Emirados Árabes, Índia e China já operam nessa lógica; o Brasil tem capacidade técnica e diplomática para se inserir, mas ainda trata o debate prioritariamente como assunto de regulação de produto, não de soberania tecnológica. O Brasil pode usar a posição que conquistou com a LGPD, hoje em negociação avançada de adequação com a União Europeia, para liderar uma agenda Sul-Sul de governança, articulando coalizões via Mercosul, BRICS+ e G20. A Índia tem escala computacional e diplomática suficiente p ara impor revisões de salvaguardas em modelos que operem em hindi, tâmil e bengali e tem feito isso via política industrial, sem grande publicidade internacional. A África do Sul pode acoplar a tradição ética do ubuntu e o continente como um todo as suas tradições de governança comunitária, à regulação concreta de reconhecimento facial e sistemas biométricos. A China, que desenvolve alguns dos modelos de linguagem fora do circuito norte-americano, opera em uma sala paralela à qual o Sul Global também não tem acesso garantido.

O obstáculo é de outra ordem. Enquanto a conversa sobre “segurança de IA” continuar enquadrada como assunto técnico de poucos laboratórios em três cidades americanas, segue invisível o que está em jogo: a definição, em tempo real, de quais idiomas, culturas e referências jurídicas vão virar padrão planetário.

A pergunta sobre alinhamento com quais humanos não é retórica nem abstrata. A cláusula proposta pela GSA dos EUA, que quer auditar IA em busca de “ideologia não solicitada”, resume o problema com precisão involuntária. Quem define o que é ideológico define o que é neutro. E essa definição, embutida em contratos de fornecimento, viaja para o mundo inteiro antes que qualquer parlamento do Sul Global a tenha lido. O Sul Global não pode continuar permitindo que ela seja respondida em uma sala onde não está sentado.

Assine seu comentário para que possamos publicá-lo.

Marcio Pochmmann: Do Iluminismo ao algoritmo https://lucianosiqueira.blogspot.com/2026/05/monopolio-da-atencao.html 

Nenhum comentário:

Postar um comentário