Snowden denuncia a arapuca do ChatGPT
Opiniões políticas. Projetos criativos. Condições médicas. Segredos íntimos. Tudo o que se informa ao robô é lido, analisado e pode ser empregado ou vendido pela OpenAI – cuja parceria com a Casa Branca, a NSA e a CIA é cada vez mais notória
Jeff Xiong | Tradução: Sérgio Amadeu/Outras Palavras
Em 13 de maio de 2025, um tribunal federal dos EUA emitiu uma ordem chocante. Exigiu que a OpenAI “preservasse e segregasse todos os registros de atividades dos usuários”, mesmo que estas pessoas ou empresas desejassem excluí-los. Esta ordem significa que, a partir daquele dia, as mais de 1 bilhão de conversas com o ChatGPT enviadas diariamente por mais de 300 milhões de usuários em todo o mundo estão sendo preservadas indefinidamente—mesmo quando os usuários clicam em “excluir”.
A ordem decorre de um processo envolvendo direitos autorais, movido pelo New York Times contra a OpenAI. Mas o fundamento do tribunal é perturbador: “usuários que excluem seus dados são provavelmente infratores de direitos autorais tentando apagar seus rastros.” Em outras palavras, exercer o direito de excluir—uma proteção fundamental de privacidade—está sendo tratado pelo tribunal como evidência de suspeita criminal.
O executivo-chefe da OpenAI, Sam Altman, alertou nas redes sociais que esta decisão “compromete a privacidade do usuário” e “estabelece um mau precedente”. Mas a pergunta mais perturbadora é: o que contêm essas conversas preservadas à força? Sintomas médicos que os usuários confidenciaram ao ChatGPT, dificuldades financeiras, planos de carreira, segredos pessoais—tudo isso “pode ser vendido ou doado, violado por hackers, divulgado para as forças da lei”.
Não se trata de uma ameaça hipotética. Em 2023, funcionários da Samsung vazaram código-fonte confidencial da empresa através do ChatGPT. Os advogados da empresa coreana alertaram que esses dados são “impossíveis de recuperar, porque agora estão armazenados em servidores pertencentes à OpenAI”. Apple, Amazon, JPMorgan Chase, Goldman Sachs, Deutsche Bank… da tecnologia às finanças, da saúde ao direito, uma longa relação revela: as maiores e mais bem equipadas empresas do mundo estão restringindo o uso do ChatGPT por seus funcionários. Pesquisas mostram que quase 70% das empresas bloqueiam esta ferramenta para proteger informações confidenciais.
Se mesmo essas corporações multinacionais com as equipes de cibersegurança mais avançadas não podem usar o ChatGPT com segurança, como poderão fazê-lo os governos e empresas do Sul Global?
A vigilância corporativa é apenas a ponta do iceberg. Quando Edward Snowden—o denunciante que expôs o programa de vigilância em massa dos EUA, o PRISM—emite um alerta, devemos perceber que o problema é muito mais sério do que vazamentos de dados empresariais.
Do PRISM ao ChatGPT: uma escalada da vigilância
Em junho de 2024, a OpenAI nomeou o general Paul Nakasone, ex-diretor da NSA (Agência de Segurança Nacional dos EUA), para seu conselho de administração. Edward Snowden emitiu nas redes sociais um de seus alertas mais severos desde que foi obrigado ao exílio: “Eles tiraram totalmente a máscara: Nunca confiem na OpenAI ou em seus produtos. Esta é uma traição consciente e calculada dos direitos de cada pessoa no planeta. Vocês foram avisados.”
Snowden não fala em vão. Em 2013, com grande risco à sua própria liberdade, ele expôs o programa PRISM da NSA—um plano para coletar dados diretamente de gigantes da tecnologia como Google, Facebook e Apple, realizando vigilância em massa sem mandados judiciais. O escândalo do PRISM causou ondas de choque globais, levando muitos países a fortalecerem as leis de proteção à privacidade e a UE a introduzir o Regulamento Geral sobre a Proteção dos Dados (GDPR, em inglês).
Snowden agora alerta que o ChatGPT é uma ferramenta de vigilância mais poderosa que o PRISM. Por que? O PRISM coletava passivamente dados de comunicação; o ChatGPT faz com que os usuários forneçam ativamente seus pensamentos mais privados. O PRISM coletava principalmente metadados (quem contacta quem); o ChatGPT coleta conteúdo completo—pensamentos, planos, preocupações, segredos das pessoas. O PRISM envolvia alguns milhões de usuários; o ChatGPT tem mais de 300 milhões de usuários, com mais de 1 bilhão de mensagens diárias. Mais criticalmente, a exposição do PRISM desencadeou resistência e reformas legais; o comportamento de vigilância do ChatGPT foi divulgado publicamente, mas continua a ser amplamente aceito e usado.
Alguns comentaristas chegaram a chamar o ChatGPT de “o maior banco de dados de vigilância de todos os tempos—o banco de dados com o qual a NSA só sonhava”.
A OpenAI confessa que vigia os usuários
O alerta de Snowden não é baseado em especulação, mas em seu profundo entendimento sobre como a máquina de vigilância opera. Ainda mais perturbador é que nem precisamos de um denunciante para provar que a OpenAI monitora os usuários. Os próprios relatórios da OpenAI já admitiram isso.
Em outubro de 2025, a empresa divulgou um relatório intitulado “Bloqueando usos maliciosos da IA” [“Disrupting malicious uses of AI”. O documento anunciou com orgulho que, desde fevereiro de 2024, “bloqueou e reportou” mais de 40 redes que violavam suas políticas de uso. O relatório divulgou em detalhes que contas relacionadas ao governo chinês usariam o ChatGPT para redigir propostas de sistemas de monitoramento de mídia social em larga escala. Organizações russas tentariam, sempre segundo o texto, refinar vírus invasores para acesso remoto a sistemas e roubo de credenciais de usuários com poderes especiais. Hackers norte-coreanos teriam criaram conteúdo invasor visando atacar a Coreia do Sul.
A OpenAI enquadra essas divulgações como conquistas no combate ao “uso malicioso”. Mas o relatório revela inadvertidamente uma verdade mais profunda: para identificar esses casos específicos de “uso malicioso”, a OpenAI deve possuir e usar sua capacidade de monitorar rotineiramente todas as conversas dos usuários.
Pense na lógica técnica: para descobrir um usuário chinês que supostamente esteja desenvolvendo um sistema de vigilância de uigures, a OpenAI precisa acessar e analisar todo o conteúdo da conversa desse usuário; implantar sistemas de monitoramento em tempo real ou quase real; ser capaz de analisar conteúdo e reconhecer padrões; conseguir associar usuários a países ou organizações específicas e, então, escolher proativamente quais casos divulgar.
A questão mais crítica é: a OpenAI só divulga casos do que considera serem “nações adversárias” (China, Rússia, Irã, Coreia do Norte). E sobre os países ocidentais? E sobre os aliados dos EUA? O relatório permanece em silêncio. Esta divulgação seletiva prova precisamente que a OpenAI pode monitorar todos os países, mas escolhe divulgar apenas as partes que se alinham com os interesses geopolíticos dos EUA. Se eles podem monitorar a China e a Rússia, podem monitorar o Brasil, a Índia, a África do Sul — e todos os países do Sul Global.
Em agosto de 2025, a OpenAI admitiu abertamente em uma postagem oficial de blog que a empresa está escaneando as conversas dos usuários no ChatGPT e reportando conteúdo à polícia. O mecanismo específico: conversas de usuários “planejando causar danos a outros” são direcionadas para canais de revisão especializados, para exame por revisores humanos treinados. Se os revisores determinarem que um caso envolve “uma ameaça iminente de dano físico grave a outros”, ele é encaminhado às forças da lei.
Mas onde estão os padrões? O que significa “causar danos a outros”? Quem define isso? Esses padrões mudarão com o ambiente político? Hoje são “ameaças violentas iminentes”. Amanhã abrangerão a dissidência política, consultas sobre aborto, discussões sobre orientação sexual?
O assombroso abismo entre as palavras e a prática
A “Política oficial de solicitação de dados de dsuários para aplicação da lei” da OpenAI afirma explicitamente: o conteúdo da conversa do usuário só será divulgado mediante o recebimento de um mandado de busca legal. Mas qual é a realidade? A OpenAI monitora proativamente todas as conversas dos usuários (o que foi comprovado pelos relatórios citados acima); faz seus próprios julgamentos sobre o que constitui “uso malicioso”, reporta proativamente às autoridades para a aplicação da lei (em vez de apenas responder a solicitações) e publica relatórios de inteligência de ameaças divulgando publicamente o comportamento do usuário — tudo sem qualquer processo legal.
As autoridades regulatórias europeias perceberam isso. Em dezembro de 2024, a autoridade de proteção de dados da Itália multou a OpenAI em 15 milhões de euros por motivos que incluíam “processar informações pessoais dos usuários sem base legal adequada” e “violar o princípio da transparência”. O pesquisador de privacidade Łukasz Olejnik foi mais direto em uma reclamação de 17 páginas à autoridade de proteção de dados da Polônia: “A OpenAI parece aceitar que a forma como os modelos de ferramenta do ChatGPT são desenvolvidos é fundamentalmente incompatível com os requisitos do Regulamento Geral de Proteção de Dados (GDPR) da União Europeia”.
Não se trata um descuido da OpenAI, mas de um problema fundamental com seu modelo de negócios. A resposta da OpenAI à multa italiana expôs sua lógica: a multa é “quase 20 vezes a receita”— significando que a empresa ganha pouco dinheiro no país, mas o valor da coleta de dados é enorme. A multa é meramente o “custo” de coletar dados.
Fusão Estratégica com o governo dos EUA
O relacionamento da OpenAI com o governo dos EUA vai muito além de uma cooperação comercial comum. Da perspectiva de pessoal, o membro do conselho da OpenAI Paul Nakasone é o ex-diretor da NSA, responsável pelas operações de inteligência e guerra cibernética dos EUA. Outro membro do conselho, Will Hurd, atuou como oficial da CIA e integra o conselho da In-Q-Tel (o principal braço de investimentos da CIA).
Da perspectiva de cooperação comercial, a OpenAI lançou o ChatGPT Gov, um serviço projetado especificamente para agências do governo dos EUA. Os detalhes chocantes incluem um acordo com a Administração de Serviços Gerais dos EUA. Ele fornece o ChatGPT Enterprise para estas agências por apenas US$ 1 por agência, por ano. É essencialmente uma doação.
Do ponto de vista da integração técnica, o ChatGPT Gov permite que agências do Estado norte-americano insiram “dados sensíveis e não públicos” nos modelos da OpenAI, realizando o processamento de dados ultrassecretos. O GPT-4o da OpenAI é integrado através do Microsoft Azure na nuvem do governo dos EUA. Significa que agências federais com responsabilidades de trabalho secretas, incluindo o Departamento de Defesa, podem usar o GPT-4o para missões não reveladas ao público.
Um duplo padrão revelador: a OpenAI sustenta que não usará os dados inseridos por funcionários federais norte-americanos para treinar seus modelos, o que fornece um “firewall de dados” para o governo dos EUA. Mas os usuários em outros países não têm tal proteção.
O preço anual de US$ 1 não é uma transação comercial, mas uma cooperação estratégica. Que conteúdo está nas 18 milhões de mensagens enviadas pelos 90 mil usuários do governo? Como essas mensagens estão sendo usadas? Enquanto isso, a CIA também está desenvolvendo sua própria versão do ChatGPT, chamada Osiris, para uso de milhares de analistas das 18 agências de vigilância dos Estados Unidos. A fronteira entre os grandes modelos de linguagem (LLMs) e os de espionagem está desaparecendo.
De “Vigilância em Massa” para “Espionagem em Massa”
O especialista em segurança Bruce Schneier adverte que a IA permite uma mudança qualitativa na vigilância—de “vigilância em massa” para “espionagem em massa”. A diferença: vigilância é coleta e armazenamento; espionagem é compreensão e exploração. A vigilância tradicional só pode realizar buscas por palavras-chave; a IA pode “entender” contexto e significados implícitos, analisando simultaneamente bilhões de conversas e identificando padrões complexos. A União Americana pelas Liberdades Civis (ACLU) observa que os grandes modelos de linguagem permitem “um aumento enorme no número de comunicações que são monitoradas de forma relevante”.
Uma ameaça mais insidiosa é a contaminação dos dados de treinamento. Funcionários da Amazon contam ter visto o ChatGPT “imitando” dados internos da empresa, embora não os reproduzisse totalmente – mas de forma “convincente o suficiente”.13 Significa: mesmo que você não insira informações diretamente, o ChatGPT pode reconstruir informações sensíveis agregando as entradas de outros. Nos países do Sul Global, mesmo que os funcionários sejam proibidos de usar o sistema da OpenAI, o ChatGPT pode “aprender” seus segredos nacionais, desde que terceiros (agências de inteligência estrangeiras, corporações multinacionais) o empreguem.
A Crise de Soberania Digital do Sul Global
A China baniu completamente o ChatGPT. Em 29 de janeiro de 2025, o ministério das Finanças da Índia emitiu um comunicado restringindo o uso de ferramentas de IA como ChatGPT e DeepSeek no trabalho oficial por funcionários do governo, argumentando que essas ferramentas dependem de servidores no exterior para armazenar e processar dados, tornando o governo incapaz de controlar o uso de informações sensíveis. Pesquisadores brasileiros apresentaram uma petição à autoridade de proteção de dados para investigar as violações da LGPD pelo ChatGPT, apontando que a OpenAI chega a fornecer números de CPF de figuras públicas brasileiras.
Mas a vigilância não equivale à capacidade de resposta. A Unctad (Conferência das Nações Unidas sobre Comércio e Desenvolvimento) observa que os países do Sul Global enfrentam “um novo ciclo de colonialismo digital”. Um triplo dilema: perda de soberania de dados, dependência tecnológica (chips, modelos, serviços de nuvem controlados por algumas empresas) e valores impostos (valores do Vale do Silício incorporados globalmente através da IA). Construir uma nova IA é extremamente dispendioso, e o acesso a chips é controlado de forma estrita. Mesmo com investimento maciço, “você ainda não pode eliminar a dependência de países estrangeiros”.
Um alerta de Colonialismo
A desigualdade de poder na era da IA recria padrões coloniais históricos: os países do Sul Global fornecem dados (matérias-primas). Estes dados fluem para servidores dos EUA para serem processados e explorados. O Norte controla a capacidade de processamento e depois vende serviços de IA (produtos acabados) para o Sul. Os lucros e o controle permanecem no Norte. Não é uma metáfora, mas a realidade econômica. A pesquisa do autor mostra que o Google, sozinho, acrescentou a seu ativo, em 2024, dados de usuários avaliados em 36 bilhões de dólares. Ainda assim, a discussão internacional sobre contabilização do valor dos dados, determinação de direitos e distribuição de benefícios é quase inexistente.
O colonialismo mais profundo é ideológico. A análise quantitativa mostra que mesmo os grandes modelos domésticos exibem níveis moderados a altos de viés ideológico ocidental—porque os acervos de treinamento dependem fortemente de conteúdo em inglês, com fontes de informação controladas pelo Ocidente recebendo peso excessivamente alto.
Outro Caminho: Cooperação Soberana com a China
A janela histórica para os países do Sul Global construírem independentemente sistemas completos de tecnologias de informação e comunicação por meio da autossuficiência está fechada. A realidade : China e EUA investem em Pesquisa & Desenvolvimento de IA na ordem dos trilhões de dólares, enquanto o projeto IndianAI da Índia é de apenas US$ 1,25 bilhão. Mas isso não significa desespero. O Sul Global tem duas escolhas: continuar usando a infraestrutura norte-americana, submetendo-se a extração de dados, doutrinação ideológica e ameaças à segurança; ou estabelecer cooperação tecnológica com a China, em condições que mantenham e fortaleçam a soberania digital.
De acordo com as avaliações do Índice de Soberania Digital (DSI), a China é o único país além dos Estados Unidos com soberania digital completa, com uma pontuação DSI de 4,25. Caminhos específicos de cooperação incluem: primeiro, co-construir infraestrutura digital através de modelos como BOT; segundo, desenvolvimento cooperativo de elementos de dados, quantificando o valor do ativo de dados e negociando mecanismos mutuamente benéficos; terceiro, aprendizado mútuo de experiências de governança; quarto, cultivo conjunto de talentos, incorporando transferência de tecnologia e capacitação.
Chegou a Hora de Agir
Em maio de 2025, um tribunal dos EUA ordenou que a OpenAI preservasse indefinidamente todas as conversas dos usuários. Poucos dos mais de 300 milhões de usuários em todo o mundo perceberam que suas consultas médicas, planejamentos financeiros, ansiedades de carreira, segredos pessoais agora estão armazenados de modo compulsório nos servidores da OpenAI, possivelmente “para serem vendidos ou doados, violados por hackers ou divulgados para as forças da lei”.
Quando um engenheiro da Samsung abriu o ChatGPT em 2023 buscando ajuda com código, ele pensou estar apenas empregando uma ferramenta conveniente. Não percebeu que os segredos de sua empresa estavam “agora tecnicamente nas mãos da OpenAI” e eram “impossíveis de recuperar”. A Samsung pode banir o ChatGPT, a Apple pode desenvolver suas próprias ferramentas de IA, o banco Goldman Sachs pode bloquear este serviço. Mas e as pequenas empresas do Sul Global? E seus departamentos governamentais? As instituições de pesquisa? Eles têm os recursos da Samsung? As capacidades técnicas da Apple?
Quando Edward Snowden diz que a OpenAI é uma “traição consciente dos direitos de cada pessoa no planeta”, ele não está exagerando. Emite este alerta com base em um profundo entendimento da máquina de vigilância norte-americana. Quando o especialista em segurança Bruce Schneier diz que estamos passando de “vigilância em massa” para “espionagem em massa”, ele revela uma mudança na natureza da vigilância: não apenas coletar dados, mas entender, processar e explorar dados.
Para os países do Sul Global, isso não é apenas uma questão de privacidade, mas de soberania. Os dados são o novo petróleo, a IA é a nova infraestrutura. Entregar o controle de dados e IA para empresas norte-americanas é como historicamente entregar o controle de recursos naturais e infraestrutura a colonizadores.
A janela histórica pode ter fechado, mas a janela de escolha permanece aberta. Os países do Sul Global podem escolher continuar aceitando passivamente o colonialismo digital americano, ou podem escolher cooperar com países como a China para adotar tecnologia avançada, mantendo e fortalecendo sua própria soberania digital. A estrutura do Índice de Soberania Digital (DSI) fornece ferramentas para avaliação e acompanhamento. Quatro recomendações específicas fornecem um caminho para a ação. O que falta não é um plano, mas determinação.
Quando funcionários do governo usam o ChatGPT para redigir documentos oficiais; quando empresas usam o ChatGPT para planejamento de negócios; quando seus pesquisadores o empregam para pesquisa investigativa, é preciso estar ciente: essas conversas podem estar sendo monitoradas, analisadas pela OpenAI e compartilhadas com agências de inteligência dos EUA.
A lição da ordem judicial de maio de 2025 é: mesmo que você clique em “excluir”, os dados ainda podem ser preservados à força. A lição do caso Samsung é: uma vez que carregados, os dados são “impossíveis de recuperar”. A lição para os países do Sul Global deveria ser: uma vez que a soberania digital é perdida, é difícil resgatá-la.
Malwarebytes, “OpenAI forced to preserve ChatGPT chats”, June 2025, https://www.malwarebytes.com/blog/news/2025/06/openai-forced-to-preserve-chatgpt-chats
Electronic Frontier Foundation, “Copyright Cases Should Not Threaten Chatbot Users’ Privacy”, June 2025, https://www.eff.org/deeplinks/2025/06/copyright-cases-should-not-threaten-chatbot-users-privacy
TechCrunch, “Samsung bans use of generative AI tools like ChatGPT after April internal data leak”, May 2, 2023, https://techcrunch.com/2023/05/02/samsung-bans-use-of-generative-ai-tools-like-chatgpt-after-april-internal-data-leak/
Decrypt, “Calculated Betrayal: Snowden Slams OpenAI NSA Ties”, June 2024, https://decrypt.co/235490/calculated-betrayal-snowden-slams-openai-nsa-ties
OpenAI, “Disrupting malicious uses of AI”, October 7, 2025, https://openai.com/global-affairs/disrupting-malicious-uses-of-ai-october-2025/
Futurism, “OpenAI Scanning ChatGPT Conversations, Reporting to Police”, August 2025, https://futurism.com/openai-scanning-conversations-police
OpenAI, “Law Enforcement User Data Request Policy”, July 2024 version, https://cdn.openai.com/trust-and-transparency/openai-law-enforcement-policy-v2024.07.pdf
he Hacker News, “Italy Fines OpenAI €15 Million for GDPR Violations Over ChatGPT Data Handling”, December 2024,
TechCrunch, “ChatGPT-maker OpenAI accused of string of data protection breaches in GDPR complaint filed by privacy researcher”, August 30, 2023, https://techcrunch.com/2023/08/30/chatgpt-maker-openai-accused-of-string-of-data-protection-breaches-in-gdpr-complaint-filed-by-privacy-researcher/
OpenAI, “Introducing ChatGPT Gov”, February-August 2025, https://openai.com/global-affairs/introducing-chatgpt-gov/
Bloomberg, “CIA Builds Its Own Artificial Intelligence Tool in Rivalry With China”, September 26, 2023, https://www.bloomberg.com/news/articles/2023-09-26/cia-builds-its-own-artificial-intelligence-tool-in-rivalry-with-china
Bruce Schneier, “AI and Mass Spying”, Schneier on Security, December 2023, https://www.schneier.com/blog/archives/2023/12/ai-and-mass-spying.html
ACLU, “Will ChatGPT Revolutionize Surveillance?”, 2023, https://www.aclu.org/news/privacy-technology/will-chatgpt-revolutionize-surveillance
Gizmodo, “Amazon Warns Employees to Beware of ChatGPT”, January 26, 2023, https://gizmodo.com/amazon-chatgpt-ai-software-job-coding-1850034383
Business Today, “Govt employees asked to stop using AI tools like ChatGPT, DeepSeek on official devices”, February 5, 2025, https://www.businesstoday.in/technology/news/story/govt-employees-asked-to-stop-using-ai-tools-like-chatgpt-deepseek-on-official-devices-heres-why-463483-2025-02-05
MediaNama, “Why ChatGPT does not comply with the Brazilian Data Protection Law”, May 2023, https://www.medianama.com/2023/05/223-chatgpt-brazilian-data-protection-law-ai-regulation/
Al Jazeera, “Digital colonialism is threatening the Global South”, March 13, 2019, https://www.aljazeera.com/opinions/2019/3/13/digital-colonialism-is-threatening-the-global-south
Al Jazeera, “Digital colonialism is threatening the Global South”, March 13, 2019, https://www.aljazeera.com/opinions/2019/3/13/digital-colonialism-is-threatening-the-global-south
[Ilustração: Sébastien A. Krier]
[Se comentar, identifique-se]
A polarização e a radicalização do debate público é a essência do modelo de negócio das redes sociais https://lucianosiqueira.blogspot.com/2025/01/o-brasil-e-as-big-techs.html?m=1