09 dezembro 2025

IA: operação & consequências

Inteligência Artificial, Data centers e o fim do mundo
A materialidade da inteligência artificial expõe uma contradição crítica. Enquanto discursos tratam a “inteligência” como uma abstração, sua operacionalização depende de insumos físicos – dados, capacidade de processamento e infraestruturas energéticas – que reordenam relações ambientais e políticas. Para compreender essas tensões é preciso articular um olhar histórico, técnico e geopolítico, mostrando como decisões epistemológicas antigas repercutem hoje na configuração de políticas públicas de energia, uso de recursos ambientais e soberania nacional
Gabriel Boscardim de Moraes, Thaís de Oliveira Monteiro, Henrique Cochi Bezerra, João Pedro Frealdo de Oliveira/Le Monde Diplomatique 

Quando os estudos iniciais sobre inteligência artificial começaram a se consolidar, duas vertentes principais de pesquisa se destacavam. De um lado, estavam os proponentes da inteligência artificial simbólica – um grupo de pesquisadores que acreditava que a melhor forma de ensinar máquinas a “pensar” era por meio da lógica e da manipulação de símbolos. De outro, encontravam-se os defensores da cibernética – uma perspectiva voltada à criação de sistemas adaptativos, capazes de se auto-organizar com base na experiência.

Foram os pesquisadores vinculados à vertente lógica que cunharam o termo “Inteligência Artificial”, durante o Workshop de Dartmouth, realizado em 1956, nos Estados Unidos. Na ocasião, os organizadores optaram por essa denominação justamente para distinguir-se da tradição cibernética e, em especial, evitar a participação de figuras como Norbert Wiener – matemático de grande influência, mas considerado politicamente incômodo por suas posições progressistas, críticas ao financiamento militar da pesquisa científica e defensor de uma ciência socialmente responsável.

Por ironia, hoje a vertente simbólica ocupa um papel secundário no campo da IA. A hegemonia atual concentra-se no paradigma conexionista, que ganhou forma em 1958 com a criação do Perceptron, a primeira rede neural artificial. O conexionismo compartilha princípios com a cibernética, pois busca desenvolver sistemas capazes de aprender de maneira autônoma a partir de grandes volumes de dados.

Assim, ao contrário da IA simbólica – que entende a mente como um sistema baseado em símbolos e regras explícitas –, o conexionismo propõe que o conhecimento e o raciocínio emergem do reconhecimento de padrões distribuídos em redes neurais artificiais, seguindo uma lógica indutiva. Dessa forma, o sentido contemporâneo do termo “inteligência artificial” acabou se aproximando justamente daquilo que os fundadores do Workshop de Dartmouth pretendiam diferenciar[1].

Um elemento central para o treinamento das redes neurais conexionistas são os dados. Os dados são o principal insumo da inteligência artificial hegemônica, pois eles são necessários para a extração de padrões e ajuste de parâmetros que formarão os modelos.

Igualmente, o poder computacional é fundamental para a IA. Segundo um relatório dos pesquisadores de Stanford, “O processamento de treinamento para modelos de IA notáveis ​​dobra aproximadamente a cada cinco meses, o tamanho dos conjuntos de dados para treinamento de LLMs a cada oito meses e a potência necessária para treinamento anualmente”[2].

Dessa forma, o paradigma conexionista converte dados e poder computacional em insumos econômicos e epistemológicos. Estudos e relatórios recentes mostram que o treinamento computacional de modelos complexos e o aprendizado profundo crescem em ritmo acelerado, empurrando para cima tanto a necessidade de hardware especializado quanto a escala da infraestrutura exigida.

A consequência imediata é a transferência da discussão para os data centers: instalações físicas compostas por milhares de servidores, sistemas de armazenamento, equipamentos de rede e infraestruturas elétricas e de refrigeração pensadas para funcionamento ininterrupto. Como um dos pilares do mundo conectado, os data centers viabilizam de serviços de comunicação e financeiros a aplicações de IA generativa, o que explica sua expansão em patamares cada vez maiores.

Em 2024, estimava-se a existência de mais de 11 mil unidades operacionais no globo, com forte concentração nos Estados Unidos – aproximadamente 45% do total –, seguidos por núcleos relevantes na Europa – notadamente, Alemanha, Reino Unido, França e Holanda –, China e Austrália[3].

Na América Latina, o Brasil vem se destacando. No ranking mundial, figura a 10ª posição em quantidade desses espaços[4]. Levantamento realizado pelo Data Center Map aponta 195 centros atualmente em operação no país, com concentração no eixo Sudeste-Sul – São Paulo consolidado como epicentro nacional – e ampliação estratégica de polos no Nordeste e no Sul, influenciado por fatores como a proximidade de cabos submarinos, oferta de terrenos industriais a custos menores e políticas governamentais locais permissivas.

O mercado global de data centers foi estimado em US$ 386,71 bilhões (2025) e prevê alcançar US$ 627,40 bilhões (2030), enquanto a potência instalada de TI sobe de 120,07 GW (2025) para 201,89 GW (2030). No Brasil, o setor totaliza cerca de 0,95 GW (2025) e projeta 1,46 GW (2030), com receitas que devem evoluir de US$ 2,95 bilhões (2025) para US$ 5,89 bilhões (2030)[5]. Para dimensionar essas grandezas, observa-se que a potência de carga global estimada para 2025 (120,07 GW) equivale a 57% da capacidade instalada da matriz energética nacional no mesmo ano, segundo informe da Agência Nacional de Energia Elétrica (Aneel). A simples comparação permite vislumbrar a pressão que a crescente demanda por processamento computacional pode exercer sobre os sistemas elétricos, especialmente em redes de energia de escala continental, como a brasileira.

Embora compartilhem semelhanças com data centers “convencionais”, as instalações destinadas a aplicações de IA impõem requisitos mais rigorosos, como recursos de computação de altíssimo desempenho, arquiteturas de armazenamento mais rápidas, redes de baixa latência, sistemas de refrigeração especializados e, sobretudo, fontes de energia robustas e resilientes[6]. Tais especificações elevam drasticamente o consumo de eletricidade e, em muitos casos, também o uso de água potável – podendo atingir volumes diários equivalentes ao abastecimento de cidades de 10 mil a 50 mil habitantes –, além de gerar emissões significativas de carbono (EESI, 2025). Esses fatores são centrais nos impactos socioambientais associados à expansão dessas instalações.

Outro fator relevante nesse cenário é a necessidade urgente de aumentar a eficiência energética dessas instalações, com o objetivo de reduzir custos sempre que possível nos processos necessários para a expansão dos data centers. Os pesquisadores envolvidos nessa questão utilizam o argumento de que seus estudos “promovem infraestrutura digital sustentável”[7]. Entretanto, segundo a lógica de que quanto mais produção, melhor, o aumento da eficiência energética tende a também resultar num acréscimo do consumo dos recursos.

Tal fenômeno não é novidade. Essa relação de um aumento do consumo proporcionalmente maior que o ganho de eficiência é modelada pelo Paradoxo de Jevons. Até mesmo figuras poderosas do mundo da tecnologia, como Satya Nadella, CEO da Microsoft, já fizeram referência ao paradoxo. Esse conceito surgiu com o economista inglês William Stanley Jevons, no final do século XIX, período em que o carvão era um ativo econômico mundial que compunha grande parte dos custos operacionais das empresas. Em um de seus estudos, Jevons percebeu que o aumento da eficiência energética no uso do carvão estava, paradoxalmente, impulsionando o aumento do seu consumo total.

Não basta tornar a engenharia por trás dos data centers mais sustentável, enquanto se mantém constante a necessidade de processar e capturar cada vez mais dados. Dito isso, o aumento de eficiência energética sem mudança na mentalidade do capital não resulta na suposta “Green AI” anunciada pelos pesquisadores.

Frente às demandas da transformação digital na economia global – tidas como irrevogáveis na lógica capitalista –, grandes corporações vêm alinhando as suas estratégias para serem “AI-led”, ou “lideradas por IA”, com consequente elevação de investimentos em data centers de hiperescala e infraestrutura adjacente, dentro e fora das suas regiões de origem[8]. No Brasil, a presença de gigantes tecnológicas como Google, Microsoft, Amazon e Equinix tem papel preponderante no parque de data centers em termos de número de instalações e capacidade operacional. A concentração dessa infraestrutura em oligopólios das big techs reconfigura relações de soberania[9] [10], suscitando debates sobre jurisdição, controle e privacidade de dados, desenvolvimento científico, partilha de benefícios econômicos locais e transferência de riscos ambientais para outros territórios.

Essas assimetrias tornam-se mais claras quando analisamos o caso norte-americano, cuja infraestrutura digital é uma das mais densas do planeta. Os mapas a seguir, produzidos por Siddik, Shehabi e Marston (2021), evidenciam como a localização dos data centers influencia diretamente seus impactos ecológicos. A pegada hídrica e de carbono varia de acordo com a disponibilidade de recursos naturais e a matriz energética regional. Em termos totais, o uso de água com os data centers americanos se mostrou elevadíssimo, 513 milhões de metros cúbicos de água por ano, similar ao consumo anual de toda a cidade de Los Angeles, de acordo com dados do Los Angeles Department of Water and Power[11].

Nos Estados onde a concentração de data center é maior, houve também maior escassez de água e maiores emissões de gases do efeito estufa, corroborando a tese de que onde há data centers, há também degradação ecológica intensa, com impacto local altíssimo.

O planeta está cansado. Dados de diferentes áreas de pesquisa têm demonstrado a completa degradação ambiental de nossa terra mater através de lógicas de produção insustentáveis. Nesse contexto, o meio ambiente emerge como um tópico central a ser debatido.

Como conciliar soberania e a questão ecológica? Essa pergunta nos traz um desafio teórico necessário para os tempos atuais – afinal, os ataques ao meio ambiente em um determinado país afetam o planeta como um todo. Assim, a questão ambiental atravessa o limite do Estado-nação, requerendo uma nova forma de pensar e planejar a política nacional através de preocupações planetárias de toda a espécie humana.

Em muitos dos casos que vimos, os data centers construídos no Brasil sequer serão controlados por empresas nacionais: eles serão controlados pelas Big Techs que se aproveitarão dos recursos naturais e da rede elétrica do país. Nesse caso, os retornos sociais, mesmo em empregos, parecem não compensar as isenções fiscais propostas. Ademais, o Cloud Act dos Estados Unidos determina que empresas americanas, mesmo quando guardam dados em outros países, precisam revelar as informações armazenadas ao Governo norteamericano quando forem solicitadas.

Talvez, para superar a crise ambiental seja necessário buscar outras epistemologias divergentes do paradigma conexionista que requer grandes quantidades de dados e elevado poder computacional. Yuk Hui (2024), ao fazer uma crítica à noção de soberania pautada no estado-nação, que, segundo ele, estaria sofrendo abalos iniciais com a nova ordem da planetarização tecnológica, sugeriu que pautássemos o pensamento planetário. Nesse cenário, seria preciso considerar que garantir a soberania nacional por si só não resolve problemas de ordem planetária, como a questão ambiental. O pensamento planetário seria uma alternativa epistemológica baseada em uma nova lógica de existência entre humanos e não-humanos, e mais que extraestatal, seria um pensamento interespécie, viabilizado pela junção de diferentes cosmotécnicas.

Para nós, o fim do estado-nação parece algo distante e difícil de ser imaginado. Do mesmo modo, é difícil pensar uma outra epistemologia planetária como propõe Yuk Hui. Como seria possível pensar um novo paradigma para os sistemas automatizados que não requeiram o armazenamento de dados em gigantescas infraestruturas? Precisamos construir agendas de pesquisa para buscá-lo. É necessário construir uma alternativa para o descanso do planeta.

Gabriel Boscardim de Moraes possui graduação em Políticas Públicas pela UFABC é mestrando em Ciências Humanas e Sociais. É pesquisador do Laboratório de Tecnologias Livres (LabLivre) e compõe a equipe do Podcast Tecnopolítica. Pesquisa principalmente os seguintes temas: soberania digital, tecnologia no Estado, relações do setor público com Big Techs, inteligência artificial, transparência algorítmica e algoritmos na administração pública.

Henrique Cochi Bezerra é bacharelando em Ciências Econômicas e em Ciências e Humanidades pela Universidade Federal do ABC (UFABC). É pesquisador associado ao Observatório de Política Externa Brasileira (OPEB) e atualmente trabalha como analista de dados na Rappi. Principais interesses de pesquisa: Economia do meio ambiente, economia urbana, economia política internacional.

João Pedro Frealdo de Oliveira é bacharelando em Ciências Econômicas e em Ciências e Humanidades pela Universidade Federal do ABC (UFABC). Possui interesse em economia digital, economia urbana e sociologia digital.

Thaís de Oliveira Monteiro é bacharela em Ciências e Humanidades e graduanda em Relações Internacionais pela Universidade Federal do ABC (UFABC). Atua profissionalmente nas áreas de Relações Institucionais e Governamentais e Políticas Públicas. Possui interesse nos debates sobre o desenvolvimento de tecnologias de informação e comunicação (TICs), soberania digital e suas implicações geopolíticas, ambientais e sociais.

Referências

ALCOTT, Blake. Jevons’ paradox. Ecological Economics, [S. l.], v. 54, n. 1, p. 9-21, 2005. ISSN 0921-8009. Disponível em: https://www.sciencedirect.com/science/article/pii/S0921800905001084. Acesso em: 24 out. 2025.

BRASIL. Agência Nacional de Energia Elétrica. Brasil supera a marca de 210 GW instalados. 2025. Disponível em: <https://www.gov.br/aneel/pt-br/assuntos/noticias/2025/brasil-supera-a-marca-de-210-gw-instalados>. Acesso em: 11 out. 2025.

DATA CENTER MAP. Brazil – Data Centers. [S.l.]: DataCenterMap, s.d. Disponível em: <https://www.datacentermap.com/brazil/>. Acesso em: 11 out. 2025.

FERREIRA, Joao et al. Estimating the Environmental Impact of Data Centers. Disponível em: <https://ieeexplore.ieee.org/abstract/document/8548326>. Acesso em: 21 jan. 2023.

HUI, Yuk. Machine and sovereignty: for a planetary thinking. Minneapolis, MN London: University of Minnesota Press, 2024.

RECH, Ramana. O que é Paradoxo de Jevons, que CEO da Microsoft usou para explicar a demanda e valores da IA. EXAME, 25 jul. 2024. Disponível em: https://exame.com/inteligencia-artificial/o-que-e-paradoxo-de-jevons-que-ceo-da-microsoft-usou-para-explicar-a-demanda-e-valores-da-ia. Acesso em: 24 out. 2025.

[1] PASQUINELLI, Matteo. The eye of the master: a social history of artificial intelligence. London ; New York: Verso, 2023.

[2] The 2024 AI Index Report | Stanford HAI. Disponível em: <https://hai.stanford.edu/ai-index/2024-ai-index-report>. Acesso em: 7 abr. 2025.

[3] STATISTA. Data Centers Worldwide by Country 2025. Disponível em: <https://www.statista.com/statistics/1228433/data-centers-worldwide-by-country/>. Acesso em: 11 out. 2025.

[4] STATISTA. Data Centers Worldwide by Country 2025. Disponível em: <https://www.statista.com/statistics/1228433/data-centers-worldwide-by-country/>. Acesso em: 11 out. 2025.

[5] MORDOR INTELLIGENCE. Data Center Market Size & Share Analysis – Growth Trends and Forecast (2025 – 2030). [S.l.]: Mordor Intelligence, 2025. Disponível em: <https://www.mordorintelligence.com/industry-reports/data-center-market>. Acesso em: 11 out. 2025.

[6] JONKER, Alexandra; GOMSTYN, Alice. O que é um Data Center de IA? IBM, 23 abr. 2025. Disponível em: <http://www.ibm.com/br-pt/think/topics/ai-data-center>. Acesso em: 11 out. 2025.

[7] LI, Xiyong; ZHANG, Yang. The Impact of Digital Infrastructure on the Sustainable Development of China’s Economy. International Journal of Science and Research, [S. l.], v. 11, n. 12, p. 120-125, 2022. DOI: 10.21275/SR221202152351. Disponível em: https://j.ideasspread.org/ijas/article/view/426. Acesso em: 20 out. 2025.

[8] JONKER, Alexandra; GOMSTYN, Alice. O que é um Data Center de IA? IBM, 23 abr. 2025. Disponível em: <http://www.ibm.com/br-pt/think/topics/ai-data-center>. Acesso em: 11 out. 2025.

[9] SILVEIRA, Sergio Amadeu da. Questões conjunturais sobre a regulação da IARevista Eletrônica de Comunicação, Informação & Inovação em Saúde, v. 18, n. 3, p. 458–466, 30 set. 2024.

[10] SILVEIRA, Sérgio Amadeu da. Big techs no Brasil: o retrocesso veste máscara de “solução”. Outras Palavras, 6 maio 2025. Disponível em: <https://outraspalavras.net/tecnologiaemdisputa/big-techs-no-brasil-o-retrocesso-veste-mascara-de-solucao/>. Acesso em: 30 set. 2025

[11] Water System | Los Angeles Department of Water and Power. Disponível em: <https://www.ladwp.com/who-we-are/water-system>. Acesso em: 21 out. 2025.

[12] SIDDIK, Md Abu B.; SHEHABI, Arman; MARSTON. Landon The environmental footprint of data centers in the United States. Environmental Research Letters, v. 16, n. 6, 21 maio 2021.

[Se comentar, identifique-se]

Leia também:: Geopolítica da inteligência artificial https://lucianosiqueira.blogspot.com/2025/08/inteligencia-artificial-na-cena-global.html 

Nenhum comentário: