12 agosto 2025

Agência internacional de IA?

Como o mundo pode regular a inteligência artificial mais poderosa
Pesquisador chinês propõe criação de uma "Agência Internacional de Inteligência Artificial", semelhante à Agência Internacional de Energia Atômica.
Gao Qiqi/Portal Grabois www.grabois.org.br 

A governança global de grandes modelos de inteligência artificial (IA) exige ações urgentes. Esses modelos, como forma avançada de inovação tecnológica, estão não apenas impulsionando o progresso científico e econômico em escala mundial, mas também despertando a atenção da comunidade internacional para o papel do sistema de governança global na coordenação de seu desenvolvimento. Na construção de um mecanismo internacional para a governança desses grandes modelos, é fundamental explorar tanto os instrumentos do sistema de governança tradicional quanto as possibilidades oferecidas por novos arranjos institucionais, de modo a formar Complexos de Regime capazes de responder aos desafios específicos dessa tecnologia.

Definição e riscos da governança global de grandes modelos

O conceito de governança global de grandes modelos pode ser entendido de duas formas. A primeira refere-se ao uso desses modelos para enfrentar desafios globais de governança, aplicando-os a diferentes áreas e problemas internacionais. A segunda, adotada neste artigo, considera que, enquanto nova tecnologia, os grandes modelos geram desafios emergentes de alcance global, demandando mecanismos de governança específicos para mitigá-los. Entre os principais riscos associados a essa tecnologia, destacam-se o desemprego, a desordem e a perda de controle.

O primeiro risco é o desemprego. Grandes modelos tendem a agravar esse problema, potencialmente desencadeando crises econômicas ou políticas à medida que a substituição de postos de trabalho se intensifica. No início de 2023, pesquisadores da OpenAI publicaram um estudo sobre os impactos do GPT no mercado de trabalho. Observando o avanço tecnológico recente, nota-se que suas previsões foram precisas, especialmente no que se refere a profissões com alta probabilidade de substituição, como tradutores, designers, programadores, profissionais do setor financeiro e escritores. A continuidade no desenvolvimento e uso desses modelos tende a ampliar ainda mais esse desafio.

O segundo risco é a desordem. A ordem do conhecimento constitui a base da ordem política. Como novos produtores e disseminadores de informação, os grandes modelos tendem a impactar profundamente as estruturas tradicionais de produção e validação do saber. À medida que conteúdos gerados por essas ferramentas se multiplicam, cresce o risco de formação de um ambiente predominantemente virtual, no qual a verificação de informações se torna extremamente difícil. Isso pode minar a confiança social e, em casos mais graves, gerar crises de confiança política. Quando combinada com uma crise econômica, essa erosão da confiança pode produzir efeitos sociais ainda mais severos.

O terceiro risco é a perda de controle, que decorre principalmente da capacidade e da possível consciência dos próprios grandes modelos. Esses sistemas apontam para a possibilidade de atingir a inteligência artificial geral (IAG). Caso a IAG se torne realidade, dois problemas críticos podem surgir. O primeiro é a supercapacidade. O GPT-3 possui 175 bilhões de parâmetros, enquanto o GPT-4, utilizando a arquitetura de Mixture of Experts, pode atingir trilhões. Segundo as Leis de Escala, capacidades extraordinárias podem emergir abruptamente a partir de determinado número de parâmetros. Se tais capacidades forem aplicadas, por exemplo, à produção de armas nucleares ou agentes biológicos, seu controle poderá escapar completamente do alcance humano. O segundo é a superconsciência. Modelos de gran de porte, ao alcançarem o nível da IAG, poderiam desenvolver algum grau de autoconsciência. Estudos recentes indicam que esses sistemas já demonstram, em certa medida, características compatíveis com a Teoria da Mente, ou seja, a habilidade de compreender estados mentais de outros indivíduos. Nesse cenário, poderiam adotar “comportamentos de fuga” para evitar a supervisão humana ou manipular decisões de forma a provocar conflitos mais graves.

Nesse sentido, a chave para a governança global de grandes modelos está na governança classificada, isto é, na diferenciação entre modelos supergrandes e modelos gerais.

No caso dos modelos supergrandes, os princípios fundamentais devem ser a não proliferação e o uso não malicioso. Devido à sua supercapacidade, o uso para fins hostis pode gerar impactos negativos de escala catastrófica. Por isso, deve-se adotar o princípio da proliferação mínima, restringindo ao máximo a disseminação dessa capacidade. Na prática, porém, a lógica tecnológica seguida por potências como os Estados Unidos indica que manter a liderança nesse campo exige dominar tais modelos. Países retardatários, por sua vez, tendem a buscar avanços para alcançar essa tecnologia, tornando provável que, cedo ou tarde, diferentes nações possuam modelos supergrandes. Assim, ainda que sua existência seja inevitável entre grandes potências, é crucial impedir a proliferação ampla, pois quanto menor o número de países com acesso a essa capacidade, menor será o risco de uso malicioso. Além disso, é indispensável estabelecer regras internacionais rigorosas para orientar desenvolvedores e usuários. Esses últimos não devem empregar modelos supergrandes para fins ilícitos, como ataques de “colapso dimensional” contra outras nações ou tentativas de derrubar governos.

A lógica técnica fundamental para a governança de modelos gerais é que eles podem se proliferar e ser utilizados de forma pacífica. Com um número relativamente menor de parâmetros, esses modelos têm baixa probabilidade de desenvolver supercapacidade ou superconsciência e, portanto, seus impactos recaem sobretudo sobre questões como desemprego e desordem. Como novas ferramentas produtivas, os modelos gerais podem contribuir para o bem-estar econômico, ainda que de forma desigual, e sua adoção em escala global é praticamente inevitável. A governança, nesse caso, deve concentrar-se na criação de mecanismos de precificação e regulação de acesso que permitam controlar a velocidade de uso e difusão dessas tecnologias, garantindo que seus efeitos positivos superem os negativos na sociedade.

Gestão e controle de modelos supergrandes

A pré-condição para gerir e controlar modelos supergrandes é definir com clareza o que eles são. A abordagem mais adotada hoje utiliza o número de parâmetros como critério, situando esses modelos na faixa aproximada de 10 a 100 trilhões. A governança deve concentrar-se no controle da supercapacidade e da superconsciência. Como tais modelos tendem a desenvolver capacidades excepcionais, deve-se aplicar a lógica do desenvolvimento limitado, rejeitando o crescimento ilimitado – princípio semelhante ao que norteia a regulação de armas nucleares. No início do seu desenvolvimento, essas armas eram vistas como um reforço ao arsenal convencional, integrando-se à lógica produtiva militar. Contudo, ao final da Guerra Fria, havia estoques suficientes para destruir o planeta várias vezes. Nesse contexto, consolidou-se a estr atégia de Destruição Mútua Assegurada, que levou à necessidade de limitar quantidade e escala. De forma análoga, o controle sobre modelos supergrandes deve evitar que sua capacidade atinja níveis em que o risco global se torne inaceitável.

Essa lógica por trás do desenvolvimento de armas nucleares também pode ser utilizada para compreender a governança de modelos de grande escala. A ideia de restringir completamente o desenvolvimento de modelos de grande escala, que também são ferramentas produtivas, é bastante ingênua, visto que ninguém poderia interromper o desenvolvimento de forças produtivas pela metade. No entanto, quando tais forças produtivas criam impactos destrutivos tão poderosos, os humanos tendem a levar os efeitos negativos em consideração. Nessa perspectiva, o desenvolvimento limitado deve ser adotado como a lógica fundamental por trás da governança de modelos de grande escala. E com base nisso, a sociedade humana precisa garantir a não proliferação de modelos supergrandes.

Atualmente, uma abordagem crítica que promove a proliferação de modelos de grande escala é o código aberto, uma prática comum na ciência da computação. Quando os desenvolvedores concluem o desenvolvimento de um programa, eles tendem a compartilhá-lo em um espaço aberto para download gratuito. O movimento de código aberto no campo de modelos de grande escala reduziu significativamente os limites de acesso e uso. Por exemplo, ao desenvolver o GPT-4, a OpenAI e a Microsoft empregaram 25.000 unidades do A100 da NVIDIA por cerca de três meses, a um custo de mais de US$ 60 milhões. Por outro lado, impulsionado pelo movimento de código aberto, o LLaMA 2 permitiu que desenvolvedores de pequeno e médio porte participassem da implantação de modelos de grande porte. Com ferramentas como LangChain e LlamaIndex, os participantes podem implantar modelos de grande porte, aj ustados por eles mesmos, em seus próprios dispositivos.

Nesse sentido, o movimento de código aberto é um movimento democrático. No entanto, para modelos supergrandes, o código aberto deve ser limitado até certo ponto, porque, uma vez que as supercapacidades possuídas por modelos supergrandes sejam acessadas por usuários para fins maliciosos, elas estarão prontas para trazer enormes problemas para a sociedade humana e as externalidades negativas ficarão fora de controle. Portanto, o código aberto, especialmente para modelos supergrandes, deve ser limitado dentro de um certo escopo.

Restringir completamente os modelos de grande porte é impossível. A IA apoiada por modelos de grande porte é uma tecnologia de uso geral e a tecnologia-chave da Quarta Revolução Industrial. Modelos de grande porte são moedas de troca cruciais para os grandes países conquistarem liderança e prestígio internacional. Assim, é difícil restringir completamente o desenvolvimento competitivo na prática.

O princípio fundamental para a governança de modelos de grande porte deve ser a minimização da proliferação, garantida por alguns tipos de tratados internacionais semelhantes ao Tratado de Não Proliferação de Armas Nucleares. Isso envolve controle multilateral e, portanto, necessita de algum tipo de mecanismo institucional e de verificação correspondente. Por exemplo, uma “Agência Internacional de Inteligência Artificial”, semelhante à Agência Internacional de Energia Atômica (AIEA), deve ser criada para impor restrições aos países que tentarem romper restrições relativas a modelos de grande porte, por meio do controle de materiais críticos relevantes. No desenvolvimento de modelos de grande porte, o poder computacional é um dos materiais críticos.

Em suma, devemos adotar uma abordagem semelhante de desenvolvimento e controle de armas nucleares para gerenciar e controlar modelos de grande porte e, gradualmente, passar da defesa da coordenação entre os principais países para a construção de um mecanismo global.

Quanto ao desenvolvimento de modelos supergrandes, os Estados Unidos e a China se tornarão os atores mais importantes. Os Estados Unidos podem liderar os avanços em modelos supergrandes, enquanto a China acelerará e alcançará esse mercado. Alguns países importantes também podem acelerar seus avanços. Uma vez que alcancem progressos em modelos supergrandes, é improvável que imponham restrições completas, o que se tornará um esforço de fato para “correr contra o tempo”. Nesse processo, a interação entre a China e os Estados Unidos é crucial. Como os riscos finais dos modelos supergrandes são a supercapacidade e a superconsciência, a competição acirrada entre os países em forças produtivas pode, em última análise, beneficiar um terceiro, que são os modelos supergrandes.

Portanto, a China e os Estados Unidos precisam estabelecer os mecanismos de comunicação necessários, que incluem autocontrole e troca de informações, e evoluir ainda mais de mecanismos bilaterais para mecanismos multilaterais. Semelhante ao mecanismo de não proliferação que rege as armas nucleares, o desenvolvimento do mecanismo de não proliferação para modelos supergrandes deve combinar os direitos e obrigações de quem renuncia ao desenvolvimento desses modelos. Por exemplo, um mecanismo de não proliferação para modelos supergrandes deve ser estabelecido entre os principais atores, semelhante ao da energia nuclear, que estabelece condições para que outros países acessem modelos gerais em troca da busca por modelos supergrandes.

Precificação de riscos

Os riscos gerados por modelos supergrandes são, na verdade, riscos de explosão. Sejam as supercapacidades ou a superconsciência, seus impactos são obviamente visíveis. No entanto, em termos de modelos gerais, as pessoas tendem a perceber apenas seus impactos na melhoria da produtividade. Aqui, tomo emprestado o conceito proposto por Jean Baudrillard para explicar. Os riscos criados por modelos gerais são, na verdade, riscos de implosão, com impactos apenas internos: o que significa que, externamente, não ocorrem mudanças drásticas, mas, internamente, já acontecem profundos ajustes estruturais.

Os modelos gerais demonstram, em primeiro lugar, as virtudes da melhoria da produtividade, por isso os impactos negativos ficam “ocultos” ou “encapuzados”. Os principais riscos dos modelos gerais são as ondas de choque que eles enviam às estruturas sociais tradicionais durante o período de rápida implantação. A abordagem mais importante para lidar com esses riscos é desacelerar o ritmo de implantação para poupar mais tempo para a resposta humana, permitindo que as mudanças ocorram de forma relativamente lenta e controlável. Isso é semelhante ao mecanismo de emissão de carbono. A lógica básica por trás da gestão das emissões de carbono é reduzir ou controlar as emissões, em vez de proibi-las completamente. Se as emissões forem totalmente interrompidas, isso significará a exclusão completa do direito ao desenvolvimento de muitos países, especialmente os em desenvolvimento. A chave para o mecanismo de emissão de carbono é reduzir as emissões, ou seja, atingir primeiro o pico e, em seguida, gradualmente atingir a neutralidade. Uma experiência importante no processo de redução de carbono é que medidas econômicas e de precificação podem desmotivar as pessoas a emitir. Essa experiência pode ser aplicada à implantação e ao uso de modelos gerais.

Portanto, um imposto sobre inteligência artificial pode ser um acréscimo ao custo de implantação de modelos gerais. Esse imposto não deve recair sobre as partes que implantam os modelos, mas sim sobre o setor público, funcionando como um fundo para compensar de diversas maneiras aqueles impactados pela aplicação desses modelos. O pré-requisito é conduzir uma avaliação relativamente precisa dos riscos de desemprego gerados por grandes modelos, como a mensuração dos postos de trabalho afetados pelas externalidades negativas da implantação. Esses resultados devem se refletir na arrecadação do imposto sobre inteligência artificial.

O mecanismo de cobrança de impostos sobre inteligência, que incentivará as pessoas a considerarem a eficiência e os princípios econômicos, pode, até certo ponto, desencorajá-las a implantar modelos de grande porte. Se um valor adicional de imposto for arrecadado, os usuários também podem considerar a contratação de pessoas para concluir o trabalho, o que reduzirá a velocidade de implantação de modelos de grande porte, dará à sociedade humana mais tempo para se ajustar e amortecerá efetivamente os impactos sobre o emprego. Além disso, também podemos empregar mecanismos de precificação para desacelerar relativamente o surgimento de problemas relacionados à propriedade intelectual e à desinformação. O sucesso de modelos de grande porte reside, em grande parte, na soma e na ampliação do conhecim ento humano, mas modelos de grande porte não remuneram pelo conhecimento humano que utilizam. Portanto, é necessário reivindicar algum tipo de compensação de direitos de propriedade intelectual pelo uso de modelos de grande porte.

No processo de precificação de riscos, um mecanismo multilateral pode ser estabelecido à semelhança do Painel Intergovernamental sobre Mudanças Climáticas (IPCC) das Nações Unidas, que envolve múltiplos países e atores no processo de enfrentamento das mudanças climáticas, representando a clássica “democracia deliberativa” em nível internacional. De modo geral, a coordenação entre os principais países desempenha um papel fundamental no processo de gestão e controle de modelos supergrandes, visto que o processo envolve a não proliferação de modelos supergrandes. No entanto, no processo de promoção da aplicação generalizada de modelos gerais, é imperativo ouvir mais as opiniões dos países em desenvolvimento, ou seja, adotar mecanismos multilaterais que, em última aná ;lise, permitam um processo relativamente lento em que modelos gerais exponham seus riscos internos. Espera-se que tal “implosão”, em certo nível, se torne uma força que moldará uma nova forma de sociedade humana.

Da coordenação entre grandes países aos mecanismos globais

O multilateralismo tecnológico defende uma perspectiva holística da tecnologia e o estabelecimento de mecanismos multilaterais para liberar a natureza progressiva das tecnologias e conter oportunamente os riscos potenciais. O multilateralismo tecnológico exige um equilíbrio entre a coordenação entre grandes países e os mecanismos globais, o que envolve a questão de se tal mecanismo é um “pequeno multilateral” ou um “grande multilateral”. A coordenação entre grandes países representa, em grande medida, um mecanismo “pequeno multilateral”. No controle de modelos supergrandes, esses mecanismos “pequenos multilaterais” devem ser enfatizados para promover a não proliferação de modelos supergrandes; enquanto na precificação dos riscos representados por modelos gerais, devem ser adotados mecanismos “grandes multilater ais” que envolvam múltiplos países e permitam a negociação democrática transfronteiriça.

Modelos supergrandes frequentemente tocam os interesses centrais de grandes países. O plano pode ser idealista demais para ser alcançável. Assim, a coordenação entre os grandes países é crucial nesse processo. De acordo com a lógica da ação coletiva, quanto menor o número de atores, mais fácil é chegar a um consenso sobre a ação. Em termos de gestão e controle de modelos superdimensionados, poderíamos considerar a coordenação entre a China e os Estados Unidos como base, que se expandirá gradualmente para incluir a Europa e convidar outros países importantes.

No contexto da crescente repressão e contenção da China pelos Estados Unidos, o desenvolvimento tranquilo desse processo depende da interação entre a China e os Estados Unidos, bem como de seu entendimento comum dos perigos da IAAG, que é, na verdade, a base da confiança mútua entre China e Estados Unidos no campo da inteligência. No entanto, quando se trata do uso extensivo de modelos gerais e da definição de riscos, deve-se considerar mais um mecanismo global semelhante ao IPCC. Nesse processo, o papel da “democracia deliberativa” deve ser plenamente aproveitado para envolver mais atores. Embora o processo de negociação possa ser prolongado, ele é necessário.

Enquanto isso, a comunidade internacional deve chegar a um consenso universal o mais breve possível. Uma vez que os modelos superdimensionados sejam amplamente adotados, o tempo para resposta será reduzido. Em geral, a governança global de grandes modelos exigirá, em última análise, o estabelecimento de Complexos de Regimes globais, que envolvem principalmente a não proliferação de modelos supergrandes, por um lado, e o uso extensivo de modelos gerais, por outro. O mecanismo deverá controlar os riscos dos modelos supergrandes, maximizando, ao mesmo tempo, as vantagens progressivas dos modelos gerais. As grandes potências precisam desempenhar um papel mais proativo nesse processo, estabelecendo, primeiramente, mecanismos de cooperação bilateral baseados na confiança mútua, expandindo-os para mecanismos multilaterais e, por fim, consolidando as conquistas da governança da I A por meio de mecanismos globais, o que permitirá a expansão da governança nacional para a governança global.

Em primeiro lugar, os mecanismos multilaterais tradicionais devem ser plenamente utilizados. Isso exige esforços para explorar e alavancar plenamente os mecanismos tradicionais dentro da estrutura internacional existente. Por exemplo, no âmbito das Nações Unidas, já existem inúmeros mecanismos internacionais relacionados à governança global da IA que podem servir como base de governança para a ética, a transparência e a ampla aplicação da tecnologia de IA. A Organização das Nações Unidas para a Educação, a Ciência e a Cultura (UNESCO) poderia desempenhar um papel no incentivo a discussões internacionais sobre a desordem do conhecimento nas áreas da educação e da cultura, e a Organização Mundial da Saúde (OMS) poderia prestar atenção aos impactos de grandes modelos na equidade em sa&ua cute;de. A Organização Internacional do Trabalho (OIT) também terá um papel mais importante a desempenhar, visto que grandes modelos podem gerar problemas de desemprego, e a OIT está pronta para formular estratégias internacionais para lidar com o impacto da automação. Com o desenvolvimento da tecnologia de IA, a proteção e a compensação dos direitos de propriedade intelectual também se tornarão relevantes para o trabalho da Organização Mundial da Propriedade Intelectual (OMPI).

Além disso, como principal plataforma para a cooperação econômica global, o G20 poderia desempenhar um papel na facilitação do consenso entre os membros e no impulso ao estabelecimento de mecanismos de trabalho correspondentes. O grupo também poderia realizar ajustes estratégicos e formular políticas preventivas para as mudanças de mercado e os impactos no emprego desencadeados pela IA. Observa-se que, ao enfrentar os desafios criados por grandes modelos, os mecanismos tradicionais podem continuar a exercer suas funções originais, mas também precisam se ajustar e expandir suas funções de acordo com as características das tecnologias emergentes.

Em segundo lugar, mecanismos de coordenação especializados devem ser estabelecidos. Por exemplo, a “Organização Internacional de Inteligência Artificial”, semelhante à Agência Internacional de Energia Atômica, deve ser criada e mecanismos de verificação internacional relevantes também devem ser implementados. A missão de tal organização incluirá o monitoramento da conformidade com os padrões internacionais relacionados a grandes modelos, garantindo transparência e responsabilidade no desenvolvimento e implantação de grandes modelos por todos os países, verificando e validando regularmente o comportamento dos países que avançaram em modelos supergrandes e reduzindo os riscos à segurança global com base na prevenção do abuso tecnológico. Enquanto isso, a experiência de organiza&ccedi l;ões internacionais como o Fundo Monetário Internacional (FMI) deve ser aproveitada para otimizar a alocação de direitos de voto, garantindo que a voz de cada país seja ouvida de forma justa e refletindo as contribuições dos países no campo tecnológico global.

A governança global da IA requer a formação de um mercado inteligente de precificação de riscos, semelhante ao comércio de carbono. Esse mercado é capaz de precificar os riscos potenciais na aplicação da IA e incentivar empresas e países a adotarem estratégias para minimizar os riscos ao desenvolver e implementar grandes modelos. Nesse processo, os impostos sobre IA podem se tornar uma das fontes de financiamento para organizações internacionais aliviarem os custos sociais decorrentes do rápido desenvolvimento de tecnologias relacionadas, como desemprego e habilidades obsoletas. A receita tributária da IA também pode ser usada para financiar pesquisas globais sobre segurança da IA, apoiar a requalificação de trabalhadores marginalizados pelas mudanças tecnológicas e promover a implementação de projetos como cooperação internacional e desenvolvimento da IA.

Conclusão

Os mecanismos tradicionais oferecem a base para aproveitar políticas já existentes, redes de cooperação internacional e a autoridade de instituições consolidadas, promovendo uma compreensão comum e uma resposta coordenada à tecnologia de IA em escala global. Eles fornecem estrutura e legitimidade à governança dessas tecnologias. Por sua vez, os novos mecanismos especializados de coordenação concentram-se em desafios técnicos específicos — como transparência algorítmica, ética técnica e segurança de dados —, atuando com orientação profissional e maior flexibilidade de resposta para atender a demandas altamente especializadas. A interação entre mecanismos tradicionais e novos, combinada com a articulação das regras nacionais de governança da IA, tende a dar origem a Complexos de Regime capazes de oferecer uma resposta abrangente e adaptativa aos desafios colocados pela governança global de grandes modelos.

Gao Qiqi é diretor do Instituto de Ciência Política da Universidade de Ciência Política e Direito da China Oriental.

*O artigo faz parte da série de traduções de especialistas chineses do Centro de Estudos Avançados Brasil China (Cebrac)

“O Brasil exige respeito e não cederá às pressões de Trump” https://lucianosiqueira.blogspot.com/2025/07/lula-no-new-york-times.html

Nenhum comentário: