"Nossa marcha", Vladímir Maiakóvski https://lucianosiqueira.blogspot.com/2025/09/palavra-de-poeta_37.html
A construção coletiva das idéias é uma das mais fascinantes experiências humanas. Pressupõe um diálogo sincero, permanente, em cima dos fatos. Neste espaço, diariamente, compartilhamos com você nossa compreensão sobre as coisas da luta e da vida. Participe. Opine. [Artigos assinados expressam a opinião dos seus autores].
"Nossa marcha", Vladímir Maiakóvski https://lucianosiqueira.blogspot.com/2025/09/palavra-de-poeta_37.html
Na luta política resistir é preciso, sempre. Desistir não é preciso, jamais!
As palavras e suas artimanhas https://lucianosiqueira.blogspot.com/2025/11/minha-opiniao_61.html
A empresária Natalia Beauty provocou reações ao admitir que utiliza inteligência artificial para estruturar seus artigos publicados na Folha de São Paulo. Questionada após um leitor sugerir que seus textos pareciam “escritos por IA”, ela não negou. Disse que as ideias são suas, mas que usa modelos como o Claude, da Anthropic, para redigir as colunas. Comparou o uso da ferramenta às canetas emagrecedoras: muita gente usa, mas poucos assumem. A reação pública revelou um desconforto com o uso da tecnologia. Mas deixou de expor um fenômeno estrutural: no Brasil, a inteligência artificial pode se tornar um diferencial de classe.
O debate internacional já reconheceu esse fenômeno e lhe deu um nome: AI Divide – ou divisão da inteligência artificial. O conceito descreve uma nova camada de desigualdade baseada não apenas no acesso à tecnologia, mas na capacidade de utilizá-la estrategicamente para ampliar produtividade, renda e poder. Um estudo publicado pela JP Morgan mostra que elites econômicas passaram a incorporar a IA como ferramenta estratégica para ganhar eficiência, antecipar decisões e otimizar processos. A tecnologia aparece não apenas como instrumento de produtividade, mas como forma de converter tempo em vantagem competitiva.
Na mesma direção, estudos da McKinsey & Company sobre consumo e estilo de vida identificam que o bem-estar se tornou um novo luxo e que o activewear é o novo símbolo de status. Para sustentar essa estética de equilíbrio e performance é preciso tempo – e tempo, hoje, virou ativo econômico. A inteligência artificial entra nesse circuito como ferramenta estratégica: acelera tarefas, organiza informações e libera horas que podem ser reinvestidas.
No Brasil, os dados confirmam a concentração. Segundo a TIC Domicílios 2025, 69% da classe A utilizam inteligência artificial generativa, contra apenas 16% nas classes D e E. Entre pessoas com ensino superior, o índice chega a 59%; entre quem tem apenas ensino fundamental, cai para 17%. No total, 32% dos usuários de internet no país já utilizaram IA – mas a média nacional mascara uma desigualdade profunda no acesso qualificado à tecnologia.
Nos ambientes corporativos, a IA é apresentada como estratégia e inovação. Nos territórios vulneráveis, aparece associada a golpes digitais, deepfakes, perda de emprego e desinformação. Os riscos existem. Mas quando a diferença diária de produtividade, acumulada ao longo dos anos, se converte em desigualdade estrutural, limitar o debate apenas às ameaças reforça a exclusão. Ao enfatizar o risco sem oferecer capacitação, a mensagem implícita é clara: essa tecnologia não é para você.
O jornalismo já sente esse efeito. Grandes grupos já integram a IA às suas estratégias de produto e distribuição. Veículos independentes a utilizam de forma pontual, segundo estudo da Thomson Media, muitas vezes restrita a tarefas operacionais. Quando apenas organizações com maior capital incorporam a IA de forma estratégica, a desigualdade no ecossistema informacional se aprofunda.
Parte do debate público ainda tende a moralizar o uso da inteligência artificial, o que frequentemente dificulta uma discussão mais madura sobre sua adoção no Brasil. Utilizar IA seria uma forma de trapaça? Tornaria o trabalho menos legítimo ou o usuário menos inteligente? Ao enquadrar a questão nesses termos, o debate se desloca da discussão sobre infraestrutura, acesso e regulação – justamente os elementos que definem quem realmente se beneficia da tecnologia.
Em texto recente publicado no blog da Mozilla.ai, AI Generated Code Isn’t Cheating: OSS Needs to Talk About It, desenvolvedores defendem que o problema não é utilizar inteligência artificial para gerar código, mas fingir que ela não está presente. Paralelamente, o debate internacional sobre IA tem se deslocado de uma lógica de proibição para uma discussão sobre transparência, responsabilidade e distribuição dos benefícios da tecnologia. O relatório Mind the AI Divide: Shaping a Global Perspective on the Future of Work, publica do pela Organização das Nações Unidas (ONU) em parceria com a Organização Internacional do Trabalho (OIT), chama atenção para um aspecto estrutural desse processo: a infraestrutura necessária para desenvolver e operar sistemas avançados de IA – como centros de dados, capacidade computacional e investimento em pesquisa – permanece concentrada em poucos países e empresas globais.
Assim, a disputa de poder na economia da inteligência artificial não se limita ao uso da tecnologia pelos indivíduos, mas envolve também o controle das plataformas, dos dados e da infraestrutura que tornam esses sistemas possíveis. A inteligência artificial não é neutra. Ela amplia estruturas preexistentes. Num país marcado por desigualdades históricas, o resultado tende a ser previsível.
Sem políticas públicas de formação massiva em IA, conectividade de qualidade e apoio a iniciativas locais e independentes, a tecnologia se consolidará como mais um benefício de classe. A questão não é se a IA será usada. Ela já está sendo. A questão é quem acumulará produtividade, renda e poder – e quem ficará apenas com o discurso do risco. Até agora, o futuro continua sendo apropriado pelas mesmas pessoas do presente.
Marcelle Chagas do Monte é jornalista, pesquisadora e Tech & Society Fellow na Mozilla Foundation. Integra o Columbia Leadership Network. Fundadora do GriôTech e coordenadora da Rede de Jornalistas Pretos. Mestra em Comunicação pela Universidade Federal Fluminense (UFF).
Foto: Roque de Sá Agência Senado
IA: Como a China está vencendo https://lucianosiqueira.blogspot.com/2026/03/ia-china-vence-eua.html
Turbulências na economia
global https://lucianosiqueira.blogspot.com/2026/01/turbulencias-na-economia-global.html
IA: Como a China está vencendo
Congresso dos EUA fica sabendo, enfim: Washington foi
ultrapassada. Ao desprezar objetivos fantasiosos, e apostar em códigos abertos,
dados industriais de forma massiva e pequenos modelos de linguagem, Pequim
driblou o bloqueio de chips. O que o Brasil pode aprender com isso
James Görgen/Outras
Palavras
A China construiu uma vantagem estrutural no campo da inteligência artificial que vai muito além da corrida por modelos de fronteira e os bilionários investimentos em infraestrutura. Um trabalho encomendado pela Comissão de Análise Econômica e de Segurança EUA-China do Congresso dos Estados Unidos conseguiu mapear esta estratégia de forma pormenorizada. Para obter avanços na corrida, as empresas e o governo chinês operam em sintonia por meio de dois circuitos de retroalimentação que se reforçam mutuamente — um digital e um físico. Juntos, ambos geram uma dinâmica de acumulação de vantagens que independem do acesso a semicondutores avançados. É precisamente essa estrutura de dois laços que os controles de exportação americanos não conseguem interceptar. O que temos a aprender com isso?
O documento, intitulado Two
Loops: How China’s Open AI Strategy Reinforces Its Industrial Dominance e
assinado pela analista sênior Ngor Luong, foi publicado nesta semana. Em suas
trinta páginas, o texto da comissão — um órgão independente do Congresso
americano criado para monitorar as implicações econômicas e de segurança da
relação entre os dois países — chega a conclusões que desafiam a narrativa
dominante sobre a corrida de IA. Ele nos mostra que o debate sobre vencedores e
perdedores não se resume a quem tem o maior modelo ou o chip mais avançado. Mas
quem souber implantar inteligência artificial em maior escala na economia real,
gerar mais dados proprietários com isso, e transformar esses dados em vantagem
competitiva duradoura. Nessa corrida, a China saiu na frente de uma forma que
Washington ainda não sabe como responder.
A aposta chinesa no código aberto não foi uma
concessão à necessidade nem um sinal de fraqueza tecnológica. Foi uma escolha
estratégica deliberada, com raízes na política industrial do país desde pelo
menos o Plano Nacional de Desenvolvimento de IA de 2017,
e que foi sendo reforçada pelo 14º Plano Quinquenal e, mais
recentemente, pela iniciativa “AI+” do Conselho de Estado, formalizada em
agosto do ano passado. A lógica é elegante: se você não pode vencer na corrida
pelo chip mais poderoso — devido às restrições de exportação americanas — ,
vencerá tornando seus modelos tão acessíveis, tão baratos e tão adaptáveis que
o mundo inteiro passe a usá-los, melhorá-los e redistribuí-los. E cada ciclo de
uso gera mais iterações, mais derivações, mais melhorias.
O resultado é visível em números. Conforme
análise da comissão, os modelos Qwen, da Alibaba, já acumulam mais de cem mil derivados na
plataforma Hugging Face — o maior ecossistema de modelos abertos do mundo — ,
superando o Llama da Meta.
Em agosto de 2025, os modelos chineses ultrapassaram os americanos em
total de downloads na mesma plataforma. Entre novembro e dezembro daquele ano,
sete dos dez modelos mais baixados eram chineses. E os desenvolvedores de todo
o mundo fazem o upload de derivados
de modelos chineses de volta à plataforma quase duas vezes mais rápido do que
fazem com modelos americanos. A China não está apenas participando do
ecossistema global de IA aberta. Está, cada vez mais, definindo sua direção.
O diferencial de preços explica boa parte desse
sucesso. O Kimi K2.5, da startup Moonshot AI, custa quatro vezes menos que o GPT-5.2 da
OpenAI para desempenho equivalente — ambos com índice de inteligência 47 na
escala dinâmica da plataforma Artificial Analysis. O DeepSeek, o modelo que no
início de 2025 surpreendeu o mundo ao atingir desempenho próximo ao dos gigantes
americanos com fração do custo computacional, foi eleito pela revista Time como uma das
melhores invenções de 2025. A Minimax, outra startup chinesa, abriu capital na Bolsa de Hong Kong em janeiro com
o preço das ações dobrando no primeiro dia de negociação. Não são sinais de um
setor em dificuldades. São sinais de um ecossistema em plena aceleração.
O governo chinês não apenas tolera essa
dinâmica — ele a financia ativamente. Pelo lado da oferta, províncias como
Gansu, Guizhou e Mongólia Interior oferecem cortes de até 50% nas contas de eletricidade
para data centers. Pelo lado da demanda, Pequim subsidia o acesso a
modelos já baratos por meio de vouchers de API e compra direta de
licenças de modelos pré-treinados para pequenas e médias empresas. O objetivo
declarado é simples: maximizar a adoção, gerar dados, minimizar as barreiras de
entrada e usar a abertura como instrumento para estabelecer padrões técnicos
que o mundo inteiro precisará seguir.
Se o primeiro laço é digital, o segundo é físico — e é
aí que a vantagem chinesa se torna mais difícil de replicar ou de abalar. A
premissa é que à medida que os dados disponíveis publicamente na internet se
tornam um recurso finito, o próximo diferencial competitivo no desenvolvimento
de IA será a capacidade de gerar dados proprietários de alta qualidade a partir
do uso real em contextos específicos. O Epoch AI, instituto de pesquisa
independente, estima que os dados de alta qualidade disponíveis
publicamente para treinamento de modelos de linguagem podem se esgotar entre
2026 e 2032. Quando isso acontecer, quem tiver mais dados industriais
proprietários levará vantagem decisiva.
E a China tem, nesse quesito, uma combinação de
ativos que nenhum outro país consegue replicar na mesma escala. São mais de 30 mil fábricas inteligentes conectadas
criando uma uma infraestrutura massiva de internet das coisas (IoT)
e redes 5G que gera milhões de pontos simultâneos de coleta de dados. Isso é
garantido por empresas de robótica como a AgiBot e a Fourier, que liberam datasets abertos
de treinamento para IA incorporada ao mundo físico. Câmeras HD em linhas de produção permitem
que sistemas de visão computacional detectem defeitos em tempo real, reduzindo
taxas de falha em equipamentos e economizando centenas de milhares de dólares
anualmente em uma única fábrica a partir de manutenção preditiva.
A implementação de IA na base industrial não
apenas resolve problemas operacionais imediatos. Ele gera dados que alimentam
modelos melhores, que por sua vez viabilizam aplicações ainda mais
sofisticadas, que geram dados ainda mais ricos. Cada ciclo é mais rápido e mais
barato que o anterior — e, crucialmente, nenhum deles depende de acesso aos chips
mais avançados do mundo. Um modelo de inspeção de qualidade numa fábrica em
Guangdong não precisa da escala computacional de um GPT-5. Precisa de um
pequeno modelo de visão computacional ajustado com dados de linha de produção,
rodando em hardware de borda. Isso a China tem de sobra.
Pequim entende o valor estratégico desses dados
há anos. Isso é possível constatar ao listarmos as principais medidas
cronologicamente:
Olhando tudo isso em perspectiva fica clara a
construção metódica de uma infraestrutura institucional para transformar
vantagem de implementação em ativo estratégico duradouro. Nenhum outro país
chegou perto de fazer isso de forma sistemática. O Brasil tem dados. A Índia
tem dados. A Indonésia tem dados. Mas nenhum deles construiu ainda o aparato
para transformar esses dados em ativo contábil, em política industrial e em
vantagem competitiva de IA ao mesmo tempo. A China não descobriu uma fórmula
mágica — ela simplesmente levou a sério uma pergunta que os outros ainda estão
adiando.
A conexão entre os dois laços não é óbvia, mas é o
ponto mais original e revelador da análise de Luong. O mecanismo que os une é a
emergente predominância dos pequenos modelos de linguagem — os SLMs, na sigla
em inglês — sobre os grandes modelos de fronteira nas aplicações industriais e
comerciais do mundo real.
A narrativa dominante na IA americana continua
centrada na escala a partir de modelos cada vez maiores, treinados em
quantidades crescentes de dados e computação, produzindo capacidades cada vez
mais impressionantes em casos cada vez mais complexos. Essa lógica das “leis de
escalonamento” orientou anos de investimentos bilionários. Mas pesquisadores da
Nvidia publicaram um paper em
2025 argumentando que pequenos modelos “lidam com a maior parte das subtarefas
operacionais” em sistemas de IA agêntica, com custos de dez a trinta vezes
menores que as alternativas de fronteira. O futuro, dizem eles, é
“heterogêneo”: grandes modelos para raciocínio complexo ocasional, pequenos
modelos especializados para a maioria das aplicações implantadas. SLMs
favorecem ecossistemas abertos como o chinês, democratizando adaptações
industriais rápidas e baratas a partir de bases pré-treinadas, dando vantagem estrutural
à China.
O modelo mais baixado do Hugging Face no final de 2025 não
era um grande modelo de fronteira. Era o Tarsier2-Recap-7b, um pequeno modelo
especializado em legendagem de vídeo, desenvolvido pela ByteDance — a empresa
por trás do TikTok — a partir de um ajuste fino do Qwen2-VL-7B da Alibaba. Um
ecossistema que funciona assim — modelo-base aberto, especialização guiada pela
comunidade, iteração rápida — está otimizado para produzir exatamente o tipo de
IA que a próxima fase da competição vai exigir.
O que acontece quando a política industrial de um país
é calibrada para combater uma ameaça que já passou? O autor do estudo é direto
ao apontar o que considera uma falha estratégica no desenho da resposta dos
EUA. Os controles de exportação americanos foram calibrados para atingir o
primeiro laço: restringindo o acesso a chips avançados, a intenção é limitar a
capacidade chinesa de treinar grandes modelos de fronteira. É uma política que
faz sentido dentro de sua própria lógica. Mas é uma lógica que pode estar
errada ou, no mínimo, incompleta.
O segundo laço — geração de dados industriais
por implementação em escala — opera com computação menos avançada, modelos
abertos disponíveis globalmente e vantagem acumulada por aplicação, não por
pré-treinamento. Nada disso é estancado por restrições a exportações de chips.
E é exatamente nesse segundo laço que a vantagem chinesa é mais sólida e mais difícil
de replicar.
A resposta americana tem sido fragmentada. A
OpenAI lançou seus primeiros modelos de peso
aberto desde o GPT-2 em agosto de 2025, depois que seu CEO Sam Altman admitiu que a empresa esteve
“no lado errado da história” em relação ao código aberto. A Nvidia lançou o Nemotron 3 agora em março. O
Plano de Ação de IA de 2025 do governo Trump reconhece a importância dos modelos
abertos.
O projeto ATOM, iniciativa do setor, tenta fomentar um
ecossistema americano competitivo. Mas o principal campeão do ecossistema
aberto americano — a Meta — está em retirada: seu próximo modelo de grande
escala, codinome “Avocado”, deverá adotar abordagem
fechada de API, abandonando os downloads de pesos que definiram a família
Llama. A ironia não escapa ao relatório: a Meta está fechando seus modelos em
parte porque empresas chinesas, especialmente a DeepSeek, usaram a arquitetura
aberta do Llama para acelerar suas próprias capacidades. O ecossistema aberto
americano está sendo corroído pelo sucesso da estratégia que tentava combater.
Há outros gaps identificados pelo relatório.
Não existe equivalente americano ao esforço sistemático da China de converter
implementação industrial em ativo de dados. Os investimentos americanos — desde
os incentivos do CHIPS Act até os financiamentos da Fundação Nacional de
Ciências — foram direcionados majoritariamente ao desenvolvimento de modelos de
fronteira, não à aceleração da aplicação no mundo real. Não há métricas
padronizadas para medir como modelos estão sendo usados em soluções
industriais. E a possibilidade de que a IA incorporada ao mundo físico
represente um caminho alternativo válido para inteligência artificial geral —
uma via que a China está ativamente explorando em laboratórios, fábricas e
centros de pesquisa — recebe atenção política mínima em Washington.
O relatório de Luong foi escrito de uma perspectiva de
segurança nacional americana. Mas suas implicações para os demais países —
especialmente para o Sul Global — são igualmente significativas, mesmo que o
texto não as desenvolva diretamente. O que seu trabalho não consegue responder
é se a vantagem estrutural vai de fato se materializar, ou se vai esbarrar nos
mesmos gargalos que frearam outras apostas chinesas de longo prazo — a rigidez
burocrática, a autocensura que contamina os dados, a desconfiança internacional
que encarece a adoção fora da órbita chinesa. O relatório é convincente no
diagnóstico. Nas projeções é mais otimista sobre a China do que a evidência
disponível talvez justifique.
O que o pesquisador sustenta são os riscos de segurança
para os EUA. Segundo ele, a dominância chinesa no ecossistema global de IA
aberta significa que países em desenvolvimento que adotam modelos abertos — e o
farão, dada a relação custo-desempenho imbatível — estão construindo sua
infraestrutura de IA sobre fundações definidas em Pequim. Luong sustenta que
arquiteturas, formatos de dados, características de segurança e outras
funcionalidades estão sendo moldadas por escolhas técnicas e políticas baseadas
na estratégia chinesa. O NIST americano já identificou que os modelos DeepSeek são mais
vulneráveis a riscos cibernéticos que equivalentes americanos. Pesquisadores
documentaram mecanismos de autocensura em chatbots chineses sobre
temas politicamente sensíveis.
A assimetria de dados apontada no relatório é
estruturalmente análoga às dependências de plataforma que o Sul Global já
conhece. Modelos chineses melhoram com dados globais — cada desenvolvedor no
Brasil, na Indonésia ou na Nigéria que usa o Qwen como base contribui, direta
ou indiretamente, para o ecossistema. Mas os dados industriais e institucionais
chineses permanecem fechados, protegidos por uma lei de segurança de dados que
restringe o compartilhamento além-fronteiras. É uma abertura assimétrica: o
mundo contribui para a infraestrutura de IA da China, mas a China não devolve o
equivalente segundo o estudo.
Mas como tudo isso envolve mais software e menos hardware
esta parece ser uma fórmula mais alcançável por outros países. Investir em
dados gerados por pessoas e empresas e usar capacidade de processamento mais
básica para o desenvolvimento de SLMs, focando em aplicações específicas, não é
algo que exija investimentos comparados aos que as big techs estão fazendo.
Envolve muito mais um esforço de coordenação e articulação institucional entre
atores de diversos segmentos do que milhares de chips funcionando em um data
center gigante devorador de energia.
Para países como o Brasil, que buscam construir ativamente
suas estratégias de soberania digital e governança de IA, a leitura do
relatório da comissão do Congresso oferece um mapa do terreno que vai muito
além da rivalidade sino-americana. A pergunta que se impõe não é apenas “de
quem serão os chips?” ou “quem regulará as plataformas?”. É uma pergunta mais
fundamental provoca a reflexão sobre quem controlará a infraestrutura
fundacional sobre a qual toda a IA do século XXI será construída? Os dois laços
concebidos no texto de Luong sugerem que essa pergunta pode já estar sendo
respondida — em fábricas de Guangdong, em datasets de
robótica de Xangai, e em centenas de milhares de modelos derivados circulando
livremente pelo Hugging
Face.
O relatório da comissão do Congresso americano foi escrito
para Washington. Mas quem deveria lê-lo com mais atenção talvez sejam os países
que vão adotar esses modelos sem ter participado da decisão de como eles foram
construídos, com quais dados, com quais valores embutidos e com quais ausências
deliberadas. Se não corrermos atrás do prejuízo, a próxima rodada da soberania
digital não vai ser decidida em Brasília, em Jacarta ou em Lagos. Vai ser
decidida antes — no momento em que cada país escolhe, ou deixa de escolher,
sobre qual fundação vai construir sua IA. E a China é uma candidata cada vez mais
forte a tornar isso uma opção palpável.
Leia também: Inteligência Artificial, Data centers e o fim do
mundo https://lucianosiqueira.blogspot.com/2025/12/ia-operacao-consequencias.html
Ontem meu peito chorava.
Hoje, não.
Também cansa a desventura.
Também o sol gasta o chão.
Estava ontem sozinha,
tendo a meu lado, sombria,
minha própria companhia.
Hoje, não.
Morreu de tanto morrer
a pena que em mim vivia.
Morreu de tanto esperar.
Eu não.
Relógios do tempo andaram
marcando o tempo em meu rosto.
A vida perdeu seu tempo.
Eu não.
Também cansa a desventura.
Também o sol gasta o chão.
[Ilustração:
Leia também: "Lembrança alada", poema de Mia Couto https://lucianosiqueira.blogspot.com/2025/12/palavra-de-poeta_71.html