Armas autônomas: a banalidade do mal digital
Sob a aparência de
neutralidade e eficiência, e a partir de missões militares, algoritmos tomam
decisões letais. Quem será responsável por seus assassinatos? Lógica remete ao
julgamento do nazista Adolf Eichmann – e debate internacional precisa
considerar banir tecnologia de guerra
Lauro
Accioly Filho,
no The Conversation/Outras Palavras
A crescente naturalização da automatização tecnológica revela um paradoxo perturbador. Pesquisadores da Science and Technology Studies (jornal oficial da Associação Europeia para o Estudo da Ciência e Tecnologia) alertam para a aparente autonomia e neutralidade atribuída aos artefatos tecnológicos, tecendo uma reflexão crítica sobre o que, de fato, significa “autonomia” nas máquinas.
Ao
deslocar decisões humanas para sistemas algorítmicos sob a
aparência de neutralidade e eficiência, a tecnologia cria uma zona
de conforto moral em que os programadores e desenvolvedores são
progressivamente eximidos de responsabilidade pelos resultados de suas próprias
criações.
A ausência de reflexão ética diante dessa questão remete diretamente à
percepção aguda de Hannah Arendt,
filósofa alemã de origem judaica, sobre a banalidade do mal, segundo a qual os
atos mais devastadores podem ser cometidos por indivíduos comuns. Ao abdicar do pensamento crítico, estes
tornam-se engrenagens de sistemas que operam sem questionamento moral.
No campo
da inteligência artificial (IA) e dos sistemas autônomos, a obediência cega é
transferida ao código, à crença de que lógica algorítmica decide melhor porque
o faz “sem emoção”. Assim, a automatização não apenas executa ordens, mas
naturaliza o afastamento entre ação e responsabilidade, configurando o que
podemos chamar de uma banalidade do mal digital.
Debate limitado nas Nações Unidas
O debate sobre armas autônomas vem crescendo na
Organização das Nações Unidas (ONU), mas continua incipiente e
preocupante. Apesar do avanço das discussões multilaterais, a maioria das
formulações se limita a questões operacionais e de regulação, sem questionar a racionalidade
que sustenta a própria ideia de “autonomia” nas máquinas. Ao que
tudo indica,
Essa
racionalidade naturaliza a substituição da decisão humana pela eficiência
algorítmica, eximindo de responsabilidade toda a cadeia envolvida na concepção,
no treinamento e na implementação desses sistemas. Assim, a ONU discute os
efeitos, mas raramente aborda as causas estruturais, como se por omissão
estivesse valiando o discurso de neutralidade tecnológica que torna invisíveis
os agentes humanos por trás da escolha dos algoritmos das novas armas de
guerra.
Os riscos
éticos e discriminatórios na maneira como se está lidando com as tecnologias
autônomas, especialmente as da guerra, são profundos. Algoritmos alimentados por bases
de dados enviesadas podem reproduzir e amplificar desigualdades
sociais, comprometendo o princípio da distinção, essencial para a proteção de
civis.
Um grupo de especialistas da ONU alertou
que critérios de decisão automatizada podem ser influenciados por fatores como
gênero, idade ou raça, transformando erros técnicos em injustiças humanitárias
e falhas algorítmicas em novas formas de violência sistêmica.
Neste
aspecto, a campanha Stop Killer Robots desempenha
um papel fundamental ao mobilizar governos e organizações da sociedade civil
pelo banimento das armas autônomas ao redor do mundo. Voltada a aspectos
jurídicos e normativos, busca criar um acordo internacional que regule ou
proíba o uso de armas autônomas letais, especialmente aquelas capazes de tirar
vidas humanas sem supervisão direta.
O
problema é que essa abordagem não questiona o ponto central que sustenta o
desenvolvimento dessas tecnologias: a crença de que a autonomia algorítmica é
sinônimo de objetividade e eficiência. Sem enfrentar esse pressuposto ou seja,
as bases epistêmicas e políticas dessa lógica, o movimento corre o risco de
reforçar dissociação entre as criação e produção de uma tecnologia, a
responsabilidade e a moralidade.
Decisão mais justa para quem?
Como
alerta Silvana Bahia em [Pode um robô ser
racista?], a tecnologia é sempre uma expressão da experiência e da visão de
mundo de quem a cria. A crença em sua neutralidade mascara o fato de que cada
escolha técnica carrega decisões políticas, éticas e culturais. Essa crítica é
evidente nas tecnologias de reconhecimento facial (TRFs), cujos algoritmos
reproduzem vieses raciais e de gênero já presentes na sociedade. Os bancos de
dados que alimentam essas ferramentas refletem essas desigualdades e produzem
uma vigilância seletiva, na qual certos corpos são considerados mais
“suspeitos” que outros.
O
estudo Gender Shades: Intersectional
Accuracy Disparities in Commercial Gender Classification, conduzido
por Joy Buolamwini e Timnit Gebru, mostrou como sistemas de reconhecimento
facial de grandes corporações apresentavam taxas elevadas de erro na
identificação de rostos de mulheres negras. Se tecnologias incapazes de
identificar rostos com precisão já produzem exclusões e injustiças, delegar a
elas decisões sobre vida e morte representa um risco ético e humanitário
extremo.
As
análises de Tarcízio Silva, em Racismo Algorítmico,
e de Ruha Benjamin, em Race After Technology, também ajudam a
compreender como os processos invisíveis da automação naturalizam a perpetuação
de problemas sociais estruturais sob um selo de desafio de acurácia técnica.
Isso leva a uma questão ética inevitável sobre quais dados alimentam os
sistemas autônomos. Sobretudo, é aceitável que dados concebidos para aplicações
civis sejam reutilizados para a tomada de decisões algorítmicas letais?
Quando
essa lógica chega ao campo militar, a consequência é ainda mais grave,
assumindo a forma de automação da morte. Aqui, é possível perceber um eco
direto da análise de Achille Mbembe sobre a necropolítica, na qual o poder de decidir
quem vive e quem morre é transferido a dispositivos técnicos, sem qualquer
mediação ética.
Ao se
eximirem da responsabilidade moral e atribuírem à máquina o poder de decidir
sobre a vida e a morte, os fabricantes de armas autônomas reproduzem a mesma
lógica de obediência sem pensamento que Hannah Arendt denunciou em Adolf
Eichmann. Ele, o burocrata nazista que, entre 1941 e 1945, organizou
a deportação em massa de judeus para campos de extermínio e que, ao ser julgado
em 1961, alegava apenas “cumprir ordens”.
A
autoridade agora não é o Estado totalitário, mas o algoritmo: uma nova forma de
poder que legitima o afastamento entre ação e consciência. Assim, na tentativa
de “aperfeiçoar” a guerra, a humanidade aperfeiçoa apenas sua capacidade de
dissociar a violência da responsabilidade, transformando a morte em mero
cálculo técnico e o mal em operação banal.
[Qual a sua opinião?]
Leia também Colonialismo digital: a nova fronteira
da dependência latino-americana https://lucianosiqueira.blogspot.com/2025/11/o-desafio-da-autonomia-tecnologica.html

Nenhum comentário:
Postar um comentário