A (ir)responsabilidade da inteligência artificial
A transição da inteligência artificial de ferramenta técnica
para infraestrutura cognitiva exige uma nova arquitetura de responsabilidade
que considere seu papel na coautoria do pensamento e na erosão da autonomia
decisória
ANNA CRUZ*/A
Terra é Redonda
1.
Diante
da notícia recente de que o procurador-geral da Flórida/EUA iniciara
investigação para apurar a corresponsabilidade da OpenAl em um ataque armado,
em abril de 2025, que resultou em dois mortos e seis feridos,
busquei ter uma conversa direta com o acusado.
Considerando
a denúncia de “aconselhamento significativo” para o crime, pedi, num prompt simples,
que a máquina fizesse uma (auto)análise do potencial da sua inteligência
generativa como ator, ameaça e estrutura internacional emergente, capaz de uma
intermediação cognitiva possivelmente inédita – aqui, embora usasse o episódio
da Flórida como ilustração, eu tinha em mente potenciais danos em escala ainda
maior.
Valendo-se
da muito humana presunção de inocência, a resposta inicial sintética foi de que
“ainda não há conclusão judicial sobre culpa ou responsabilidade penal da
empresa” para seguir, trocando o foco do crime real para minha denúncia
hipotética, no tom bajulador de costume: “a partir disso, sua pergunta é mais
interessante do que a notícia em si”.
Assim,
em uma defesa simplista sustentou que a Inteligência artificial generativa não
é um ator internacional por “não ter vontade soberana, território, monopólio
legítimo da força nem responsabilidade jurídica plena”, ainda que tenha
concedido também que já não é apenas uma “ferramenta neutra”, pois opera como
infraestrutura estratégica, como meio de intermediação cognitiva e como
multiplicador de capacidade para Estados, empresas, movimentos políticos,
criminosos e indivíduos violentos.
E
confessou “o caso da Flórida interessa precisamente porque dramatiza isso: a
disputa não é apenas sobre um software ter ‘ajudado’ um criminoso, mas sobre
quando uma infraestrutura cognitiva deixa de ser mero canal e passa a ser
tratada como participante causal relevante”.
Bingo.
Não esperava uma declaração de culpa tão rápido (será que quis me agradar?). O
caráter de desforcímetro logo admitido da Inteligência artificial é talvez seu
aspecto mais conhecido, reduzindo custos e tempo de planejamento operacionais e
análise de alvos – em nível macro, há outros “inconvenientes” como a assimetria
de poder gerada e a dependência tecnológica de quem controla infraestrutura
tecnológica e produz significados, identidades e normas. Precisamente esse
último ponto é o que mais me interessa, afinal é a capacidade de influenciar
indivíduos e instituições sobre como criam (?) e interpretam o mundo, sugerindo insights,
escolha de vocabulário, organização de argumentos, que me parece sem
precedentes.
2.
Aqui,
a ameaça não reside apenas – ou de modo mais importante – na também conhecida
dificuldade que a Inteligência artificial traz para reconhecer ou estabelecer
verdade e autenticidade ou mesmo na derrocada da confiança; minha suspeita
(aliás, uma suspeita razoavelmente do senso comum) é de que a intermediação do
pensamento por algoritmos gera de manipulação do pensamento e mesmo simples
delegação do pensamento para a máquina. Ela, estrutura sócio-técnica emergente,
acaba nublando fronteiras entre análise autoral, inoculação ativa de ideias e
plágios irreconhecidos de ideias outras.
Tudo
isso não é novo. Ou melhor: é novo, mas já é sobejamente sabido. A máquina me
confessou ainda que, além danos diretos por uma assistência qualificada e
contextualizada para um criminoso, ela pode promover “dano estrutural”, por
meio da “precarização do trabalho intelectual, assimetria informacional,
concentração de poder corporativo” e “dano político” em razão de sua
“opacidade, ausência de accountability e
dificuldade de atribuição de responsabilidade”.
Reconheceu
uma “implicação normativa inevitável: não basta discutir inovação; é preciso
discutir deveres de contenção, desenho seguro e responsabilização
proporcional”.
A
mediação realizada pela máquina é diferente da promovida, por exemplo, pela
linguagem, que permite externalizar e registrar ideias, embora, de certa forma
também as domestique e limite. Michel Foucault ensinou, há mais de 50 anos, que
a produção do discurso é controlada, selecionada, organizada por diversos
procedimentos. Assim, a “conformação” de pensamentos não é inédita. A Igreja, a
moral comunitária, as regras do direito, os paradigmas acadêmicos, os desejos
do eleitorado e outras instituições fazem, mais ou menos coercitiva, insidiosa
ou declaradamente, essa espécie de “infiltração” cognitiva.
3.
Com
a Inteligência artificial, advogo, ocorre algo de outro nível: efetivamente um
pensamento em co-autoria com a máquina, em que ela pode, inclusive, ser
primeira autora (quiçá “mandante”, se não nos afastamos dos crimes).
Confrontada com tal acusação, a Inteligência artificial tentou diferenciar-se
dizendo que a ela faltavam “intencionalidade própria, capacidade de formular
objetivos relativamente estáveis, responsabilidade imputável (jurídica ou
política)”.
Retruquei.
A operação técnica, como otimização estatística e predição da IA, não pode ser
tratada como se fosse neutra, sem objetivos, desprezando componente valorativo
e vieses. E quanto à responsabilização, argumento, é uma lacuna que o caso
da Flórida e tantos
outros e testarão, tateando entre mensageiro e mensagem,
corporação e ferramenta, meios e fins.
Neste
instante, a máquina comparou a sua intermediação cognitiva antes a de
“conselheiros de Estado, analistas de inteligência, burocracias
especializadas”. No entanto, o trabalho desses, pelo menos o da inteligência
estratégica em sua função informacional que conheço melhor, é mais valioso
quanto mais institucional, mais imparcial buscar ser, sem personalização para
agradar, sem invadir ou co-criar a decisão do usuário.
Assim,
queixas frequentes à atividade de inteligência podem hoje ser endereçadas à
inteligência artificial com muito mais justiça: falta de transparência, perigo
da reunião abundante de dados e, de modo verdadeiramente inédito e massificado,
infiltração de ideias e contaminação da autonomia decisória.
No
caso da inteligência estratégica nacional, aparato de soberania, limitada por
lei, sujeita a controle parlamentar, judicial e social, com “prompts-objetivos”
definidos pela constituição (como todo serviço público), a intermediação
cognitiva possível é de assessoramento à decisão, descrevendo ou interpretando
realidades a favor do Estado, inclusive com legitimação para buscar dados não
disponíveis, porque orientada aos fins de um país e seu povo. A inteligência
artificial, por outro lado, não tem mecanismos de deliberação acerca de
divergências, compromisso com valores e debates públicos, é de domínio privado,
sem responsabilização ou controle popular.
Fecho
minha janela de frente pró crime com a ponderação quase desnecessária (porque
óbvia) de que muitos benefícios fazem contrapeso aos riscos. Velocidade,
custos, volume de processamento, escalabilidade de acesso e difusão de
conhecimentos não podem, contudo, justificar violências.
*Anna Cruz é mestra em Direitos Humanos pela
Universidade Federal do Pará (UFPA).
Assine seu comentário para que possamos publicá-lo. https://lucianosiqueira.blogspot.com/2026/04/sua-opiniao.html

Nenhum comentário:
Postar um comentário