14 julho 2023

Automatização e dependência

O papel da América Latina na era do Chat GPT

Qual posição a América Latina pode ocupar na nova ordem mundial da inteligência artificial (IA)? Como será seu impacto no emprego, na vida cotidiana e na diversidade cultural? Uma declaração feita por pesquisadores debate de forma crítica o uso, a regulação e o desenvolvimento da IA em nível regional 
Bruno Massare/Le Monde Diplomatique

“Sabemos do potencial produtivo dos sistemas de inteligência artificial, assim como os riscos que seu crescimento irresponsável acarreta”, lê-se no início da Declaração de Montevidéu sobre Inteligência Artificial e seu impacto na América Latina, uma carta publicada em março deste ano por alguns dos principais especialistas da área na região, que se reuniram na Conferência Latino-Americana de Inteligência Artificial (Khipu 2023) realizada na Faculdade de Engenharia da Universidade da República, em Montevidéu, Uruguai.

A declaração é ao mesmo tempo uma resposta e uma posição tomada pela América Latina em relação à carta encabeçada no mesmo mês por Elon Musk e um extenso grupo de cientistas, intelectuais e empresários sobre a necessidade de pausar por seis meses o desenvolvimento de modelos de inteligência artificial mais poderosos que o Chat GPT-4, em razão dos profundos riscos que representariam para a sociedade e para a humanidade, lembrando também que o desenvolvimento de outras tecnologias com potencial efeito catastrófico, como a clonagem humana, também foi pausado.

Ambas as cartas concordam nos riscos envolvidos no desenvolvimento descontrolado de modelos de aprendizado automático, ou do que é conhecido como inteligência artificial geral – sistemas multipropósito capazes de gerar novo conteúdo, por exemplo, em textos e imagens, e cujos resultados e respostas combinam grandes capacidades computacionais com o uso de redes neurais que lhes permitem ser “treinados” e evoluir em seu desempenho. No entanto, a Declaração de Montevidéu vai um pouco além e exige que esses sistemas cumpram os princípios orientadores dos direitos humanos, de respeitar e representar diferenças culturais, geográficas e ideológicas, entre outras, de não reforçar estereótipos ou aprofundar a desigualdade, de integrar as particularidades das idiossincrasias latino-americanas e de preservar a soberania na adoção dessas tecnologias.

A carta de Musk – publicada pelo Instituto Future of Life, organização financiada quase que inteiramente pela Fundação Musk – não parece ter gerado um efeito concreto a nível governamental ou nos laboratórios das empresas. Estes têm criticado o dono da Tesla (que até 2018 foi investidor da OpenAI, a empresa dona do Chat GPT, hoje propriedade da Microsoft) por ser vago ou lhe atribuem interesse pessoal em atrasar o desenvolvimento desses produtos. Na verdade, eles parecem apenas acelerar o ritmo: a Microsoft está negociando com a Samsung a substituição do mecanismo de busca do Google pelo Bing, integrado ao Chat GPT, enquanto a Alphabet decidiu fundir seus dois grandes laboratórios de pesquisa, o Google Brain e o DeepMind, para não perder a corrida para seu concorrente.

Tudo isso ocorre no contexto de uma disputa entre os Estados Unidos e a China pela supremacia das tecnologias de inteligência artificial, com um amplo espectro de aplicações – desde a indústria até a defesa – que só tende a crescer com o tempo. Enquanto isso, a Europa tenta trilhar seu caminho com um volume de investimento na área muito menor e com uma maior ênfase regulatória. A maioria do resto do mundo atua como espectador, com a exceção de alguns países que decidiram investir pesadamente nesse campo, como Índia, Rússia e Japão. Nesse cenário, os pontos levantados pela Declaração de Montevidéu também se tornam perguntas: que lugar está reservado para a América Latina – e, por extensão, para os demais países menos desenvolvidos – nessa nova ordem mundial da inteligência artificial? Qual será o impacto dessas tecnologias no emprego e quais mecanismos podem mitigá-lo? Qual margem de intervenção esses países terão ao adotar ou regular essas ferramentas? 

Riscos e extrativismo 

“O que pensamos ao fazer a declaração é que, se vamos usar inteligência artificial, não queremos ser apenas consumidores ou mão de obra barata em nossa região”, afirma Fernando Schapachnik, pesquisador em Ciências da Computação da Universidade de Buenos Aires (UBA) e diretor da Fundação Sadosky, uma organização público-privada que articula políticas na área de informática e comunicações. Schapachnik, um dos signatários da Declaração de Montevidéu, diz que entre as principais preocupações que desejavam manifestar estava a denúncia do extrativismo de dados, a perda de empregos, a falta de respeito às idiossincrasias e a necessidade de estabelecer critérios de risco e exigir salvaguardas desde o design das aplicações.

Em termos de emprego, um dos debates gira em torno de automatizar todo trabalho passível de automação ou estabelecer limites artificiais, como políticas de cotas nas empresas ou exigências de reconversão profissional quando humanos forem substituídos por máquinas. Embora os empregos de escritório de baixa e média complexidade estejam entre os mais ameaçados, a lista de ocupações com potencial para serem substituídas por sistemas de inteligência artificial se estende a uma ampla variedade de tarefas e setores da indústria.

“Em pouco tempo, veremos esses sistemas conectados aos back-ends empresariais. Embora essa preocupação seja global, sabemos que o impacto será muito forte na América Latina por causa da qualidade do emprego e das dificuldades de requalificação da força de trabalho na região. Isso nos levou a considerar que deixa de ser relevante a discussão sobre se esses sistemas são inteligentes ou não, porque o capitalismo não exige um padrão perfeito, mas algo suficientemente bom, o que é o bastante para substituir muitas tarefas que as pessoas foram treinadas para fazer e que podem ser deslocadas de um dia para o outro”, diz Schapachnik. 

Segundo Kate Crawford, em seu Atlas de inteligência artificial, o debate sobre quais empregos serão substituídos não deve perder de vista outro igualmente crucial, que é aquele sobre “como os seres humanos estão sendo tratados cada vez mais como robôs e o que isso pode significar para a função da mão de obra”. Crawford refere-se a outro efeito da inteligência artificial: o aumento do monitoramento, da avaliação algorítmica e das métricas de produtividade predefinidas impostas aos trabalhadores em muitas organizações, como tem sido o caso dos centros logísticos da Amazon.[1]

Luciana Benotti, pesquisadora e professora da Faculdade de Matemática, Astronomia, Física e Computação (FAMAF) da Universidade Nacional de Córdoba, outra especialista que assinou a Declaração de Montevidéu, destaca o extrativismo de dados que alimenta esses sistemas de inteligência artificial e que sustenta seu modelo de negócios. “Atualmente, fornecemos dados brutos e recebemos inteligência artificial quase da mesma forma que exportamos grãos e importamos alimentos processados. Em algum momento, teremos que discutir que tipo de impostos serão cobrados dessas empresas pelos lucros gerados com a matéria-prima que fornecemos por meio de nossos dados”, observa Benotti, especializada em processamento de linguagem natural, uma das áreas de inteligência artificia l com maior crescimento na última década e que permitiu a grande evolução dos chatbots. 

Benotti, que no ano passado se tornou a primeira latino-americana a assumir a presidência da Associação Norte-Americana de Linguística Computacional, também alerta para o risco da presença de múltiplos vieses no design dos algoritmos que alimentam esses sistemas, tanto em questões de gênero quanto raciais, bem como culturais. “Essas são coisas que têm impacto no que as pessoas consomem, por exemplo, ao usar a opção de preenchimento automático no mecanismo de busca. As sugestões que recebo ou os textos recomendados são algo culturalmente pré-determinado por aqueles que os projetaram. São elementos que ainda não sabemos como impactam nossa sociedade, faltam estudos a respeito e também falta financiamento para realizá-los”, di z a pesquisadora da FAMAF. 

Além dos vieses embutidos nesses sistemas, ferramentas como o Chat GPT apresentam erros recorrentes. Embora possuam uma capacidade de processamento de linguagem muito sofisticada e tenham sido treinadas em uma quantidade enorme de dados, também apresentam erros inesperados e, em muitos casos, que não podem ser explicados. 

“Não sabemos exatamente como isso é feito”, declararam os especialistas da AlphaGo no documentário de 2017 com o mesmo nome, no qual o sistema criado pela Google Deep Mind, da Alphabet, derrotava o então campeão mundial do jogo de tabuleiro Go.[2] Ou, como prevê o sociólogo David Beer, “há grandes chances de que quanto mais impacto a inteligência artificial tiver em nossas vidas, menos entenderemos o como ou o porquê”. 

O funcionamento dos sistemas de inteligência artificial parece se tornar mais opaco à medida que evolui. “Às vezes, não sabemos bem como esses erros ocorrem e é necessário entender onde podem ocorrer equívocos. O que acontece é que, ao trabalhar com redes neurais profundas, perdemos a explicabilidade e, às vezes, não podemos explicar um erro. Outra coisa pouco estudada é que um dos erros é a alucinação, inventar fatos que parecem verdadeiros, mas são falsos. Pode até ser que, por um tempo, o sistema continue inventando e fornecendo detalhes que parecem verdadeiros. Isso acontece com o Chat GPT e precisa ser estudado com mais profundidade”, adverte Benotti. 

Essa caixa preta do funcionamento de um sistema de inteligência artificial lança um sinal de alerta sobre uma certa tendência natural de atribuir aos sistemas computacionais uma posição de superioridade na avaliação das coisas. E isso a partir de equações que, pelo valor de verdade que lhes é atribuído, “se impõem sem ambiguidade dentro dos prazos mais curtos exigidos e de forma cada vez mais automatizada em relação ao curso dos assuntos humanos”, como argumenta o filósofo Éric Sadin.[3] 

E então, o que fazer? 

Em um jogo em que parece prevalecer a cultura do Vale do Silício de tentar, falhar e depois tentar novamente, o uso do princípio da precaução entra em conflito com essa tendência de lançar produtos para depois avaliar seus efeitos. “Não estamos falando do software de uma geladeira que me diz o que comprar, mas sim de algo que impacta nossas vidas em uma escala diferente”, diz Benotti em relação a como os engenheiros da OpenAI foram lançando novas versões do Chat GPT no estilo de uma solução em busca de um problema, para que a sociedade como um todo pudesse avaliar suas falhas e riscos. 

Essa abordagem, criticada por muitos especialistas no campo da inteligência artificial, levou diferentes partes do mundo a avançar em propostas para regular o desenvolvimento e a adoção dessas tecnologias. A Unesco e a União Europeia são exemplos de progressos nesse sentido, assim como a Global Partnership on Artificial Intelligence, da qual a Argentina faz parte. 

Entretanto, qual é a margem de ação? Uma possível combinação de regulação supranacional com uma agência de regulação local é vista como um cenário desejável por Schapachnik: “O que dizemos é ‘não nos lancem a inteligência artificial generativa como se fosse uma solução para tudo, porque não é’. Precisamos ter critérios e padrões para classificar essas tecnologias de acordo com seus riscos, de forma clara e transparente. Não é verdade que inovação e regulação sejam incompatíveis, e um exemplo disso é a indústria farmacêutica. Por isso, dizemos que inovação e lucro não são os únicos valores, mas também deve haver uma demanda por segurança e validação prévia desses sistemas , por exemplo, em relação a vieses que possamos considerar inaceitáveis”. 

No entanto, até o momento, a Declaração de Montevidéu não teve uma ressonância imediata na política. Schapachnik lembra que, antes da pandemia, na Argentina, foi criado um comitê que visava desenvolver uma estratégia nacional de inteligência artificial: “Naquela época, as discussões eram sobre a necessidade de contar com recursos qualificados, capacidade computacional; algumas preocupações éticas foram levantadas e se falava em não ficar para trás nessa corrida no campo. Depois veio a pandemia e esses encontros foram interrompidos, porém é necessário que haja uma estratégia dos países da região nesse campo, pois são desenvolvimentos que têm impacto no momento e que podem aprofundar as desigualdades que já temos na América Latina”. 

Uma política focada apenas na regulamentação do uso das ferramentas de inteligência artificial deixaria os habitantes da região apenas no papel de usuários dessas tecnologias. O que pode ser feito para além do trabalho de baixo valor agregado realizado por fábricas de software em países de baixa renda, como a classificação humana de imagens ou textos para melhor treinar esses modelos? Os “trabalhadores invisíveis da inteligência artificial”, como esses classificadores de dados têm sido chamados, não passam de humanos tratados como robôs, como alertou Crawford. 

“Há um grande potencial para desenvolver inteligência artificial local e a baixo custo para automatizar trabalhos rotineiros, é uma mentira dizer que isso é caro, pois há muito software aberto disponível”, pondera Benotti. Ela destaca outra grande oportunidade que é trabalhar na “afinação fina” que permite adaptar esses grandes modelos de linguagem para uma variante específica, como por exemplo, uma determinada forma do espanhol. “Isso pode fazer com que um sistema de recomendação de produtos funcione muito melhor do que com um modelo genérico”, acrescenta, alertando para a necessidade de formar mais especialistas nessa área. 

Valor social 

Além do meio acadêmico, também surgem iniciativas menos formais, mas que promovem o envolvimento das pessoas nesse campo. Um exemplo de instâncias de debate e ativismo é o Laboratório Aberto de Inteligência Artificial (LAIA), na cidade de Buenos Aires, um espaço interdisciplinar de exploração e pesquisa composto por programadores, designers, sociólogos, artistas, psicólogos e educadores, entre outros, que tem como objetivo explorar, estudar e discutir os avanços tecnológicos nessa área, agindo e participando do debate público de forma crítica. 

Em seu livro Fragmentar el futuro, o engenheiro e filósofo Yuk Hui alerta sobre a necessidade de “repensar a questão da tecnologia e questionar as premissas ontológicas e epistemológicas das tecnologias modernas, desde as redes sociais até a inteligência artificial”, com o intuito de “enxergar nelas o potencial descolonizador e a necessidade de desenvolver e preservar uma tecnodiversidade”.[4] Nesse mesmo sentido, se a América Latina deseja assumir um papel ativo no jogo mundial da inteligência artificial, é provável que precise questionar alguns dos pressupostos que já estão embutidos em seu design, uma ideia que encerra a Declaração de Montevidéu: “Não há valor social em tecnologias que simplificam tarefas para algumas poucas pessoas, gerando alto risco para a dignidade de muitas outras, limitando suas oportunidades d e desenvolvimento, acesso a recursos e direitos”. 

Bruno Massare é jornalista e pesquisador em Ciências Sociais. Diretor da Agência TSS, a agência de notícias de ciência e tecnologia da UNSAM (Universidade Nacional de San Martín).

[1] Kate Crawford, Atlas de inteligencia artificial: poder, política y costos planetarios [Atlas de Inteligência Artificial: poder, política e custos planetários], Fondo de Cultura Económica, Buenos Aires, 2022, p. 134. 

[2] Alpha Go – The Movie.

[3] Éric Sadin, La inteligencia artificial o el desafío del siglo [A inteligência artificial ou o desafio do século], Caja Negra, Buenos Aires, 2020. 

[4] Yuk Hui, Fragmentar el futuro. Ensayos sobre tecnodiversidad [Fragmentar o futuro: Ensaios sobre tecnodiversidade], Caja Negra, Buenos Aires, 2020.

'Mórbida precisão científica', uma crônica para descontrair https://tinyurl.com/26h45qd3

Nenhum comentário:

Postar um comentário