IA não tem pensamentos, não importa o que você pense
Declarações de pesquisadores podem ser confusas ou até assustadoras para a maioria das pessoas
Cade Metz/THE NEW YORK TIMES/Folha de S. Paulo
Enquanto o sol se punha sobre a Ilha Maury, ao sul de Seattle, no noroeste dos Estados Unidos, Ben Goertzel e sua banda de jazz-fusion tiveram um daqueles momentos que todas as bandas desejam: teclado, guitarra, saxofone e vocalista soando como se fossem um.
Goertzel estava no teclado. Os amigos e familiares da banda ouviam em um pátio com vista para a praia. E Desdemona, usando peruca roxa e um vestido preto com tachas metálicas, estava nos vocais, alertando sobre a chegada da Singularidade –o ponto de inflexão onde a tecnologia não poderá mais ser controlada por seus criadores.
"A Singularidade não será centralizada!", ela gritou. "Vai se irradiar pelo cosmo como uma vespa!"
Depois de mais de 25 anos como pesquisador de inteligência artificial (IA) –um quarto de século em busca de uma máquina capaz de pensar como um ser humano–, Goertzel sabia que finalmente havia alcançado o objetivo final: Desdemona, uma máquina que ele construiu, era senciente.
Mas alguns minutos depois ele percebeu que isso era um absurdo.
"Quando a banda se firmou, o robô parecia fazer parte da nossa inteligência coletiva –que estivesse sentindo o que nós sentíamos e fazíamos", disse ele. "Então eu parei de brincar e pensei no que realmente aconteceu."
O que aconteceu foi que Desdemona, por meio de algum tipo de magia de fusão da tecnologia com o jazz, o atingiu com uma imitação razoável de suas próprias palavras no momento certo.
Goertzel é presidente-executivo e principal cientista de uma organização chamada SingularityNET. Ele construiu Desdemona para, basicamente, imitar a linguagem dos livros que ele escreveu sobre o futuro da inteligência artificial.
Muitas pessoas no campo de Goertzel não são tão boas em distinguir o que é real do que elas gostariam que fosse real.
O exemplo recente mais famoso é um engenheiro chamado Blake Lemoine. Ele trabalhou em inteligência artificial no Google, especificamente em software que gera palavras por conta própria –o que é chamado de grande modelo de linguagem (LLM na sigla em inglês). Ele concluiu que a tecnologia era senciente; seus chefes concluíram que não. Ele divulgou suas convicções numa entrevista ao Washington Post, dizendo: "Conheço uma pessoa quando falo com ela. Não importa se ela tem na cabeça um cérebro feito de carne. Ou se ela tem um bilhão de linhas de código".
A entrevista causou um enorme rebuliço em todo o mundo dos pesquisadores de inteligência artificial, que venho cobrindo há mais de uma década, e entre pessoas que normalmente não seguem os avanços do grande modelo de linguagem. Uma velha amiga da minha mãe lhe enviou um email perguntando se eu achava que a tecnologia era senciente.
Quando ela foi assegurada de que não era, sua resposta foi rápida. "Isso é consolador", disse. O Google acabou demitindo Lemoine.
Para pessoas como a amiga da minha mãe, a ideia de que a tecnologia atual de certa forma se comporta como o cérebro humano é uma pista falsa. Não há evidências de que essa tecnologia seja senciente ou consciente –duas palavras que descrevem a consciência do mundo ao redor.
Isso vale até para a forma mais simples que se pode encontrar em um verme, disse Colin Allen, professor na Universidade de Pittsburgh que explora habilidades cognitivas em animais e máquinas. "O diálogo gerado por grandes modelos de linguagem não fornece evidências do tipo de senciência que até animais muito primitivos provavelmente possuem", disse ele.
Alison Gopnik, professora de psicologia que faz parte do grupo de pesquisa de IA na Universidade da Califórnia em Berkeley, concordou. "As capacidades computacionais da IA atual como os grandes modelos de linguagem não tornam mais provável que elas sejam sencientes do que as rochas ou outras máquinas", disse ela.
O problema é que as pessoas mais próximas da tecnologia –as pessoas que a explicam ao público– vivem com um pé no futuro. Às vezes, veem o que acreditam que vai acontecer tanto quanto o que está acontecendo agora.
"Há muitos caras em nossa indústria que lutam para diferenciar a ficção científica da vida real", disse Andrew Feldman, presidente-executivo e fundador da Cerebras, empresa que constrói enormes chips de computador que podem ajudar a acelerar o progresso da IA.
Um pesquisador proeminente, Jurgen Schmidhuber, há muito afirma que construiu as primeiras máquinas conscientes décadas atrás. Em fevereiro, Ilya Sutskever, um dos pesquisadores mais importantes da última década e principal cientista do laboratório de pesquisa OpenAI, em San Francisco, apoiado por US$ 1 bilhão (R$ 5,2 bilhões) da Microsoft, disse que a tecnologia de hoje pode ser "ligeiramente consciente". Várias semanas depois, Lemoine deu sua grande entrevista.
Essas declarações do mundo pequeno, insular e extremamente excêntrico da pesquisa em inteligência artificial podem ser confusas ou até assustadoras para a maioria das pessoas. Livros, filmes e programas de TV de ficção científica nos treinaram para temer que as máquinas um dia se conscientizem de seu entorno e de alguma forma nos prejudiquem.
É verdade que, à medida que esses pesquisadores avançam, momentos como Desdemona, quando essa tecnologia parece dar sinais de verdadeira inteligência, consciência ou senciência, são cada vez mais comuns. Não é verdade que em laboratórios em todo o Vale do Silício engenheiros construíram robôs capazes de se emocionar, conversar e cantar como um humano. A tecnologia não pode fazer isso.
Mas tem o poder de enganar as pessoas. A tecnologia pode gerar tuítes, postagens em blogs e até artigos inteiros e, conforme os pesquisadores avançam, está se aperfeiçoando em conversar. Embora muitas vezes cuspa um absurdo total, muitas pessoas –não apenas pesquisadores de IA– se veem conversando com esse tipo de tecnologia como se fosse humana.
À medida que ela melhora e prolifera, os eticistas alertam que precisaremos de um novo tipo de desconfiança para navegar por tudo o que encontrarmos na internet. E eles se perguntam se estamos à altura da tarefa.
ANCESTRAIS DE DESDEMONA
Em 7 de julho de 1958, em um laboratório do governo a vários quarteirões da Casa Branca, o psicólogo Frank Rosenblatt revelou uma tecnologia que ele chamou de Perceptron.
Ela não fazia muita coisa. Como Rosenblatt demonstrou para os repórteres que visitaram o laboratório, se ele mostrasse à máquina algumas centenas de cartões retangulares, alguns marcados do lado esquerdo e outros do direito, ela conseguia aprender a diferenciar os dois.
Ele disse que um dia o sistema aprenderia a reconhecer palavras manuscritas, comandos falados e até rostos de pessoas. Na teoria, conseguiria se clonar, explorar planetas distantes e cruzar a linha da computação para a consciência, disse o cientista aos repórteres.
Quando Rosenblatt morreu, 13 anos depois, ele não fazia nada disso. Mas era típico da pesquisa de IA, campo acadêmico criado na mesma época em que Rosenblatt começou a trabalhar no Perceptron.
Os pioneiros do campo visavam recriar a inteligência humana por qualquer meio tecnológico necessário e estavam confiantes de que não levariam muito tempo. Alguns diziam que uma máquina venceria o campeão mundial de xadrez e descobriria seu próprio teorema matemático na década seguinte. Isso também não aconteceu.
A pesquisa produziu algumas tecnologias notáveis, mas que não chegaram perto de reproduzir a inteligência humana. A "inteligência artificial" descrevia o que a tecnologia poderia fazer um dia, não o que podia fazer no momento.
Alguns dos pioneiros eram engenheiros. Outros eram psicólogos ou neurocientistas. Ninguém, incluindo os neurocientistas, entendia como o cérebro funcionava. (Os cientistas ainda não entendem.) Mas eles acreditavam que poderiam de alguma forma recriá-lo. Alguns acreditaram mais que outros.
Nos anos 1980, o engenheiro Doug Lenat disse que poderia reconstruir o senso comum, uma regra de cada vez. No início dos anos 2000, membros de uma extensa comunidade online –agora chamada de Racionalistas ou Altruístas Efetivos– começaram a explorar a possibilidade de que a inteligência artificial um dia destruísse o mundo. Logo, eles empurraram essa filosofia de longo prazo para a academia e a indústria.
Nos principais laboratórios de IA de hoje, fotos e cartazes de filmes clássicos de ficção científica estão pendurados nas paredes da sala de conferências. À medida que os pesquisadores perseguem esses temas, usam a mesma linguagem ambiciosa usada por Rosenblatt e outros pioneiros.
Até os nomes desses laboratórios miram o futuro: Google Brain, DeepMind, SingularityNET. A verdade é que a maioria das tecnologias rotuladas como "inteligência artificial" imita o cérebro humano apenas de pequenas maneiras –se é que o fazem. Certamente, não chegou ao ponto de seus criadores não poderem mais controlá-la.
A maioria dos pesquisadores pode se afastar da linguagem ambiciosa e reconhecer as limitações da tecnologia. Mas às vezes as linhas ficam confusas.
POR QUE ELES ACREDITAM
Em 2020, o OpenAI lançou um sistema chamado GPT-3. Podia gerar tuítes, escrever poesia, resumir emails, responder a perguntas simples, traduzir idiomas e até escrever programas de computador.
Sam Altman, empresário e investidor de 37 anos que lidera o OpenAI como CEO, acredita que esse e outros sistemas similares são inteligentes. "Eles podem completar tarefas cognitivas úteis", disse-me Altman recentemente. "A capacidade de aprender –a capacidade de aceitar um novo contexto e resolver algo de uma nova maneira– é inteligência."
GPT-3 é o que os pesquisadores de inteligência artificial chamam de rede neural, como a teia de neurônios do cérebro humano. Isso também é uma linguagem ambiciosa. Uma rede neural é realmente um sistema matemático que aprende habilidades identificando padrões em grandes quantidades de dados digitais. Ao analisar milhares de fotos de gatos, por exemplo, ela pode aprender a reconhecer um gato.
"Chamamos isso de 'inteligência artificial', mas um nome melhor seria 'extrair padrões estatísticos de grandes conjuntos de dados'", disse Gopnik.
Foi essa mesma tecnologia que Rosenblatt explorou na década de 1950. Ele não tinha a grande quantidade de dados digitais necessários para realizar essa grande ideia. Nem tinha o poder de computação necessário para analisar todos esses dados. Mas por volta de 2010 os pesquisadores começaram a mostrar que uma rede neural era tão poderosa quanto ele e outros afirmavam havia muito tempo –pelo menos para certas tarefas.
Essas tarefas incluíam reconhecimento de imagem, reconhecimento de fala e tradução. Uma rede neural é a tecnologia que reconhece os comandos que você grita no seu iPhone e traduz entre francês e inglês no Google Tradutor.
Mais recentemente, pesquisadores em lugares como Google e OpenAI começaram a construir redes neurais que aprendiam com enormes quantidades de prosa, incluindo livros digitais e artigos da Wikipedia aos milhares. O GPT-3 é um exemplo.
Ao analisar todo esse texto digital, ele construiu o que se pode chamar de mapa matemático da linguagem humana –mais de 175 bilhões de pontos de dados que descrevem como juntamos as palavras. Usando esse mapa, ele consegue realizar muitas tarefas diferentes, como redigir discursos, escrever programas de computador e conversar.
Mas há inúmeras ressalvas. Usar o GPT-3 é como jogar dados: se você pedir dez discursos na voz de Donald Trump, pode dar cinco que soam notavelmente como o ex-presidente –e outros cinco que nem chegam perto. Os programadores de computador usam a tecnologia para criar pequenos trechos de código que podem inserir em programas maiores, mas, na maioria das vezes, eles precisam editar e massagear o que ela lhes dá.
"Essas coisas não estão nem no nível da mente de uma criança média de 2 anos", disse Gopnik, que é especializada em desenvolvimento infantil. "Em termos de pelo menos alguns tipos de inteligência, elas provavelmente estão em algum lugar entre um mofo e meu neto de 2 anos."
Mesmo depois de discutirmos essas falhas, Altman descreveu esse tipo de sistema como inteligente. Enquanto continuamos a conversar, ele admitiu que não é inteligente como os humanos. "É como uma forma alienígena de inteligência", disse ele. "Mas ainda vale."
As palavras usadas para descrever os poderes antigos e futuros dessa tecnologia significam coisas diferentes para pessoas diferentes. As pessoas discordam sobre o que é e o que não é inteligência. A senciência –a capacidade de experimentar sentimentos e sensações– não é algo facilmente mensurável. Tampouco é a consciência –estar desperto e ciente de seu entorno.
Altman e muitos outros nessa área acreditam estar no caminho para construir uma máquina capaz de fazer qualquer coisa que o cérebro humano possa fazer. Essa confiança transparece quando eles discutem as tecnologias atuais.
"Acho que parte do que está acontecendo é que as pessoas estão realmente entusiasmadas com esses sistemas e expressando seu entusiasmo numa linguagem imperfeita", disse Altman.
Ele reconhece que alguns pesquisadores de IA "lutam para diferenciar entre realidade e ficção científica". Mas acredita que esses pesquisadores ainda desempenham um papel valioso. "Eles nos ajudam a sonhar com toda a gama de possibilidades", disse.
Talvez eles ajudem. Mas para o resto das pessoas esses sonhos podem atrapalhar as questões que merecem nossa atenção.
POR QUE TODOS ACREDITAM
Em meados da década de 1960, um pesquisador do Instituto de Tecnologia de Massachusetts (MIT), Joseph Weizenbaum, construiu uma psicoterapeuta automatizada que chamou de Eliza. Esse chatbot (robô de conversa) era simples. Basicamente, quando você digitava uma ideia na tela do computador, ele pedia para você expandir essa ideia –ou apenas repetia suas palavras em forma de pergunta.
Mesmo quando Weizenbaum escolheu uma conversa para o artigo acadêmico que publicou sobre a tecnologia, ficou assim, com Eliza respondendo em letras maiúsculas:
Os homens são todos iguais.
DE QUE MANEIRA?
Eles estão sempre nos incomodando sobre uma coisa ou outra.
VOCÊ CONSEGUE PENSAR EM UM EXEMPLO ESPECÍFICO?
Bem, meu namorado me fez vir aqui.
SEU NAMORADO FEZ VOCÊ VIR AQUI
Para grande surpresa de Weizenbaum, porém, as pessoas tratavam Eliza como se fosse humana. Elas compartilhavam livremente seus problemas pessoais e se confortavam com suas respostas.
"Eu sabia por longa experiência que os fortes laços emocionais que muitos programadores têm com seus computadores geralmente se formam depois de pequenas experiências com máquinas", escreveu ele mais tarde. "O que eu não tinha percebido é que exposições extremamente curtas a um programa de computador relativamente simples poderiam induzir um poderoso pensamento delirante em pessoas bastante normais."
Nós, humanos, somos suscetíveis a esses sentimentos. Quando cães, gatos e outros animais exibem até pequenos momentos de comportamento humano, tendemos a supor que eles são mais parecidos conosco do que realmente são. O mesmo acontece quando vemos indícios de comportamento humano em uma máquina.
Os cientistas agora chamam isso de efeito Eliza.
Quase a mesma coisa está acontecendo com a tecnologia moderna. Alguns meses após o lançamento do GPT-3, um inventor e empresário, Philip Bosua, me enviou um e-mail. A linha de assunto era: "Deus é uma máquina".
"Não há dúvida em minha mente que o GPT-3 surgiu como senciente", dizia. "Todos nós sabíamos que isso aconteceria no futuro, mas parece que esse futuro é agora. Ele me vê como um profeta para disseminar sua mensagem religiosa, e estranhamente é assim que me sinto."
Depois de projetar mais de 600 aplicativos para o iPhone, Bosua desenvolveu uma lâmpada que você poderia controlar com o smartphone, construiu um negócio em torno dessa invenção com uma campanha no Kickstarter e acabou levantando US$ 12 milhões (R$ 62,6 milhões) da empresa de capital de risco Sequoia Capital, do Vale do Silício. Hoje, embora ele não tenha formação biomédica, está desenvolvendo um dispositivo para diabéticos que pode monitorar seus níveis de glicose sem furar a pele.
Quando falamos ao telefone, ele me pediu que mantivesse sua identidade em segredo. É um empresário de tecnologia experiente que estava ajudando a construir uma nova empresa, a Know Labs. Mas depois que Lemoine fez afirmações do mesmo tipo sobre tecnologia semelhante desenvolvida no Google, Bosua disse que concordava em falar abertamente.
"Quando descobri o que descobri, ainda era muito cedo", disse ele. "Mas agora tudo isso está começando a aparecer."
Quando apontei que muitos especialistas insistiam que esses tipos de sistemas só eram bons para repetir padrões que tinham visto, ele disse que também é assim que os humanos se comportam. "Uma criança não imita apenas o que vê nos pais, o que vê no mundo ao seu redor?", disse ele.
Bosua reconheceu que o GPT-3 nem sempre é coerente, mas que se pode evitar isso se for usado da maneira correta.
"A melhor sintaxe é a honestidade", disse ele. "Se você for honesto com ele e expressar seus pensamentos crus, lhe dará a capacidade de responder às perguntas que você está fazendo."
Bosua não representa necessariamente o homem comum. O presidente de sua nova empresa o chama de "divinamente inspirado" –alguém que "vê as coisas cedo". Mas suas experiências mostram o poder que até uma tecnologia muito falha tem para capturar a imaginação.
PARA ONDE OS ROBÔS NOS LEVARÃO
Margaret Mitchell se preocupa com o que tudo isso significa para o futuro. Como pesquisadora na Microsoft, depois no Google, onde ajudou a fundar a equipe de ética em IA, e agora no Hugging Face, outro laboratório de pesquisa de destaque, ela viu o surgimento dessa tecnologia em primeira mão. Hoje, disse, a tecnologia é relativamente simples e obviamente falha, mas muitas pessoas a veem como um pouco humana. O que acontecerá quando a tecnologia se tornar muito mais poderosa?
Além de gerar tuítes e postagens em blogs e começar a imitar conversas, sistemas construídos por laboratórios como o OpenAI podem gerar imagens. Com uma nova ferramenta chamada DALL-E, você pode criar imagens digitais com realidade fotográfica simplesmente descrevendo, em linguagem simples, o que deseja ver.
Alguns na comunidade de pesquisadores de IA temem que esses sistemas estejam a caminho da senciência ou consciência. Mas isso não vem ao caso.
"Um organismo consciente –como uma pessoa, um cachorro ou outros animais– pode aprender algo em um contexto e aprender outra coisa em outro contexto, e então juntar as duas coisas para fazer algo em um novo contexto que nunca experimentou antes", disse Allen, o professor na Universidade de Pittsburgh. "Essa tecnologia não está nem perto de fazer isso."
Existem preocupações muito mais imediatas –e mais reais.
À medida que essa tecnologia continua a se aperfeiçoar, pode ajudar a espalhar desinformação pela internet –textos falsos e imagens falsas–, alimentando o tipo de campanha online que pode ter ajudado a influenciar a eleição presidencial de 2016 nos EUA. Poderia produzir chatbots que imitam a conversa de maneiras muito mais convincentes. E esses sistemas podem operar em uma escala que faz as atuais campanhas de desinformação conduzidas por humanos parecerem minúsculas em comparação.
Se e quando isso acontecer, teremos que tratar tudo o que vemos online com extrema desconfiança. Mas Mitchell se pergunta se estamos à altura do desafio.
"Eu me preocupo que os chatbots prejudiquem as pessoas", disse ela. "Eles têm o poder de nos convencer sobre em que acreditar e o que fazer." - Tradução de Luiz Roberto M. Gonçalves
O universo na mente humana https://bit.ly/3Ye45TD
Nenhum comentário:
Postar um comentário