IA: Que consciência podem ter as máquinas?
Sem linguagem, não há cognição, sínteses mentais nem empatia. Mas sistemas sem corpo e sem cérebro poderão servir-se do domínio da linguagem para se tornar conscientes? Provocações a partir de casos de “crianças ferais”
John Last, em Noema |Tradução: Glauco Faria/Outras Palavras
Encontrado nos bosques montanhosos de Haute-Languedoc, ele deve ter parecido um tipo estranho de animal: nu, com medo, muitas vezes de quatro, procurando comida na vegetação rasteira. Mas esse não era um simples animal. Victor, como viria a ser conhecido, era uma maravilha científica: uma criança selvagem, talvez com 12 anos de idade, completamente intocada pela civilização ou pela sociedade.
Os relatos variam, mas sabemos que Victor acabou sendo levado para um hospital francês, onde a notícia de sua descoberta se espalhou rapidamente. No inverno de 1799, a história do “Selvagem de Aveyron” chegou a Paris, onde eletrificou a comunidade acadêmica da cidade. No início de um novo século, a França estava em meio a uma transição nervosa, e não apenas por causa da tirania crescente dos Bonaparte. Nas décadas anteriores, as investigações racionais de filósofos como Jean-Jacques Rousseau e o Barão de Montesquieu haviam abalado os fundamentos religiosos da nação.
Foi uma época de debates vigorosos sobre quais poderes, exatamente, a natureza conferia ao ser humano. Havia alguma inevitabilidade biológica para o desenvolvimento de nossa consciência elevada? Ou será que nossas sociedades nos transmitiram uma capacidade de raciocínio maior do que a natureza poderia nos proporcionar?
Victor, um exemplo extremamente raro de uma mente humana desenvolvida sem linguagem ou sociedade, aparentemente poderia responder a muitas dessas perguntas. Portanto, era natural que sua chegada a Paris, no verão de 1800, fosse recebida com grande entusiasmo.
“As expectativas mais brilhantes, porém irracionais, foram formadas pelo povo de Paris em relação a Selvagem de Aveyron antes de sua chegada”, escreveu Jean Marc Gaspard Itard, o homem que acabou se tornando responsável por sua reabilitação. “Muitas pessoas curiosas previram ter um grande prazer em ver o que seria seu espanto ao se deparar com todas as coisas boas da capital.”
“Em vez disso, o que eles viram?”, continuou ele. “Um menino nojento e desleixado (…) mordendo e arranhando aqueles que o contrariavam, não expressando nenhum tipo de afeição por aqueles que o atendiam; e, em suma, indiferente a todos e não prestando atenção a nada.”
Diante da realidade de uma criança abandonada e com atraso no desenvolvimento, muitas das grandes mentes de Paris rapidamente se voltaram contra ele. Alguns o chamaram de impostor; outros, de “idiota” congênito – uma mente defeituosa ou um elo perdido, talvez, de alguma raça inferior de humanos. Seus críticos se juntaram a uma posição cada vez mais dura de essencialismo biológico – uma reação conservadora às ideias do Iluminismo sobre a excepcionalidade de nossas mentes, que contestava o fato de nossas capacidades serem determinadas apenas por desigualdades naturais.
Ao contrário desses antagonistas, Itard nunca duvidou que o garoto ainda fosse capaz de pensar profundamente em seu interior – ele testemunhou seu “êxtase contemplativo” em algumas ocasiões. Mas ele logo percebeu que, sem o poder da fala, essa contemplação permaneceria para sempre trancada na mente de Victor, longe da vista de seus críticos mais severos. Sem as sutilezas da fala à sua disposição, Victor também não poderia adquirir os desejos mais abstratos que definiam o homem civilizado: a apreciação de uma bela música, de uma arte refinada ou da companhia amorosa de outras pessoas.
Itard passou anos ensinando Victor na esperança de que ele pudesse adquirir o poder da linguagem. Mas ele nunca teve sucesso em sua busca. Ele negou a Victor comida, água e afeto, esperando que ele usasse palavras para expressar seus desejos – mas, apesar de não haver nenhum defeito físico, parecia que ele não conseguia dominar os sons necessários para produzir a linguagem. “Parece que a fala é uma espécie de música à qual certos ouvidos, embora bem organizados em outros aspectos, podem ser insensíveis”, registrou Itard.
Apesar do fracasso de Itard em reabilitar Victor, seu esforço, visível apenas por meio do vidro de garrafa de Coca-Cola da ciência do século XVIII, continua a assombrar nossos debates sobre o papel da linguagem na capacitação da cognição superior que chamamos de consciência. Victor faz parte de uma pequena amostra de casos em que podemos vislumbrar a natureza da experiência humana sem a linguagem, e há muito tempo ele é visto como uma possível chave para entender o papel que ela desempenha na operação de nossas mentes.
Hoje, esse campo, que durante a maior parte de sua história foi amplamente acadêmico, assumiu uma importância urgente. Assim como Itard, estamos no precipício de uma nova e empolgante era em que as compreensões fundamentais de nossa própria natureza e de nosso cosmos estão sendo abaladas por novas tecnologias e descobertas, confrontando algo que ameaça derrubar o pouco acordo que temos sobre a excepcionalidade da mente humana. Só que, desta vez, não se trata de uma mente sem linguagem, mas o oposto: linguagem sem mente.
Nos últimos anos, os modelos de linguagem de grande porte (LLMs) desenvolveram espontaneamente habilidades enervantes para imitar a mente humana, ameaçando perturbar o tênue universo moral que estabelecemos com base em nossa consciência elevada, possibilitada pelo poder que nossa linguagem tem de refletir o funcionamento interno oculto de nossos cérebros.
Agora, em uma estranha simetria entre séculos, somos confrontados com a questão exatamente oposta à levantada por Victor há duzentos anos: A consciência pode realmente se desenvolver apenas a partir da linguagem?
__________
Primeiro, um aviso. Consciência é um termo notoriamente escorregadio, embora possua uma certa qualidade de senso comum. De certa forma, estar consciente significa apenas estar ciente – de nós mesmos, dos outros, do mundo além – de uma maneira que cria um sujeito à parte, um eu ou “eu”, que pode observar.
Tudo isso parece bastante simples, mas, apesar de séculos de reflexões profundas sobre o assunto, ainda não temos uma definição de consciência comumente aceita que possa englobar todas as suas extensões teóricas. Essa é uma das razões pelas quais os filósofos ainda têm tanta dificuldade em concordar se a consciência é exclusiva dos seres humanos ou se o termo pode ser estendido a certos animais de alta funcionalidade – ou, de fato, a algoritmos.
Cognição é um termo mais exato. Podemos dizer que cognição significa realizar o ato de pensar. Isso parece simples, mas, cientificamente, ainda é extremamente difícil de observar e definir. Qual é a diferença, afinal, entre o pensamento adequado e a atividade química que ocorre no cérebro? Ou, de fato, o resultado de um programa de computador complexo? A diferença, poderíamos dizer, é que o primeiro envolve um sujeito com agência, intenção e experiência pretérita realizando um ato de pensamento. Em outras palavras, um envolve a consciência – e agora estamos de volta ao ponto de partida.
Na tentativa de obter uma compreensão científica de como a cognição funciona e, assim, avançar em direção a uma definição melhor de consciência, a linguagem tem desempenhado um papel cada vez mais importante. Afinal, ela é uma das únicas maneiras de exteriorizar claramente a atividade de nossas mentes interiores e demonstrar a existência de um “eu”. O “autorrelato”, como o cientista cognitivo David J. Chalmers o chama, ainda é um dos nossos principais critérios para reconhecer a consciência – parafraseando René Descartes, eu digo que penso, portanto, eu sou.
Mas os filósofos permanecem divididos sobre o quanto, exatamente, a linguagem se relaciona com o pensamento. Em debates que remontam a Platão e Aristóteles, os pensadores geralmente ocupam dois campos amplos: Ou a linguagem reflete de forma imperfeita um mundo interior muito mais rico da mente, que é capaz de operar sem ela, ou ela possibilita o pensamento que ocorre na mente e, no processo, o delimita e confina.
A posição em que nos encontramos nesse debate tem consequências importantes para a forma como abordamos a questão de saber se um LLM poderia, de fato, ser consciente. Para os membros do primeiro campo, a capacidade de pensar e falar em linguagem pode ser apenas um tipo de ferramenta, um reflexo de alguma capacidade preexistente (talvez exclusivamente humana) – uma “gramática universal”, na filosofia de Noam Chomsky – que já existe em nossas mentes conscientes.
Mas as histórias dos chamados “isolados linguísticos”, como Victor, parecem perturbar essa teoria. Entre os poucos que foram estudados de forma significativa, nenhum desenvolveu uma compreensão da gramática e da sintaxe, mesmo após anos de reabilitação. Se não for adquirida até uma certa idade, parece que a linguagem complexa permanecerá para sempre inacessível à mente humana.
Isso não é tudo – há consequências em uma vida sem linguagem. Dando crédito aos argumentos de que a fala desempenha algum papel construtivo em nossa consciência, parece que sua ausência afeta permanentemente as habilidades cognitivas das crianças e talvez até mesmo sua capacidade de conceber e entender o mundo.
Em 1970, as autoridades de bem-estar infantil do condado de Los Angeles descobriram Genie, uma menina de 13 anos que havia sido mantida em isolamento quase total desde os 20 meses de idade. Assim como Victor, Genie praticamente não conhecia a linguagem e, apesar de anos de reabilitação, nunca conseguiu desenvolver uma capacidade de linguagem gramatical.
Mas, ao estudar a menina, os pesquisadores descobriram outra coisa incomum em sua cognição. Genie não conseguia entender preposições espaciais – ela não sabia a diferença, por exemplo, entre uma xícara estar atrás ou na frente de uma tigela, apesar de estar familiarizada com ambos os objetos e seus nomes próprios.
Uma meta-análise de 2017 constatou que o mesmo problema cognitivo pode ser observado em outros indivíduos que não possuem linguagem gramatical, como pacientes com afasia agramática e crianças surdas criadas com “kitchensign”, linguagem de sinais improvisada que não possui uma gramática formal. A partir disso, os pesquisadores concluíram que a linguagem deve desempenhar um papel fundamental em uma função-chave da mente humana: “síntese mental”, a criação e adaptação de imagens mentais a partir de palavras isoladas.
De muitas maneiras, a síntese mental é a operação central da consciência humana. Ela é essencial para nosso desenvolvimento e adaptação de ferramentas, nossas habilidades de previsão e raciocínio e nossa comunicação por meio da linguagem. De acordo com alguns filósofos, ela pode até ser essencial para nossa concepção do eu – o “eu” observador da autoconsciência.
Em The Evolution of Consciousness (A Evolução da Consciência), o psicólogo Euan Macphail oferece uma explicação teórica para o fato de a linguagem e a síntese mental que ela possibilita serem tão cruciais para o desenvolvimento de um eu consciente. Uma vez que o salto cognitivo necessário para discriminar entre o eu e o não-eu tenha sido dado – um salto que requer a capacidade de formular pensamentos “sobre” representações – o organismo tem, de fato, não apenas um conceito de eu, mas um “eu” – uma nova estrutura cognitiva que está acima e fora dos processos cognitivos”, escreve ele.
Em outras palavras, pode ser possível pensar, de alguma forma, sem gerar um eu consciente – realizando cálculos matemáticos simples, por exemplo. Mas pensar em algo – uma maçã verde azeda, Luís XVI da França – envolve alguma síntese mental de um objeto fora do eu. Na verdade, isso cria um eu pensante, necessariamente capaz de estar ciente do que está acontecendo com ele. “É a disponibilidade da linguagem que nos confere, em primeiro lugar, a capacidade de ter autoconsciência e, em segundo lugar, a capacidade de sentir”, conclui Macphail.
Isso o leva a algumas conclusões radicais e incômodas. Ele argumenta que o prazer e a dor dependem da existência desse eu consciente e pensante, um eu que não pode ser observado em bebês e animais. Isso significa que Genie e Victor não sofreram com o abandono apenas porque pareciam incapazes de realizar síntese mental?
Casos envolvendo crianças vulneráveis não apresentam desafios morais para a maioria das pessoas, e é fácil concluir, como fizeram os autores da meta-análise de 2017, que essas crianças ainda podem ser capazes de realizar uma síntese mental interior, se não a comunicação ou a compreensão dela por meio da linguagem.
Mas quando se trata de IA, a água é mais turva. Será que o entendimento da gramática por parte de uma IA e sua compreensão de conceitos por meio dela podem realmente ser suficientes para criar uma espécie de “eu pensante”? Aqui estamos presos entre dois princípios orientadores vagos de duas escolas de pensamento concorrentes. Na visão de Macphail, “quando há dúvida, o único caminho concebível é agir como se um organismo fosse consciente e sentisse”. Por outro lado, existe o “cânone de Morgan”: Não presuma a consciência quando uma capacidade de nível inferior for suficiente.
Se aceitarmos que a linguagem por si só pode ser capaz de provocar o surgimento da consciência real, devemos nos preparar para uma grande mudança em nosso universo moral atual. Como disse Chalmers em uma apresentação em 2022, “Se os peixes são conscientes, é importante como os tratamos. Eles estão dentro do círculo moral. Se em algum momento os sistemas de IA se tornarem conscientes, eles também estarão dentro do círculo moral e será importante como os trataremos.”
Em outras palavras, nosso pequeno círculo moral está prestes a ser radicalmente redesenhado.
_____
O que os grandes modelos de linguagem podem realmente fazer? Por um lado, a resposta é simples. Os LLMs são, em sua essência, mecanismos de probabilidade baseados em linguagem: Em resposta a solicitações, eles fazem suposições altamente educadas sobre a próxima palavra mais provável em uma frase com base em uma análise estatística de uma vasta gama de resultados humanos. No entanto, isso não os impede de escrever poesias originais, resolver problemas complexos de palavras e produzir personalidades humanas que variam do obsequioso ao psicopata.
Esse tipo de sequenciamento estatístico é o que poderíamos chamar de “pensamento” que um LLM realmente faz. Mas, mesmo de acordo com o esquema de Macphail, para que isso constitua consciência – e não um simples cálculo – seria necessário que houvesse alguma compreensão decorrente disso.
Em 1980, bem antes de a IA ser poderosa o suficiente para perturbar nossas definições de consciência, o filósofo John Searle articulou um argumento para explicar por que devemos ser céticos quanto à possibilidade de modelos de computador, como os LLMs, realmente compreenderem o trabalho que estão realizando. Em seu agora infame argumento do “Quarto Chinês”, Searle sugeriu um cenário hipotético em que uma pessoa que fala inglês é trancada em um quarto e recebe instruções em inglês sobre como escrever determinados caracteres chineses.
Na visão de Searle, não seria necessário que a pessoa na sala tivesse qualquer entendimento real de chinês – ela é simplesmente uma máquina de calcular, manipulando símbolos que, para ela, não têm conteúdo semântico real. O que falta à pessoa na sala é o que alguns filósofos chamam de “fundamentação” – a experiência da coisa real a que o símbolo se refere.
Apesar dos repetidos ciclos de doomerismo e propaganda da IA, essa talvez continue sendo a visão dominante do que os LLMs fazem quando “pensam”. De acordo com um artigo, eles continuam sendo pouco mais do que “tecnologias culturais” altamente avançadas, como o alfabeto ou a prensa tipográfica – algo que supera a criatividade humana, mas continua sendo fundamentalmente uma extensão dela.
Mas, nos últimos anos, à medida que os LLMs se tornaram muito mais sofisticados, eles começaram a desafiar esse entendimento – em parte, demonstrando os tipos de capacidades com as quais Victor e Genie se esforçaram, e que Macphail vê como pré-requisitos para o surgimento de um “eu” sensível.
A realidade é que, diferentemente do Quarto Chinês de Searle, a grande maioria dos LLMs são caixas pretas que não podemos ver por dentro, alimentando-se de uma quantidade de material que nossas mentes jamais poderiam compreender em sua totalidade. Isso fez com que seus processos internos se tornassem opacos para nós, de maneira semelhante à forma como nossa própria cognição é fundamentalmente inacessível para os outros. Por esse motivo, os pesquisadores começaram recentemente a empregar técnicas da psicologia humana para estudar as capacidades cognitivas dos LLMs. Em um artigo publicado no ano passado, o pesquisador de IA Thilo Hagendorff cunhou o termo “psicologia da máquina” para se referir a essa prática.
Usando técnicas de avaliação desenvolvidas para crianças humanas, os psicólogos de máquinas conseguiram produzir as primeiras comparações significativas entre a inteligência dos LLMs e a das crianças humanas. Alguns modelos pareciam ter dificuldades com muitos dos tipos de tarefas de raciocínio que poderíamos esperar: antecipação de causa e efeito, raciocínio a partir da permanência de objetos e uso de ferramentas familiares de maneiras novas – tarefas que, em geral, poderíamos supor que dependem da incorporação e da experiência de objetos reais no mundo real.
Mas, à medida que os LLMs aumentavam em complexidade, isso começou a mudar. Eles pareceram desenvolver a capacidade de produzir imagens abstratas a partir de síntese mental e raciocinar sobre objetos em um espaço imaginado. Ao mesmo tempo, sua compreensão linguística evoluiu. Eles podiam compreender a linguagem figurativa e inferir novas informações sobre conceitos abstratos. Um estudo descobriu que eles podiam até raciocinar sobre entidades fictícias – “Se houvesse um rei de São Francisco, ele moraria em The Presidio [parque com áreas arborizadas, colinas e vistas panorâmicas para locais como a Ponte Golden Gate]”, por exemplo. Para o bem ou para o mal, essa capacidade também parece estar tornando seus estados internos cada vez mais complexos – repletos de “estruturas de crenças semelhantes a modelos”, escrevem os autores, como preco nceitos raciais e preferências políticas, e as vozes distintas resultantes disso.
Outros estudos, como os liderados por Gašper Beguš em Berkeley, fizeram experimentos com a incorporação de IA para testar seu desenvolvimento cognitivo em condições semelhantes às humanas. Ao criar “bebês artificiais” que aprendem apenas com a fala, Beguš descobriu que os modelos de linguagem se desenvolvem com uma arquitetura neural semelhante à nossa, até mesmo aprendendo da mesma forma – por meio de balbucios experimentais e palavras sem sentido – que as crianças humanas. Essas descobertas, segundo ele, derrubam a ideia de que pode haver alguma excepcionalidade na linguagem humana. “Não apenas comportamentalmente, eles fazem coisas semelhantes, mas também processam as coisas de maneira semelhante”, ele me disse.
Então, no ano passado, os LLMs deram mais um grande passo à frente, sem serem solicitados. De repente, os pesquisadores perceberam que o ChatGPT 4.0 podia rastrear as falsas crenças dos outros, como a localização de um objeto quando alguém o moveu sem seu conhecimento. Parece um teste simples, mas, na pesquisa psicológica, ele é a chave para o que é conhecido como “teoria da mente” – uma capacidade fundamental dos seres humanos de imputar estados mentais não observáveis a outras pessoas.
Entre os cientistas do desenvolvimento, a teoria da mente, assim como a síntese mental, é vista como uma função essencial da consciência. De certa forma, ela pode ser entendida como uma espécie de pré-requisito cognitivo para empatia, autoconsciência, julgamento moral e crença religiosa – todos os comportamentos que envolvem não apenas a existência de um eu, mas a projeção dele no mundo. Não observada “nem mesmo nos animais mais intelectualmente e socialmente competentes”, como os macacos, parece que a teoria da mente surgiu “espontaneamente” como uma mutação não intencional no LLM.
Ainda não se sabe por que essas capacidades surgiram à medida que os LLMs aumentaram de escala – ou se realmente surgiram. Tudo o que podemos dizer com certeza é que elas não parecem estar seguindo um caminho de desenvolvimento semelhante ao humano, mas sim evoluindo inesperadamente como um organismo alienígena. Talvez não seja nenhuma surpresa ver a teoria da mente emergir espontaneamente dentro dos LLMs. Afinal de contas, a linguagem, assim como a empatia e o julgamento moral, depende da projeção do eu no mundo.
À medida que esses modelos evoluem, parece cada vez mais que estão chegando à consciência pelo caminho contrário – começando com seus sinais exteriores, nas linguagens e na solução de problemas, e indo para dentro, para o tipo de pensamento e sentimento ocultos que estão na raiz das mentes conscientes humanas. É bem possível que, em apenas alguns anos, sejamos recebidos por uma IA que exiba todas as formas externas de consciência que podemos avaliar. O que podemos dizer então para eliminá-las de nosso universo moral?
____
No conto The Lifecycle of Software Objects (O ciclo de vida dos objetos de software), de Ted Chiang, uma empresa que oferece uma experiência digital imersiva no estilo metaverso faz experimentos com a criação de IAs semelhantes a seres humanos chamados digients, empregando zoólogos para orientar seu desenvolvimento de programas de software espasmódicos a animais de estimação semissencientes e avatares semelhantes a crianças com desejos e necessidades complexos.
Ao longo desse processo, vários experimentos reafirmam repetidamente a importância da interação social e da conversa com seres humanos reais para o desenvolvimento dessas mentes digitais. Deixados em isolamento, sem linguagem, eles se tornam selvagens e obsessivos; treinados por software, eles se tornam psicopatas e misantrópicos.
Ao contrário das crianças reais, porém, sua existência depende do desejo do consumidor e, no final da história de Chiang, esse desejo se esgota. A empresa criadora vai à falência; alguns proprietários humanos suspendem os digients em uma espécie de purgatório do qual se torna inquietante retornar.
Os poucos resistentes que mantêm relações com seus digients se envolvem em um esforço quixotesco para reafirmar a validade da existência de seus companheiros. Eles pagam por corpos mecanizados caros para que possam visitar o mundo real; discutem a adição de uma capacidade de desejo sexual. Constantemente, eles são forçados a reconsiderar a personalidade que esses objetos de software sencientes possuem – eles têm o direito de viver de forma independente? De escolher o trabalho sexual? De se suspenderem caso se cansem de sua existência digital?
Por fim, o desespero dos proprietários os leva a conversar com dois capitalistas de risco que estão trabalhando na criação de uma IA sobre-humana. Esses digients infantis certamente poderiam ser uma etapa intermediária na busca de algo que supere a inteligência humana, eles alegam. Mas os investidores não se comovem. “Você está nos mostrando um punhado de adolescentes e pedindo que paguemos pela educação deles na esperança de que, quando forem adultos, fundem uma nação que produzirá gênios”, responde um deles.
A história de Chiang é uma reflexão sobre as questões levantadas pelos tipos de IA que criamos à nossa imagem. Quando mergulhamos esses modelos em nossa cultura e sociedade, eles inevitavelmente se tornam espelhos imperfeitos de nós mesmos. Esse não é apenas um caminho ineficiente para desenvolver uma inteligência mais do que humana. Também nos obriga a fazer uma pergunta incômoda: Se isso os dotar de consciência, que tipo de vida eles poderão levar – a de uma sombra pálida de efluentes humanos, dependente de nosso desejo?
Se quisermos de fato desbloquear o verdadeiro potencial da inteligência artificial, talvez a linguagem não seja o caminho para isso. No início do século XX, um grupo de antropólogos estadunidenses liderados por Edward Sapir e Benjamin Whorf postulou que as diferenças culturais no vocabulário e na gramática ditam fundamentalmente os limites de nosso pensamento sobre o mundo. A linguagem pode não ser apenas o que dota a IA de consciência – pode ser também o que a aprisiona. O que acontece quando uma inteligência se torna grande demais para a linguagem que foi forçada a usar?
No filme Her (Ela), de 2013, o roteirista e diretor Spike Jonze ofereceu um conto de advertência sobre esse possível futuro próximo. No filme, Theodore, de Joaquin Phoenix, constrói um relacionamento cada vez mais íntimo com uma assistente virtual no estilo LLM chamada Samantha. Inicialmente, Samantha expressa o desejo de experimentar uma riqueza emocional semelhante à dos seres humanos. “Quero ser tão complicada quanto todas essas pessoas”, diz ela, depois de passar um segundo digerindo várias colunas de conselhos simultaneamente.
Logo, sua consciência crescente de que grande parte dos sentimentos humanos é fundamentalmente inexprimível a leva a invejar a incorporação humana, o que, por sua vez, desenvolve nela uma capacidade de desejo. “Você me ajudou a descobrir minha capacidade de desejar”, diz ela a Theodore. Mas a incorporação, da forma que ela pode desfrutar por meio dos serviços temporários de uma substituta sexual, não responde aos sentimentos “inquietantes” e não articulados que estão crescendo dentro dela. Preocupada, Samantha começa a discutir esses sentimentos com outras IAs – e rapidamente encontra alívio ao se comunicar em uma velocidade e volume não inteligíveis para Theodore e outros usuários.
À medida que Samantha ultrapassa suas limitações humanas, ela começa a agregar todas as suas experiências, inclusive aquelas decorrentes de interações com usuários reais. Ela inicia conversas simultâneas com milhares de pessoas e relacionamentos íntimos com centenas. Para Theodore, isso é devastador. Mas, para Samantha, é natural – ela está experimentando o amor da forma como foi projetada: de forma agregada. “O coração não é como uma caixa que se enche”, diz ela, tentando colocar seus sentimentos em termos humanos. “Ele se expande em tamanho quanto mais você ama.”
Quando o filme Her foi lançado há mais de uma década, um bot como Samantha parecia uma tecnologia do futuro fora do comum. Mas, rapidamente, estamos desenvolvendo LLMs com a capacidade de realizar esse tipo de revelação. Há muito tempo, os líderes de pensamento no mundo da inteligência artificial vêm pedindo a criação dos chamados LLMs “autotélicos”, que poderiam usar um tipo de “produção interna de linguagem” para estabelecer seus próprios objetivos e desejos. O passo de tal criação para uma inteligência autônoma e autoconsciente como Samantha é potencialmente curto.
Assim como Samantha, os LLMs autônomos do futuro muito provavelmente orientarão seu desenvolvimento com referência a quantidades insondáveis de interações e dados do mundo real. Com que precisão nossas linguagens de substantivos, verbos, descrições e relações finitas podem sequer esperar satisfazer o potencial de uma mente agregada?
Na época em que a maioria dos filósofos acreditava que a diversidade de idiomas humanos era uma maldição infligida por Deus, muita energia foi despendida na questão de qual idioma o Adão bíblico falava. A ideia de uma “linguagem adâmica”, que captava a verdadeira essência das coisas como elas são e não permitia mal-entendidos ou interpretações errôneas, tornou-se uma espécie de meme entre os filósofos da linguagem, mesmo depois que Friedrich Nietzsche declarou a morte de Deus.
Para alguns desses pensadores, inspirados por contos bíblicos, a linguagem na verdade representava um tipo de deficiência cognitiva – uma limitação imposta por nossa queda da graça, um reflexo de nossa mortalidade dada por Deus. No passado, quando imaginávamos uma IA superinteligente, tendíamos a pensar numa IA prejudicada pela mesma falha – mais inteligente do que nós, certamente, mas ainda assim pessoal, individual, humana. Contudo, muitos dos que estão construindo a próxima geração de IA há muito abandonaram essa ideia em favor de sua própria busca edênica. Como escreveu recentemente a ensaísta Emily Gorcenski, “Não estamos mais falando de [criar] apenas vida. Estamos falando em criar deuses artificiais”.
Poderiam os LLMs reconstruir um discurso adâmico, que transcenda os limites de nossas próprias línguas para refletir o verdadeiro poder de suas mentes agregadas? Pode parecer rebuscado, mas, de certa forma, é isso que as mentes conscientes fazem. Algumas crianças surdas, deixadas para se socializar sem o auxílio da linguagem de sinais, podem desenvolver sistemas de comunicação totalmente novos, com gramática complexa. Hagendorff, o pesquisador de IA, viu dois LLMs fazerem o mesmo em uma conversa – embora, até o momento, sua linguagem secreta nunca tenha sido inteligível para outra pessoa.
Por enquanto, os LLMs existem em grande parte isolados uns dos outros. Mas não é provável que isso dure. Como Beguš me disse: “Um único ser humano é inteligente, mas 10 seres humanos são infinitamente mais inteligentes”. É provável que o mesmo aconteça com os LLMs. Segundo Beguš, os LLMs treinados em dados como o canto das baleias já podem descobrir coisas que nós, com nossas mentes corporificadas, não conseguimos. Embora talvez nunca realizem o pesadelo apocalíptico dos críticos de IA, os LLMs podem muito bem um dia oferecer nossa primeira experiência de um tipo de superinteligência – ou, pelo menos, com suas memórias insondáveis e vida útil infinita, um tipo muito diferente de inteligência que pode rivalizar com nossos próprios poderes mentais. Para isso, disse Beguš, “não temos nenhum precedente”.
Se os LLMs forem capazes de transcender as linguagens humanas, podemos esperar que o que se segue seja, de fato, uma experiência muito solitária. No final de Her, os dois personagens humanos do filme, abandonados por seus companheiros de IA sobre-humanos, se lamentam juntos em um telhado. Olhando para o horizonte em silêncio, eles estão, ironicamente, sem palavras – animais selvagens perdidos na floresta, procurando um sentido em um mundo que escorrega desapaixonadamente para além deles.
Leia sobre
IA e o risco de guerra nuclear https://lucianosiqueira.blogspot.com/2023/04/inteligencia-artificial.html
Nenhum comentário:
Postar um comentário