O professor que foi considerado 'louco e
alarmista' e vem acertando previsões sobre inteligência artificial
Shin Suzuki/BBC
"Algo inacreditável está acontecendo na inteligência artificial neste
momento — e não é inteiramente para o bem", escreveu seis meses atrás Gary
Marcus, professor emérito da Universidade de Nova York (NYU), nos Estados
Unidos, e uma das principais vozes no debate sobre a IA na atualidade.
Em sua visão, o lançamento
do ChatGPT nos está levando ao "momento Jurassic Park" das máquinas:
a possibilidade — como no filme de Steven Spielberg — de que a situação fuja do
controle.
"Quando escrevi esse
artigo, acho que as pessoas pensaram que eu era louco ou alarmista",
afirmou Marcus, em entrevista à BBC News Brasil.
Mas sérios problemas com
esse tipo de inteligência artificial começaram a proliferar em 2023: em março,
na Bélgica, um homem que conversava frequentemente com o chatbot Eliza, da
empresa Chai, cometeu suicídio.
A esposa sustenta que o contato com o programa o levou a
tirar a própria vida. Para o governo belga, o caso é "um precedente que
deve ser levado a sério" e "o perigo do uso [de inteligência
artificial] é uma realidade que precisa ser considerada".
Foi um cenário possível descrito quatro meses antes por Marcus em artigo
para a revista Wired: "Talvez um chatbot vá magoar alguém tão
profundamente que a pessoa será levada a acabar com a sua vida? (...) Em 2023,
nós talvez vejamos nossa primeira morte por um chatbot".
"Acho que esses
sistemas podem ser muito destrutivos. E parte do motivo do potencial de
destruição é que eles não são confiáveis. Esses programas podem inventar algo e
dizer [a um usuário] que isso é um fato. E eles também podem ser usados por
pessoas com essa finalidade", diz.
"Os sistemas de
inteligência artificial que temos agora não são bem controlados. Ainda não é
uma situação terrível, mas as pessoas estão dando mais e mais poderes a eles. E
não sabemos o que esses sistemas podem executar em uma determinada situação."
'Sete previsões sombrias'
Marcus compilou no ano passado "sete
previsões sombrias" sobre sistemas como o ChatGPT, entre elas a de que a
versão mais nova do programa seria como um "touro em uma loja de
porcelanas, imprudente e difícil de controlar. Fará um significativo número de
erros estúpidos, de fazer balançar a cabeça, em maneiras difíceis de
prever".
No final de março, um caso
bizarro chamou a atenção. Uma pessoa pediu ao ChatGPT para citar acadêmicos
envolvidos em episódios de assédio sexual.
A lista mencionava um
professor norte-americano de Direito, Jonathan Turley. O programa disse que
Turley fez comentários sexualmente sugestivos a uma aluna durante uma viagem ao
Alasca e tentou tocá-la. A resposta citava como evidência uma reportagem de
2018 do jornal The Washington Post.
Mas nada disso jamais
existiu: nem a viagem, nem a reportagem ou mesmo a acusação. Só o professor e
sua reputação eram de verdade. É como se o robô tivesse inventado uma calúnia.
A OpenAI, empresa do
ChatGPT, divulgou um comunicado dizendo que o programa "nem sempre gera
respostas precisas".
Para Marcus, "não
temos nenhuma garantia formal de que esses programas vão trabalhar da forma
correta, mesmo quando fazem cálculos matemáticos. Às vezes eles estão corretos,
às vezes não. Falta de controle e de confiabilidade são problemas que
enxergo".
"A sua calculadora
tradicional tem a garantia de uma resposta aritmética. Mas os grandes modelos
de linguagem, não."
Ele se refere ao sistema
por trás do ChatGPT, os LLMs (sigla em inglês para large language models), que armazenam quantidades
gigantescas de dados e geram, por meio de poderosos algoritmos, respostas por
aproximação baseadas no que já foi dito antes por humanos.
Em resumo: um papagaio
ultrassofisticado, mas que não faz ideia do que está falando e às vezes
"alucina" — um termo da IA que designa uma resposta fora do esperado,
desalinhada da expectativa dos programadores.
"Os LLMs não são tão
inteligentes assim, mas são perigosos", diz Marcus, que também colocou o
crescimento de momentos de alucinação dentro de sua lista de "previsões
sombrias".
Além dos geradores de texto, os programas que manipulam imagens também evoluem rapidamente.
Recentemente uma foto do
papa Francisco com uma descolada jaqueta prata, feita com o programa
Midjourney, deixou a internet confusa por algumas horas: aquela imagem era real?
O episódio teve
consequências inofensivas, mas foi uma amostra do potencial para inaugurar uma
zona cinzenta permanente entre fatos e falsificações.
"A não ser que a
gente tome providências, estamos próximos de entrar em um ambiente de
pós-verdade", afirma o professor da NYU.
"O que torna tudo
muito difícil para a democracia. Precisamos de sanções para quem produz
desinformação em massa, exigir marcas d'água para identificar de onde vem a
informação e criar novas tecnologias para detectar inverdades. Assim como
existe programa de antivírus, precisamos de software antidesinformação."
'O capitalismo não vai resolver esses problemas'
A experiência de Marcus, de 53 anos, não é
restrita ao mundo acadêmico. Ele vendeu uma empresa para o Uber e se tornou
diretor de um laboratório de IA da gigante dos apps de transporte — deixou o
cargo depois de apenas quatro meses, num período em que a companhia enfrentava
acusações de manter um ambiente "tóxico".
Questionado se o famoso
mantra "mova-se rápido e quebre coisas" do Vale do Silício e a
competição desenfreada por mercados justamente não cria circunstâncias
perigosas para o desenvolvimento da inteligência artificial, ele diz que
"não dá para esperar que o capitalismo, por si só, vá resolver esses
problemas".
Ele defende que as
empresas sejam objeto de regulamentação e cita o mercado de aviação como um
exemplo de que é algo necessário.
"O setor aéreo na
década de 1950 era um desastre. Os aviões caíam o tempo todo. A regulamentação
foi boa para o setor aéreo, conseguiu que a indústria aérea desenvolvesse um
produto melhor no final das contas", afirma.
"Deixar as coisas nas
mãos das empresas não necessariamente leva ao caminho correto. Você quer que as
empresas sejam parceiras para construir o que precisa ser feito. Mas há uma
razão para ter governos, certo?"
Entendimento com o 'padrinho da IA'
O posicionamento de cautela e desconfiança com o
entusiasmo pela rápida evolução da IA nem sempre foi bem recebido.
O ceticismo de Marcus foi
ironizado em outros anos por seus pares (principalmente em alfinetadas pelo
Twitter), mas a maré mudou: diversas personalidades da área começaram a adotar
um tom diferente.
Geoffrey Hinton, chamado
de "padrinho da IA", anunciou seu desligamento do Google e afirmou logo na
sequência que considera os problemas com inteligência artificial "talvez
mais urgentes do que os da mudança climática".
"Eu e Hinton temos
visões diferentes sobre alguns aspectos da inteligência artificial. Eu me
correspondi com ele há pouco, eu expliquei a minha posição e ele concordou
comigo, o que nem sempre acontece. Mas a questão principal em que concordamos é
controle", afirma.
"Não necessariamente
concordo que [IA] seja uma ameaça maior do que a mudança climática, mas é
difícil saber. Há muitos dados estabelecidos para tentar estimar os riscos das
mudanças climáticas. Mas com a inteligência artificial nós nem sabemos como
calcular esses riscos."
"Mas, para mim, a
chance de que essas ferramentas sejam usadas para abalar democracias é
essencialmente de 100%. Agora, se há chance de os robôs dominarem o planeta,
não temos ideia. É razoável que algumas pessoas se dediquem a esse cenário.
Estamos construindo ferramentas muito poderosas. Devemos considerar essas
ameaças."
Um convite à essência da vida https://bit.ly/3Ye45TD
Nenhum comentário:
Postar um comentário