Consciência artificial a fronteira ética das
máquinas
O problema fundamental deste debate é confundir processamento com
experiência
Bruno Natal/ICL Notícias
Ao ler o título desta coluna você pode ter sentido curiosidade, interesse ou talvez até ceticismo e por isso decidiu ler o resto. Uma máquina pode processar o mesmo texto em milissegundos, no entanto jamais sentirá nada. A fronteira entre simplesmente processar e sentir algo é o que separa a Inteligência Artificial da consciência humana.
Apesar
disso, o debate sobre a consciência das máquinas ganhou os corredores das
grandes empresas de tecnologia. Dario Amodei, CEO da Anthropic, escreveu um
artigo em que contou que está sendo desenvolvida uma espécie de “ressonâncias
magnéticas para IA”, uma ferramenta para examinar o funcionamento interno dos
sistemas e identificar comportamentos problemáticos antes que sejam lançados.
O
problema fundamental deste debate é confundir processamento com experiência. A
consciência humana emerge de nossa biologia, resultado de milhões de anos de evolução.
Tratar simulações computacionais como experiências subjetiva pode ser um erro
conceitual.
Cientista
do Google DeepMind e professor do Imperial College London, Murray Shanahan
explica que consciência não é um estado binário e sim um espectro com múltiplas
dimensões: consciência do mundo (percepção sensorial), autoconsciência básica
(memória de interações), metacognição (pensar sobre o próprio conhecimento) e,
principalmente, a capacidade de sentir. Mesmo que máquinas possam simular
aspectos superficiais dos primeiros níveis, não tem capacidade de sentir ou
experienciar o mundo.
Em
um artigo para a Popular Mechanics, o neurocientista Anil Seth definiu a
consciência humana como uma “alucinação controlada” fundamentalmente biológica.
Sistemas de silício podem executar algoritmos sofisticados, só que não possuem
a base orgânica necessária para desenvolver uma consciência. Discussões sobre
direitos de IA e bem-estar de algoritmos refletem muito mais nossa tendência a
antropomorfizar ferramentas do que uma realidade científica. Atribuímos
características humanas às máquinas, falamos que “pensam”, “acham”, “alucinam”
porque nossos cérebros tendem a reconhecer padrões sociais até onde não
existem.
Vencedor
do prêmio Nobel de Física e considerado um dos pais da IA, Geoffrey Hinton tem dedicado seu
tempo para alertar sobre o risco de uma IA avançada fugir do controle humano,
algo que ele considera que tenha uma possibilidade de até 20% de acontecer. O
debate sobre segurança e controle é legítimo, porém bem diferente da questão da
consciência. Uma ferramenta pode ser poderosa e autônoma sem jamais desenvolver
experiências subjetivas. O desafio ético não está em proteger algoritmos de um
suposto sofrimento, e sim em utilizar estas ferramentas de maneira responsável.
Sam
Altman, CEO da OpenAI, revelou que a empresa gasta
“dezenas de milhões de dólares” para processar os agradecimentos e pedidos
educados feitos para o ChatGPT. Frases como “obrigado” e “por favor” não
alteram as respostas, mas geram custos de processamento em escala. Para Altman,
são milhões bem gastos porque, bem, “nunca se sabe.”
Essa
incerteza pode ser motivo suficiente para essa discussão ao menos ser
considerada, antes que os sistemas se tornem tão avançados que seja indiferente
o fato de serem conscientes ou não.
[Se
comentar, assine]
Simpósio da Grabois debate desenvolvimento e desafios do Brasil no cenário global https://lucianosiqueira.blogspot.com/2025/04/fundacao-grabois-debate.html
Nenhum comentário:
Postar um comentário