05 fevereiro 2024

Deepfakes podem munipular eleições

Uso mundial de deepfakes para manipular eleições avança, e áudio é maior risco

Segundo relatório da Freedom House, IA generativa foi usada para tentar influenciar política em ao menos 16 países em 2023
Patricia Campos Mello/Folha de S. Paulo

 

Às vésperas da eleição para a Prefeitura de Chicago, nos Estados Unidos, viralizou um vídeo em que um homem dizia: "Antigamente, um policial podia matar 17 ou 18 pessoas e ninguém nem piscava. Essa conversa de ‘tire os recursos da polícia’ vai levar ao caos e à ilegalidade".

O homem no vídeo era igualzinho ao candidato à prefeitura Paul Vallas —e tinha a mesma voz. Mas tratava-se de um vídeo deepfake, uma manipulação feita com inteligência artificial, que havia sido postada em uma conta recém-criada no X (antigo Twitter). A conta fingia ser um veículo de mídia com o nome de Chicago Lakefront News.

A campanha de Vallas denunciou o vídeo, que foi rapidamente retirado da rede social. Mesmo assim, já era tarde. O deepfake havia sido compartilhado milhares de vezes. Vallas acabou perdendo a eleição para Brandon Johnson —que, justamente, disputava com ele os votos dos eleitores moderados e era um crítico da violência policial.

A eleição em Chicago, em fevereiro de 2023, foi um prenúncio da avalanche de áudios, vídeos e imagens eleitorais falsas que estava por vir.

De acordo com um levantamento da Freedom House, em 2023, a inteligência artificial generativa foi usada em pelo menos 16 países para criar vídeos, imagens ou áudios com o objetivo de "semear dúvidas, difamar opositores ou influenciar o debate público".

Os deepfakes —imagens, áudios ou vídeos criados com a ajuda de modelos de inteligência artificial— têm se tornado muito mais realistas e baratos. Inúmeras empresas oferecem serviços de criação de vídeos ou áudios sintéticos por preços a partir de US$ 5 por mês (cerca de R$ 25).

"O uso disseminado de deepfakes para manipular processos políticos e eleições deixou de ser uma questão teórica. É uma realidade", disse à Folha Henry Ajder, especialista em IA que já trabalhou com Meta, Adobe e Comissão Europeia.

"A partir de agora, a tecnologia só vai melhorar. Os deepfakes vão ficar cada vez mais baratos e realistas. E a quantidade de coisas que podem ser falsificadas vai se expandir muito."

A popularização da desinformação política alimentada por IA ocorre em um momento particularmente delicado —cerca de metade da população do planeta vota em nível nacional ou regional em 2024, poucos lugares têm regulação em vigor, as big techs reduziram suas equipes de segurança e os sistemas de detecção não são muito eficientes, em especial para identificar áudios falsos.

Na reta final da eleição parlamentar da Eslováquia, no fim de setembro do ano passado, o líder do partido que estava à frente nas pesquisas foi atropelado por um áudio deepfake.

Na gravação, uma voz muito parecida com a de Michal Simecka, líder do partido Progressista, falava sobre um esquema para fraudar a eleição comprando votos de integrantes da minoria étnica roma. No fundo, uma imagem com o rosto de Simecka.

O partido denunciou o áudio, que foi classificado como falso pela agência France Presse. O conteúdo foi rotulado como desinformativo no Facebook, mas não foi removido. O Direção Social-Democracia, partido populista pró-Rússia, derrotou o Progressista e conquistou o maior número de assentos no Parlamento.

Nos EUA, eleitores democratas de New Hampshire receberam ligações automatizadas com uma voz muito parecida com a do presidente Joe Biden instando-os a não participar das primárias do partido no estado, no fim de janeiro.

Segundo pesquisadores, o áudio foi criado com o software da startup de clonagem de voz Eleven Labs.

"O tipo de conteúdo sintético que mais consegue enganar as pessoas são os áudios gerados por IA, porque basta ter três segundos da voz de alguém para treinar o modelo e conseguir um deepfake convincente", disse Ben Colman, presidente da Reality Defender, empresa de detecção de deepfakes.

Antes, as vozes clonadas soavam robóticas e artificiais. Agora, a tecnologia analisa milhões de vozes, padrões nos fonemas e nas pausas, e consegue replicar tudo de forma muito realista. É muito mais fácil notar manipulações em vídeos ou imagens —como as mãos deformadas e sombras estranhas— do que em áudios.

Os detectores de IA não têm acompanhado a velocidade da evolução da tecnologia.

"As ferramentas de detecção avançaram muito, mas ainda têm um longo caminho a percorrer. Nunca chegaremos a 100% de precisão, então quais são outras coisas —como a alfabetização midiática— que precisamos combinar com o avanço tecnológico disso?", afirma Katie Harbath, chefe de assuntos globais da Duco Experts e ex-diretora de políticas públicas do Facebook.

"Não existe um único sistema de detecção, uma bala de prata. É preciso entender as limitações, porque haverá vários resultados conflitantes", diz Ajder.

A regulação do uso de IA em eleições —e de forma geral— ainda engatinha.

No Brasil, uma minuta de resolução do TSE (Tribunal Superior Eleitoral), que precisa ser aprovada até março, obriga o uso de rótulos informando o uso de inteligência artificial em anúncios políticos e proíbe que a tecnologia seja aplicada para adulterar áudios e vídeos.

O texto parece criar a obrigação das plataformas de identificarem esses conteúdos e removerem, se for o caso. No entanto, as big techs insistiram, em audiência pública no TSE, que a responsabilidade pela identificação do uso de IA é dos candidatos e partidos, e não das empresas.

As empresas estabeleceram regras de uso exigindo a rotulagem de anúncios políticos que usam IA e proibindo conteúdo sintético que interfira no processo democrático ou questione a integridade do sistema eleitoral. Não há, porém, fiscalização sobre a aplicação das regras.

Leia também: Multiverso: impactos, possibilidades e limites http://tinyurl.com/5778fwdx

Nenhum comentário: