24 abril 2026

Redes sociais & eleições

A ameaça de jogo sujo nas eleições de 2026
Fraudes nas redes só podem ser enfrentadas com regulação séria e transparente da Inteligência Artificial
Mayara Stelle/Liberta    

As eleições sempre foram um reflexo do seu tempo e, em 2026, esse tempo é marcado pela ascensão vertiginosa da Inteligência Artificial. A menos de seis meses do primeiro turno do pleito de 4 de outubro, o Brasil se prepara para enfrentar disputas políticas que ocorrerão num ambiente em que vozes podem ser clonadas, rostos fabricados e narrativas inteiras geradas em escala industrial com poucos comandos. O que está em jogo, aqui, não é apenas quem vence nas urnas, mas sob quais condições de realidade essa escolha é feita.

O Tribunal Superior Eleitoral avançou, significativamente, ao aprovar resoluções que regulam o uso de IA nas campanhas. As novas regras – que proíbem deepfakes, exigem rotulagem explícita de conteúdo sintético e vedam que modelos de IA sugiram ou indiquem candidatos ao eleitor – são um passo necessário em direção à proteção da integridade do processo democrático.

No entanto, pessoas e organizações que atuam pela regulação das plataformas e mídias digitais têm o dever de soar o alarme: o jogo sujo nas redes não apenas persistirá como poderá se tornar mais sofisticado, e a atual arquitetura de responsabilização ainda é frágil diante da velocidade das mudanças tecnológicas e da opacidade de funcionamento dos algoritmos.

Tempestade perfeita

A preocupação não é retórica. Dados do Comitê Gestor da Internet no Brasil (CGI.Br) revelam um cenário preocupante: 41% dos usuários relatam contato diário com deepfakes e apenas 17% dos brasileiros têm alto desempenho na identificação de conteúdo falso ou verdadeiro. Mais grave: um terço da população sequer considera que vale a pena verificar a veracidade das informações que recebe. Essa combinação de uma tecnologia generativa cada vez mais acessível e um eleitorado desarmado criticamente é a tempestade perfeita para a desinformação em escala industrial.

Se as últimas eleições foram assoladas pelas notícias falsas, o problema cresce substancialmente agora com os perfis de pessoas falsas, personagens criados inteiramente pelas IAs, com apelo pensado estrategicamente para cativar públicos específicos e gerar credibilidade para mensagens deturpadas e sem lastro em informações embasadas ou dados confiáveis.

Para agravar o quadro, um levantamento do Data Privacy Brasil mostrou que conteúdos sintéticos políticos circularam sem rótulo de IA em 73% dos posts, o que comprova que as plataformas não estão cumprindo espontaneamente as regras do TSE. A autorregulação, mais uma vez, falha na largada.

Diante desse cenário, o Sleeping Giants Brasil acredita que o enfrentamento ao uso manipulador da IA nas eleições exige medidas estruturais que vão além das resoluções eleitorais. Precisamos de um marco regulatório robusto para a Inteligência Artificial no país, e é por isso que acompanhamos de perto a tramitação do PL 2338/2023, que institui o marco legal da IA no Brasil. Nossa atuação se concentra em três pontos considerados centrais para evitar que a tecnologia seja usada como arma de manipulação em massa.

Transparência e responsabilização

Defendemos a inclusão expressa da recomendação algorítmica de conteúdo na lista de serviços de IA de alto risco, prevista no artigo 14 do PL 2338. Os sistemas de recomendação são o motor da viralização. São eles que decidem o que vai chegar à tela do eleitor, o que será impulsionado e, portanto, o que terá potencial de influenciar seu voto. Esses sistemas precisam estar sujeitos a graus ampliados de transparência e responsabilização, permitindo que a sociedade e as autoridades compreendam e auditem seus critérios de funcionamento.

Em segundo lugar, afirmamos que a lista de serviços de IA de alto risco não pode ser taxativa, mas exemplificativa. A tecnologia avança em ritmo muito mais acelerado do que o processo legislativo e, se a lei estabelecer uma lista fechada, estará fadada à obsolescência em poucos anos, criando brechas perigosas para novas formas de manipulação ainda não imaginadas. A lista deve ser permanentemente aberta, cabendo à autoridade reguladora, no caso a Agência Nacional de Proteção de Dados (ANPD), desenvolver protocolos ágeis para incorporação de novos serviços à medida que os riscos forem identificados, sem depender de uma nova lei a cada inovação.

Por fim, somos contrários a qualquer disposição que pretenda concentrar, exclusivamente, no Congresso Nacional a competência para tratar de moderação e recomendação de conteúdo. Isso significaria engessar a resposta estatal diante de crises eleitorais em tempo real. O Poder Executivo tem competência regulamentar residual e o Poder Judiciário, como já demonstra o próprio TSE com suas resoluções, sempre poderá e deverá atuar para coibir abusos e proteger a integridade do pleito. A democracia não pode ficar refém de vazios legislativos.

As eleições de 2026 serão um teste de estresse para a democracia brasileira. As plataformas já demonstraram, de saída, que não têm compromisso com o cumprimento voluntário das regras. O TSE deu passos importantes, mas não pode atuar sozinho. Precisamos de uma lei de IA que seja à prova do futuro, que inclua os sistemas de recomendação como risco sistêmico, que tenha lista exemplificativa e que preserve a competência dos demais poderes para agir. O jogo sujo nas redes não vai acabar por decreto, mas pode ser enfrentado com regulação séria, transparente e tecnicamente qualificada.

Ao comentar, assine.

Leia também: Para além do “economicismo governamental” https://lucianosiqueira.blogspot.com/2025/07/minha-opiniao_5.html 

Nenhum comentário: