Facebook
não prioriza Brasil contra fake news, diz Frances Haugen, do Facebook Papers
Ex-funcionária diz que há
menos proteção contra tentativas de interferência na eleição brasileira do que
houve na dos EUA
Patrícia Campos Mello, Folha de S.
Paulo
O
Facebook não prioriza o Brasil no combate às operações coordenadas de
desinformação eleitoral, alerta a cientista de dados Frances Haugen, a ex-funcionária da plataforma de internet que liberou à imprensa
documentos da empresa, os chamados Facebook Papers, no ano passado.
"Eu
garanto que há muito menos proteção no Brasil contra tentativas de interferir nas
eleições do que nos Estados Unidos", disse Haugen em entrevista
exclusiva à Folha.
Haugen,
que cuidava da área de integridade cívica na empresa, chega ao Brasil neste domingo
(3) para participar de uma audiência pública na Câmara na terça (5) sobre o
projeto de lei das fake news e conversar com organizações da sociedade civil.
A
cientista de dados afirma que o mecanismo anunciado pelo Facebook no Brasil em
outubro, que detecta conteúdo desinformativo eleitoral e coloca etiquetas que
direcionam os usuários para links do TSE, é muito ineficiente.
"Na
melhor das hipóteses, o Facebook consegue detectar 20% do conteúdo
desinformativo –mas, pensando de forma realista, eles devem estar rotulando no
máximo 5%", disse, afirmando se basear nos números a que teve acesso na
empresa.
Ela critica a falta de investimento e transparência em moderação
e inteligência artificial em português. "Eles só se preocupam
com moderação de conteúdo em países onde correm o risco de serem alvo de
regulação, como os Estados Unidos."
Qual é o
objetivo de sua viagem ao Brasil? O
Facebook vem nos dizendo há anos que o melhor caminho para tornar a plataforma
segura é a moderação de conteúdo por meio da inteligência artificial
"mágica". Mas eles sempre sub-investiram em segurança em idiomas fora
o inglês e também não investiram o suficiente em moderadores.
O Brasil é
uma das democracias mais importantes do mundo e eu garanto a vocês que o
português brasileiro é um dos idiomas que não têm os sistemas básicos de
segurança que deveria.
O
Ministério Público enviou ofício ao Facebook e às outras plataformas de
internet indagando quantas pessoas que falam português eles têm nas equipes de
moderação de conteúdo e pedindo informações sobre a inteligência artificial em
português. As empresas não especificaram. O Facebook revela esses números em
algum país? Eles
vêm se recusando a fornecer as informações mais básicas sobre o desempenho de
seus sistemas para todos os governos na Europa. Os governos perguntaram
seguidamente quantos moderadores de conteúdo falam alemão, quantos falam
francês, espanhol, e eles nunca respondem.
A Meta [empresa dona do Facebook] não responde
porque, se fosse honesta sobre o quanto investe em segurança em línguas sem ser
inglês, as pessoas ficariam furiosas. Eles têm sido muito negligentes. Vou te
dar um exemplo que mostra porque eu aposto que o sistema é muito ruim com o
português brasileiro.
Há
500 milhões de pessoas que falam espanhol no mundo, e apenas 130 milhões que
falam alemão. Em 2019, o Facebook gastava cerca de 58% de seu orçamento para
combate a discurso de ódio em moderação em inglês, e só cerca de 2% ou 3% para
alemão e espanhol.
Isso
porque eles têm mais medo que os alemães baixem regulamentação sobre o Facebook
—e isso é profundamente injusto.
A senhora acha que o Facebook não investe o
suficiente em moderação em línguas que não o inglês, e não são transparentes,
porque é muito caro? Se fosse baseado em necessidade e urgência, eles
estariam investindo muito mais em idiomas em que há um histórico de violência
étnica, do que em inglês. O motivo real é que o Facebook aloca seus recursos de
segurança nos países onde ele teme ser regulamentado.
Esse
é o motivo de eles gastarem cerca de 87% de seu orçamento de desinformação no
idioma inglês, em 2020, apesar de uma proporção muito menor de usuários falarem
inglês. Basicamente, o Facebook tenta minimizar os riscos para a empresa, e não
otimizar recursos para a segurança das pessoas.
A
senhora pode explicar quais são as consequências concretas de não investir em
moderação de conteúdo em outros idiomas? Em 2015, em meio a crescentes tensões
em Mianmar que acabaram desembocando no genocídio dos rohyngia, o Facebook tinha
apenas dois moderadores que falavam birmanês e a plataforma foi um dos
principais veículos de discurso de ódio contra a minoria muçulmana. Mark Zuckerberg admitiu,
em 2018, que a promoção de conteúdo baseada em engajamento é perigosa. Ela é
perigosa porque as pessoas são mais atraídas por conteúdo extremista. Quando o
Facebook não investe o necessário em um idioma, as pessoas acabam usando a versão
mais violenta do Facebook.
O Brasil terá eleições presidenciais em 2
de outubro. O presidente Jair Bolsonaro tem espalhado sua versão do "Stop
the Steal" de Donald Trump, afirmando que as eleições serão fraudadas.
A senhora acha que o Facebook aprendeu com os erros que cometeu nas eleições
americanas de 2016 e 2020? A rede que existia em 2020 para lidar com as
eleições, chamada de Integridade Cívica, foi desmantelada imediatamente depois
da eleição daquele ano.
E
para ter inteligência artificial que garanta segurança na plataforma, é preciso
construí-la para cada língua, cada contexto. No momento, não existe transparência
em relação ao que o Facebook está ou não fazendo. Sou muito cética em relação à
ideia de que o Facebook fez o trabalho necessário para garantir a segurança da
eleição [brasileira].
O que o Facebook deveria estar fazendo para
garantir a segurança da eleição do Brasil? No verão de 2020
nos EUA, o Facebook estava recomendando aos usuários entrarem em grupos,
durante dias, antes que o sistema de segurança pudesse avaliar se os grupos
eram seguros. Havia grupos com atividades ilegais. Eles estavam ativamente
promovendo esses grupos [alguns eram sobre o Stop the Steal, a teoria da
conspiração sobre suposta fraude nas eleições].
Isso
era muito perigoso, porque grupos estavam enviando milhares de convites por
dia, e o sistema de segurança não conseguia dar conta.
Ao
fazer pequenas mudanças como reduzir o número de convites para grupos que podem
ser enviados por dia [feito posteriormente na eleição americana], diminuindo de
2000 para 200 o número de convites que um grupo ou usuário pode mandar por dia,
já fica significativamente mais difícil espalhar desinformação e burlar as
regras de uso.
Esses
ajustes são fáceis de "ligar e desligar" e o Facebook sabe disso.
E como
sabemos se o Facebook está implementando esses ajustes? Não temos a menor
ideia. O Facebook tem se negado a tratar o governo brasileiro e a população
brasileira como parceiros. Tenho certeza de que o Facebook não está dando o
mesmo nível de prioridade para o Brasil [em comparação aos EUA].
O Facebook anunciou em outubro do ano
passado que passaria a detectar posts com conteúdo relacionado à eleição
brasileira e iria colocar rótulos direcionando os usuários ao site oficial da
Justiça Eleitoral. Mas não sabemos quão eficiente é esse sistema, porque a
empresa só revela o total de posts rotulados, e não quantas pessoas foram
expostas aos posts antes de eles terem sido rotulados, por exemplo. Será que
esse sistema consegue detectar a maior parte da desinformação eleitoral? Levando em conta as
informações que revelamos [nos Facebook Papers], podemos presumir que o sistema
não funciona bem.
Segundo
documentos do próprio Facebook, eles só conseguiam filtrar entre 3% e 5% do
discurso de ódio. Na melhor das hipóteses, o Facebook consegue detectar 20% do
conteúdo desinformativo. Mas esse número é muito otimista, porque depende da
precisão da inteligência artificial em outros idiomas.
Pensando
de forma realista, eles devem estar rotulando no máximo 5% [em português]. Não
podemos confiar neles e é por isso que estou indo para o Brasil.
A senhora esteve na União Europeia e no
Congresso dos EUA discutindo regulação das plataformas de internet. Baseado na
sua experiência, que tipo de regulação é mais urgente e deveria ser adotada o
mais rápido possível em todos os lugares? Nós
definitivamente precisamos ter acesso aos dados do Facebook. Qualquer indústria
ou empresa do mundo com o mesmo nível de poder que o Facebook é mais
transparente. Por exemplo, a indústria automobilística, nós podemos comprar os
carros, testar colisões.
A
legislação aprovada na UE, o Digital Services Act [Lei de Serviços Digitais],
estabelece acesso dos pesquisadores aos dados das plataformas. Ou seja, por
enquanto, ainda estamos no estágio de negociar poder comprar um Modelo T., não
podemos nem tocar no carro.
E
em relação a responsabilização? Alguns pesquisadores propõem a revogação ou
mudanças na Seção 230 do Ato de Decência nas Comunicações dos EUA, que exime as
plataformas de responsabilidade por conteúdos postados por terceiros. Eu passei muito tempo
discutindo com reguladores que tipo de legislação seria mais construtiva.
Parece
óbvio dizer que o Facebook removeria mais conteúdo irregular se nós o
tornássemos responsável por isso. Como a inteligência artificial ainda é muito
ineficiente para entender certos conteúdos, tirar a proteção na realidade
inviabilizaria plataformas de publicarem posts de terceiros.
Agora,
acho que o Facebook deveria ser responsabilizado por algumas decisões que toma.
Ele teve centenas de oportunidades de ganhar mais dinheiro com aumento de
discurso de ódio e desinformação, e fez isso. Então, deveria ser responsável
por esse padrão de comportamento.
Por que o Facebook não faz essas mudanças
para combater desinformação? Certas mudanças diminuiriam o tempo que as
pessoas gastam na plataforma, fariam com que as pessoas curtissem menos posts
ou se logassem menos frequentemente. Então a decisão fica entre ter 95% menos
desinformação ou ter 5% mais lucros.
Considerando seu conhecimento sobre o
funcionamento da equipe de integridade cívica do Facebook, a senhora acha que a
plataforma está preocupada com as eleições brasileiras? Eu acho que há
pessoas no Facebook prestando atenção nas eleições do Brasil, que, vou repetir,
é uma das democracias mais importantes do mundo.
Mas
será que há um número suficiente de pessoas acompanhando as eleições
brasileiras e como podemos saber? Não há transparência, nem responsabilidade.
Documentos revelados nos Facebook Papers
mostram que, no Brasil, as declarações e mensagens
políticas são o tipo de desinformação com maior alcance na plataforma no
Brasil, na percepção das pessoas. O que o Facebook deveria fazer
para combater esse tipo de desinformação no Brasil? Em primeiro lugar,
investir em sistemas para português do Brasil. Eu te garanto que há muito menos
proteção no Brasil contra tentativas de interferir nas eleições do que nos
Estados Unidos. Isso é muito grave.
RAIO X
Frances Haugen, 38
Nascida
no estado de Iowa (EUA), em 1984, é formada em engenharia da computação e
elétrica pelo Olin College e tem um MBA pela Universidade Harvard. É
especialista em administração de produtos algorítmicos e trabalhou no Google,
no Pinterest, no Yelp e no Facebook. Em 2019, foi recrutada para ser líder no
grupo de desinformação cívica do Facebook, cuidando de questões ligadas a
democracia e desinformação. Ela deixou a empresa e, em 2021, revelou documentos
do Facebook com críticas às práticas da plataforma, nos chamados Facebook
Papers
.
Nenhum comentário:
Postar um comentário