Receba nossas newsletters
É de graça. Só tem coisa fina, você vai curtir!
A 15 dias do primeiro turno das eleições, as principais plataformas de redes sociais no Brasil não estão suficientemente preparadas para impedir que elas sejam usadas para organizar violência e atos anti-democráticos, nos moldes do que aconteceu no Capitólio dos Estados Unidos em 6.jan.2021.
Com exceção do Twitter, as redes não contam com políticas claras para impedir "chamados à sublevação contra a ordem democrática ou à interferência na transmissão pacífica de poder que não apelem explicitamente à violência", o que as torna potencialmente espaço para organizar e promover ações anti-democráticas.
O alerta é feito no documento O papel das plataformas digitais na proteção da integridade eleitoral em 2022, lançado nesta sexta-feira (16.set.2022) por organizações da sociedade civil e acadêmicas e assinado por mais de 100 instituições.
É ✷ importante ✷ porque...
Proximidade com eleições tornam necessárias políticas de plataformas para conter potenciais atos antidemocráticos
Apoiadores do presidente Jair Bolsonaro frequentemente têm alertado para possíveis fraudes eleitorais, e que a liberdade está em jogo, embora a integridade do sistema eleitoral brasileiro esteja amplamente documentada
O documento, que apresenta uma série de demandas às plataformas, é uma atualização de um relatório que já havia sido lançado em julho e traz um balanço das ações das redes desde então.
Houve de fato mudanças na adaptação das políticas de moderação e de remoção de conteúdo das plataformas, mas ainda restam questões fundamentais que carecem de atenção das empresas antes das eleições, pontuam as organizações.
É importante entender o porquê de haver essa ressalva.
As plataformas já possuem regras para conteúdos contendo violência ou incitação à violência. A Meta, por exemplo, diz que visa "prevenir potenciais danos offline ligados a conteúdo no Facebook".
Mas essas regras não dão conta de conteúdos que não façam chamados explícitos à violência, mas que contextualmente o façam. Por isso é tão importante que a moderação de conteúdo leve em conta o contexto local de cada país e língua, o que muitas vezes se perde na moderação automatizada.
Falta de transparência
O relatório foi elaborado pelas organizações após contato com as plataformas, que informaram ter protocolos para reagir de forma imediata a situações de crise política.
"Mas esses procedimentos não são publicizados e não há clareza sobre como tais empresas vão parametrizar a gravidade de tais atos e que tipo de ações serão tomadas", diz o documento.
6 DE JANEIRO DE NOVO
Nos Estados Unidos, a Meta foi esquadrinhada por seu papel na invasão ao Capitólio, já que a plataforma foi utilizada por grupos extremistas nas semanas antes e durante o ataque. Documentos do Facebook Papers mostraram que a plataforma dispunha de uma série de protocolos e medidas para limitar o uso do Facebook na ocasião, mas que muitas estavam desligadas.
Trocando atores e cenário, há temor que o episódio do Capitólio se repita no Brasil durante as eleições ou no período entre o resultado das urnas e a posse do novo presidente.
O Ministério Público Federal alertou para o risco de violência após as eleições em sua recomendação ao WhatsApp em que solicitou que o recurso Comunidades seja lançado no Brasil só em 2023 (a plataforma concedeu).
A Procuradoria citou o elevado número de armas na mão de civis como motivo para preocupação. Na semana passada, em decisão que suspendeu parte dos decretos de flexibilização ao acesso de armas por Bolsonaro, o ministro do Supremo Tribunal Federal Edson Fachin citou risco de violência política.
Esse alerta vem soando há meses. Em fev.2022, Avaaz e Real Oversight Board, duas organizações sem fins lucrativos, alertaram que o Brasil estava sob risco de ver um evento similar à invasão do Capitólio.
Segundo as organizações, o Facebook não só foi usado para fomentar a invasão na época como falhou em "aprender ou corrigir erros da insurreição nos EUA que poderiam colocar os resultados das eleições de 2 de outubro no Brasil sob perigo".
Executivos da Meta no Brasil disseram em um evento em maio que a empresa aprendeu com eventos passados, como a invasão ao Capitólio, para aprimorar a resposta da plataforma caso isso venha a acontecer novamente.
PREPARAÇÃO
Em set.2020, poucos meses antes das eleições presidenciais de nov.2020 nos Estados Unidos, executivos da Meta disseram que estavam preparando medidas break-glass (quebrar o vidro, na tradução para o português) para restringir conteúdos em suas plataformas caso violência e agitação civil surgissem após a votação, em 3.nov.2020.
Menos de quatro meses depois, extremistas de direita e supremacistas brancos, encorajados pelo ex-presidente Donald Trump, invadiram o Capitólio dos EUA, onde ocorria a contagem de votos que confirmaria a vitória de Joe Biden.
A Meta não agiu efetivamente para conter a escalada de violência organizada em suas plataformas e as alegações de fraude eleitoral, como mostraram documentos do #FacebookPapers
, tornados públicos pela whistleblower Frances Haugen.
Um dos documentos chamado de "Capitol Protest BTG" traz uma tabela com uma lista de medidas que a Meta poderia tomar em resposta ao ataque ao Capitólio.
A grosso modo, são alterações feitas internamente na infraestrutura da plataforma que alteram a experiência de uso do Facebook. Em maioria, não são medidas visíveis, mas algumas são perceptíveis.
Uma dessas alterações, por exemplo, habilitaria a aprovação obrigatória de posts em grupos cívicos que tivessem registrado ao menos oito violações de regras. Outra alteração consistia em parar de impulsionar conteúdo de grupos não-recomendáveis no feed.
Segundo uma reportagem da CNN, no momento em que Haugen fotografou o documento, pouco menos de duas horas após o início da invasão ao Capitólio, algumas das medidas estavam em vigor, enquanto outras ainda estavam sob análise.
Algumas das medidas chegaram a ser implementadas antes, mas foram "desligadas" após a votação, mesmo que Trump tenha começado a questionar os resultados das urnas logo após o fim do horário de voto.
Nas eleições presidenciais no Quênia, em ago.2022, organizações da sociedade civil fizeram um pedido público para que o Facebook ativasse medidas emergenciais como fez nos Estados Unidos em nov.2020.
"A segurança das eleições quenianas importa tanto quanto nos Estados Unidos e há múltiplas ações dentro do software que o Facebook pode tomar para preservar a integridade eleitoral imediatamente", disse Haugen, à época.
Em 16.ago, o Núcleo questionou a Meta sobre a preparação da empresa para uma possível escalada de violência e, mais especificamente, sobre como essa questão vêm sendo tratada com o Tribunal Superior Eleitoral, já que os memorandos de entendimento se limitam a desinformação eleitoral.
Questionamentos:
Pelos documentos do Facebook Papers, nós tivemos acesso a uma lista de break-the-glass measures que a Meta tinha tanto nas eleições de 2020 nos EUA quanto nas eleições regionais da Índia em 2021. Estamos olhando para esses documentos não como uma lista definitiva de ações que vocês poderão implementar, mas como um guia de possíveis medidas.
Os memorandos assinados pelas plataformas junto ao TSE não englobam a questão de violência no processo eleitoral, ficando restritos a desinformação eleitoral, mas gostaríamos de questionar se isso é algo que vocês vêm tratando com o TSE.
Aqui nossas questões de maneira mais direta:
1. A Meta vem dialogando com o TSE sobre a possibilidade de uma escalada de violência?
2. A Meta apresentou ao TSE uma lista de possíveis medidas (as break-the-glass measures) que pode tomar no caso de violência ligada ao processo eleitoral, como ocorreu no 6 de janeiro nos EUA?
3. A Meta vai implementar ou já implementou medidas que foram usadas nos EUA e na Índia? 4. Que medidas serão tomadas pela empresa para garantir que as plataformas não sejam usadas para organizar ataques e violência, como ocorreu em 6 de janeiro? No caso dos EUA, em setembro de 2020, executivos da empresa disseram que a empresa estava meticulosamente preparada para o caso de violência na esteira das eleições. Isso não impediu que a plataforma fosse usada por atores maliciosos. De que maneira a Meta vai garantir que isso não ocorra novamente no Brasil?
5. Até o momento, a Meta já derrubou alguma rede, grupo ou perfil por ter identificado uma organização de ato de violência ligada ao processo eleitoral?
A empresa respondeu:
"Temos um rol de estratégias para prevenir, identificar e interromper potenciais ameaças em nossas plataformas. Em acordo com nossas políticas, removemos conteúdos que incitem a violência e o discurso de ódio. A colaboração com o Tribunal Superior Eleitoral inclui um canal direto em que a autoridade eleitoral pode encaminhar denúncias para Facebook e Instagram, inclusive de conteúdos que retratam incitação à violência e discurso de ódio. Há regras específicas para o caso de figuras públicas compartilharem conteúdo que viole nossas políticas durante agitações civis. Também investigamos e interrompemos redes que, de maneira coordenada, utilizam contas falsas para influenciar o debate público. Próximo às eleições, ativaremos nosso Centro de Operações para Eleições para acelerar nosso tempo de resposta."