Monitoramento de redes ainda desafia autoridades, diz ex-diretora do FB

Para Katie Harbath, ex-diretora de Políticas Públicas do Facebook, falta transparência das plataformas sobre ações para eleição
Monitoramento de redes ainda desafia autoridades, diz ex-diretora do FB
Arte: Rodolfo Almeida
Receba nossas newsletters de graça
Show de bola! Verifique sua caixa de entrada e clique no link para confirmar sua inscrição.
Erro! Por favor, insira um endereço de email válido!

Read this story in English

DESTAQUES
* Houve avanço na cooperação entre plataformas e autoridades, mas o monitoramento do que acontece nas redes ainda é um desafio para autoridades como TSE

* Papel de plataformas emergentes é ponto de preocupação

* Falta transparência por plataformas para detalhar ações sendo tomadas em preparação às eleições

* Plataformas devem ter ações pensadas para possibilidade de violência offline, como a invasão ao Capitólio dos EUA

A relação entre autoridades brasileiras e plataformas de redes sociais evoluiu muito nos últimos anos, mas, às vésperas do ciclo eleitoral de 2022, ainda há um ponto crucial a ser endereçado: como monitorar o que acontece dentro dessas plataformas?

A avaliação é de Katie Harbath, ex-executiva do Facebook que esteve no Brasil no início do ano, e concedeu entrevista ao Núcleo após sua passagem pelo país.

Em 2021, Harbath deixou o Facebook (que agora se chama Meta), onde ocupou nos últimos anos o cargo de Diretora de Políticas Públicas e foi líder do time responsável por eleições. Após sua saída, fundou a Anchor Change, empresa que atua na área de tecnologia cívica e desenvolve estratégias e soluções em tecnologia, política e negócios, pensando em temas globais ligados à democracia, eleições e engajamento cívico online.

CONTEXTO

Em fevereiro, o Tribunal Superior Eleitoral (TSE) firmou acordo com plataformas para combater a desinformação eleitoral.

Meta (que inclui Facebook e Instagram), WhatsApp, Twitter, Google (que também responde pelo YouTube), Kwai e TikTok assinaram documentos em que se comprometem a adotar ações para combater desinformação. O Telegram tinha ficado de fora, mas assinou sua adesão ao programa em 25 de março, uma semana depois da determinação do ministro Alexandre de Moraes para interromper o serviço no Brasil.

As eleições de outubro deste ano serão as primeiras eleições gerais a ocorrerem sob essa parceria formal entre TSE e plataformas, já que em 2018 não havia iniciativa do tipo. O acordo, assinado em meados de fevereiro, se dá no âmbito do Programa de Enfrentamento à Desinformação, criado pela corte em agosto de 2019 e tornado permanente em agosto de 2021.

Segundo Harbath, por mais importante que seja ter as plataformas comprometidas, o monitoramento de informações ainda é um problema a ser resolvido, especialmente no que se refere às plataformas "emergentes", que passaram a desempenhar um papel mais central nos últimos anos.

"Isso é desafiador, especialmente considerando que o Facebook não está aceitando mais pessoas à sua plataforma Crowdtangle e que você tem muitas novas plataformas que são difíceis de monitorar e entender como estão sendo usadas, como Telegram, TikTok e Instagram, se tornando novos players e sendo usadas por pessoas para obter notícias e informações", disse Harbath em entrevista ao Núcleo.

Permanece o desafio de como ajudamos atores externos a realmente monitorar o que está acontecendo ao redor dessas várias plataformas

Na avaliação de Harbath, o papel dessas plataformas emergentes, que talvez não tiveram a experiência de eleições passadas e não trazem uma bagagem sobre como lidar com os desafios que surgem nesse contexto, é um dos principais pontos de preocupação para as eleições de outubro no Brasil.

Harbath também aponta a diferença entre o que as plataformas prometem fazer e o quanto fazem para executar essas promessas.

Como exemplo, ela citou um estudo da FGV-Dapp em parceria com o TSE publicado em fevereiro que analisou a circulação de links sobre desconfiança no sistema eleitoral entre novembro de 2020 e janeiro de 2022. Um levantamento adicional realizado pelos pesquisadores a pedido da Folha de S. Paulo revelou que a maioria dos links circulava sem nenhum rótulo.

Também há uma lacuna notável entre as ferramentas que a Meta e outras plataformas anunciaram (até o momento) para as eleições brasileiras na comparação com as ferramentas vistas no último ciclo eleitoral nos Estados Unidos.

Até agora eu só vi os rótulos sendo ampliados para outros países, mas eu gostaria de ver mais dessas ferramentas e recursos sendo expandidas para outros lugares no mundo onde fazem sentido

"Maus atores"

Em outubro de 2019, mais de um ano antes das votações para presidente nos EUA, a Meta já havia anunciado uma série de ações para proteger a integridade das eleições.

Para o Brasil, o Núcleo não encontrou um anúncio tão completo da empresa que detalhe as ações implementadas para as eleições.

Há anúncios públicos feitos em dezembro, quando a empresa disse que passaria a inserir rótulos em publicações sobre eleições no FB e Instagram, e em fevereiro, quando anunciou a criação de um canal de denúncias exclusivo para o TSE, mas nada que seja tão completo e minucioso quanto as informações fornecidas nos EUA.

De maneira mais ampla, Harbath acredita que falta transparência não só da Meta, como também de outras plataformas para demonstrar quais ações vêm sendo tomadas para proteger a integridade cívica.


Falando da perspectiva de alguém que já esteve dentro da empresa, a ex-diretora do Facebook reconhece que há um delicado equilíbrio entre ser transparente e dar informações demais, de maneira que possam ser usadas por "atores maus" para engajar em comportamentos nocivos sem que isso efetivamente viole as regras.

"Mas eu acho que nós precisamos – e não só o FB, de todas as companhias de tecnologia – ter mais transparência para conseguir monitorar o que está realmente acontecendo e permitir mais pesquisas", disse Harbath, acrescentando que há um receio das plataformas sobre dar informações depois do escândalo do Cambridge Analytica.

Em 2018, New York Times, The Guardian e Channel 4 News obtiveram acesso a informações de que a empresa Cambridge Analytica teria coletado indevidamente, desde 2014, informações pessoalmente identificáveis de 87 milhões de usuários do Facebook. Esses dados foram utilizados para criar perfil de eleitores e influenciar a opinião pública em diversos países e eventos cívicos. Steve Bannon, ex-assessor e estrategista do ex-presidente dos Estados Unidos Donald Trump, era membro do conselho da Cambridge Analytica.

Segundo ela, esse é um dos pontos em que a legislação é importante, já que pode dar às empresas alguma cobertura para o compartilhamento de dados com acadêmicos e a sociedade civil, por exemplo. O projeto de lei 2630 prevê que provedores devem facilitar o acesso de instituições acadêmicas a dados desagregados para pesquisa, de acordo com a versão final do relator, apresentada na semana passada.

Siga o canal do Núcleo no Telegram e não perca nenhuma publicação
Ou entre para o Lixo Eletrônico

Violência offline

A invasão ao Capitólio dos Estados Unidos em janeiro de 2021 forçou o Facebook e outras plataformas de redes sociais a tomarem decisões sem precedentes. Katie Harbath estava na empresa quando os eventos se desenrolaram em 6 de janeiro e parte da sua decisão de deixar a Meta se explica pela postura da empresa naquele dia e depois.

Em entrevista ao Wall Street Journal, Harbath disse que a empresa deveria refletir "se poderia ter feito mais para evitar violência do tipo que surgiu em 6 de janeiro e quais papéis suas plataformas têm exercido em tornar a política mais violenta".

A ex-diretora acrescentou ao WSJ que, a menos que haja intervenção urgente por governos e plataformas de tecnologia, é provável que as redes sociais "incubem violência política futura, como aquela que levou à invasão do Capitólio em 6 de janeiro de 2021".

Em sua visita ao Brasil em fevereiro, o tema da violência offline voltou à pauta de Katie (se é que em algum momento saiu). Dentre as preocupações que ouviu de pessoas com as quais se reuniu no Brasil – membros do governo, da sociedade civil e do setor privado –, o risco de violência se fez presente, contou ao Núcleo.

Alertas via Twitter ou Telegram

Lições e sugestões

Segundo Katie, há lições a serem aprendidas da invasão ao Capitólio, assim como do que está acontecendo na Ucrânia agora.

A primeira lição que ela considera importante é que tanto plataformas quanto governos sejam mais transparentes sobre o que estão vendo e o que os preocupa, dado que isso pode ajudar as pessoas a se prepararem para o que pode vir.

"É importante pensar em profundidade e ter mais passos pensados sobre o que fazer caso haja conteúdo que pode levar à violência", disse Harbath. "Talvez derrubar ou manter o conteúdo no ar não sejam as únicas duas opções, talvez haja outras opções, como reduzir alcance, aplicar rótulos e pensar em coisas diferentes."

Por fim, Harbath diz que é preciso garantir a existência de políticas que definam qual o momento a se pensar na deplataformização ou suspensão certos perfis, "dependendo do que estão falando ou como estão tentando alimentar algum tipo de violência".

Poucas horas depois da invasão do Capitólio, o Facebook deu início à desplataformização do ex-presidente dos Estados Unidos, Donald Trump, por incitar violência. Uma suspensão de 24 horas se transformou em um banimento indefinido. Em junho de 2021, a empresa anunciou que a suspensão de Trump duraria dois anos e divulgou um novo protocolo para casos excepcionais como esse.


O protocolo seguiu uma recomendação do Oversight Board, que criticou a decisão inicial da empresa de aplicar uma pena indeterminada e sem padrões. O Twitter foi mais radical: em 8 de janeiro suspendeu permanentemente a conta de Trump por risco futuro de incitação à violência.

Harbath chama atenção para uma certa falta de compreensão sobre a formulação de política das empresas de redes. Ela explica que decisões excepcionais como a de suspender Trump ou permitir chamados de violência contra autoridades e soldados russos não são feitas com a intenção de serem permanentes.

"Essas são decisões que as empresas não necessariamente fazem com a intenção de serem permanentes – ao menos do ponto de vista do FB, são políticas para se adaptar às situações que existem no mundo", disse ao Núcleo.

Acho que isso é algo que veremos cada vez mais, porque o mundo está mudando muito rápido e o que é aceitável ou não muda constantemente, então é difícil ter políticas permanentes para estas coisas

Como exemplo, Harbath citou mudanças ligadas à COVID-19.

De acordo com Harbath, será preciso ter mais flexibilidade com relação às plataformas para que elas possam reagir melhor a esses eventos.

"Nós precisamos estar dispostos a permitir que elas mudem de ideia dependendo de como a situação evolui, e precisamos entender que elas farão isso e que não é uma oportunidade para atacá-las", explicou.

Onda de eleições

Em um op-ed publicado no New York Times no fim de janeiro, Harbath argumentou que o Facebook não está pronto para a onda de eleições que ocorrerá em 2022. Ela defende que o prazo está apertado, mas que ainda há tempo para a empresa anunciar publicamente as ações que pretende implementar para combater a desinformação e o discurso de ódio ao redor do mundo.

Um dos pontos que carece atenção, segundo escreve a ex-diretora em seu artigo, é que a empresa precisa de "pessoas com expertise cultural e linguística específica a países para tomar decisões difíceis sobre discurso ou comportamento que possa violar as regras da plataforma".

Esse tema da ausência de nuance cultural e de língua para fora dos Estados Unidos aparece frequentemente nos Facebook Papers.

Questionada sobre como essa carência impacta os esforços da empresa em períodos eleitorais, Harbath disse que não se trata tanto das equipes de moderação de conteúdo – que ela avalia estarem bem assistidos e equipados quanto a isso – mas sim dos times de desenvolvimento de produtos.

"As pessoas que estão construindo as ferramentas, como os classificadores de aprendizagem de máquina, para tentar identificar proativamente o conteúdo potencialmente problemático para que ele possa ser sinalizado aos moderadores de conteúdo em primeiro lugar. E aí que eu sinto que um pouco da nuance dessa conversa se perde", disse Harbath.

Reportagem e texto Laís Martins
Edição Alexandre Orrico

Texto atualizado às 13h01 de 5.abr.2022 para deixar mais claro, logo após o intertítulo "Maus atores", que o Facebook de fato fez anúncios sobre medidas específicas para o Brasil, mas que não encontramos nenhum documento público  que detalhe políticas para o país da forma como foi feito nos EUA.

Receba nossas newsletters e traga felicidade para sua vida.

Não perca nada: você vai receber as newsletters Garimpo (memes e atualidades), Polígono (curadoria de ciência nas redes sociais) e Prensadão (resumo semanal de tudo o que o Núcleo fez). É fácil de receber e fácil de gerenciar!
Show de bola! Verifique sua caixa de entrada e clique no link para confirmar sua inscrição.
Erro! Por favor, insira um endereço de email válido!