Cadastre-se gratuitamente nas nossas newsletters

O Núcleo conversou com Heloisa Massaro, diretora do InternetLab, sobre a responsabilidade das redes sociais nos ataques às sedes dos Três Poderes em 8.jan.2023 e sobre os riscos de ter uma regulação de redes pautada por eventos extremos como os daquele dia.

Massaro defende caminhos alternativos à responsabilização de redes sociais pelos eventos de 8.jan, considerando que o Marco Civil da Internet prevê responsabilização de intermediários no caso de descumprimento de decisões judiciais.

Ela sugere, em vez disso, garantir com que plataformas tenham políticas sólidas de integridade democrática.

No caso do Brasil, o mais viável, na avaliação da pesquisadora, é que isso seja feito como parte de uma regulação das plataformas, na forma de um código de conduta acordado pelas redes e elaborado em um processo de participação multisetorial, por exemplo.

SOBRE A ENTREVISTADA
Heloisa Massaro é diretora do InternetLab e mestranda em Sociologia do Direito pela Univerdade de São Paulo.

Alguns trechos da entrevista foram editados pelo Núcleo para brevidade e concisão.

[PERGUNTA] Hoje já temos uma considerável documentação – na imprensa e por pesquisadores – de que o Telegram teve um papel crucial nos atos de 8.jan, principalmente para viabilizar a parte logística. É possível pensar numa responsabilização da plataforma ou não temos previsão para isso?

[HELOISA MASSARO] É uma pergunta complexa. Eu não acho que dá para falarmos que uma plataforma é responsável por um processo político como os atos de 8.jan. Eu acho que temos que entender as plataformas como espaço de comunicação, arquitetura de comunicação, e que arquiteturas não são neutras.

Mas o que eu quero dizer é que a arquitetura da comunicação em si não está vinculada a um conteúdo ou algum tipo de conteúdo, ela de certa forma é agnóstica com relação ao conteúdo porque qualquer conteúdo pode passar ali. Isso não significa que a plataforma é neutra ou que ela não possa enfim favorecer certo tipo de interação em detrimento a outra, mas ela é agnóstica com relação ao conteúdo.

Então na medida em que você tem uma plataforma ela pode servir tanto para articulações positivas quanto negativas né. É muito mais fácil hoje para as pessoas e para pequenos negócios venderem via WhatsApp ou acessarem episódios de novelas turcas no Telegram ou ter grupos de estudos no Telegram e compartilhar material, assim como é mais fácil para extrema-direita se organizar. Então essas coisas acabam funcionando para os dois lados.

Juridicamente falando, temos um regime de responsabilidade de intermediárias que diz que as plataformas só são responsáveis se elas não removerem o conteúdo depois de uma ordem judicial – então uma plataforma passa a ser responsável ou ela só pode ser responsabilizada por um determinado conteúdo se ela não removeu aquele conteúdo depois da ordem judicial. Logo, não dá para responsabilizar plataformas por todo o conteúdo que circula ali.

Mas e a articulação de extremistas acontecendo por lá? Como isso se encaixa?

Não significa que elas não sejam espaços importantes para a articulação de movimentos extremistas ou do que aconteceu no 8 de janeiro – mas também não significa que elas são o ator central: temos uma variável de fatores.

O 8.jan também tem um papel importante dos acampamentos extremistas que estavam lá há muito tempo que não foram desmantelados, né? Tem todo um contexto sócio-político econômico que vem de uma eleição, uma articulação da extrema direita que eu já vinha de muitos anos, uma articulação que era reforçada pelo ex-presidente da República.

Enfim, então não dá para colocar isso na conta de uma outra plataforma, né? Ela pode ter se tornado um locus de articulação de um grupo. Mas isso não significa que a plataforma é responsável.

Eu acho muito difícil pensar a responsabilização das plataformas, não acho sequer desejável pensar na responsabilização delas por atos como esse. O que não significa que não tenhamos que pensar em formas com as quais as plataformas construam políticas para a integridade democrática e que elas estejam em diálogo com atores importantes.

Eu acho que isso é muito importante, mas eu não acho que o fato de que articulações aconteceram em determinadas plataformas significa que aquela plataforma em si é responsável, ela ocupou um papel crucial.

Porque se tirássemos essa plataforma da equação, essas pessoas talvez fossem buscar outro lugar e outros meios, entende? Então é uma discussão um tanto quanto difícil.

Mas aconteceram muitas incitações e discursos antidemocráticos também, não há como negar...

Óbvio que se você tivesse diante de uma situação onde você tem uma mensagem que claramente incita, ou que claramente chama esse tipo de evento, e que foi pedido a remoção e essa remoção não foi feita de acordo com o Marco Civil... Se você tem ali um conteúdo que foi chave, aquele conteúdo levou, foi o trigger da invasão, e aquele conteúdo tinha tido um pedido de remoção, tinha uma ordem judicial para remover, a plataforma não removeu, ela responde enquanto o responsável por aquele conteúdo tanto quanto o autor.

Mas não é disso que a gente está falando.

Quando pensamos em regulação de plataformas, temos que pensar em formas de garantir que as políticas das plataformas sejam construídas da melhor forma possível, que a moderação de conteúdo funcione da melhor forma possível e que esses ambientes busquem ser íntegros o máximo que der.

Mas, no limite isso, não significa que as plataformas vão ser responsáveis por esse tipo de evento.

Na esteira dos atos do 8 de janeiro, vimos uma intensificação das conversas sobre regulação de redes, inclusive com um protagonismo de atores e grupos políticos que antes não falavam sobre o tema (a exemplo do MJ). Que riscos corremos ao fazer esse debate às pressas, pautada por um evento extremo?

Pensar regulação de plataformas é uma tarefa muito difícil e extremamente complexa porque, por mais que as primeiras coisas que venham à cabeça quando pensamos em regulação sejam esses casos extremos – tipo 8 de janeiro ou casos paradigmáticos de não-remoção de conteúdo ou de remoção indevida de conteúdo – a regulação é algo que é muito maior e que vai incidir no funcionamento cotidiano das plataformas, e não só das plataformas típicas.

Dependendo de como essa estrutura for construída, pode incidir em outros tipos de plataforma como, por exemplo, a Wikipédia, ou plataformas de trocas de receitas – uma infinidade de outros tipos de plataformas, até as menores.

Então temos que pensar que os efeitos disso são muito grandes e que estamos falando de vários tipos de plataformas, diferentes formas de se construir plataforma de rede social ou aplicativos de mensagem e que isso incide no cotidiano e na forma como a plataforma funciona no dia a dia.

E temos também que considerar que já existem vários mecanismos hoje que estão em funcionamento. As plataformas têm políticas de moderação de conteúdo, têm estruturas para essa moderação, e há formas diferentes de moderar conteúdo. Por exemplo, tem o Reddit que tem uma moderação "comunitária", com mais participação dos usuários nesse processo, temos a Wikipédia que tem uma outra forma de construir conteúdo e fazer moderação. Então são modelos diferentes de fazer moderação e que já existem e que já atuam de certa forma regulando discurso.

Uma regulação, então, não incide no vácuo, não existe um vácuo normativo, um vácuo regulatório onde chega a regulação.

E uma regulação mais ampla tem que dar conta de todas essas complexidades ao mesmo tempo.

A regulação vai interagir com esses sistemas, esses arranjos que estão postos. Se pensamos e, todas essas coisas, é um cenário muito complexo e é uma discussão muito complexa.

Tanto que eu diria que não existem respostas consensuais ou nem certezas no campo sobre qual a melhor forma de fazer regulação de plataformas, sobre que tipo de regulação que se deve ter para cada tipo de plataforma, sobre onde traçar essas linhas entre plataformas muito grandes que tem que ter determinados tipo de regulação ou plataformas menores, estilos de plataformas.

O outro risco é que muitas vezes ao fazer esse debate dessa forma e às pressas você corta para a capacidade de participação de atores importantes. Uma regulação como essa é muito importante que tenha participação da sociedade civil, setores interessados, acadêmicos que estudam o tema.

O exemplo do Marco Civil da Internet

O processo do Marco civil é um exemplo no sentido de que ele teve uma participação muito grande. Ele teve mecanismos de consulta pública, teve um processo de participação e debate das questões que foram tratadas no Marco civil que foi bastante amplo e que foi muito importante para essa construção se não de consensos completos, mas de algum tipo de consenso em torno do que do que foi feito ali no Marco civil e esse processo de discussão, de debate, de participação é muito importante para se buscar chegar em melhores alternativas e para que seja possível que alguns setores ou parte da sociedade tragam pautas ou questões que não estão claras num primeiro momento.


Na sua primeira resposta, você diz que temos de buscar formas com que as plataformas tenham políticas para a integridade democrática. De que maneira se alcança isso? Você enxerga, do ponto de vista das plataformas, abertura para um processo coletivo, multi-atores, de construção dessas regras ou diretrizes?

Existem poucas respostas com certezas e consensos no campo em geral quando se fala da regulação de plataformas. O que existem são alternativas enfim discussões que são construídas, ideias que são levantadas.

O que temos, por exemplo, são propostas que caminham mais para um sentido de uma regulação multi-setorial, fora do Estado e isso se relaciona muito com uma ideia que sempre esteve muito no campo da governança da internet, de uma internet em que a governança fosse feita de forma multi-setorial, não-dependente do Estado, com a participação de todos os setores interessados, então setor técnico, privado, civil, academia, governo.

Dialogando um pouco com essa linha temos, por exemplo, propostas como dos Social Media Councils, conselhos de mídia social, que se eu não me engano é da Artigo 19. Em que a ideia seria você ter conselhos ou internacionais ou regionais ou por rede social, um pouco parecidos com que a Oversight Board, mas construídos de forma independente das plataformas, com participação multi-setorial. Esses conselhos seriam espaços para construção e discussão dessas políticas das plataformas.

Essa é uma das ideias ou de propostas que circulam.

Existe algo parecido por aí?

Na minha opinião, é um arranjo um tanto quanto distante se observarmos o que se vê no mundo hoje, né? Temos Europa aprovando o DSA, a Inglaterra discutindo o projeto de lei do Online Harms, no Brasil a gente discutindo regulação de plataformas.

Então eu acho que hoje o que temos de forma mais próxima para garantir que plataformas tenham uma política de integridade democrática é via uma regulação de plataformas. Um parêntese aqui é que muitas plataformas já têm algum tipo de política sobre integridade eleitoral. Isso foi construído num processo de coisas que deram errado, casos como o do Trump, o caso do Capitólio nos Estados Unidos e pressão da sociedade civil.

Muitas plataformas foram construindo essas políticas a partir desses acontecimentos, decisões que precisaram ser tomadas sem políticas. Como foi o caso do Trump e também de muita pressão da sociedade civil.

Mas para além disso, é possível você ter uma regulação, uma estrutura regulatória, com uma agência regulatória, num cenário no qual se tenha algum tipo de Código de Conduta acordada pelas plataformas, onde você pode eventualmente ter algum tipo de mecanismo de participação, algum tipo de conselho com participação social com representantes da sociedade civil, academia etc.

Numa regulação você consegue construir um pouco esses arranjos para tentar garantir que as plataformas tenham algum tipo de política nesse sentido. Essa é uma das soluções e, ao meu ver, é o que temos de solução mais próxima – mas é importante que essa regulação seja construída num processo de longo prazo em que todas as complexidades sejam consideradas.

Reportagem Laís Martins
Edição Sérgio Spagnuolo
Acesse o NúcleoHub, nossa comunidade no Discord.