Receba nossas newsletters
É de graça. Só tem coisa fina, você vai curtir!
O Núcleo conversou com a pesquisadora Tatiana Dourado sobre a circulação de notícias falsas nas redes sociais, tema principal do seu novo artigo, publicado no início de mar.2023, que analisa a distribuição de desinformação no Twitter e no Facebook.
Tatiana Dourado é doutora e mestre pelo Programa de Comunicação e Cultura Contemporâneas (Póscom) da Universidade Federal da Bahia (UFBA). É também pesquisadora do Instituto Nacional de Ciência e Tecnologia em Democracia Digital (INCT-DD).
Dourado analisou 1073
perfis que publicaram ou compartilharam 57
notícias falsas durante as eleições nacionais de 2018. Para classificar a informação como inautêntica, a pesquisa verificou se a informação foi disputada por três a cinco agências de checagem brasileiras – Aos Fatos, Boatos.org, Comprova, Lupa, e Fato ou Fake.
O artigo aponta que, no ecossistema de fake news nessas duas plataformas, notícias falsas tendem a ser mais compartilhadas por perfis pessoais, não páginas mais institucionais. A pesquisadora propõe ainda que estratégias de rotular e reduzir alcance de posts, como já adotadas por plataformas, são ineficientes para conter a disseminação de material fraudulento ou enganoso.
Alguns trechos da entrevista foram editados pelo Núcleo para brevidade e concisão.
[NÚCLEO] Em um cenário de uma possível regulação de redes no Brasil, fazer com que os algoritmos de recomendação fossem abertos para pesquisadores, legisladores e jornalistas ajudaria a compreender melhor porque existem os “propagadores repetidos com alto poder de disseminação”?
[TATIANA DOURADO] Sim, sem dúvidas. No entanto, penso também que isso seria um passo a ser dado pela própria plataforma, como uma nova fase, e não por uma regulação, no patamar atual da discussão.
Hoje, quando se trata de sistemas de recomendação, plataformas têm sido requisitadas a conceder vasto acesso a dados para acadêmicos, jornalistas e sociedade civil, e a publicar relatórios de transparência focados nas decisões e nas implicações da ação algorítmica na recomendação de conteúdos indesejados, em especial os que violam as políticas internas do próprio serviço.
O debate sobre transparência e mesmo sobre responsabilização algorítmica é relativamente novo e, portanto, ainda está em curso. Mas, sim, iniciativas de abertura de dados e procedimentos dariam transparência direta aos parâmetros pelos quais alguns posts são mais bem ranqueados ou são oferecidos mais frequentemente do que outros a usuários de mídias sociais.
Com a quantidade de dados e equipes enxutas, alguma abertura, mesmo que não radical, poderia proporcionar a construção de certa cultura colaborativa voltada à contenção, por exemplo, de desinformação em escala e mesmo transnacional.
Sabendo que no Facebook e Twitter os maiores propagadores de desinformação são perfis pessoais ou pequenos, qual seria a melhor estratégia para moderar esse conteúdo eficientemente?
Contas que geram engajamento e visibilidade a fake news, muitas ou na maioria das vezes, são do tipo perfil pessoal (que são ou simulam nomes de usuários reais). São perfis desconhecidos do grande público e não possuem papel ativo, portanto, na dinâmica da esfera pública.
Por um lado, é difícil alcançar essas contas, mais pulverizadas e fora dos holofotes, quando elas não são tão denunciadas pelos usuários, não têm indícios de comportamento inautêntico, não violam diretamente outra diretriz da comunidade ou não integram algum caso de investigação em curso.
Por outro lado, todas as contas englobadas no estudo publicaram fake news — aqui, notícias fraudulentas ou fabricadas, cuja falsidade foi verificada e comprovada por pelo menos três iniciativas de checagem.
Isso demonstra que inserir rótulos e reduzir alcance de posts — como adotado no Facebook — são ainda ineficientes para reprimir o consumo e o compartilhamento de conteúdos políticos virais que são objetivamente falsos.
Plataformas devem adotar outros critérios para dar mais efetividade à redução de acesso a essas notícias fraudulentas já verificadas por parceiros e precisam garantir que rótulo, redução de alcance, link da checagem e outros procedimentos sejam aplicados a todos os posts com conteúdo idêntico ou similar, porque não é isso que acontece.
Quais seriam estratégias efetivas, na sua avaliação, para tratar esse problema pela raiz, inclusive fora da internet?
Embora desejável, é muito difícil tratar o problema pela raiz. Nos últimos anos, ficou claro que não há solução única. Para atenuar a força de campanhas de desinformação on-line será preciso mais esforço de plataformas, governos, sociedade civil, imprensa e cidadãos.
Desde fomento à pesquisa e à inovação, passando por um modelo de regulação amadurecido, até a elaboração de políticas públicas focadas na alfabetização digital e midiática de amplo alcance, tudo isso também é necessário para neutralizar o problema até as próximas eleições.
É muito interessante o achado de que parte do compartilhamento de fake news vem da “boa performance” de uma ou duas contas. São como superspreaders, que começam pequenos e entregam esse conteúdo falso para uma audiência enorme no fim dessa “cadeia”. Com isso em mente, o que você pensa que seria uma atuação efetiva das plataformas para combater esse tipo de grupo?
O que sugiro não é muito discutido, precisa ser amadurecido e pode não haver consenso, mas, a meu ver, plataformas deveriam vedar a presença de post contendo fake news, a partir de definição de trabalho bastante estrita de notícias fraudulentas, fabricadas e verificadamente falsas.
Qual o sentido de, após o conteúdo ter sido verificado e recebido a classificação de falso por até três agências de checagem por consistir em montagem ou coisa do tipo, continuar no ar ou ter o alcance insuficientemente reduzido?
Na maior parte dos casos, funções de reações, curtidas e compartilhamentos continuam habilitadas. Não se trata, aqui, de versão de fato, de opinião ou de discurso político, mas de falsificação. Isto resolveria parte do problema, embora a parceria com projetos de checagem não seja adotada por todas as plataformas.
Naturalmente, o bloqueio poderia ser temporário, apenas durante processos eleitorais, e poderia ser revertido posteriormente, mas isso resolveria parte substancial dos danos causados pela desinformação.