Saiba como as redes sociais lidam com fake news e quais as medidas adotadas
Estudo do Intervozes identificou as principais medidas adotadas por cinco plataformas desde 2018
Embora a desinformação não tenha um conceito universal a ser seguido por redes sociais, as grandes empresas de tecnologia se viram forçadas a adotar medidas para conter a onda de notícias falsas e informações enganosas que passaram a exercer forte influência em processos democráticos.
Estudo do Intervozes, uma organização ativista que estuda mídia, liberdade de expressão e internet, publicado a poucas semanas das eleições municipais no Brasil, identificou como Facebook, Instagram, WhatsApp, YouTube e Twitter lidam com o tema.
A principal conclusão é que, apesar de avanços para inibir notícias falsas em suas plataformas, as empresas não estruturaram o assunto em seus termos de uso —as políticas contratuais que apresentam a usuários e reguladores.
Embora evitem moderar a circulação de informação em suas redes, as chamadas big techs têm atuado nessa frente, excluindo publicações, principalmente com a chegada da Covid, que elevou o potencial danoso de uma informação falsa.
De acordo com os pesquisadores, o problema de não organizar as medidas contra a desinformação é que os processos que resultam em exclusão de um conteúdo ou redução de seu alcance ao público não são evidenciados em relatórios de transparência, o que é prejudicial à liberdade de expressão.
“Do ponto de vista da informação sobre como lida com conteúdos desinformativos, chamou atenção a baixa transparência das plataformas”, diz o estudo, acrescentando que boa parte do trabalho se baseou em buscar informações dispersas em notícias nos sites oficiais e em sites de ‘ajuda’ ou FAQ de cada uma das empresas.
Veja as principais medidas implementadas por cada plataforma desde 2018
- Não tem política específica para desinformação
- Em 2020, criou o Conselho de Supervisão de Conteúdo, formado por membros externos à empresa e que toma decisões sobre casos específicos, não apenas relativos à desinformação
- Apresenta estratégias para o tema de maneira resumida nos Padrões da Comunidade (sua política de uso)
- Recebe denúncias e utiliza sistemas automatizados para analisar publicações
- Encaminha conteúdos para agências de checagem parceiras. Caso sejam classificados como “falsos” ou “parcialmente falsos”, são rotulados e acompanhados de artigos relacionados produzidos pelos checadores
- Declarações de líderes políticos não passam por agências de checagem
- Remove casos de desinformação que causem violência, dano ou comprometam processos eleitorais
- Reduz a circulação de contas difusoras de conteúdos como caça-cliques
- Com a política que proíbe discurso de ódio desde 2018, passou a restringir algumas transmissões ao vivo e a indicar materiais de combate ao ódio em buscas relacionadas a nazismo e supremacia branca, por exemplo
- Derruba contas de “comportamento não autêntico coordenado”, como redes com contas falsas para promover assuntos específicos
- Possui uma biblioteca com anúncios pagos com informações para pesquisa
- Segue a linha geral adotada pelo Facebook, com os mesmos flucos e procedimentos
- Não possui estrutura institucional ou processos específicos para tratar de desinformação
- Analisa conteúdos a partir de agências de checagem de fatos, que classificam uma publicação em diferentes categorias. Conteúdos são marcados quando verificados como desinformativos e podem ter circulação reduzida
- São removidos conteúdos com falsos tratamentos sobre Covid-19, teorias da conspiração ou falsas alegações registradas como danosas por autoridades de saúde
- Durante as eleições, se um conteúdo for classificado como falso, um filtro cinza é exibido sobre a imagem e alertas são dados ao usuário
- Disponibiliza textos de contraponto elaborados por verificadores de fatos como “desmentidos”
- Contas falsas são removidas, a maior parte já na tentativa de abertura
- Na linha do Facebook, contas ou redes com “comportamento inautêntico” são derrubadas
- Apresenta-se como plataforma de mensagens privadas criptografadas que, como tal, não acessa, modera, julga, verifica, bloqueia ou retira conteúdo. Segundo o estudo, isso “é contraditório com a existência de grupos e listas de transmissão que acabam fazendo com que tenha funcionamento de rede social”
- Não possui política ou estrutura institucional para lidar com desinformação
- Atua para reduzir a circulação de mensagens por meio de limites para encaminhamento
- Desde a pandemia, mensagens altamente encaminhadas só podem ser repassadas a um contato de cada vez
- Nas eleições de 2020, firmou acordo com TSE para denúncia de disparo em massa e criou chatbot para troca de informações
- No aplicativo ou no blog oficial, há referências sobre desinformação, mas são dispersas e pouco acessíveis ao usuário comum
- “Falta transparência quanto às práticas adotadas pelo WhastApp”, diz o estudo, referindo-se à proibição de criação ou remoção de contas, além de relatórios
- Inseriu uma lupa ao lado de mensagens altamente encaminhadas para que o usuário busque mais informações diretamente no Google
- Usa ferramentas de tratamento de spam e aprendizagem de máquinas para retirar mensagens automatizadas em massa e banir contas com comportamentos inadequados
YouTube
- Não possui política específica para o tema. Restrições à disseminação de desinformação aparecem em diferentes políticas
- Conteúdos que violam as Diretrizes da Comunidade são removidos e notificados
- Estimula a denúncia de conteúdos considerados inapropriados, que são analisados internamente
- Tira do ar conteúdos que violam suas diretrizes e reduz o alcance de “desinformação danosa” e “conteúdos limítrofes”, deixando de recomendá-los
- Vídeos editados e adulterados são proibidos pela política de “mídia manipulada”, assim como canais que falseiam sua identidade
- Possui um grupo de análise de ameaças para identificar práticas de desinformação patrocinadas por governos
- Exibe painéis de informação com dados de contexto sobre assuntos históricos com “vozes autorizadas”, como canais de jornalismo, por exemplo
- Remove conteúdos e canais que desrespeitam a política para eleições e passou a remover informações enganosas sobre a Covid-19
- Tem política contra spam, falsificação de identidade e envolvimento falso, e restringe o acesso ao serviços por qualquer meio automatizado
- Não tem definição específica para desinformação
- Oferece contexto para ajudar pessoas a decidir o teor de um post contestado, agindo em casos de possíveis danos causados por mídias manipuladas, informações enganosas sobre processos eleitorais e relacionadas à Covid-19
- Proíbe o uso de robôs manipuladores da rede
- Mídias manipulada são marcadas, têm visibilidade reduzida, recebem link com mais explicações ou são removidas
- Não permite anúncios pagos de políticos e de veículos de comunicação estatais
- Conteúdos que possam enganar as pessoas sobre quando, onde e como votar também são proibidos
- Posts de líderes globais, mesmo que desinformativos, ficam no ar se forem de interesse público. A publicação é exibida com um aviso e não é possível interagir com ele
- Com a pandemia, ampliou a definição de “dano” para incluir conteúdos contrários às recomendações das autoridades de saúde; remove posts relativos a ações de risco
- Abriu a plataforma para acompanhamento em tempo real de postagens sobre a Covid por desenvolvedores e pesquisadores
- Divulga arquivos de posts de atividades coordenadas apoiadas por governos