Confere.ai

Estudo aponta falta de transparência e políticas de combate a desinformação nas redes sociais

Pesquisadores analisaram as diretrizes e as políticas contra a desinformação divulgadas das principais redes sociais desde 2018

Débora Oliveira
Débora Oliveira
Publicado em 28/10/2020 às 7:32
Notícia

Reprodução/Unsplash
Redes não miram desinformação em suas diretrizes e falham em transparência na remoção de conteúdos, concluem pesquisadores - FOTO: Reprodução/Unsplash
Leitura:

Nesta terça-feira (27), o Coletivo Intervozes lançou a pesquisa “Fake News: como as plataformas enfrentam a desinformação”, que analisa as práticas adotadas pelo Facebook, WhatsApp, Instagram, Twitter e Youtube para frear boatos nos últimos dois anos. “Nós analisamos os documentos internos dessas plataformas, a comunicação com o usuário e os próprios aplicativos, utilizando-os diretamente”, explica a coordenadora da pesquisa e porta-voz do Intervozes, Helena Martins.

De acordo com o estudo, que analisa a postura das plataformas desde antes da pandemia, as redes não são claras quanto às práticas que tomam para conter boatos e se comunicam pouco com os usuários sobre o tema.

O que as plataformas fizeram até agora?

Para analisar o que as principais redes sociais têm feito, os pesquisadores investigaram como o fenômeno da desinformação é abordado nas políticas das plataformas; como elas realizam a moderação de conteúdo; como promovem ações e se há transparência nesses processos.

Os resultados da pesquisa apontaram que nenhuma das plataformas analisadas definiu um conceito do que é desinformação nem uma política específica para combatê-la. Apenas nas diretrizes ou políticas do WhatsApp, Youtube e Twitter há menção direta à desinformação, segundo os pesquisadores. Todas, por sua vez, adotaram medidas visando outros problemas que indiretamente afetaram a circulação de boatos.

Dentre as medidas correlatas, a remoção de contas inautênticas, posts com discurso de ódio e a restrição de mídias manipuladas só não foram adotadas no WhatsApp. O Facebook e o Instagram foram as únicas que não aderiram à restrição de robôs.

“Muitas das medidas que impactam na circulação de boatos não são publicizadas como medidas contra a desinformação, como se as plataformas negassem esse problema. Eles apresentam medidas em relação a spam, ao discurso de ódio e outros tipos de conteúdos, mas não diretamente sobre desinformação, o que a nosso ver é problemático. Tanto porque se comunica mal sobre o problema quanto pela dificuldade de acesso e análise dessas informações”, opina Helena.

Além disso, a pesquisa indicou a falta de uma estrutura institucional para lidar com o tema das “fakes” dentro das empresas analisadas. O relatório preliminar destaca que, apenas em 2020, o Facebook implantou um Conselho de Supervisão de Conteúdo, com membros externos. O conhecido por “Tribunal do Facebook” foi divulgado em maio deste ano pela empresa e é composto por especialistas em direito digital, liberdade religiosa, moderação de conteúdo e direitos civis. A proposta é que de a equipe atue em casos extraordinários, visando “exercer um julgamento independente sobre algumas das decisões de conteúdo mais difíceis e significativas", segundo publicação da empresa. Até o final de 2020 está previsto que o grupo analise o primeiro caso.

Moderação de conteúdo

Quanto à moderação de conteúdo, o estudo concluiu que, além de realizarem a moderação dos posts e contas que circulam nas redes, as plataformas não são transparentes quanto a esses processos. “Tanto o Facebook, quanto o Youtube e o Twitter organizam o que não pode circular. Em alguns casos, não há possibilidade de os próprios usuários reclamarem ou direito de resposta. Não há um processo de transparência nessa remoção. Consideramos isso muito problemático”, conta Helena Martins.

Dentre as medidas de moderação, destacam-se: redução de alcance de posts, desmonetização de anúncios, suspensão de contas e verificação de conteúdo por equipe interna e por terceiros. Apenas o Youtube e o Twitter, atualmente, oferecem a opção de recurso no caso de sanção por desinformação.

 

Em janeiro de 2019, o WhatsApp anunciou a limitação no número de mensagens que podem ser encaminhadas em uma conversa. A atualização, que foi testada durante um ano antes da sua aplicação, seria um esforço da plataforma para conter o disparo de mensagens em massa por robôs. Antes da pandemia, era possível encaminhar uma mensagem para até cinco conversas por vez, agora este número se reduziu a uma após o primeiro envio.

Para os pesquisadores, a medida não resolve o problema da desinformação, dado que o WhatsApp possui várias outras funções que facilitam o envio massivo de mensagem como as listas de transmissão e os grupos.

Falta de transparência

Como agravante, o estudo concluiu que não há transparência na forma como as plataformas moderam os posts na rede e combatem os boatos. Além disso, as campanhas de comunicação com a sociedade são escassas. “As plataformas possuem mecanismos de contato direto com o usuário, como as notificações, mas em geral, eles não são utilizados”, conclui Helena.

Em nenhuma das plataformas se observaram canais de informação para o usuário sobre medidas específicas contra a desinformação nem relatórios de transparência sobre as medidas tomadas pelas redes. O WhatsApp e o Youtube são as redes mais fechadas, onde não há sinalização de conteúdos desinformativos nem informação sobre um conteúdo checado.

Por outro lado, todas as empresas implantaram projetos de educação midiática e apoio ao jornalismo profissional nos últimos anos, o que é visto pelos pesquisadores como algo positivo.

O resumo executivo da pesquisa está disponível para download no site do Coletivo Intervozes. O estudo completo será publicado em livro até o fim do ano.

Seja um assinante JC.

Assine o JC com planos a partir de R$ 1,90 e tenha acesso ilimitado a todo o conteúdo do jc.com.br, à edição digital do JC Impresso e ao JC Clube, nosso clube de vantagens e descontos que conta com dezenas de parceiros.

Assine o JC

Comentários

Últimas notícias