João Pessoa 25.13ºC
Campina Grande 22.9ºC
Patos 26.03ºC
IBOVESPA 124171.15
Euro 5.581
Dólar 5.233
Peso 0.006
Yuan 0.7229
O que as redes sociais mais usadas no Brasil prometem fazer contra fake news nas eleições
30/03/2022 / 11:20
Compartilhe:

Numa mesma semana, o YouTube divulgou sua política contra desinformação nas eleições e o Telegram assinou formalmente seu compromisso com o Tribunal Superior Eleitoral (TSE) para monitorar fake news dentro de sua plataforma.

Dessa forma, as redes sociais e os apps de mensagem que reúnem mais usuários no país estão com acordos firmados para analisar conteúdo e trocar informações com a Justiça Eleitoral.

Desde a década passada, empresas de tecnologia são criticadas por falta de ações para conter a circulação de notícias falsas. Assim, muitas adotaram, em anos recentes, medidas para mitigar o problema.

No caso do Telegram, a empresa não se pronunciava sobre os convites do Tribunal Superior Eleitoral (TSE) para explicar qual seria a estratégia contra desinformação na plataforma no contexto da votação de outubro. Foram meses de tentativa.

O ministro do Supremo Alexandre de Moraes pediu então o bloqueio do aplicativo no Brasil. Rapidamente houve contato e promessa da empresa para tomar providências – uma delas é monitorar o que circula nos cem canais mais populares no Brasil.

Vale dizer que esse acompanhamento é centrado em grupos públicos, que podem reunir no Telegram até 200 mil usuários e onde é encontrado a maior parte da desinformação que circula.

Já o YouTube, que pertence ao Google, anunciou que vai remover vídeos com dados incorretos sobre o horário e local de votação, com declarações falsas sobre estado de saúde de candidatos e que incentivem romper o processo democrático.

No YouTube, vídeos que coloquem em dúvida a integridade das próximas eleições em outubro não serão automaticamente removidos – Foto: Getty Images

Foi incluída também a proibição de questionar o resultado do processo eleitoral de 2018 no Brasil.

Mas vídeos que coloquem em dúvida a integridade das próximas eleições em outubro não serão automaticamente removidos.

O YouTube justificou: “Até que os resultados das eleições de 2022 sejam confirmados pela Justiça Eleitoral brasileira, atuaremos limitando a recomendação de vídeos que contenham informações que induzam os nossos usuários ao erro”, ou seja, vídeos do tipo terão acesso restrito, mas não serão excluídos.

A plataforma diz que “as políticas do YouTube passam por constante avaliação e, quando necessário, por atualizações”. Afirma ainda que essas políticas são elaboradas “sem limitar a realização do debate público, a liberdade de expressão e a proteção da variedade de vozes”.

Moderação e expressão

Como as empresas atuam sobre a circulação de informação tem sido uma das grandes questões na propagação de notícias falsas e de discurso de ódio.

Heloisa Massaro, diretora do InternetLab, um centro de pesquisa brasileiro sobre direito e tecnologia, afirma que as grandes empresas do setor se guiam pela noção norte-americana de liberdade de expressão – fundamentada na primeira emenda da constituição dos EUA.

E junto há o caso do Telegram do russo Pavel Durov, que admira o conceito libertário, de mínima interferência na plataforma e de máxima distância de governos.

Sede do TSE em Brasília, que vem firmando acordos com as maiores redes sociais – Foto: TSE

Na visão de Massaro, essa postura, que muitas vezes resulta em falta de moderação de conteúdo, ameaça o discurso livre.

“A liberdade de expressão não é apenas ausência de interferência. Para que as pessoas consigam se expressar livremente é preciso um ambiente seguro. A moderação de conteúdo garante segurança para a expressão porque discursos violentos muitas vezes estão silenciando outras vozes.”

Identidades políticas proeminentes

Pesquisadores da área vêm chamando atenção para a crescente complexidade do cenário de desinformação e a tentativa de encontrar soluções.

“Não existe uma bala de prata contra desinformação, não existe uma resposta só. É um problema tão complexo, que envolve tantos fatores, que as soluções precisam ser multifacetadas. Não dependem só das políticas das plataformas ou de uma regulação governamental”, afirma Massaro, do InternetLab.

Para o pesquisador e professor da USP Pablo Ortellado, “o problema da desinformação é que reforça crenças e identidades que uma pessoa já tem e são muito fortes. Se você pergunta se a pessoa está atenta às fake news, ela está, mas para as que vêm do lado adversário”.

Estratégias como verificação de notícias e educação midiática são muito importantes, mas, diz Ortellado, “tudo isso esbarra no limite de que as pessoas estão neste momento com suas identidades políticas muito proeminentes”.

Essas identidades políticas, analisa o pesquisador, abarcam questões morais com uma centralidade muito maior no debate político atual.

“Temas que não são economia ou política social sempre existiram, mas estavam na periferia do debate político. Esses temas morais saíram de lá e hoje ocupam uma posição central.”

O professor da USP afirma que a desinformação é um efeito colateral da polarização “alimentada por todo um ecossistema de sites, de canais em plataformas como YouTube e Telegram, tornando essas crenças mais fortes”.

Para Yasmin Curzi de Mendonça, pesquisadora do Centro de Tecnologia e Sociedade da FGV Direito Rio (CTS-FGV), apesar da disposição das empresas em reforçar compromissos com as instituições brasileiras, as soluções estão longe do ideal.

“O principal envolve, justamente, a baixa eficiência da moderação de conteúdo. Há baixa transparência sobre as equipes de moderadores humanos no país. Isso é uma condição básica tanto para a catalogação de conteúdos proibidos pelas regras da plataforma como para treinar os sistemas de machine learning que farão a filtragem automatizada de conteúdo.”

Uma das quedas de braço no projeto de lei 2630/2020, conhecido como “PL das fake news”, é a exigência de que as companhias forneçam um relatório sobre como foi feita a moderação de conteúdo, com algumas especificações.

Google e Meta (ex-Facebook) publicaram cartas públicas dizendo que a proposta vai facilitar o trabalho de quem quer espalhar desinformação. Fornecer esses dados mostraria “o caminho das pedras”.

Análise de dezembro do grupo de pesquisa em Moderação de Conteúdo Online do Centro de Tecnologia e Sociedade (CTS), da Fundação Getulio Vargas (FGV), diz que o PL precisava estabelecer metodologia para os relatórios com intuito de melhor “fiscalização e controle de falhas e vieses” das plataformas.

Uma nova linguagem

Novo estilo para espalhar desinformação surgiu após a pandemia, diz pesquisador – Getyy Images

A pandemia colocou novamente as redes sociais sob análise por causa da disseminação de fake news sobre o coronavírus. Foi um período fértil para vídeos selfie com testemunhos para apoiar teorias da conspiração.

“Uma coisa que surgiu desde a pandemia – e nem é um recurso sofisticado, é mais uma mudança da linguagem de desinformação -, são esses vídeos de depoimento, de testemunho, que reforçam uma determinada tese. Como ‘a imprensa está exagerando os números de mortos e casos de covid’ e aí aparecia um vídeo com cenas de ‘hospitais vazios’ e ‘cemitérios com muitas covas disponíveis’ e gerava de 10 a 15 depoimentos diferentes, gravados no interior do Piauí, do Rio Grande do Sul, em São Paulo, no Rio… enfim dando suporte à tese que está se tratando, né?”, diz Ortellado, da USP.

O TikTok, a rede mais nova entre as mais populares no país, enfrentou críticas mundialmente pela circulação de informações falsas sobre covid durante a pandemia.

No Brasil, onde reforçou presença a partir de 2020, a rede chinesa firmou acordo com o TSE para apresentar um espaço com informações confiáveis sobre as eleições. Afirmou que não aceitará anúncios políticos pagos.

Explicou que vai remover informações falsas e sinalizar, em conteúdo potencialmente enganoso, que o post necessita verificação.

Os anúncios do Facebook

A Meta de Mark Zuckerberg, antigo Facebook Inc, que recebeu diversas críticas por fomentar a polarização em eleições dos últimos anos, vai continuar aceitando propagandas políticas pagas.

A companhia informou que o Facebook e o Instagram vão ter sinalização de que o post visualizado é uma propaganda política paga e que o conteúdo ficará armazenado em uma “biblioteca de anúncios” por um prazo de sete anos.

Lá ficará disponível um relatório com o total de conteúdos impulsionados e de gastos com publicidade sobre política e eleições nos aplicativos.

O Facebook mudou de nome recentemente para Meta e também adotou novo logo – Foto: GETTY IMAGES

“No nosso estudo na UFMG, foram elencadas 260 mil características que o Facebook permite otimizar para fazer uma propaganda direcionada, um recorte de perfil. Então você cria uma equação com isso, para atingir alguém que, vamos supor, tem interesse em comida japonesa, que torce para tal time e não apoia tal candidato”, diz Fabrício Benevenuto, professor de Ciência da Computação na Universidade Federal de Minas Gerais (UFMG).

“Há o pedido dentro do Facebook para que seja feita a declaração de propaganda política, mas alguém pode mentir e fazer uma propaganda comum com algum conteúdo político. Aí, para ser identificado como propaganda irregular, deve haver denúncia ou precisa ter um bom rastreamento. Talvez nem vá para essa biblioteca de anúncios que foi adotada pelo Facebook”, diz.

A Meta afirma que “durante a campanha do 1º turno da eleição municipal de 2020 no Brasil, rejeitamos cerca de 250 mil vezes a submissão de anúncios sobre política ou eleições que não continham o rótulo ‘Propaganda Eleitoral’ ou ‘Pago por’ direcionados a pessoas no Brasil (conteúdos impulsionados). Desde agosto, qualquer pessoa ou organização que quiser fazer publicidade sobre política ou eleições no país precisa passar por um processo de autorização, confirmando sua identidade e residência no Brasil”.

O WhatsApp, da mesma empresa, não vai adotar uma ferramenta chamada “comunidades”, que permite ao usuário seguir diversos grupos sobre um mesmo tema, até o fim das eleições. Foi apontado que esse recurso poderia facilitar propagação de desinformação.

Ao site Poder360, o responsável por políticas públicas do aplicativo no Brasil, Dario Durigan, disse que foi combinado com o TSE que “mudanças significativas no produto do WhatsApp, no Brasil, não ocorrerão antes do fim das eleições”.

Depois das investigações sobre disparos em massa de mensagem pelo WhatsApp nas eleições de 2018, o uso da ferramenta foi proibido e a companhia norte-americana vem processando firmas especializadas em marketing político automatizado.

O WhatsApp diz que “conta com um sistema de integridade que é constantemente aperfeiçoado e bane automaticamente cerca de 8 milhões de contas por mês em todo mundo por comportamento não-autêntico no aplicativo”.

O Twitter também firmou uma parceria com o TSE.

A rede social vai ativar avisos de busca para o usuário encontrar informações sobre votação, urna eletrônica e narrativas de desinformação que estão se espalhando no momento. E criará emojis com o tema das eleições.

O Ministério Público Federal cobrou formalmente explicações do Twitter em janeiro por causa da disseminação de fake news por usuários com selo de verificação (uma conta oficial, que ganha destaque na rede).

O procurador Yuri Corrêa da Luz, da Procuradoria da República de São Paulo, também pediu que a rede social explicasse por que havia mecanismos especiais para relatar circulação de desinformação nos Estados Unidos mas não no Brasil.

Em um comunicado na época, o Twitter disse que sua política contra desinformação sobre a covid-19 “não prevê a atuação em todo conteúdo inverídico ou questionável sobre a pandemia, mas em tweets que possam expor as pessoas a mais risco de contrair ou transmitir a doença”.

“Nossa abordagem a desinformação vai além de manter ou retirar conteúdos e contas do ar. O Twitter tem o desafio de não arbitrar a verdade e dar às pessoas que usam o serviço o poder de expor, contrapor e discutir perspectivas. Isso é servir à conversa pública.”

Da BBC News Brasil