1. Política 

Termos de memorandos firmados entre a Corte Eleitoral e rede sociais e aplicativos são considerados brandos na comparação com ações realizadas nos EUA, aponta estudo; questionado pelo Estadão, o TSE não se manifestou

Levy Teles, O Estado de S.Paulo

O acordo firmado em fevereiro pelo Tribunal Superior Eleitoral (TSE) com redes sociais e aplicativos de trocas de mensagens deixou brechas em medidas de combate à desinformação no Brasil. A constatação é apontada em um estudo que analisou os chamados memorandos de entendimento com a Corte Eleitoral e concluiu que, em geral, os termos acertados foram mais brandos se comparados às ações realizadas nos Estados Unidos.

O relatório, produzido por pesquisadores do Instituto Nacional de Ciência e Tecnologia em Democracia Digital (INCT.DD) da Universidade Federal da Bahia (UFBA), avaliou os quatro eixos do acordo do TSE com Facebook/Meta, Google/YouTube, WhatsApp,  TikTok,  Twitter e Kwai: disseminação de informações confiáveis e oficiais sobre as eleições, capacitação, contenção de desinformação e transparência.

Em comparação com a eleição de 2018, os pesquisadores acreditam que houve avanços, mas destacaram, por exemplo, que não há previsão de sanção às plataformas em caso de não cumprimento do acordo feito com a Justiça Eleitoral. “Se a plataforma não cumprir com o acordado, o que o TSE fará?”, questionou a pesquisadora do INCT.DD Maria Paula Almada.

O relatório afirma que quase todas as plataformas tiveram avanços nos dois primeiros eixos estruturantes, mas tomaram medidas insuficientes no campo de contenção de desinformação. E nenhuma delas apresentou avanços no campo da transparência. “A transparência ia dar uma compreensão maior sobre como um conteúdo é retirado”, disse o pesquisador do INCT.DD Rodrigo Carreiro. “Temos algumas indicações de como o algoritmo funciona, mas não se sabe em que medida esse conteúdo será retirado do ar de forma automatizada ou se será retirado a partir de interferência humana.”

O Telegram, que firmou parceria com o TSE no último dia 25, após ameaça de medidas judiciais como a suspensão de seu funcionamento no Brasil, ficou fora do estudo. “A plataforma atuava nas sombras”, afirmou o pesquisador.

Em uma primeira medida prática tomada após o memorando do TSE, o YouTube anunciou recentemente uma nova política contra a disseminação de informações enganosas sobre as eleições no Brasil. As regras permitem a exclusão de vídeos antigos que contenham alegações falsas sobre o pleito de 2018. A plataforma entende por “alegações falsas” todo conteúdo que possa levar eleitores a desistir de ir às urnas, como afirmações de que os equipamentos do sistema eleitoral tenham sido hackeados, adulterando votos. Além disso, o YouTube anunciou que incluirá painéis informativos que levam o usuário a “fontes confiáveis” sobre o tema.

Integração e memorandos específicos do TSE

No entendimento dos pesquisadores, porém, o YouTube precisa adotar “regras mais rígidas de punição para casos de ataque ao TSE e às urnas e especificar marcos temporais mais claros a respeito da celeridade com a qual a plataforma promete atuar em caso de denúncias”.

Os pesquisadores ainda apontam a necessidade de haver ações integradas entre as redes ou memorandos específicos do TSE para as diferentes plataformas. “As dinâmicas são diferentes, o modo como a notícia circula é diferente, então a gente entende que teria havido mais ganho caso houvesse acordos diferentes para cada plataforma”, afirmou Maria Paula. Pelas particularidades de cada rede, Carreiro disse não saber se é possível uma integração num horizonte próximo. “Mas deveria ocorrer.”

O YouTube bloqueou o perfil da deputada e presidente da Comissão de Constituição e Justiça da Câmara, Bia Kicis (PL-DF), em fevereiro. A ação ocorreu após a publicação, no mês anterior, de uma live que questiona a eficácia da vacina de covid-19 em crianças. O vídeo, contudo, permanece ativo no Facebook e no Twitter. A parlamentar é investigada no inquérito das fake news, que tramita no Supremo Tribunal Federal sob relatoria do ministro Alexandre de MoraesBia Kicis classificou a atitude da plataforma como “censura odiosa”.

Procuradas, as plataformas disseram que promovem ações para melhorar o debate sobre o tema no ambiente digital.

Bastidores: Aperto a manifestações políticas no Lollapalooza causa desconforto no TSE
Nos bastidores, parte dos magistrados reagiu negativamente à decisão de Araújo e viu cerceamento injustificado à liberdade de expressão.  Foto: Dida Sampaio/Estadão (07/10/2018)

Combate à desinformação nos Estados Unidos e no Brasil

O relatório vê a necessidade de adaptação das redes sociais ao contexto político nacional, em comparação com o ambiente digital nos Estados Unidos, país em que a maioria das plataformas – com exceção das chinesas TikTok e Kwai – estão sediadas.

No caso de Facebook e Instagram, geridas pelo grupo Meta, não há, no acordo com o TSE, especificação sobre temas, termos ou ideias proibidas de serem parte de anúncios eleitorais. “Aqui no Brasil essas grandes questões que envolvem as plataformas vêm sempre após a experiência americana, então a gente está sempre atrasado”, disse Carreiro. “É perceptível a diferença.”

“Os americanos conseguiram adaptar as plataformas à cultura política local”, observou o pesquisador. “Nos Estados Unidos, a questão da urna não existe, diferentemente daqui. Essa especificidade é o que a gente procura: é preciso respeitar a lógica da plataforma, que é um ente privado, mas que ele se adapte à lógica de funcionamento no Brasil.”

Estadão questionou o TSE sobre como a Corte avalia o diálogo com as empresas em torno da adoção de medidas de combate à desinformação e o respeito à lei eleitoral, mas não houve resposta até a conclusão desta edição.

Medidas adotadas e prometidas pelas plataformas

  • Facebook

EUA

1. Há especificação de temas, termos ou ideias que são proibidos de serem parte de anúncios eleitorais. Exemplo: são vetados anúncios que declaram de forma prematura a vitória de algum candidato

2. A plataforma conta com uma “biblioteca” de anúncios atualizada e com anunciantes verificados

Brasil

1. Não há especificação, apenas a indicação de violações já sinalizadas pela legislação eleitoral. Exemplo: anúncios que indicam compra de votos são proibidos

2. Também há uma “biblioteca” de anúncios atualizada e com anunciantes verificados

  • YouTube

EUA

1. A plataforma publica um relatório de transparência para anúncios relacionados a cargos eletivos

2. Ela adota medidas claras a respeito de políticas de recomendação para conteúdo identificado como desinformativo

3. Há regras que proíbem conteúdo que tenham o objetivo claro de enganar eleitores, como indicações erradas de locais de votação, falsas alegações de resultados, etc.

Brasil

1. Aqui, o YouTube também publicará relatório, com promessa de atualização dos termos de verificação de anunciantes

2. Não há indicação de interferência nas políticas de recomendação

3. O acordo com o TSE não aborda o assunto, mas o Google já havia mudado seus termos para contemplar a derrubada de conteúdos desinformativos

  • Twitter

EUA

1. Não permite anúncio pago de nenhum candidato, partido ou órgão estatal

2. Implementa requisitos de segurança específicos para perfis políticos de grande alcance. Também acrescenta rótulos explicativos em candidatos e pré-candidatos

3. Políticas de integridade cívica são atualizadas para reduzir alcance ou até mesmo remover informações enganosas

Brasil

1. Também não permite anúncios de candidatos, partidos ou órgãos estatais

2. O foco é nas informações gerais sobre as eleições, dando espaço e mais ênfase para conteúdo oficial do TSE

3. Promete atualizar as políticas também no Brasil, inclusive abrindo um canal direto entre a plataforma e o TSE para dar celeridade no caso de denúncias

  • Kwai

EUA

1. A plataforma prevê a especificação de termos e tipos de vídeos suspensos, como foi o caso dos relacionados à invasão do Capitólio

2. Determinadas buscas por termos ou hashtags que são associados a discursos de ódio são redirecionadas para links de normas de comunidade

Brasil

1. Não há especificação de tipos de conteúdo, apenas indicação de retirada de informações falsas e que violem as políticas internas da plataforma

2. A plataforma publicará uma página especial com informações oficiais sobre as eleições, além de abrir um canal para recebimento de denúncias e acelerar o processo

Empresas se dizem engajadas no combate às notícias falsas

As plataformas afirmaram considerar a parceria com o Tribunal Superior Eleitoral (TSE) como chave para um trabalho eficaz contra a desinformação eleitoral. As redes e aplicativos disseram também que promovem ações para melhorar o debate sobre o tema no ambiente digital tendo em vista a votação em outubro. O Meta, que administra as redes sociais Facebook e Instagram, afirmou ao Estadão que “proteger a integridade das eleições é uma prioridade da plataforma”. A empresa relatou que houve avanços no bloqueio de contas falsas, limite à disseminação de desinformação e que, em 2022, seguirá “colaborando com autoridades eleitorais”.

Uma das novidades é a adoção de um rótulo para postagens sobre eleições no Facebook e no Instagram, direcionando o usuário para a página da Justiça Eleitoral. A ação aumentou o acesso ao site em 10 vezes nos dois primeiros meses deste ano. Além disso, as duas redes vão ter, pela primeira vez, um canal de denúncias dedicado à Corte eleitoral.

Twitter informou que pretende adotar uma ferramenta que faça com que o primeiro resultado numa pesquisa sobre eleições seja um link para a página do TSE. O Kwai, por sua vez, baseou sua política sobre eleições em cinco categorias: informações falsas sobre como participar do processo eleitoral; intimidação e incitação ao boicote às eleições; informações falsas sobre a integridade eleitoral; informações enganosas sobre candidatos; e conteúdos que infringem a legislação eleitoral.

Diretor de Políticas Públicas do TikTok no Brasil, Fernando Gallo destacou ações como a parceria com agências de checagem de fatos e o fato de a empresa não aceitar anúncios políticos pagos. “Formamos uma parceria com o TSE relativa às eleições municipais de 2020, que foi renovada em 2022, para oferecer informações confiáveis para nossos usuários”, disse Gallo.

YouTube afirmou que tem elaborado “um sólido conjunto de políticas e sistemas” para dar visibilidade a conteúdo confiável e reduzir a disseminação de informações enganosas. De acordo com a plataforma, não são permitidos conteúdo de supressão eleitoral, informações falsas sobre inelegibilidade de candidatos ou políticos, incitação ao público em interferência no processo democrático e desinformação sobre a integridade das eleições.

Disparos em massa no WhatsApp

Para este ano, o WhatsApp prevê o aprimoramento de uma ferramenta para o disparo de mensagens em massa, um dos grandes problemas nas eleições de 2018.

A pesquisadora Maria Paula Almada, do Instituto Nacional de Ciência e Tecnologia em Democracia Digital (INCT.DD) da Universidade Federal da Bahia (UFBA), disse que há promessas de mais resoluções nos memorandos com o TSE. Entre elas estão a capacidade de marcar postagens como imprecisas, a restrição de postagens de usuários banidos por desinformação, a promoção de informações verificadas e o monitoramento dos cem principais canais no Brasil. “Se eles cumprirem o que prometeram, teremos grandes avanços na contenção de circulação de notícias falsas.”

Loading

By valeon