Clique em Configurações de Cookies para usar este recurso.
Em seguida, clique em 'Permitir Todos' ou ative apenas os 'Cookies Publicitários'
Ao continuar você está aceitando a Política de Privacidade da Avaaz, que explica como seus dados podem ser usados e como serão protegidos.
Entendi
Nós utilizamos os cookies para analisar como visitantes usam o site e para nos ajudar a fornecer para você a melhor experiência possível. Leia nossa Política de Cookies .
OK

Princípios Legislativos para Combater a Desinformação

Postado: Maio 2019 (originalmente em inglês)
Brasileiros, europeus e norte-americanos foram alvo de fortes campanhas de desinformação antes de suas últimas eleições. A Avaaz revelou através de seus relatórios:  campanhas de desinformação anti-vacinação no Brasil tiveram influência sobre a decisão das pessoas a não se vacinarem, ou não vacinarem uma criança sob sua responsabilidade pois, pelo menos 57% destes afirmaram pelo menos uma razão considerada desinformação.  Redes enganosas da extrema-direita na União Européia que alcançaram mais de 760 milhões de visualizações antes das eleições da Comissão Europeia. E há um ano das eleições dos EUA, descobrimos que a desinformação já atinge cada eleitor norte-americano registrado pelo menos 1 vez.

Todas as nossas descobertas foram estudos focados apenas em conteúdo acessível publicamente em no Facebook ou Youtube e por curtos períodos de tempo -- Assim, esses números ainda que impressionantes, são apenas a ponta o iceberg -- a disseminação de desinformação ao redor do mundo é provavelmente muito maior.

O trabalho de advocacy da Avaaz consiste tanto em dialogar com as plataformas para agirem rapidamente, quanto demonstrar pra legisladores ao redor de mundo que a necessidade de criarmos marcos regulatórios sólidos, baseados em princípios democráticos, é urgente -- antes que valores, culturas e novas eleições sejam hackeadas por atores internos e externos utilizando táticas nefastas de desinformação.

As experiências de auto-regulação das plataformas, praticadas por exemplo na União Europeia, através do Código de Prática contra a Desinformação falharam em atingir o propósito de proteger os cidadãos da desinformação.

Precisamos de legislações que forneçam medidas fortes contra desinformação, ao mesmo tempo que protegem nossas democracias, garantindo que plataformas, poderes legislativos, judiciários e executivos e atores independentes hajam em conjunto com responsabilidade, eficiência, transparência e celeridade.

Após consultas aprofundadas com acadêmicos, legisladores, sociedade civil e executivos das redes sociais, a Avaaz desenvolveu 5 princípios legislativos que deveriam servir de base para qualquer legislação para combater a desinformação-- leia mais sobre esses princípios abaixo, além de nossos relatórios:

5 Princípios Legislativos

A Avaaz desenvolveu uma proposta regulatória abrangente baseada nos princípios da transparência , responsabilidade e liberdade . Fizemos consultas aprofundadas com acadêmicos, legisladores, sociedade civil e executivos de plataformas para chegar nestes 5 princípios legislativos que devem ser a base de qualquer esforço democrático para criar legislação contra a desinformação:
  • Mostrar os Fatos
    A solução intitulada “Mostrar os Fatos expõe a desinformação e outros tipos de manipulação, educa o público e reduz o número de pessoas que acreditam em mentiras. Essa solução requer que as plataformas de redes sociais informem os usuários e mostrem correções eficazes para cada pessoa que viu uma informação posteriormente classificada como desinformação por verificadores de fatos independentes. Essa solução combate a desinformação ao mesmo tempo em que preserva a liberdade de expressão, uma vez que “Mostrar os Fatos” adiciona a verdade sem apagar a mentira. Os jornais publicam correções às suas matérias, os canais de televisão fazem correções em seus programas: as plataformas deveriam prestar o mesmo serviço aos seus usuários.

    Uma pesquisa encomendada pela Avaaz e desenvolvida pelo melhores especialistas no assunto provou que mostrar os fatos aos usuários das redes sociais que foram expostos a uma informação falsa ou enganosa pode reduzir a crença no conteúdo enganoso pela metade. Diversos estudos revisados por pares demonstraram que correções efetivas podem reduzir, e até mesmo eliminar, os efeitos da desinformação. Os estudos que tentaram replicar o "efeito tiro pela culatra", que é bastante discutido -- quando as correções enraízam crenças falsas -- chegaram à conclusão oposta. Enquanto isso, pesquisadores estão compilando as melhores práticas para correções efetivas.

    Na nossa visão, mostrar os fatos e  corrigir as fake news seria um processo de cinco etapas:
    1. Definir: A obrigação de mostrar os fatos começaria quando:
      • Verificadores de fato independentes constatassem que um determinado conteúdo é falso ou enganoso;
      • Um número significativo de pessoas visualizasse o conteúdo -- por exemplo, 10 mil pessoas.
    2. Detectar: As plataformas devem:
      • Usar, de forma proativa, tecnologias como a inteligência artificial para detectar possíveis desinformações com alcance significativo que pudessem ser enviadas aos verificadores de fatos;
      • Implementar um mecanismo acessível e visível para os usuários relatarem desinformação;
      • Conceder acesso aos verificadores de fato independentes a todo conteúdo que tenha alcançado 10 mil pessoas ou mais.
    3. Verificar: As plataformas devem trabalhar com verificadores de fatos independentes para verificar se o conteúdo relatado é desinformação, conforme definida pela União Europeia.
    4. Alertar: Cada usuário exposto a desinformação verificada deverá receber uma notificação a esse respeito, que tenha a mesma visibilidade do padrão mais visível e eficaz de notificação da plataforma.
    5. Corrigir: Cada usuário exposto a desinformação deveria receber uma correção que tivesse, no mínimo, o mesmo destaque do conteúdo original e que seguisse as melhores prática.
  • Desintoxicar o Algoritmo
    Muitas plataformas usam algoritmos para determinar quando e em qual ordem os usuários visualizam o conteúdo definido (também por um algoritmo) como sendo de seu interesse, e que os manterá utilizando o serviço da plataforma (“algoritmos de exibição”). Essa seleção de conteúdo feita pelos algoritmos apresenta consequências importantes na forma como as pessoas encontram notícias. Em vez de editores humanos selecionando importantes fontes de informação e notícias para consumo público, os complexos códigos dos algoritmos determinam quais informações entregar e quais excluir -- frequentemente baseados em um critério que também promove conteúdo nocivo. A popularidade e o grau de indignação provocada pela notícia, se a informação atende ao viés de confirmação do usuário e o nível de engajamento trazido pela notícia são cada vez mais importantes para orientar a escolha dos algoritmos sobre qual conteúdo promover. A velocidade e a magnitude em que o conteúdo se torna “viral” cresce exponencialmente, independente de o conteúdo conter mentiras ou verdades. Apesar de a internet ter fornecido mais oportunidades de acesso a informações, os algoritmos dificultam que as pessoas encontrem informações vindas de pontos de vistas críticos ou diversos. Portanto, há um risco de os usuários ficarem presos em uma bolha online de desinformação.

    Dessa forma, sem o devido cuidado e a devida supervisão, o s algoritmos de recomendação podem aumentar a interação do usuário com desinformações e outros conteúdos nocivos. Esses algoritmos podem ser manipulados para garantir que as notícias falsas mais divisivas e sensacionalistas se tornem virais rapidamente . As plataformas deveriam adaptar seus algoritmos de forma transparente para garantir que eles não estejam acelerando exponencialmente a propagação de desinformação. E apesar de as plataformas de redes sociais precisarem da viralidade para lucrar, é fundamental que elas monitorem exatamente o que está se tornando viral - um estudo do MIT (Instituto de Tecnologia de Massachusetts, nos EUA) concluiu que o conteúdo falso no Twitter se espalha seis vezes mais rápido do que notícias verdadeiras.

    Algumas plataformas já começaram pequenos ajuste sem seus algoritmos para determinados conteúdos. No entanto, há muito mais que ainda precisa ser feito, tendo em vista a velocidade com a qual um conteúdo pode viralizar.

    Por essas razões, é fundamental desintoxicar completamente os algoritmos das plataformas de redes sociais. “Desintoxicar o Algoritmo” significa ajustar os algoritmos de curadoria de conteúdo para garantir que eles reduzam a visibilidade da desinformação no feed dos usuários, assim como das páginas que distribuem desinformação ou que pertençam a agentes mal-intencionados e de outros conteúdos nocivos, removendo-os das recomendações aos usuários. Isso garantiria que os algoritmos do feed de notícias, de pesquisa e de recomendação não sejam manipulados por agentes mal-intencionados e que a desinformação seja deixada de lado, e não impulsionada, pelas plataformas.
  • Banir Contas Falsas e Robôs Não Identificados
    Contas falsas e robôs não identificados atuam como canais de desinformação e prejudicam  eleitores da mesma forma que propaganda enganosa e práticas comerciais injustas  prejudicam consumidores. Portanto, precisam ser obrigatoriamente banidos de todas as plataformas de redes sociais . Muitas políticas e diretrizes dessas plataformas já incluem esse banimento, mas as plataformas não estão fazendo o seu máximo para ativamente procurar contas falsas e acabar com brechas que permitam com que se multipliquem, reduzindo os incentivos fornecidos por seus próprios serviços que favorecem a existência de robôs.

    Robôs devem ser identificados de forma destacada e efetiva e todo o conteúdo distribuído por eles deve incluir um rótulo visível, que deverá permanecer mesmo quando o conteúdo ou mensagem for compartilhado, encaminhado ou transmitido de qualquer outra forma. Todos estes rótulos devem ser ser apresentados e formatados de forma que fique imediatamente claro a qualquer usuário que ele está interagindo com um ator não-humano.

    Em resumo, as plataformas devem banir contas falsas e robôs não identificados que atuam como canais de desinformação. Elas também devem agir para rastrear as redes que criam e administram essas contas e robôs, acabando com as brechas que permitem que se multipliquem e reduzindo os incentivos fornecidos por seus próprios serviços.
  • Identificar Conteúdo Pago e Divulgar Como é Feita a Escolha do Público-Alvo
    A transparência a respeito de compensação financeira deveria ser aplicada a todas as comunicações, sejam elas de natureza política ou não. Os cidadãos devem ter o direito de saber quem pagou por qualquer anúncio e quais foram os critérios usados para selecionar o público-alvo. Para proteger os  cidadãos da guerra da desinformação, estes parâmetros de transparência deveriam ser aplicados a todo conteúdo pago -- e não apenas a publicidade política. As plataformas devem também identificar conteúdo (ou propaganda) financiada por governos , de forma a aumentar a transparência, divulgando onde e como foi pago determinado conteúdo, além de quem o criou.
  • Transparência
    Na crescente defesa das nossas democracias contra a desinformação é fundamental que os governos, a sociedade civil e o público em geral estejam informados sobre a natureza e a escala da ameaça que enfrentamos e quais medidas estão sendo tomadas para nos proteger . Dessa forma, as plataformas de redes sociais devem fornecer relatórios periódicos abrangentes, listando -- reunido por país e/ou idioma - a quantidade de desinformação encontrada em seus serviços, o número de robôs e contas inautênticas detectadas, quais ações foram tomadas contra essas contas e robôs e quantas vezes os usuários reportaram desinformação. Os relatórios devem também detalhar os esforços das plataformas para lidar com a desinformação a fim de tornar públicas a natureza e a escala desta ameaça.
Diversos estudos revisados por pares demonstraram que correções efetivas podem reduzir, e até mesmo eliminar, os efeitos da desinformação. Os estudos que tentaram replicar o "efeito tiro pela culatra", que é bastante discutido -- quando as correções enraízam crenças falsas -- chegaram à conclusão oposta. Enquanto isso, pesquisadores estão compilando as melhores práticas para correções efetivas.

Leia o Relatório Completo

Avaaz Report Network Deception Download

RELATÓRIO DE DESINFORMAÇÃO DA UE

Antes das eleições na União Europeia, a Avaaz conduziu uma investigação por toda a Europa a respeito de redes de desinformação no Facebook. Esta foi a primeira investigação deste tipo, que descobriu que grupos contrários à União Europeia e de extrema direita estavam usando as redes sociais como arma para disseminar discurso de ódio e conteúdo falso em larga escala. Nossas conclusões foram compartilhadas com o Facebook e resultaram na remoção de um número de páginas sem precedentes, logo antes de os eleitores se dirigirem à votação.