PL das Fake News: Tudo o que você precisa saber

Caíque Coelho
13 min readJun 17, 2020

De acordo com a definição do site significados.com.br, fake news são informações noticiosas que não representam a realidade, mas que são compartilhadas na internet como se fossem verídicas, principalmente através das redes sociais.

Nos últimos anos notícias falsas passaram a ser um grande problema mundial, contribuindo para desinformações na política e na saúde, por conseguinte influenciando em resultados eleitorais e impactando no controle da pandemia a qual estamos vivendo.

Desde as eleições eleitorais dos Estados Unidos em 2016 e do escândalo acerca da Cambridge Analytica, temas como Fake News, bots e proteção geral de dados passaram a estar em foco, pelas mídias e pelos governos, dado os perigos de tais temas.

A bola da vez no Brasil é a PL 2630 apelidada como PL das Fake News, no entanto essa PL vai muito além de apenas Fake News e aborda temas como:

  • Bots
  • Contas inautênticas
  • Conteúdo patrocinado
  • Deep Fake (uso de imagens manipuladas)
  • Limitação em compartilhamentos de informações

Em cada um desses pontos a PL propõe inúmeras alterações a serem implementadas por aplicações que permitem compartilhamento de conteúdo, com pelo menos 2 milhões de usuários. Os pedidos são extensos e algumas alterações podem ser custosas de serem desenvolvidas, abaixo vamos destrinchar vários pontos importantes solicitados na PL 2630 e quais os lados positivos e negativos de cada solicitação.

De antemão adianto minha opinião sobre a importância de PLs como esta. Fake News e bots são um grande desserviço a sociedade e devem ser combatidos. Hoje já existem tecnologias capazes de identificar de forma automática se uma conta é humana ou não e classificar a probabilidade de um conteúdo ser falso, porém essas tecnologias não trazem ganho econômico nenhum para grandes redes sociais, por isso tais funcionalidades nunca foram priorizadas, portanto aplicações que permitem a disseminação de Fake News e o uso de bots para fins políticos e econômicos devem ser responsabilizadas por proporcionarem os meios pelos quais tais desinformações são propagadas.

Pirâmide da desinformação

Notícias falsas podem ser disseminadas principalmente de 4 maneiras:

A PL 2630 tenta atacar as disseminações por meio de aplicações onde usuários podem ter uma conta e publicarem conteúdos através dela, logo abrange apenas os pontos 1, 2 e 4, ainda deixando impune portais de notícias que possuem como único fim propagar a desordem por meio de falsa informações. Importante notar que quanto mais no topo da pirâmide, mais impacto tal meio tem na propagação de informações falsas.

O que a PL 2630 abrange:

  1. Conteúdo desinformativo: conteúdo, em parte ou no todo, inequivocamente falso ou enganoso, passível de verificação, colocado fora de contexto, manipulado ou forjado, com potencial de causar danos individuais ou coletivos, ressalvado o ânimo humorístico ou de paródia e respeitadas as tradições, as crenças religiosas e as convicções filosóficas ou políticas.
  2. Conta Inautêntica: conta criada ou usada com o propósito de disseminar desinformação ou assumir identidade de terceira pessoa para enganar o público;
  3. Disseminadores artificiais: qualquer programa de computador ou tecnologia empregada para simular, substituir ou facilitar atividades de humanos na disseminação de conteúdo em aplicações de internet;
  4. Rede de disseminação artificial: conjunto de disseminadores artificiais cuja atividade é coordenada e articulada por pessoa ou grupo de pessoas, conta individual, governo ou empresa com fim de impactar de forma artificial a distribuição de conteúdo com o objetivo de obter ganhos financeiros e ou políticos;
  5. Conteúdo patrocinado: qualquer conteúdo criado, postado, compartilhado ou oferecido como comentário por indivíduos em troca de pagamento pecuniário ou valor estimável em dinheiro;

Tais definições foram retiradas do próprio projeto, algumas já apresentam algumas correções provenientes de emendas.

Conteúdo desinformativo

Também podendo ser chamado de Fake News, o apelido atribuído a PL é apenas um dos pontos abordados no projeto de lei. Quando tocamos no ponto da definição do que é um conteúdo desinformativo levantamos 3 grandes perguntas que devem ser muito bem discutidas:

  • Como definir se um conteúdo de fato é desinformativo?
  • Quem define se um conteúdo é desinformativo?
  • Como não afetar a liberdade de expressão?

Ambas as perguntas estão de certa forma muito bem atreladas. O documento fala que os conteúdos devem ser verificados por verificadores de fatos independentes, uma pessoa jurídica, portanto uma empresa que realiza uma verificação criteriosa de fatos de acordo com os parâmetros e princípios do projeto de lei 2630.

No entanto o documento em nenhum momento deixa claro de fato quais são os parâmetros e princípios que definem uma desinformação além da definição citada previamente aqui. Além disso não é claro quem são os possíveis verificadores de fatos e como uma empresa pode se declarar uma verificadora de fatos, também não há parâmetros e princípios que definem um verificador de fatos.

Por conseguinte ainda temos uma grande incógnita sobre como garantir que os verificadores de fatos estão realmente seguindo os parâmetros e princípios de definição de desinformação e como garantir que tais verificadores não irão abusar do poder e ameaçar a liberdade de expressão.

Aqui temos a famosa pergunta do latim:

“Quis custodiet ipsos custodes?

Do poeta romano Juvenal, traduzida para o português como: “quem vigia os vigilantes?”

Um exemplo claro sobre como tais verificadores podem ser parciais, aconteceu recentemente no Twitter, onde um usuário passou a postar exatamente todos os tweets postados pelo presidente Donald Trump, após algum tempo o usuário teve a conta suspensa por doze horas e teve que deletar os tweets considerados ofensivos. Enquanto isso a conta do presidente continuava ativa e nenhum tweet precisou ser deletado.

O projeto de lei deixa brechas para que comportamentos similares sejam repetidos pelas aplicações e pelos verificadores de fatos.

Na tentativa de conter conteúdos desinformativos o projeto traz diversas abordagens que devem ser seguidas pelas aplicações como:

  1. Divulgar estrutura dedicada ao combate à desinformação no Brasil, em comparação a outros países, contendo o número de pessoas diretamente empregado na análise de conteúdo bem como outros aspectos relevantes;
  2. Desabilitar os recursos de transmissão do conteúdo desinformativo para mais de um usuário por vez, quando aplicável;
  3. Rotular o conteúdo desinformativo como tal;
  4. Interromper imediatamente a promoção paga ou a promoção gratuita artificial do conteúdo;
  5. Assegurar o envio da informação verificada a todos os usuários alcançados pelo conteúdo desde sua publicação;

Uma brecha em comum a citada anteriormente, que podemos identificar nesses pontos é que em nenhum momento é levantada a obrigação de remoção de conteúdos desinformativos semelhantes. Uma vez que um conteúdo é classificado como desinformativo as aplicações seriam capazes de identificar outros conteúdos semelhantes e automaticamente remover, no entanto o PL ignora tal capacidade tecnológica, por descuido ou talvez desconhecimento.

Conta Inautêntica, Disseminadores artificiais e Redes de bots

Definida pelo PL como conta criada ou usada com o propósito de disseminar desinformação ou assumir identidade de terceira pessoa para enganar o público. A definição é confusa e em alguns momentos não deixa claro se uma conta será classificada como inautêntica apenas caso dissemine desinformação ou se uma conta qualquer que mesmo não estando postando conteúdos desinformativos pode ser classificada como inautêntica. E deixa perguntas como: Contas fakes serão consideradas como inautênticas? Contas que imitam perfis de famosos com o intuito humorístico é uma conta inautêntica? Usar pseudônimos é usar uma conta inautêntica?

A definição é vaga e não ataca diretamente um dos principais problemas: bots!

Bots realizam diversas ações que podem ser perigosas para a democracia e para a liberdade de expressão e que não necessariamente são consideradas disseminação de desinformação. Um exemplo claro é o famoso “sequestro de hashtag”, onde um grupo de usuários reais começam um assunto, através de uma hashtag, falando mal de algo e após algum tempo um exército de bots começa a aparecer utilizando a mesma hashtag, no entanto falando bem do assunto.

Bots podem representar até um falso apoio, criando um alto volume de usuários únicos a favor de algum assunto, por conseguinte manipulando usuários menos informados. Um exemplo é o comportamento de manada: se um alto grupo de pessoas começa a postar que foi encontrado um remédio para uma doença, um pequeno grupo passa a acreditar na informação da maioria, o problema é que a maioria em si podem ser apenas bots forçando o comportamento de manada.

Sobre contas inautênticas, o PL exige a desativação de disseminadores artificiais não rotulados, ou seja, contas automatizadas em que a automação não foi informada as aplicações, caso o volume de movimentação e número de postagens seja incompatível com o uso humano.

O tratamento para bots de acordo com o PL é muito simplista e não resolve o problema, uma vez que bots não precisam ter alto volume de movimentos, já que é possível ter uma alta quantidade de bots que podem gerar volumes de conteúdos similares a usuários humanos. Além disso o PL não propõe nenhuma maneira de prevenir que mais contas inautênticas sejam criadas, como por exemplo através da limitação de usuários por IP. Ainda temos a brecha onde de acordo com a própria definição do projeto, disseminadores artificiais que foram informados para as aplicações podem continuar funcionando.

Além disso tudo o PL ignora toda a complexidade por traz da rede de bots, já que cada dia é mais difícil identificar um bot nas redes sociais, já existem empresas especializadas em criação de bots onde cada conta automatizada recebe uma foto de perfil gerada por deep fake(inteligência artificial que gera faces inexistentes) e backgrounds de perfil muito bem elaborados, onde os bots acabam tendo informações como idade, graduação, cidade natal, história de vida, família e por aí vai.

Em alguns momentos o projeto até toca no assunto de rede de disseminação artificial, quando solicita a identificação e desativação de redes e a disponibilização de relatórios e dados que devem apontar a relação entre disseminadores artificiais e contas. Porém falha em não definir o que é uma rede de disseminação, deixando aberto a interpretação das aplicações.

Conteúdo Patrocinado

Para mim um dos maiores problemas do projeto é focar grande parte no tratamento de conteúdos patrocinados, exigindo por exemplo:

  • Remoção de conteúdos patrocinados não identificados como tal;
  • Identificação de quem pagou pelo conteúdo, qual o público alvo e quanto foi gasto;
  • Direcione o usuário para acessar informações sobre o pagador do conteúdo, seja pessoa física ou jurídica, bem como seus dados de contato;
  • Dados sobre todos os conteúdos que o patrocinador realizou nos últimos doze meses;
  • Tornar público dados sobre todos os conteúdos patrocinados ativos e inativos relacionados a temas sociais, eleitorais e políticos;
  • Fornecer a todos os usuários, a visualização do histórico de todos os conteúdos patrocinados com os quais o usuário teve contato nos últimos seis meses;

Todas essas solicitações não atacam a raiz do problema que são as fake news e demandam diversas informações e alterações que custarão as aplicações um grande esforço para ser cumprido. Além de tudo algumas informações pode ser sensíveis demais para serem expostas ao público como valores pagos em patrocínio e informações sobre o pagador.

Relatórios e dados abertos

Talvez um dos melhores pontos sobre o projeto é a obrigatoriedade de geração de relatórios com informações valiosas que devem estar dispostas ao público de forma fácil. No papel é tudo bonito, algo difícil de garantir é que a transparência realmente seja cumprida sem que os dados sejam maquiados. O projeto não traz nenhuma informação sobre como garantir a veracidade e transparência nos relatórios. Algumas solicitações interessantes que gostaria de ressaltar são:

  • Informações sobre número total de postagens, contas, disseminadores artificiais e conteúdos patrocinados, rotulados, removidos ou suspensos, contendo a devida motivação, localização e metodologia utilizada na detecção da irregularidade;
  • Em relação aos perfis removidos, as plataformas devem fornecer os dados categorizados por gênero, idade e origem dos perfis;
  • Relatórios informando número de reclamações recebidas, origem e o motivo da reclamação, tempo entre o recebimento das reclamações e da resposta dada;
  • Comparação de métricas históricas, sobre remoção de contas e de conteúdos no Brasil e em outros países;
  • Os relatórios devem ser publicados a cada trimestre e, durante períodos eleitorais, semanalmente;
  • Facilitar o compartilhamento de dados com instituições de pesquisa para análises acadêmicas de desinformação;

Tais relatórios por mais que não combatam diretamente o problema são uma poderosa arma ao público geral, possibilitando que iniciativas independentes e sem relações com o governo ou com as aplicações possam desenvolver soluções que ajudam no combate à desinformação.

Os Maiores Problemas do Projeto de Lei

Se você chegou até aqui é bem provável que a sua mente esteja explodindo com tantas informações sobre o projeto, e a grande impressão que fica é que todo o projeto é uma grande mistura de problemas, com uma grande mistura de possíveis soluções e todas essas misturas não deixam claro qual o principal problema que o PL tenta atacar e nem como resolvê-lo. Alguns assuntos abordados como por exemplo conteúdo patrocinado poderiam ser completamente removidos do projeto sem nenhum grande prejuízo.

O texto já era muito problemático desde o começo, assumindo definições simplistas sobre fake news e contas inautênticas, ignorando a complexidade de alguns assuntos e podendo de certa forma até ferir alguns direitos de liberdade de expressão.

Um reflexo da má formulação do projeto é a quantidade de emendas que temos até agora, totalizando 78 até o dia 9 de junho, onde cada emenda apresenta desde a correção de um erro ortográfico do texto original, até alterações de definições e novas solicitações que chegam até serem mais polêmicas ainda como por exemplo:

  • Obrigar as plataformas a limitar o número de contas por pessoa e por dispositivos. Pela senadora Rose de Freitas, na emenda 005;
  • Exigir que os usuários apresentem sua localização e algum documento de identidade, como CPF, CNPJ ou RG, para criar perfis. Pela Senadora Rose de Freitas, na emenda 004 e 005 e pelo senador Jorge Kajuru na emenda 0058;
  • Remoção do art. 9º, que responsabiliza as aplicação pelos conteúdos desinformativos veiculado por seus usuários. Pelo senador Roberto Rocha, na emenda 001;
  • As empresas, nacionais e estrangeiras, que forneçam serviços de mídia programática não poderão veicular anúncios em páginas da internet que contenham desinformação”. Pelo senador Fabiano Contarato na emenda 0051, citou o exemplo da conta no Twitter Sleeping Giants que alerta empresas que anunciam em sites conhecidos por propagar fake news;
  • Inclusão de portais ou sítios de conteúdo jornalístico como passíveis de aplicação das leis, uma vez que esses também disseminam fake news. Pelo senador Paulo Paim, na emenda 0010. Essa emenda inclusive é a única citação a portais de notícias.

Todos esses pontos ainda estão em discussão no senado, até o dia 8 de junho não havia consenso nenhum sobre o que seria aprovado, o senado pressiona para que o projeto passe a ser mais enxuto e foque apenas em criminalizar o uso de ferramentas que disseminam fake news pela internet, como por exemplo através do uso de rede de bots.

O texto propõe muitas coisas, mas em pouco se fala em como fazê-las, o que pode tornar a aplicação da lei muito subjetiva, com muitas brechas e sendo desenvolvida de forma diferente por cada aplicação.

Na minha opinião é preocupante a falta de citação de estudos científicos em relação a fake news e bots, além de comparações sobre como outros países têm endereçado o mesmo problema, a única citação veio pela emenda 009 do senador Paulo Paim requerendo uma aplicação semelhante a legislação alemã, onde as redes socias que recebem mais de cem reclamações sobre conteúdos caracterizados como desinformativos em um período de doze meses, devem divulgar relatórios sobre o tratamento de reclamações.

Ademais ainda existem muitas dúvidas e contradições que podem impedir o projeto de ser aprovado ou se aprovado podem significar um problema a liberdade de expressão ou a inovação, como por exemplo:

  • A própria definição de desinformação ou fake news não é um consenso no mundo, para explicar essa preocupação podemos citar inclusive o texto da emenda 0023 pelo senador José Serra: “Verdades científicas são teorias falseáveis que resistem no tempo, até serem derrubadas por outra. Assim, há tanto informação que passa a ser aceita majoritariamente pela comunidade científica quanto informação que deixa de ser após certo período de tempo. Verdade no PL estaria associada à quantidade de apoio científico? Teorias minoritárias seriam consideradas falsas ou incorretas? Como tratar a informação com base em modelos matemáticos, como aqueles atualmente usados para medir a taxa de transmissão do coronavírus e fazer projeções de infecções e mortes, que variam os resultados a depender das variáveis utilizadas e da calibragem?”
  • Nem todo bot e conta inautêntica existem com o intuito de propagar desinformação, alguns inclusive servem para ajudar na divulgação de informações relevantes. Como a lei irá tratar essas contas? Além de ferramentas externas de publicação de conteúdo de modo automatizado, as quais são muito utilizadas por empresas, famosos e criadores de conteúdo. Na emenda 0026 o senador Jean Paul Prates comenta sobre essa preocupação.
  • Como rastrear a desinformação sem ferir a privacidade dos usuários? Se uma notícia falsa é transmitida em um chat privado como podemos saber de fato do que se trata a notícia sem quebrar o sigilo das mensagens do usuário? Intenção questionada na emenda 0023 pelo senador José Serra e na emenda 0028 pelo senador Vanderlan Cardoso.
  • Por fim em quais meios ou ferramentas de disseminação a lei vai ser aplicada? Ainda não está definido se as leis serão direcionadas as redes sociais, serviços de mensageria ou sites de notícias, nem quem de fato serão os responsabilizados, serão os usuários? As aplicações?

Tais indefinções e falta de objetividade tem refletido mal aos olhos do público, o qual tem demonstrado através do portal do senado oposição ao projeto. No site do senado, sempre existe uma enquete de opinião aberta ao público com a pergunta: “Você apoia essa proposição”. Até o dia 15 de junho a enquete contava com 763 mil votos, onde 45% eram a favor e 55% contra. Analisando reportagens e reações na internet vemos uma grande onda de ativistas de direitos digitais, as próprias plataformas de redes sociais e parte do governo Bolsonaro pressionando contra o projeto.

Na tentativa de ser imparcial não entrarei no mérito sobre quem perde ou ganha com a aprovação do PL 2630, pois o interesse no combate a desinformação deve ser de todos independente de cunho político, social ou religioso.

Acredito que a conclusão que fica é que a internet ainda é uma terra sem lei e precisamos dar a devida atenção para esse tema, pois a falta de leis é uma ameaça a democracia e leis mal estabelecidas também é uma ameaça a mesma.

Site para mais informações sobre o projeto, documento original, emendas e enquete: https://www25.senado.leg.br/web/atividade/materias/-/materia/141944

Agora que você já entende sobre a PL 2630, que tal passar no site do senado e deixar a sua opinião na enquete?

--

--

Caíque Coelho

A QA lover and App Developer on weekends and a Data Scientist on free time. Founder App Teste Eneagrama.