PL das fake news: remoção de post tem detalhes demais, dizem analistas – 17/07/2020
No terceiro dia de debate na Câmara dos Deputados sobre a proposta para coibir a disseminação de fake news na internet (Projeto de Lei 2630/20) não houve consenso sobre as regras previstas para a moderação de teor pelas redes sociais e sobre a melhor forma de coibir ataques à honra nas redes.
O deputado Nereu Crispim (PSL-RS) criticou a possibilidade de anonimato em ataques nas redes sociais, mormente contra políticos, disse que Justiça é lenta para resolver sobre os ataques à honra pessoal; e acusou as plataformas de não responder de forma efetiva às denúncias de maledicência feitas pelos cidadãos.
“Temos que tirar o anonimato. Cidadão de muito não vai ter problema nenhum em ter seus dados lá, só o criminoso vai ter essa preocupação”, opinou. Para ele, para coibir ataques à honra, é preciso publicar o CPF e a identidade dos usuários.
João Guilherme Bastos, do Instituto Pátrio de Ciência e Tecnologia em Democracia Do dedo, no entanto, disse que expor esses dados não vai impedir ataques à honra, e ressaltou que os dados pessoais poderão ser usados para fins ilícitos.
A diretora-executiva do site Aos fatos – plataforma de checagem de informações públicas -, Tai Nalon, foi além e afirmou que “os grandes motores de desinformação na rede não são as ‘tias do zap’, não são os usuários desinformados, mas políticos com mandatos e influência na rede”, com contas verificadas.
Decisão judicial
Bia Barbosa, da Coalizão Direitos na Rede, concordou com Nereu Crispim de que a Justiça poderia ser mais célere e ativa. Mas considerou acertada a previsão contida no Marco Social da Internet de que um provedor de aplicações só pode ser responsabilizado por determinado teor se não executar decisão judicial que o obrigue a removê-lo.
Isso não impede que as plataformas tenham suas políticas de uso para remoção de teor.
Ela considerou principal que seja mantido no texto do projeto de lei o recta de o usuário ser notificado quando um teor de sua autoria for removido pela plataforma, e ressaltou que hoje nem sempre isso é feito pelas empresas.
Ou por outra, para que a liberdade de frase não seja violada, ela defendeu a manutenção no texto do recta de o usuário negar a remoção de um determinado teor e o recta de resposta na mesma medida e alcance do teor considerado inadequado.
Detalhamento excessivo
Alguns especialistas consideraram, porém, muito detalhadas as regras sobre remoção de teor, que estão previstas no cláusula 12 da proposta aprovada pelo Senado.
O jurisperito e professor da UERJ Carlos Affonso Souza foi um dos que manifestou essa preocupação. Ele considerou excessivo, por exemplo, obrigar as plataformas a notificar os usuários não somente em relação a conteúdos e contas removidas, mas em relação a denúncias recebidas pela plataforma.
Em relação ao recta de resposta, ele observou que algumas plataformas porquê Wikipedia e YouTube têm hoje formas de moderação descentralizadas, operadas pelo próprio usuário – os youtubers podem, por exemplo, remover comentários. E questionou porquê seria assegurado o recta de resposta na mesma medida e alcance do teor considerado inadequado nesses casos.
Política do Google
A gerente de políticas públicas do Google no Brasil, Juliana Nolasco Ferreira, também considerou excessivo o cláusula 12 da proposta. Em sua opinião, a obrigação de notificar o usuário não deveria subsistir no caso de denúncia.
Ela garantiu aos parlamentares que a empresa já está alinhada aos objetivos da lei e que já “leva a sério o compromisso de combate à desinformação”, elaborando relatórios de transparência, por exemplo, conforme previsto pelo projeto.
Segundo Juliana, no YouTube (plataforma de vídeo do Google), são aplicados os seguintes princípios: remover conteúdos que violem políticas de uso da plataforma; recomendar conteúdos de qualidade; reduzir disseminação de conteúdos duvidosos ou prejudiciais; e recompensar criadores confiáveis.
Para a remoção, os conteúdos são identificados por máquinas e revisados por humanos, e os usuários também podem sinalizar conteúdos que violem os termos de uso. Juliana reconhece, no entanto, que o processo não é isento de erros, e, neste caso, o usuário pode recorrer, e o vídeo ser reincluído.
“No primeiro trimestre de 2020, 6,1 milhões de vídeos foram removidos do YouTube, mais da metade deles relacionados a spam, práticas enganosas e golpes e segurança infantil”, informou. E, segundo ela, 49% desses conteúdos foram removidos antes da primeira visualização.
Punição
Para o professor Rony Vainzof, perito em recta do dedo, a Justiça não deve ser a porta de ingressão para todas as decisões sobre remoção de conteúdos e de contas, e deve se limitar a resolver controvérsias.
Na visão dele, a lei deve obrigar as plataformas a ter mecanismo para prometer o contraditório e a ampla resguardo e ter regras para remoção de contas inautênticas, por exemplo – conforme já consta no PL 2630/20.
Ele defendeu ainda a previsão lícito de novos tipos penais para punir quem financia a desinformação em graduação industrial – o que hoje não está no texto.
Para Vainzof, a lei deve gerar obrigações mínimas para as plataformas, e o restante das regras deve permanecer para uma “autorregulação regulada” – por exemplo, para um código de conduta.
O projeto em estudo na Câmara prevê a elaboração desse código pelo Juízo de Transparência e Responsabilidade na Internet, que será instituído pelo Congresso, com participação dos setores públicos, privado, da sociedade social e da ateneu.
A deputada Margarete Coelho (PP-PI) também acredita que a autorregulação pelas plataformas – regulamentada pela lei – é a forma mais eficiente para coibir a desinformação e proteger a democracia. Ela salientou ainda que hoje a legislação brasileira já oferece meios para procura de reparação aos danos à honra pessoal.