Relator dos processos sobre fakenews e atos antidemocráticos no Supremo Tribunal Federal (STF), o ministro Alexandre de Moraes defendeu na segunda-feira, 13, a regulamentação do impulsionamento e monetização de conteúdos na internet, além da transparência de algoritmos em redes sociais. O objetivo é implicar as bigtechs, grandes empresas de tecnologia, no esforço de evitar a disseminação de notícias falsas e ataques às instituições democráticas.
Moraes discursou no seminário “Liberdade de Expressão, Redes Sociais e Democracia”, organizado nesta segunda-feira pela Rede Globo, Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP) e a Fundação Getúlio Vargas (FGV) na sede da Fundação, Zona Sul do Rio.
O magistrado evocou diversas vezes a responsabilidade dessas empresas e garantiu que o País não vai admitir que as redes sociais sejam tratadas como “terra sem lei”. “Se você impulsionou (um conteúdo), tem que ter responsabilidade porque você está ganhando dinheiro. Para direcionar e impulsionar uma informação, você tem de checá-la”, disse Moraes.
“Não precisamos definir o que é fakenews ou que toda informação seja checada pelas plataformas, mas podemos exigir que essas plataformas tenham responsabilidade e maior transparência na utilização de algoritmos para que qualquer plataforma deixe de ser algo inerte. Com isso, daríamos um salto gigantesco de qualidade na alteração da estrutura negocial e gerencial das bigtechs”, continuou.
Ele defendeu que as grandes empresas de tecnologia donas de redes sociais e sites de buscas apliquem as táticas de controle à pornografia infantil e pedofilia para restringir conteúdos antidemocráticos. Segundo o ministro, até 93% dos conteúdos impróprios no primeiro caso são barrados por algoritmos, e o que passa, por haver dúvida, é filtrado por uma equipe dedicada à função.
Moraes sugeriu que as redes sociais podem se auto regular, com o Judiciário atuando da definição de pré-requisitos e critérios de responsabilização.
No discurso, Moraes analisou longamente o processo de disseminação das fakenews. Logo no início da fala, ele fez um mea-culpa, ao dizer que a institucionalidade do País foi alertada à respeito até seis anos atrás, mas não tomou uma providência.
“Ignoramos os alertas vindos da sociedade de quatro, cinco, seis anos atrás. Acabamos todos achando que seria algo auto regulável e passageiro. Não é auto regulável, muito menos passageiro. É perigosíssimo se deixarmos de analisar as causas, efeitos e reflexos não só para questões institucionais, mas para questões pessoais”, disse Moraes ao citar casos de bullying e os chamados “cancelamentos” nas redes sociais, causadores de depressão e até suicídio de usuários.
Para Moraes, o princípio básico do combate a esse cenário é aplicar as regras válidas no mundo real ao mundo virtual. “A Constituição veda o anonimato no mundo real e no virtual. Por que eu posso ficar escondido atrás de um robozinho para ofender e atacar as pessoas? Por que eu posso criar gabinetes de ódio para ferir a democracia no virtual, se, no real, eu não faço porque e não tenho coragem e a legislação está de olho?”, questionou o ministro.
Segundo ele, movimentos de extrema direita se aproveitaram das redes sociais para, primeiro, desmoralizar a imprensa e, depois, atacar a república na figura das eleições.
“Uma extrema direita radicalíssima percebeu de forma extremamente competente que era possível manipular essas informações, o acesso a informações. Passou a manipular os olhos internos, as revoltas, os traumas de diversos segmentos da sociedade, juntar essas pessoas virtualmente e a partir disso instrumentalizá-las. Redes sociais e bigtechs foram instrumentalizadas no 8 de janeiro”, afirmou sobre os ataques ao Congresso, Supremo e Planalto.
Segundo o ministro, toda a organização dos atos de vandalismo do dia 8 de janeiro aconteceu pelas redes sociais, sem o menor disfarce, o que poderia ter sido impedido se as grandes empresas controladoras das plataformas atuassem ativamente contra conteúdos antidemocráticos.
O ministro Gilmar Mendes, do Supremo Tribunal Federal (STF), afirmou também que a discussão sobre a regulação das redes sociais ganhou “fôlego renovado”, no Brasil, após os “espantosos episódios” de 8 de janeiro último, quando manifestantes invadiram e depredaram as sedes do Congresso Nacional, do governo federal e do STF. Para Mendes, uma nova regulação, “mais rígida e moderna”, é urgente.
“Uma regulação mais rígida e moderna para a moderação do conteúdo das redes sociais é urgente e necessária no Brasil. Parece fundamental que um novo regime jurídico aumente a confiabilidade e a previsibilidade na moderação de conteúdo, a partir de garantias processuais e de mecanismos de resolução de disputa mais transparentes nas plataformas”, afirmou Mendes, em palestra durante um evento sobre liberdade de expressão, na sede da Fundação Getulio Vargas (FGV), no Rio.
Na palestra, o ministro fez uma explanação sobre os dois principais paradigmas jurídicos da regulação das redes sociais. O primeiro, baseado na ideia da “neutralidade” do conteúdo, deixa a responsabilização da eventual divulgação de discursos criminosos apenas nos autores desses discursos. Isentas de responsabilização, as plataformas se dedicam à moderação do conteúdo conforme regulamentos internos.
Para Mendes, a atual regulação brasileira sobre o tema, o Artigo 19 do Marco Civil da Internet, está dentro desse paradigma, afeito ao arcabouço jurídico americano. Segundo o ministro, esse artigo do Marco Civil adota esse paradigma ao responsabilizar as plataformas digitais na internet apenas nos casos em que há decisão judicial específica determinando a remoção de conteúdos.
Por outro lado, Mendes defendeu o segundo paradigma jurídico na regulação das redes sociais, que, segundo o ministro, tem sido adotada em recentes leis aprovadas na Europa.
O ministro do STF citou regulamentações da Alemanha e da União Europeia (UE). Nesses casos, a regulação sobre as plataformas que mantêm as redes sociais é mais ativa. Ao elogiar as recentes leis aprovadas na Europa, Mendes sinalizou sua preferência por regras que foquem menos na definição de conteúdos que devem ser moderados e mais nos processos pelos quais as plataformas devem exercer essa moderação. O objetivo é dar transparência aos critérios de remoção de discursos.
Para definir os conteúdos proibidos, Mendes destacou que já há “demarcação” de discursos ilícitos na “tutela penal” existente. Para exemplificar, Mendes ressaltou que a tipificação de crimes contra o Estado democrático de direito já existe, antes mesmo se de falar em redes sociais ou internet.