Brasil

Moraes: regras do mundo real devem prevalecer também nas redes sociais

Ministro do STF participou de reunião sobre violência nas escolas

alexandre moraes
Marcelo Camargo / ABR - 

O ministro do Supremo Tribunal Federal (STF) Alexandre de Moraes defendeu, nesta terça-feira (18), a inclusão de um artigo na legislação brasileira para deixar claro que as regras do mundo real deve prevalecer também no ambiente virtual. A afirmação foi feita durante a reunião convocada pelo presidente Luiz Inácio Lula da Silva para discutir políticas de prevenção e enfrentamento à violência nas escolas.

“Precisamos de uma vez por todas determinar que o que não pode ser feito na vida real, no mundo real, não pode ser feito no mundo virtual”, disse. Para isso, segundo o ministro, bastaria a inclusão de “um artigo na lei, a ser regulamentado pelo Congresso". "É simples”, acrescentou.

Na avaliação de Moraes, os problemas de violência e preconceito nas escolas têm uma mesma origem: a desinformação que, em geral, é promovida via redes sociais.

“O modus operandi dessas agressões instrumentalizadas, divulgadas e incentivadas pelas redes sociais em relação às escolas é exatamente idêntico ao modus operandi que foi utilizado contra as urnas eletrônicas e contra a democracia. É o modus operandi instrumentalizado para o 8 de janeiro. Não há nenhuma diferença. As redes sociais ainda se sentem terra de ninguém, uma terra sem lei. Precisamos regulamentar isso”, discursou o ministro da Suprema Corte ao informar que o tema tem sido largamente conversado com os presidentes das casas legislativas.

Big techs
Moraes afirmou que, se não houver “uma regulação e uma regulamentação” que tenham por base modelos – que já são, inclusive, do conhecimento das big techs responsáveis pelas redes sociais –, a instrumentalização feita por meio dessas plataformas para incentivar ataques continuarão.

“Há alguns anos a deep web divulgava esses tipos de mensagens. A investigação era muito mais difícil porque era necessário infiltrar pessoas naquele ambiente para chegarmos aos responsáveis. Hoje é na rede social normal que isso acontece. É no Twitter. Você entra no Google e ensina uma criança a fazer uma bomba, e a incentiva a repetir os atentados que ocorreu nos Estados Unidos”, criticou o ministro.

Essas plataformas, segundo Moraes, se dizem “meros depósitos de informação” e alegam que, por isso, não poderiam ser responsabilizadas. “Faço aqui uma analogia simples entre os mundos real e virtual. No mundo real, se alguém tem um depósito e aluga esse depósito para alguém que o use para cometer crimes, obviamente não poderá ser responsabilizado. Mas a partir do momento que a pessoa sabe e renova o contrato, ela poderá ser responsabilizada. E se monetiza ou lucra em cima disso, é obrigatório que ela seja responsabilizada”, argumentou ao afirmar que as redes sociais lucram em cima de incentivo à violência e de discursos de ódio. “Isso precisa cessar imediatamente”, defendeu.

Propostas
Segundo Moraes, com poucas propostas seria possível dar “um grande salto de qualidade” na legislação brasileira. Uma das medidas sugeridas pelo ministro é a de dar maior transparência sobre os algoritmos das redes sociais.

“Por que, ao colocarmos ‘criança’ e ‘atentado’ [em uma pesquisa], em vez de aparecer a notícia do atentado aparece [instruções sobre] como fazer uma bomba para o atentado? Porque uma notícia vai na frente da outra?”, questionou.

A segunda sugestão apresentada pelo ministro é a extensão dos métodos de autorregulação que já existem para pornografia infantil, pedofilia e direitos autorais.

“Eu perguntei às big techs se elas recebem muitos vídeos de pornografia infantil e pedofilia. Responderam que recebem ‘milhares por dia’, e que 93% desses vídeos são retirados antes mesmo de receberem o primeiro like, comentário ou visualização. Tudo com base na inteligência artificial”, disse.

Para os outros 7%, em que ficam dúvidas, há uma equipe que imediatamente analisa e retira o que for necessário.

“Tudo em pouquíssimas horas para pornografia infantil; para pedofilia. E para direitos autorais, porque as maiores indenizações das big techs são por direitos autorais. Então, aí, elas se preocupam”, acrescentou ao defender a obrigatoriedade de uso de inteligência artificial e de equipe humana para retirar das redes “discursos nazistas, fascistas, homofóbicos, racistas e contra a democracia”.

Atos golpistas de 8 de janeiro
O ministro acrescentou que, no caso dos atos contra a democracia, bastava às redes sociais colocar as “elementares do tipo que é crime”. “Se aquilo estiver sendo divulgado – por exemplo, incentivar animosidade entre as Forças Armadas e os poderes constituídos – passasse por esse procedimento, nós não teríamos tido o 8 de Janeiro. Tudo foi organizado e incentivado nas redes. E as redes sabem que são instrumentalizadas.”

“Por fim, uma questão complexa, mas que já existe em outros ramos de direito, é a inversão do ônus. Se a plataforma, com todos esses métodos, identifica a existência de notícias que incentivam ataques – ou estão incentivando mensagens incentivando o racismo; o nazismo na escola –, ela deve retirar, mesmo que uma ou outra notícia deixe alguma dúvida, e notificar imediatamente quem a colocou”, completou ao defender que todo esse processo seja feito rapidamente.

Moraes lembrou que dar celeridade a esse processo não é apenas possível como já foi colocado em prática. “Antes se determinava a retirada das redes em 48 horas, o que é uma vida na rede social. Mudamos para duas horas, e, na véspera das eleições, para uma hora. No dia da eleição, estavam retirando em 15 minutos. Ou seja, é possível”, destacou.

“A mesma coisa [pode ser feita] em relação a atentados ou programação de atentados contra escolas; ou bullying contra estudantes; proliferação de discurso racista, nazista ou homofóbico”, completou.
 

Comentários