Poder das big techs de censurar conteúdo precisa de regulação, dizem especialistas

poder big techs censurar conteudo regulacao especialistas
Via @consultor_juridico | A Suprema Corte dos Estados Unidos vai julgar a possibilidade de grandes empresas de tecnologia censurarem conteúdos. O debate gira em torno de duas leis estaduais, aprovadas pelas Assembleias Legislativas do Texas e da Flórida e sancionadas pelos seus governadores, ambos do Partido Republicano.

Os políticos republicanos desses estados alegam que as empresas normalmente suprimem pontos de vista de usuários conservadores. Assim, elas os banem, como fizeram com o ex-presidente Donald Trump, a quem acusaram de incitar seus seguidores a invadir o Capitólio, em janeiro de 2021, para impedir a certificação da vitória do presidente Joe Biden nas eleições de 2020.

Como as empresas que motivaram a criação das duas leis — Twitter, Facebook e YouTube/Google — têm atuação mundial, é evidente que o interesse no assunto não se restringe aos limites impostos pelas fronteiras do Texas e da Flórida. Por isso, a revista eletrônica Consultor Jurídico ouviu especialistas em Direito Digital para saber se é possível conter o poder das big techs, aparentemente infinito.

O advogado e consultor especializado em Direito e novas tecnologias Omar Kaminski pondera que, ao mesmo tempo em que as grandes empresas de tecnologia não devem ter o poder de censurar conteúdo, o sonho de uma legislação uniforme sobre o tema ainda parece distante. "O problema é chegarmos ao ponto de achar a censura algo normal e até desejável. A decisão do que pode ou não pode ser feito não deve ser deixada à mercê dos algoritmos ou do interesse do mercado, ou desta ou daquela ideologia. É a própria democracia que está em jogo."

A presidente da Comissão de Proteção de Dados da OAB Nacional, Estela Aranha, acredita que proibir as plataformas de atuar espontaneamente na moderação de conteúdo — que nada mais é do que criar regras de convívio em determinado local —  provocará uma deterioração imensa do espaço online. "O discurso de ódio e a radicalização afastam o debate plural, a multiplicidade de vozes, afetam a participação dos mais vulneráveis, que são vítimas de ataques, bullying, pressão e violência psicológica. Sem essas regras, as redes viram território sem lei, onde o mais forte sempre vencerá e criará um ambiente hostil e de supressão de qualquer voz contramajoritária." 

A especialista, por outro lado, afirma que a desinformação prejudica o direito à informação e falseia a percepção da realidade. A saída, segundo ela, é que a moderação de conteúdo siga uma estrutura de direitos humanos e que os critérios para a exclusão de conteúdo sejam transparentes. 

Nathalia de Biase, especialista em Direito Empresarial e Digital do escritório Martorelli Advogados, lembra que, apesar de iniciativas como o PL nº 2630/2020 (que visa a estabelecer a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet), o Direito brasileiro ainda não possui um regramento específico para estabelecer os limites de atuação das plataformas na moderação de conteúdo. 

"Ao longo dos anos, relatórios emitidos por organizações internacionais, como Freedom House, destacaram o Brasil como um dos países que mais recebem solicitações de remoção de conteúdo online. A tendência do nosso Judiciário tem sido a de que a remoção desses conteúdos deve ser pleiteada por via judicial. Ou seja, não podem as big techs atuar livremente enquanto censoras." 

Para De Biase, o ideal é que as empresas de tecnologia não façam moderação de conteúdo (seja removendo usuários, seja impedindo que as informações cheguem a todos igualmente) porque o controle pode tanto provocar o chilling effect (ou seja, resfriamento de certos debates) quanto moldar o comportamento dos usuários a partir do tipo de informação que eles recebem. "Por outro lado, não podemos permitir que o pressuposto constitucional da liberdade de expressão seja utilizado para promover, por exemplo, desinformação e discurso de ódio."

Rodrigo Meyer Bornholdt, doutor em Direito das Relações Sociais pela UFPR, acredita que as big techs não podem censurar tudo. Segundo ele, os espaços de mídia sempre foram regulados e as opiniões publicadas, moderadas. "Na questão das big techs, temos empresas com muito poder e esse poder é que tem de ser regulado. Isso deve ser feito por meio de uma lei compatível com o direito à liberdade de expressão."

Hélio João Pepe de Moraes, sócio do SGMP Advogados, afirma que a exclusão de conteúdo pelas big techs não pode ser enquadrada como censura. "O conteúdo é publicado em plataforma privada e, por isso, as empresas têm o direito de tutelar o que está sendo discutido. Buscar uma solução pública para algo que acontece em um ambiente privado não é a solução." 

Para ele, a saída para conter abuso de poder das big techs passa por ações judiciais individuais, caso o cidadão se sinta injustiçado, e a autorregulação do mercado. "Acho curioso que liberais e conservadores queiram censurar um ente privado. É no mínimo anacrônico."

Marco Civil

Especialista em Direito e Tecnologia e mestre em Direito e Desenvolvimento pelo IDP, Carolina Carvalho Lemos lembra que o Marco Civil da Internet traz importantes mecanismos para a garantia da liberdade de expressão, ampliando a autonomia dos usuários na utilização das plataformas. 

"Etiquetar conteúdos digitais em tempos de comunicação em massa pode ser muito nocivo aos usuários. A regulação da comunicação ainda necessita de muitos debates e um aspecto prático a ser enfrentado pelas big techs é que suas plataformas promovam educação digital e informacional, divulgando a quantidade dos posts removidos e o motivo da censura, ampliando a prerrogativa da liberdade de expressão dos usuários", explica ela.

Segundo a advogada, o usuário deve ter o conhecimento inequívoco das razões da remoção do conteúdo e a possibilidade de utilizar ferramentas para se defender e expor suas razões. 

"Para preservação do modelo de negócio das big techs, a plataforma deve garantir que a comunicação digital flua livremente em um ambiente que garanta a transparência, a liberdade de expressão e a proteção de dados pessoais, e, principalmente, colabore com a investigação de quem investe recursos financeiros para a propagação de conteúdos ofensivos."

Por Rafa Santos
Fonte: Conjur

0/Comentários

Agradecemos pelo seu comentário!

Anterior Próxima