Ela lembra que o poder de excluir contas e conteúdos é concedido às plataformas pelos próprios usuários, ao concordarem com os termos de uso de serviços como Facebook, YouTube, Instagram e Twitter. Trata-se de um contrato firmado entre uma empresa privada e uma pessoa física, mas sem a possibilidade de discussão entre as partes. Assim, nenhum usuário pode discutir ou negociar os itens de um termo de uso. 2w412

Ao se analisar os termos de uso do YouTube, por exemplo, é possível observar que a plataforma se coloca como isenta diante dos conteúdos publicados. “O Conteúdo é de responsabilidade da pessoa ou da entidade que envia o material ao Serviço. O YouTube não tem nenhuma obrigação quanto à hospedagem ou veiculação de Conteúdo”, diz o documento. Ainda assim, mais adiante, a empresa nega essa posição neutra ao atribuir a si mesma o poder de julgar e escolher os conteúdos. “Se acreditarmos que qualquer Conteúdo viole este Contrato ou pode causar danos ao YouTube, nossos usuários ou terceiros, podemos remover ou excluir o Conteúdo a nosso próprio critério”, especifica outro trecho dos termos de uso.

Quem cria os critérios das Big Techs 1y345

Um dos pontos alegados para justificar a autonomia das redes sociais na remoção de conteúdos é a suposta luta contra a disseminação de fake news. No caso da pandemia de Covid-19, por exemplo, houve uma enxurrada de exclusões de vídeos no YouTube que traziam conteúdos com viés mais crítico em relação a medidas sanitárias, eficiência de vacinas e tratamentos, entre outros temas.

Em agosto deste ano, um dos executivos do YouTube, Neil Mohan, divulgou um relatório onde destaca que - de fevereiro de 2020 a agosto de 2021 - cerca de 1 milhão de vídeos sobre a Covid-19 foram removidos da plataforma. “Nós refletimos o mundo ao nosso redor, mas sabemos que também podemos ajudar a moldá-lo. E é por isso que tornamos a interrupção da disseminação de informações incorretas um de nossos compromissos mais profundos”, disse o executivo. Mas não basta remover “o mais rápido possível” os conteúdos que foram julgados inadequados pela plataforma, é preciso “aumentar o alcance dos bons conteúdos”, ressalta o relatório.

Isso significa que o YouTube e outras redes sociais - por meio de ferramentas automatizadas - promovem determinados conteúdos em detrimento de outros para oferecer, nas palavras de Neil Mohan, “resultados otimizados para a qualidade, não para o quão sensacional o conteúdo pode ser”. E quem determina quais são esses bons conteúdos?

Falso consenso 2a3u3l

Em relação à Covid-19, explica o relatório, o que vale é o “consenso de especialistas de organizações de saúde como o CDC [Centros de Controle e Prevenção de Doenças dos EUA] e a OMS [Organização Mundial de Saúde] para rastrear a ciência à medida que ela se desenvolve”. Ou seja, conteúdos de que algum modo contrariem ou simplesmente questionem as premissas da OMS são, no mínimo, tachados de “maus”, e estão sujeitos também à exclusão ou suspensão. Em síntese, isso implica em cercear a divulgação de qualquer informação diferente das da OMS, restringindo o o das pessoas a outros pontos de vista, pesquisas e discussões sobre a Covid-19.

Até mesmo o executivo do YouTube reconhece que as remoções podem ter um papel negativo sobre a liberdade de expressão. “As remoções são um instrumento contundente e, se usadas amplamente, podem enviar uma mensagem de que ideias controversas são inaceitáveis (...) Eu, pessoalmente, acredito que estamos melhor como sociedade quando podemos ter um debate aberto”, defendeu.

VEJA TAMBÉM: