Relatório aponta limitações em julgamento no STF sobre redes e elenca desafios para regulação

54200642765 b84cf9a934 c

RENATA GALF
SÃO PAULO, SP (FOLHAPRESS)


Relatório organizado a partir de debate entre 28 especialistas de diferentes setores elenca alguns dos principais desafios na regulação de redes sociais no cenário brasileiro e, ao mesmo tempo, aponta limitações de escopo e implementação de uma eventual decisão do STF (Supremo Tribunal Federal) sobre o tema.

Parte de um projeto de pesquisa realizado em parceria pela Universidade de Sussex (Reino Unido) e o Insper, o documento, obtido com exclusividade pela Folha, traz uma visão geral de conversa travada por representantes do poder público, da academia, da iniciativa privada e da sociedade civil, em encontro presencial realizado em novembro passado.

Realizada logo após o fim das eleições municipais e antes do início do julgamento sobre o Marco Civil da Internet no STF, a discussão foi organizada seguindo a regra Chatham House, segundo a qual a identidade e cargo dos participantes não pode ser revelada —o intuito é criar um ambiente de discussão mais livre entre os participantes.

Um dos principais aspectos explorados foi sobre a conveniência ou não da adoção do conceito de “dever de cuidado” na regulação de plataformas no país.

Por trás desse conceito, está a tentativa de criar obrigações para que as redes sociais atuem de modo mais proativo no combate a conteúdos nocivos em seus serviços. Numa abordagem que visa uma atuação “no atacado”, de modo complementar à perspectiva de “varejo” das ações judiciais por conteúdos individualmente.

Nos últimos, o conceito de “dever de cuidado” já apareceu no PL das Fake News na Câmara dos Deputados, em resolução do TSE (Tribunal Superior Eleitoral) sobre propaganda eleitoral e foi citado em um dos votos do julgamento do Supremo.

Segundo o relatório, diversos participantes argumentaram no sentido de que a discussão sobre remoção individual de conteúdos, como está no Marco Civil da Internet, é insuficiente para lidar com os riscos advindos das redes sociais. E que, com isso, é preciso que elas adotem medidas preventivas e mais “estruturantes”.

Para Beatriz Kira, professora de direito na Universidade de Sussex e uma das autoras do relatório, um ponto em comum no debate foi o de que o julgamento no STF não resolveria o problema.

“Tanto pela natureza da decisão –sobre a constitucionalidade de um artigo– como em termos do arcabouço institucional que é necessário para a implementação de um dever de cuidado robusto.”

Alguns dos debatedores, aponta o documento, se disseram preocupados com um cenário de insegurança jurídica, no caso de não haver clareza a respeito do que constitui de fato o dever de cuidado e quais medidas as empresas devem adotar.

Entre os pontos debatidos na conversa e que sinalizam para limitações do STF, caso busque adotar obrigações deste tipo, está ainda o desafio do debate sobre qual órgão seria responsável por monitorar o cumprimento das determinações.

“Não importa quais sejam as regras, qual seja o desenho, se quem for fiscalizar isso for um órgão ruim que não tem expertise”, diz Ivar Hartmann, professor de direito do Insper e também autor do estudo, acrescentando que a opção pelo dever de cuidado não foi um consenso no debate.

“É uma questão de decisão sobre desenho institucional. O Supremo nessa decisão não pode definir quem vai fiscalizar obrigações proativas de filtragem, por exemplo, ou propor uma estrutura para auditoria de algoritmos de moderação de conteúdo.”

Assim como aconteceu no debate travado no Congresso em 2023, também na conversa mediada o escopo e formato desse órgão foi alvo de grandes divergências, mas com destaque para a necessidade de conhecimento técnico especializado e com real capacidade fiscalizatória.

Houve também quem questionasse a viabilidade política de criar um órgão regulador no Brasil e quem defendesse o fortalecimento do Ministério Público, por exemplo.

Um dos que já votaram no julgamento do STF, o ministro e presidente da corte, Luís Roberto Barroso, defendeu que, diante da ausência de um órgão regulador para fazer o monitoramento das medidas, relatórios divulgados pelas redes ficariam públicos e poderiam ser usados pelo Ministério Público para embasar eventuais ações de danos morais coletivos.

Diante desses fatores, os pesquisadores que acompanharam e resumiram a discussão ressaltam a importância do debate sobre o tema no Legislativo.

Entre as preocupações citadas estão a de que uma formulação genérica demais pudesse gerar moderação em excesso pelas redes –afetando a liberdade de expressão. Também foi citada a necessidade de criar eventuais “deveres de cuidado” de acordo com o tipo de plataforma, seu tamanho e os riscos específicos gerados por elas.

Segundo o relatório, participantes de diferentes setores apontaram para adoção no contexto brasileiro de um “dever de cuidado” para as plataformas junto à obrigação de “mitigação de riscos sistêmicos”, o que seria uma mistura da lei adotada em 2023 no Reino Unido sobre segurança digital (Online Safety Act) e a proposta da regulação europeia (DSA ou Lei dos Serviços Digitais).

Por outro lado, houve também aqueles que defenderam que, a partir da interpretação de legislações como o Código Civil e de Defesa do Consumidor, assim como do Estatuto da Criança e do Adolescente e as resoluções eleitorais, já há novos deveres a que as plataformas estão submetidas.

O documento afirma que, por ser fruto da troca entre atores com papéis de liderança, acaba sendo um retrato do debate brasileiro sobre regulação de plataformas. O projeto é financiado pela British Academy, com o apoio do International Science Partnerships Fund do governo britânico.

Adicionar aos favoritos o Link permanente.