Empresas de tecnologia ganham ao
adotar modelos justos e transparentes de solução de disputas e de moderação de
conteúdo
Eduardo Felipe Matias
Anos atrás, Mark Zuckerberg admitiu: “Em
muitos aspectos, o Facebook se assemelha mais a um governo do que a uma companhia
tradicional. Nós temos essa grande comunidade de pessoas e, mais do que outras
empresas de tecnologia, estamos realmente definindo políticas.” A constatação,
com o tempo, foi se tornando ainda mais evidente, à medida que a plataforma ampliava
cada vez mais as regras aplicáveis a seus hoje quase 3 bilhões de usuários.
A rede social da Meta, dona também do
WhatsApp e do Instagram, necessita, diariamente, decidir sobre temas como privacidade
e liberdade de expressão. E
se o Facebook se parece com um Estado-nação, seu fundador não poderia deixar de
reconhecer que, estando muitos de seus súditos inseridos em sociedades
democráticas, uma postura absolutista (“Le Meta c’est moi”) não iria colar,
sendo preciso, por isso, criar mecanismos que confiram legitimidade às suas
decisões.
O que vale para um conglomerado gigantesco
como a Meta se aplica a outras empresas, de todos os tipos e tamanhos, que se
proponham a mediar a relação entre seus clientes. Marketplaces, como a
Amazon, assumem a função de juiz em disputas entre compradores e vendedores.
Aplicativos de transporte, como o Uber, fazem o mesmo entre motoristas e
passageiros. Em cada uma dessas disputas, essas plataformas adotam resoluções
que têm efeitos sobre a vida das pessoas envolvidas e, em casos extremos –
banir um fornecedor de um aplicativo onde este realiza a maior parte de suas
vendas, por exemplo –, podem representar uma sentença de morte para determinado
negócio.
Mas a área onde essa intermediação tem provocado discussões
mais acaloradas é a da moderação de conteúdo – processo pelo qual as plataformas
resolvem o que será mantido em suas páginas e o que será removido. Se antes estas
procuravam se eximir dessa responsabilidade, alegando serem meros veículos por
meio dos quais os usuários se manifestavam livremente, hoje elas contam com
algoritmos sofisticados que promovem, rebaixam ou barram certos posts, e com milhares
de profissionais cuja função é controlar o que nelas é publicado.
O principal motivo dessa mudança de postura, além da pressão
da sociedade para reverter a maré de desinformação resultante de anos de
omissão, é econômico. Uma rede social que se transforme em um ambiente tóxico tende
a afugentar usuários e anunciantes, o que é ruim para os negócios.
Porém, de nada adianta as empresas se esforçarem em moderar
conteúdo se esse processo, em si, for igualmente fonte de controvérsias, gerando
decisões vistas como pouco legítimas – o que não apenas reduz a satisfação de
seus usuários, mas também os torna menos propensos a cooperar para que as
regras estabelecidas sejam respeitadas, diminuindo a efetividade de sua
governança.
Na prática, o que essas empresas podem fazer evitar que isso
aconteça?
Primeiro, as políticas por elas adotadas devem ser públicas,
redigidas de forma clara e acessível e, se possível, construídas de forma
participativa. Os usuários precisam saber quais são os conteúdos proibidos,
para entender as razões por trás da remoção de seus posts ou da suspensão de seus
perfis. O fato de terem opinado sobre as regras a que estão submetidos, por sua
vez, aumenta as chances de que aceitem as decisões das plataformas. E, para
prestar contas sobre suas práticas, muitas dessas empresas divulgam “relatórios
de transparência” periódicos detalhando os números relacionados a essa
atividade, incluindo as ações tomadas a pedido de governos ou tribunais locais.
O sistema por meio do qual essas políticas são aplicadas
precisa ser considerado justo. Para tanto, deve contar com o equivalente a um
devido processo legal, incluindo o contraditório, amparado em procedimentos de
apelação. Estudos comprovam que a fundamentação das decisões e a oportunidade
de os envolvidos manifestarem seus pontos de vista aumentam a crença na
legitimidade de um sistema. Este tem, ainda, que manter certa coerência,
levando em consideração precedentes e criando uma espécie de jurisprudência –
quem sabe, até, que seja tornada pública de forma anonimizada – o que
garantiria certa previsibilidade. Por fim, este não pode ser moroso, pois
justiça que tarda, falha.
A tarefa de suprimir conteúdos ilegais, vale lembrar,
depende em grande parte de algoritmos – e não teria como ser diferente, já que,
sem algum tipo de automação, seria humanamente impossível (literalmente) julgar
o que fazer com os bilhões de posts publicados diariamente nessas plataformas.
Para evitar que esses algoritmos sejam encarados como “caixas pretas”,
reduzindo a confiança no sistema, estes devem ser compreensíveis e auditáveis.
Um último ponto a ser observado pelas empresas é que cada
forma de moderação de conteúdo provoca uma percepção de legitimidade diferente.
Em estudo divulgado no ano passado, Christina Pan e outros pesquisadores da
Universidade Stanford avaliaram a legitimidade que usuários do Facebook nos EUA
atribuíam a quatro modelos muito utilizados: equipes terceirizadas, algoritmos,
júris digitais compostos de usuários e painéis de especialistas, concluindo que
este último mecanismo – similar ao “Oversight Board” criado pelo Facebook – é percebido
como o mais legítimo entre eles.
A percepção de legitimidade pode ser vital para empresas de
tecnologia cujas atividades envolvam a mediação das relações entre seus
consumidores ou usuários. Mais uma vez aqui, a motivação é econômica. O negócio
de muitas plataformas depende de manter o engajamento daqueles que as utilizam
e, ao atenderem as expectativas destes, tomando decisões de forma justa e equilibrada,
elas evitam que essas pessoas migrem para concorrentes com regras mais claras e
transparentes. Entender essa realidade e enxergar a autorregulação não como um
ônus, mas como uma possível vantagem competitiva contribui, portanto, para que
essas empresas não coloquem a sua existência em risco.
Artigo publicado
originalmente na edição de março de 2023 da revista Época Negócios, disponível
aqui: Moderando
em causa própria | Na Fronteir@ | Época NEGÓCIOS (globo.com)
Eduardo
Felipe Matias é autor dos livros A humanidade e
suas fronteiras e A humanidade contra as cordas, ganhadores do Prêmio Jabuti e
coordenador do livro Marco Legal das Startups. Doutor em Direito Internacional
pela USP, foi visiting scholar nas universidades de Columbia, em NY, e Berkeley
e Stanford, na California, e é sócio da área empresarial de Elias, Matias
Advogados e líder do Comitê de Startups da
ABES.
Avenida Paulista, 1842,16º andar • Conjunto 165 01310-200 – São Paulo/SP – Brasil
+55 (11) 3528-0707
Atuação: COMERCIAL, CONTRATOS E INTERNACIONAL, INOVAÇÃO E STARTUPS, SOCIETÁRIO, SUSTENTABILIDADE