fonte: The Next Web, créditos: Facebook |
De acordo com Monika Bickert, vice-presidente de gerenciamento de políticas globais do Facebook, as regras não mudaram. A empresa está apenas revelando como lida com violações:
"… pela primeira vez, estamos publicando as diretrizes internas de implementação que os nossos revisores de conteúdo usam para tomar decisões sobre o que é permitido no Facebook."
Por que é importante: o Facebook está sendo criticado pela falta de transparência em uma enxurrada de escândalos de privacidade de dados, que chegaram até as audiências do Senado. Uma crítica à empresa há anos tem sido a falta de abertura em relação ao conteúdo permitido em sua plataforma. Histórias de tratamento inconsistente e remoção injusta de conteúdo são tão antigas quanto o próprio Facebook. Agora os usuários têm regras escritas que podem apontar ao questionar uma decisão.
Mas espere. Há mais: além de tornar as diretrizes públicas, o Facebook também está abrindo um processo de apelação para usuários que acham que o material foi removido por engano. Se a empresa quiser tornar os recursos mais construtivos, ela precisa oferecer aos usuários a opção de apelar quando a empresa não remove o conteúdo. Com frequência, os usuários podem ficar frustrados quando o conteúdo que consideram ofensivo ou prejudicial não é removido do site.
A empresa está também realizando fóruns em maio na "Alemanha, França, Reino Unido, Índia, Cingapura, Estados Unidos e outros países" para receber os comentários diretamente dos usuários.
fonte: The Next Web