Adicionar legenda |
Em uma gravação de áudio vazada de duas horas obtida pelo The Verge, Mark Zuckerberg revela quais são os futuros planos da empresa para proteger seus 30.000 moderadores de conteúdo e como ela planeja usar a tecnologia para reduzir a questão do conteúdo prejudicial on-line.
Quando Zuckerberg foi questionado sobre as histórias do The Verge sobre a moderação de conteúdo e o quanto la é prejudicial para a saúde mental de seus funcionários, o CEO do Facebook os considerou "um pouco exagerados". Zuckerberg afirmou que depois de "investigar os relatórios e entender o que está acontecendo não é que a maioria das pessoas esteja apenas olhando coisas terríveis o dia inteiro.”
Como você pode esperar de uma plataforma com quase 2,1 bilhões de usuários diários ativos, há milhões de postagens enviadas à rede social a cada hora, inclusive algumas de natureza violenta e perturbadora. Por fim, esses são os tipos de postagens que o Facebook está trabalhando para impedir de exibir em seu feed, mas, para que isso aconteça, alguém precisa visualizá-lo.
Em 2014, um relatório de Adrian Chen, da Wired, descobriu que os funcionários que trabalhavam em nome de empresas norte-americanas como o Facebook eram instruídos a examinar centenas de postagens por dia e a ficar de olho no conteúdo que mostrava “pornografia, gore, menores, solicitação sexual, partes / imagens sexuais e racismo ”, para que pudesse ser rapidamente eliminada.
Devido à natureza deste trabalho, não é surpresa que alguns funcionários desenvolvessem transtorno de estresse pós-traumático e alguns comecem a acreditar nas teorias da conspiração que ouvem, e tudo isso sendo pago um pouco acima do salário mínimo.
Zuckerberg admite que "há coisas muito ruins com as quais as pessoas precisam lidar" e, em sua resposta, ele forneceu algumas etapas concretas sobre como o Facebook protege seus moderadores de conteúdo. A gigante da tecnologia garante que seus funcionários recebem o suporte certo e tenham fácil acesso a recursos e aconselhamento em saúde mental. "É algo em que trabalhamos há anos e estamos sempre tentando sondar e entender como podemos fazer um trabalho melhor para apoiar isso", acrescentou Zuckerberg.
Durante o clipe de áudio, ouvimos Mike Schroepfer, CTO do Facebook, falar sobre como a moderação de conteúdo é "uma área de foco essencial para as equipes de produtos e engenharia que estão construindo todas as ferramentas e tecnologias".
Algumas das tecnologias incluem o aprimoramento da ferramenta de detecção quase duplicada, que detecta automaticamente conteúdo ofensivo sem precisar visualizá-lo. Além disso, aprimorando ferramentas que desfocam automaticamente partes de uma imagem, transformam fotos em preto e branco e desfocam rostos nas imagens.
Embora o Facebook esteja desenvolvendo ferramentas para combater conteúdo problemático encontrado no site, Zuckerberg admite que a empresa "não vai eliminá-lo completamente".
Sua prioridade é garantir que os moderadores de conteúdo tenham o suporte necessário, especialmente aqueles que estão tendo as piores experiências. No entanto, Zuckerberg explicou como a questão geral do conteúdo on-line prejudicial é uma coisa contínua, também é outra questão que nunca pode ser completamente eliminada pela tecnologia.
fonte: The Next Web