quarta-feira, 8 de maio de 2019

Facebook contrata funcionários para olhar posts privados de seus usuário com a intenção de ajudar o treinamento de sua IA

Seria mais um escândalo de privacidade? Um novo relatório da Reuters revelou que funcionários contratados para o Facebook e o Instagram estão olhando os posts privados dos usuários para ajudar as plataformas de mídia social a treinar seus sistemas de IA.

fonte: The Next Web
A Reuters sugere que os funcionários estão anotando os posts com base em cinco “dimensões”: o conteúdo do post (selfie, comida, marcos), a ocasião do post (evento de vida, atividade), elementos expressivos (opinião, sentimentos), intenção do autor ( para planejar um evento, fazer uma piada, inspirar os outros) e o ambiente do post (casa, escola, trabalho, atividades ao ar livre). O conteúdo que está sendo capturado também inclui capturas de tela e postagens com comentários, às vezes até incluindo nomes de usuário e outras informações confidenciais.

Para filtrar essas postagens, o Facebook contratou a empresa de terceirização indiana Wipro para obter ajuda, recrutando até 260 de seus funcionários para anotar as atualizações de status do Facebook e as postagens do Instagram. De acordo com o relatório, a Wipro e a gigante das mídias sociais vêm trabalhando juntas desde 2014.

À medida que as empresas de tecnologia mudam cada vez mais para o aprendizado de máquina e a inteligência artificial para atender proativamente às necessidades de seus clientes, há um incentivo adicional para entender melhor os diferentes tipos de conteúdo enviados para as plataformas.

Os algoritmos da IA não são conhecidos apenas por sua sede de big data, mas também por sua incapacidade de compreender as complexidades da linguagem humana e uma variedade de tarefas de reconhecimento.

Por exemplo, embora seja fácil para nós entendermos que tanto "Nova York" quanto "NYC" se referem ao mesmo local, os algoritmos de IA podem interpretá-los como dois termos separados, a menos que explicitamente sejam instruídos a não fazê-lo. A tarefa só fica mais complexa quando o algoritmo precisa levar em conta diferentes idiomas e uma variedade de conteúdo, como fotos, vídeos e links.

É aí que entra a anotação de dados. A rotulagem de conteúdo fornece informações adicionais sobre a amostra de dados. Isso, por sua vez, melhora a eficácia dos algoritmos de aprendizado de máquina, seja processamento de linguagem natural, tradução automática ou reconhecimento de imagem, objeto e fala.

Ao permitir que revisores humanos identifiquem as informações associadas, anote “NYC” como a cidade “New York City” em oposição a algo sem sentido e aleatório, essa abordagem de aprendizado supervisionado garante que o sistema possa entender melhor suas solicitações e melhorar o serviço para todos.

A prática não é necessariamente nefasta. No mês passado, a Bloomberg escreveu sobre como milhares de funcionários da Amazon ouvem gravações de voz capturadas nos alto-falantes da Echo, transcrevendo-as e anotando-as para melhorar o assistente digital Alexa que aciona os alto-falantes inteligentes.

Mas, com a tecnologia da IA ​​continuando a estabelecer uma posição mais difundida em nossas vidas diárias, a falta de transparência em sua política de privacidade gera preocupações significativas, especialmente considerando que a maioria dos usuários permanece inconsciente da existência de tais algoritmos.

Ainda mais importante, os usuários não têm a opção de recusar esses esforços de rotulagem de dados, levantando questões maiores sobre o consentimento do usuário. Outra questão é que quase não há menção de por que (e por quanto tempo) esses dados podem ser armazenados e se há algum perigo de uso indevido dos funcionários.

O Facebook diz que tem 200 desses projetos de rotulagem de conteúdo globalmente, empregando milhares de pessoas no total. A Reuters também citou um funcionário anônimo que trabalha para a Cognizant Technology Solutions Corp, que disse que "ele e pelo menos 500 colegas buscam tópicos sensíveis ou linguagem profana nos vídeos do Facebook".

Em fevereiro, Casey Newton, do jornal The Verge, publicou um relatório investigativo, detalhando os trabalhadores com contrato de pedágio mental incapacitadores encarregados com a moderação do conteúdo que o Facebook tem que lidar diariamente.

Depois de assistir a centenas de vídeos retratando assuntos emocionalmente desgastantes (às vezes conteúdo violento, às vezes pornografia) na plataforma de mídia social, alguns funcionários da Cognizant supostamente desenvolveram sintomas semelhantes ao Estresse pós-traumático (PTSD) no trabalho.

O Facebook, por sua vez, confirmou os detalhes do relatório, acrescentando que suas equipes legais e de privacidade aprovam todos os esforços de rotulagem de dados. Acrescentou ainda que recentemente introduziu um sistema de auditoria "para garantir que as expectativas de privacidade estão sendo seguidas e os parâmetros estabelecidos estão funcionando como esperado".

Com a rede social já enfrentando uma série de desafios regulatórios em todo o mundo por seus erros de privacidade envolvendo dados do usuário, o momento das revelações não poderia ter sido mais lamentável.

fonte: The Next Web

Artigos recentes

Linkem me:

Related Posts with Thumbnails
Google