O Facebook inadvertidamente expôs os nomes de alguns moderadores suspeitos de terroristas e outros grupos cujo conteúdo os trabalhadores foram encarregados de revisar, uma falha que a empresa disse sexta-feira que foi corrigida.Cerca de mil dos moderadores do Facebook foram afetados pela falha, que revelou seus nomes em um registro de atividade, disse um porta-voz. Clicando em um nome, porém, levaria o espectador à versão pública da página de perfil do moderador no Facebook. Na grande maioria dos casos, ele disse, os nomes dos moderadores não foram vistos pelos administradores desses grupos.
Pesquisadores do Facebook acreditam que terroristas suspeitos podem ter visto os perfis de menos de seis trabalhadores, disse o porta-voz. De acordo com os investigadores, nenhum dos casos envolveu membros suspeitos do grupo terrorista ISIS, disse o porta-voz.
"Assim que aprendemos sobre esse problema, nós o solucionamos e iniciamos uma investigação minuciosa para aprender o máximo possível sobre o que aconteceu", disse o porta-voz do Facebook.
O fumble vem quando o Facebook está sob escrutínio para fazer mais para policiar conteúdo impróprio . A empresa tem se inclinado mais na inteligência artificial nos últimos meses para bloquear potenciais postagens terroristas e contas em sua plataforma sem exigir críticas de moderadores humanos.
Uma ferramenta combina com o Facebook as imagens terroristas conhecidas, como a decapitação de vídeos, para impedir que sejam repositadas. Outro conjunto de algoritmos tenta identificar e impedir que os propagandistas criem novas contas depois de terem sido expulsos da rede social.
As tentativas anteriores de Facebook de substituir humanos com algoritmos nem sempre foram bem-sucedidas. Em agosto, a empresa colocou um algoritmo responsável pelo seu recurso de "tendência", mas dentro de alguns dias as listas apresentavam histórias falsas e fofocas de celebridades em lugar de notícias sérias.
Atualmente, os moderadores fazem grande parte do trabalho no Facebook eliminando o conteúdo considerado como uma violação dos termos de serviço do Facebook, como discurso de ódio e exploração infantil. Em maio, o executivo-chefe do Facebook, Mark Zuckerberg, disse que a empresa contrataria mais 3.000 funcionários para analisar o conteúdo na tentativa de impedir vídeos violentos ou sensíveis .
Normalmente, essas ações não aparecem na linha do tempo ou logs do Facebook. Mas devido a um bug introduzido no outono passado, quando um moderador revogou os privilégios de um administrador de grupo, uma nota dessa ação foi criada no registro de atividades para o grupo.
Escreva para Georgia Wells em Georgia.Wells@wsj.com
https://www.wsj.com/articles/facebook-bug-exposed-names-of-some-content-moderators-1497654598?mod=e2tw
Fonte: Twitter