O Facebook está usando uma nova tecnologia de aprendizagem de máquina para detectar exploração e nudez infantil no serviço. O anúncio foi feito hoje pela chefe de segurança global, Antigone Davis. Somente no último trimestre, Davis diz que as novas ferramentas ajudaram a empresa a deletar “8,7 milhões de peças de conteúdo” que “violavam nossas políticas no que diz respeito à nudez ou exploração sexual infantil”.
A rede social se apoia tanto em inteligência artificial quanto em humanos para eliminar seus conteúdos mais sujos. O Facebook já implantou outras ferramentas do tipo para sinalizar peças inadequadas, que violam as políticas da rede, incluindo tecnologias de correspondências de fotos.
Além disso, a empresa disse que suas ferramentas estão sendo usadas “para proativamente detectar conteúdo de nudez infantil e exploração infantil previamente desconhecidos”, escreve Davis em um post no blog oficial. Ela acrescenta que essas e outras tecnologias serão usadas para encontrar “mais rapidamente” esse tipo de conteúdo e reportá-lo ao Centro Nacional para Crianças Desaparecidas e Exploradas dos EUA (NCMEC).
As novas ferramentas também serão usadas para encontrar “contas que se envolvam em interações potencialmente inapropriadas com crianças” na plataforma. Entramos em contato com o Facebook para obter informações sobre o que constitui uma interação potencialmente inapropriada, mas ainda não recebemos uma resposta. À Reuters, Davis afirma que este sistema examinará fatores como a frequência com que alguém é bloqueado e se essa pessoa tenta entrar em contato com muitas crianças.
Davis também disse à agência de notícias que a “máquina nos ajuda a priorizar” e “filtrar de maneira mais eficiente” o conteúdo que pode violar as políticas do Facebook para seus revisores. Ela também informa que essa mesma tecnologia pode ser usada para moderar o Instagram. Um relatório divulgado mês passado revelou que o serviço de vídeo IGTV recomendou vídeos de exploração infantil.
Entramos em contato com o Facebook para perguntar se suas novas ferramentas afetarão as obrigações de seus moderadores. Numerosos relatos têm surgido detalhando o custo psicológico imposto por este trabalho infernal de filtrar conteúdo violento. De fato, um ex-moderador do Facebook recentemente processou a empresa por causa de um “transtorno de estresse pós-traumático debilitante”, alegando que o trabalho lhe causou um trauma psicológico grave e que a empresa não tinha recursos para contratação de serviços de saúde mental necessários para lidar com isso.
Os próprios programas de detecção de aprendizagem de máquina do Facebook provaram ser tendenciosos e falhos no passado. Isso ficou mais notório quando o Facebook baniu (e restabeleceu logo em seguida) a fotografia vencedora do Pulitzer de crianças vietnamitas fugindo de um ataque de napalm no sul do Vietnã — a foto mostra uma jovem nua severamente queimada.
“Preferimos errar pelo excesso de cautela”, disse Davis à Reuters, observando que a tecnologia para denunciar conteúdo de exploração de crianças pode atrapalhar, mas que as pessoas podem pedir para revisar essas falhas. O Facebook supostamente disse que este novo programa fará exceções para arte e história, o que incluiria casos como o da foto ganhadora do Pulitzer.
Fonte: GizMODO