Plataformas estão deixando parte das equipes em casa, sem trabalhar, e recorrendo à filtragem feita por inteligência artificial. Redes sociais diminuíram equipes de moderação de conteúdo e apostaram em automação, mas reconhecem a possibilidade de erros.
Sergio Perez/Reuters
Google, Facebook e Twitter anunciaram que mais vídeos e publicações podem ser retirados do ar indevidamente nos próximos dias em decorrência de uma redução temporária das equipes responsáveis pela moderação de conteúdo, motivada pela pandemia do coronavírus.
Coronavírus: perguntas e respostas
Os moderadores de conteúdo são responsáveis por analisar postagens, imagens e comentários denunciados pelos usuários, além de materiais identificados como suspeitos pelos sistemas autônomos.
Com menos interferência de humanos e maior agressividade para combater fraudes e informações falsas, o sistema tende a remover mais conteúdos por violações que não aconteceram de fato.
De acordo com a agência "Reuters", nem sempre há tecnologia para que esses colaboradores trabalhem em segurança de suas casas, o que manteve esses funcionários nos escritórios até a semana passada, rendendo críticas para as empresas.
A decisão foi revertida e, nesta segunda-feira (16), Google, Facebook, Twitter, Microsoft e Reddit publicaram uma nota conjunta anunciando medidas para combater a disseminação de conteúdo falso e garantir o cumprimento das regras de cada rede.
Facebook anuncia centro de informações do coronavírus
As remoções indevidas precisam ser contestadas pelos seus autores para que um humano revise a decisão. Mas essas revisões também podem demorar mais por conta da falta de operadores.
O Twitter também vai aumentar o número de decisões realizadas por inteligência artificial, mas explicou que esses processos automatizados não terão capacidade para suspender perfis em caráter permanente.
O objetivo é evitar erros mais graves. "Trabalhamos para garantir a consistência dos nossos sistemas, mas eles às vezes não dispõem do contexto que nossas equipes oferecem, o que pode resultar no cometimento de erros", disse o Twitter.
Moderação de conteúdo privado
Os conteúdos denunciados muitas vezes fazem parte de conversas particulares ou grupos fechados. O moderador deve decidir se o conteúdo viola ou não as regras da plataforma, mas não deve ser capaz de fazer uma cópia da postagem, nem identificar informações consideradas desnecessárias para o processo de moderação — já que isso pode ferir a privacidade de usuários e prejudicar a neutralidade da avaliação.
Isso cria um desafio técnico para a realização desse trabalho em uma situação de "home office". Embora as empresas possam acomodar alguns funcionários, com equipamentos específicos, as ferramentas podem não estar disponíveis para toda a equipe.
O Google e o Facebook anunciaram que não haverá corte nos salários de quem ficou impedido de trabalhar pelas medidas de contenção da pandemia.
Dúvidas sobre segurança, hackers e vírus? Envie para
[email protected]Initial plugin text