Plataformas estão deixando parte das equipes em casa, sem trabalhar, e recorrendo à filtragem feita por inteligência artificial. Redes sociais diminuíram equipes de moderação de conteúdo e apostaram em automação, mas reconhecem a possibilidade de erros.Sergio Perez/ReutersGoogle, Facebook e Twitter anunciaram que mais vídeos e publicações podem ser retirados do ar indevidamente nos próximos dias em decorrência de uma redução temporária das equipes responsáveis pela moderação de conteúdo, motivada pela pandemia do coronavírus.Coronavírus: perguntas e respostasOs moderadores de conteúdo são responsáveis por analisar postagens, imagens e comentários denunciados pelos usuários, além de materiais identificados como suspeitos pelos sistemas autônomos. Com menos interferência de humanos e maior agressividade para combater fraudes e informações falsas, o sistema tende a remover mais conteúdos por violações que não aconteceram de fato.De acordo com a agência "Reuters", nem sempre há tecnologia para que esses colaboradores trabalhem em segurança de suas casas, o que manteve esses funcionários nos escritórios até a semana passada, rendendo críticas para as empresas.A decisão foi revertida e, nesta segunda-feira (16), Google, Facebook, Twitter, Microsoft e Reddit publicaram uma nota conjunta anunciando medidas para combater a disseminação de conteúdo falso e garantir o cumprimento das regras de cada rede.Facebook anuncia centro de informações do coronavírusAs remoções indevidas precisam ser contestadas pelos seus autores para que um humano revise a decisão. Mas essas revisões também podem demorar mais por conta da falta de operadores.O Twitter também vai aumentar o número de decisões realizadas por inteligência artificial, mas explicou que esses processos automatizados não terão capacidade para suspender perfis em caráter permanente. O objetivo é evitar erros mais graves. "Trabalhamos para garantir a consistência dos nossos sistemas, mas eles às vezes não dispõem do contexto que nossas equipes oferecem, o que pode resultar no cometimento de erros", disse o Twitter.Moderação de conteúdo privadoOs conteúdos denunciados muitas vezes fazem parte de conversas particulares ou grupos fechados. O moderador deve decidir se o conteúdo viola ou não as regras da plataforma, mas não deve ser capaz de fazer uma cópia da postagem, nem identificar informações consideradas desnecessárias para o processo de moderação — já que isso pode ferir a privacidade de usuários e prejudicar a neutralidade da avaliação.Isso cria um desafio técnico para a realização desse trabalho em uma situação de "home office". Embora as empresas possam acomodar alguns funcionários, com equipamentos específicos, as ferramentas podem não estar disponíveis para toda a equipe.O Google e o Facebook anunciaram que não haverá corte nos salários de quem ficou impedido de trabalhar pelas medidas de contenção da pandemia.Dúvidas sobre segurança, hackers e vírus? Envie para g1seguranca@globomail.comInitial plugin text
G1