Portal de Notícias Administrável desenvolvido por Hotfix

Tecnologia

Erros na moderação de conteúdo em redes sociais podem aumentar por causa do coronavírus

Plataformas estão deixando parte das equipes em casa, sem trabalhar, e recorrendo à filtragem feita por inteligência artificial. Redes sociais diminuíram [...]



Plataformas estão deixando parte das equipes em casa, sem trabalhar, e recorrendo à filtragem feita por inteligência artificial. Redes sociais diminuíram equipes de moderação de conteúdo e apostaram em automação, mas reconhecem a possibilidade de erros.

Sergio Perez/Reuters

Google, Facebook e Twitter anunciaram que mais vídeos e publicações podem ser retirados do ar indevidamente nos próximos dias em decorrência de uma redução temporária das equipes responsáveis pela moderação de conteúdo, motivada pela pandemia do coronavírus.

Coronavírus: perguntas e respostas

Os moderadores de conteúdo são responsáveis por analisar postagens, imagens e comentários denunciados pelos usuários, além de materiais identificados como suspeitos pelos sistemas autônomos.

Com menos interferência de humanos e maior agressividade para combater fraudes e informações falsas, o sistema tende a remover mais conteúdos por violações que não aconteceram de fato.

De acordo com a agência "Reuters", nem sempre há tecnologia para que esses colaboradores trabalhem em segurança de suas casas, o que manteve esses funcionários nos escritórios até a semana passada, rendendo críticas para as empresas.

A decisão foi revertida e, nesta segunda-feira (16), Google, Facebook, Twitter, Microsoft e Reddit publicaram uma nota conjunta anunciando medidas para combater a disseminação de conteúdo falso e garantir o cumprimento das regras de cada rede.

Facebook anuncia centro de informações do coronavírus

As remoções indevidas precisam ser contestadas pelos seus autores para que um humano revise a decisão. Mas essas revisões também podem demorar mais por conta da falta de operadores.

O Twitter também vai aumentar o número de decisões realizadas por inteligência artificial, mas explicou que esses processos automatizados não terão capacidade para suspender perfis em caráter permanente.

O objetivo é evitar erros mais graves. "Trabalhamos para garantir a consistência dos nossos sistemas, mas eles às vezes não dispõem do contexto que nossas equipes oferecem, o que pode resultar no cometimento de erros", disse o Twitter.

Moderação de conteúdo privado

Os conteúdos denunciados muitas vezes fazem parte de conversas particulares ou grupos fechados. O moderador deve decidir se o conteúdo viola ou não as regras da plataforma, mas não deve ser capaz de fazer uma cópia da postagem, nem identificar informações consideradas desnecessárias para o processo de moderação — já que isso pode ferir a privacidade de usuários e prejudicar a neutralidade da avaliação.

Isso cria um desafio técnico para a realização desse trabalho em uma situação de "home office". Embora as empresas possam acomodar alguns funcionários, com equipamentos específicos, as ferramentas podem não estar disponíveis para toda a equipe.

O Google e o Facebook anunciaram que não haverá corte nos salários de quem ficou impedido de trabalhar pelas medidas de contenção da pandemia.

Dúvidas sobre segurança, hackers e vírus? Envie para g1seguranca@globomail.com

Initial plugin text

G1

G1

Assine o Portal!

Receba as principais notícias em primeira mão assim que elas forem postadas!

Assinar Grátis!

Assine o Portal!

Receba as principais notícias em primeira mão assim que elas forem postadas!

Assinar Grátis!