magazine luiza 1 728 x 90
LIFT DETOX
CICATRIBEM

Erros na moderação de conteúdo em redes sociais podem aumentar por causa do coronavírus

Plataformas estão deixando parte das equipes em casa, sem trabalhar, e recorrendo à filtragem feita por inteligência artificial. Redes sociais diminuíram [...]

Por Mauricio Santos em 18/03/2020 às 23:54:28

Plataformas estão deixando parte das equipes em casa, sem trabalhar, e recorrendo à filtragem feita por inteligência artificial. Redes sociais diminuíram equipes de moderação de conteúdo e apostaram em automação, mas reconhecem a possibilidade de erros.

Sergio Perez/Reuters

Google, Facebook e Twitter anunciaram que mais vídeos e publicações podem ser retirados do ar indevidamente nos próximos dias em decorrência de uma redução temporária das equipes responsáveis pela moderação de conteúdo, motivada pela pandemia do coronavírus.

Coronavírus: perguntas e respostas

Os moderadores de conteúdo são responsáveis por analisar postagens, imagens e comentários denunciados pelos usuários, além de materiais identificados como suspeitos pelos sistemas autônomos.

Com menos interferência de humanos e maior agressividade para combater fraudes e informações falsas, o sistema tende a remover mais conteúdos por violações que não aconteceram de fato.

De acordo com a agência "Reuters", nem sempre há tecnologia para que esses colaboradores trabalhem em segurança de suas casas, o que manteve esses funcionários nos escritórios até a semana passada, rendendo críticas para as empresas.

A decisão foi revertida e, nesta segunda-feira (16), Google, Facebook, Twitter, Microsoft e Reddit publicaram uma nota conjunta anunciando medidas para combater a disseminação de conteúdo falso e garantir o cumprimento das regras de cada rede.

Facebook anuncia centro de informações do coronavírus

As remoções indevidas precisam ser contestadas pelos seus autores para que um humano revise a decisão. Mas essas revisões também podem demorar mais por conta da falta de operadores.

O Twitter também vai aumentar o número de decisões realizadas por inteligência artificial, mas explicou que esses processos automatizados não terão capacidade para suspender perfis em caráter permanente.

O objetivo é evitar erros mais graves. "Trabalhamos para garantir a consistência dos nossos sistemas, mas eles às vezes não dispõem do contexto que nossas equipes oferecem, o que pode resultar no cometimento de erros", disse o Twitter.

Moderação de conteúdo privado

Os conteúdos denunciados muitas vezes fazem parte de conversas particulares ou grupos fechados. O moderador deve decidir se o conteúdo viola ou não as regras da plataforma, mas não deve ser capaz de fazer uma cópia da postagem, nem identificar informações consideradas desnecessárias para o processo de moderação — já que isso pode ferir a privacidade de usuários e prejudicar a neutralidade da avaliação.

Isso cria um desafio técnico para a realização desse trabalho em uma situação de "home office". Embora as empresas possam acomodar alguns funcionários, com equipamentos específicos, as ferramentas podem não estar disponíveis para toda a equipe.

O Google e o Facebook anunciaram que não haverá corte nos salários de quem ficou impedido de trabalhar pelas medidas de contenção da pandemia.

Dúvidas sobre segurança, hackers e vírus? Envie para [email protected]

Initial plugin text

Fonte: G1

Tags:   G1
Comunicar erro
LIFT DETOX 2 798 x90

Comentários

anuncie aqui