YouTube lança nova métrica sobre visualização de conteúdo nocivo


O YouTube lançou nesta terça-feira, 6, a Taxa de Visualização de Conteúdo que Viola Políticas (Violative View Rate, VVR, em inglês), um novo ponto de dados que oferecerá ainda mais transparência sobre a eficiência dos sistemas de remoção de vídeos que violam as diretrizes da empresa. A métrica ajuda a determinar qual porcentagem de visualizações no YouTube são de vídeos que violam as políticas.  

Esses números são monitorados desde 2017 e essa é a principal métrica usada para medir o trabalho de responsabilidade da empresa. Conforme o investimento em pessoas e tecnologias cresce, a taxa de VVR diminui. O valor mais recente está entre 0,16% e 0,18%.  

Isso significa que, a cada 10.000 visualizações no YouTube, 16 a 18 delas são de vídeos que violam nossas políticas. Esse resultado é 70% menor em relação ao mesmo trimestre de 2017. Grande parte disso aconteceu graças aos investimentos em aprendizado de máquina. A VVR será atualizada a cada três meses no Relatório de Cumprimento das Diretrizes de Comunidade do YouTube 

Em 2018, o YouTube divulgou, pela primeira vez, o Relatório de Cumprimento das Diretrizes de Comunidade do YouTube para aumentar a transparência e a responsabilidade da empresa em relação aos esforços para proteger os espectadores. Esse foi o primeiro documento desse tipo e mostrou o perfil de conteúdo removido do YouTube por violar políticas, incluindo o número de vídeos excluídos, o motivo dessa medida, o método usado para identificar a violação e muito mais.  

Ao longo dos anos, foram disponibilizadas novas métricas, como o número de contestações de conteúdo e os vídeos que foram restabelecidos após análise. Desde o lançamento do relatório, foram removidos mais de 83 milhões de vídeos e 7 bilhões de comentários por violarem as diretrizes da comunidade 

Além disso, por incluir uma avaliação da capacidade de identificar conteúdo que viola as políticas, o documento tem mostrado os resultados dos grandes investimentos em tecnologias de aprendizado de máquina feitos em 2017. Por exemplo: atualmente, 94% do conteúdo que viola diretrizes no YouTube é detectado usando a sinalização automática. Com isso, 75% dos vídeos são removidos antes de receberem 10 visualizações.  

A VVR é calculada com base em uma amostra de conteúdo do YouTube. Ela é enviada aos analistas de conteúdo, que apontam quais vídeos violam as políticas. Com isso, é possível identificar quais tipos de conteúdo impróprio os sistemas não estão identificando. No entanto, essa taxa varia. Por exemplo: logo após a atualização de uma política, a VVR aumenta temporariamente. Isso acontece porque o foco dos sistemas é identificar os vídeos que foram classificados como impróprios recentemente.(Com assessoria de imprensa) 

Previous D-Link aposta em soluções Mesh para ampliar sinal de Wi-Fi
Next Para Abrint, minuta do novo RGC é mais benéfica para as grandes operadoras

No Comment

Leave a reply

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *