O NIST (Instituto Nacional de Padrões e Tecnologia) lançou um estudo para saber os efeitos que o uso de máscaras faciais terá no software de detecção facial. Para isso, aplicaram digitalmente diferentes formas e algumas fotos de pessoas, para testar o desempenho dos algoritmos atuais desenvolvidos antes da pandemia de COVID-19.

Mesmo o melhor dos 89 algoritmos comerciais de reconhecimento facial testados, apresentou taxas de erro entre 5% e 50% ao combinar máscaras faciais aplicadas digitalmente com fotos da mesma pessoa sem máscara,  mostra o estudo.

O pesquisador sênior de Inteligência Artificial (IA) da Avast, Javier Aldana Luit, afirma que é possível treinar os sistemas a  reconhecer rostos que usam máscaras entre outros rostos que não estão, mesmo que os elementos ou características físicas presentes na boca, queixo, bochechas (áreas frequentemente cobertas pela máscara facial), contribuam fortemente para uma decisão no processo de desempenho de classificação da Inteligência Artificial. “Esse desempenho (precisão) do reconhecimento pode não ser tão elevado quanto os resultados obtidos pelo treinamento do sistema com imagens de rosto inteiro, mas é algo que deve ser testado”, afirma.

PUBLICIDADE  

Segundo Luit, o sistema, independentemente da arquitetura escolhida, requer um grande conjunto de dados de imagem registrado, ou seja, cada imagem é rotulada como máscara/ sem máscara. Em seguida, o classificador pode ser treinado de forma supervisionada. Uma tarefa mais complexa para o reconhecimento de uma pessoa usando máscara, exigiria um conjunto de dados mais extenso e com múltiplas imagens da mesma pessoa, e usando diversas máscaras para ensinar o sistema a prestar atenção às características visuais mais frequentes do rosto.

Além disso, ressalta o pesquisador, abordagens padrões para o reconhecimento de rosto podem ser ajustadas para os recursos ignorar/descartar elementos que estão na área coberta do rosto (pela máscara). O último pode ser qualificado como restrições geométricas embutidas no processo de treinamento.

Com referência ao uso de óculos como dificultador do reconhecimento, Luit afirma que depende do poder de generalização do classificador, ou seja, quão boa é a classificação dos dados não visualizados durante o treinamento. Como na maioria das abordagens de classificação o desempenho é melhor com um conjunto de dados maior e mais diversificado utilizado para treinar modelos, então, se dentro dos dados que o modelo foi treinado existirem imagens da mesma pessoa com e sem, dessa forma, a classificação não é prejudicada.

Por outro lado, observa, hoje em dia existem várias técnicas para aumentar a generalização dos modelos de deep learning, que procuram compensar a falta de dados do treinamento. Essas técnicas são aplicadas para aprender representações numéricas abstratas dos rostos, de uma forma mais robusta e invariável às mudanças de aparência causadas pelo uso de óculos e artefatos que eles causam na imagem.

O pesquisador da Avast disse ainda que em estudos recentes, os pesquisadores mostraram que os óculos com padrões visuais (como desenhos) causam erros de classificação (reconhecimento incorreto), pelo modelo pré-treinado. “Inspiradas nisso, novas arquiteturas de redes neurais profundas foram propostas com o objetivo de aprender como gerar casos difíceis para classificação e como corrigir a classificação na presença de tais artefatos”, completou.(Com assessoria de imprensa)