Uma abordagem de segmentação de íris para fins biométricos usando aprendizagem profunda
Abstract
Resumo: As características presentes na íris tornam-na uma das mais representativas modalidades biométricas com alto grau de unicidade. Entretanto, diversos fatores presentes na íris podem interferir no desempenho do sistema biométrico, sendo necessário removê-los de forma mais precisa possível, deixando apenas a região da íris. Convolutional Neural Networks (CNNs) empregadas em diversos problemas de segmentação, tais como segmentação de próstata, de esclera e de estradas por exemplo, alcançaram resultados estado-da-arte. Portanto, inspirado nesses bons resultados, o presente trabalho apresenta 5 abordagens que envolvem aprendizagem profunda para segmentar imagens da íris de 7 diferentes datasets de ambos os domínios Near Infra-red (NIR) e Visible (VIS) e cenários controlados e não controlados. Duas dessas abordagens (VggFCN-fc7 e VggFCN-pool5) são inspiradas no modelo Visual Geometry Group (VGG)16 e as outras três (ResNet-50, ResNet-101 e ResNet-152) baseiam-se na Residual Network (ResNet), conforme uma arquitetura codificador-decodificador. Todas as 5 abordagens são combinadas com a arquitetura Fully Convolutional Network (FCN) no decodificador, e utilizam a técnica de transferência de aprendizagem, com pesos pré-treinados a partir do dataset ImageNet Large-Scale Visual Recognition Challenge (ILSVRC). As abordagens propostas apresentaram os melhores resultados em comparação com 4 baselines utilizados. VggFCN-fc7 e VggFCN-pool5 obtiveram respectivamente 01,05% e 00,96% de erro E de segmentação no dataset NICE.I. Nas ResNet-50, ResNet-101 e ResNet-152 o E foi respectivamente de 01,13%, 00,98% e 00,97% também no dataset NICE.I. Além disso, após uma análise estatística, por meio dos testes de Friedman e Nemenyi, constatou-se que a abordagem ResNet-101 foi melhor nos datasets NIR, enquanto a VggFCN-pool5 foi melhor nos VIS. Ao mesclar os datasets NIR e VIS três abordagens (VggFCN-fc7, ResNet-50 e VggFCN-pool5) ficaram empatadas. Palavras-chave: Aprendizagem Profunda. Segmentação de íris. Modalidade biométrica. Transferência de aprendizagem. Abstract: The characteristics present in the iris make it one of the most representative biometric modalities with a high degree of uniqueness. However, several factors present in the iris can interfere with the performance of the biometric system, and it is necessary to remove them as accurately as possible, leaving only the region of the iris. Convolutional Neural Networks (CNNs) employed in various segmentation problems, such as prostate, sclera and road segmentation, for example, have achieved state-of-the-art results. So, inspired by these good results, the present paper presents 5 approaches that involve deep learning to segment different 7 iris images datasets of both Near Infra-red (NIR) and Visible (VIS) domains and controlled and uncontrolled scenarios. Two of these approaches (VggFCN-fc7 and VggFCN-pool5) are inspired by the Visual Geometry Group (VGG)16 model and the other three (ResNet-50, ResNet-101 and ResNet-152) are based on Residual Network (ResNet), according to an encoder-decoder architecture. All 5 approaches are combined with the Fully Convolutional Network (FCN) architecture in the decoder, and use the transfer learning technique, with pre-trained weights from dataset ImageNet Large-Scale Visual Recognition Challenge (ILSVRC). The proposed approaches presented the best results compared to 4 baselines used. VggFCN-fc7 and VggFCN-pool5 obtained respectively 01.05% and 00.96% of segmentation error E in NICE.I dataset. In ResNet-50, ResNet-101 and ResNet-152 the E were respectively 01.13%, 00.98% and 00.97% also in NICE.I. In addition, after a statistical analysis, through the tests of Friedman and Nemenyi, it was found that the ResNet-101 approach was better in datasets NIR, while VggFCN-pool5 was better in VIS . By merging datasets NIR and VIS three approaches (VggFCN-fc7, ResNet-50, and VggFCN-pool5) are tied. Keywords: Deep Learning. Iris segmentation. Biometric modality. Transfer learning.
Collections
- Dissertações [355]