I. F. Assystem, Nuc-track : Une solution intelligente, efficace et innovante pour le suivi et la traçabilité de sources radioactives, 2014.

, Le transport de matières radioactives, 2007.

. Asn, Le transport de substances radioactives -fiche d'information du public n°8, 2014.

. Asn, Rapport de l'asn sur l'état de la sûreté nucléaire et de la radioprotection en france en 2017 -chapitre 11, 2017.

. Irsn, Sûreté des transports de substances radioactives à usage civil sur le territoire français -rapport de mission, 2016.

I. F. Assystem, Nuc-track presentation, 2014.

D. Weinland, R. Ronfard, and E. Boyer, A survey of vision-based methods for action representation, segmentation and recognition, Computer vision and image understanding, vol.115, pp.224-241, 2011.
URL : https://hal.archives-ouvertes.fr/hal-00640088

S. Herath, M. Harandi, and F. Porikli, Going deeper into action recognition : A survey, Image and vision computing, vol.60, pp.4-21, 2017.

M. Choras, Image feature extraction methods for ear biometrics-a survey, Computer Information Systems and Industrial Management Applications, 2007. CISIM'07. 6th International Conference on, pp.261-265, 2007.

M. Chora?, The lip as a biometric, Pattern Analysis and Applications, vol.13, pp.105-112, 2010.

S. Garg, A. Kumar, and M. Hanmandlu, Biometric authentication using finger nail surface, Intelligent Systems Design and Applications (ISDA), 2012 12th International Conference on, pp.497-502, 2012.

S. Wu, W. Lin, and S. Xie, Skin heat transfer model of facial thermograms and its application in face recognition, Pattern Recognition, vol.41, pp.2718-2729, 2008.

K. N. Plataniotis, D. Hatzinakos, and J. K. Lee, Ecg biometric recognition without fiducial detection, Biometric Consortium Conference, pp.1-6, 2006.

A. K. Jain, A. Ross, and S. Prabhakar, An introduction to biometric recognition, IEEE Transactions on circuits and systems for video technology, vol.14, pp.4-20, 2004.

K. M. Sagayam, J. F. Edwin, J. S. Christopher, G. V. Reddy, R. Bestak et al., Survey on the classification of intelligence-based biometric techniques, Biologically Rationalized Computing Techniques For Image Processing Applications, pp.111-132, 2018.

R. Jafri and H. R. Arabnia, A survey of face recognition techniques, Jips, vol.5, pp.41-68, 2009.

M. Sharif, F. Naz, M. Yasmin, M. A. Shahid, and A. Rehman, Face recognition : A survey, Journal of Engineering Science & Technology Review, vol.10, 2017.

I. A. Kakadiaris, G. Passalis, G. Toderici, E. Efraty, P. Perakis et al., Face Recognition Using 3D Images, pp.429-459, 2011.

U. Rajanna, A. Erol, and G. Bebis, A comparative study on feature extraction for fingerprint classification and performance improvements using rank-level fusion, Pattern Analysis and Applications, vol.13, pp.263-272, 2010.

D. Davis, P. Higgins, P. Kormarinski, J. Marques, N. Orlans et al., State of the art biometrics excellence roadmap. MITRE Corporation, 2008.

M. Vlachos and E. Dermatas, Finger vein segmentation in infrared images using supervised and unsupervised clustering algorithms. Pattern recognition and image analysis, vol.23, pp.328-334, 2013.

R. Sanchez-reillo, C. Sanchez-avila, and A. Gonzalez-marcos, Biometric identification through hand geometry measurements, IEEE Transactions on Pattern Analysis & Machine Intelligence, vol.10, pp.1168-1171, 2000.

A. Bhuiyan, B. Nath, and K. Ramamohanarao, Detection and classification of bifurcation and branch points on retinal vascular network, International Conference on Digital Image Computing Techniques and Applications, 2012.

J. Daugman, Chapter 25 -how iris recognition works, The Essential Guide to Image Processing, pp.715-739, 2009.

A. Pflug and C. Busch, Ear biometrics : a survey of detection, feature extraction and recognition methods, IET Biometrics, vol.1, issue.2, 2012.

R. V. Yampolskiy and V. Govindaraju, Behavioural biometrics : a survey and classification, International Journal of Biometrics, vol.1, pp.81-113, 2008.

J. Pato and L. Millett, Biometric recognition : Challenges and opportunities, whither biometrics committee, national research council of the nsa, 2010.

M. Mailah and B. H. Lim, Biometric signature verification using pen position, time, velocity and pressure parameters, University Technology, 2008.

F. Monrose and A. D. Rubin, Keystroke dynamics as a biometric for authentication, Future Generation computer systems, vol.16, pp.351-359, 2000.

H. N. Shah, M. Z. Rashid, M. F. Abdollah, M. N. Kamarudin, K. L. Chow et al., Biometric voice recognition in security system, Indian Journal of Science and Technology, vol.7, pp.104-112, 2014.

R. Soram and M. Khomdram, Biometric dna and ecdlp-based personal authentication system : a superior posse of security, IJCSNS, vol.10, p.1, 2010.

A. Pal and Y. N. Singh, Ecg biometric recognition, Mathematics and Computing, pp.61-73, 2018.

S. Sonkamble, D. R. Thool, and B. Sonkamble, Survey of biometric recognition systems and their applications, Journal of Theoretical & Applied Information Technology, vol.11, 2010.

S. Prabhakar, S. Pankanti, and A. K. Jain, Biometric recognition : Security and privacy concerns. IEEE security & privacy, vol.2, pp.33-42, 2003.

R. Bhatia, Biometrics and face recognition techniques, International Journal of Advanced Research in Computer Science and Software Engineering, vol.3, p.5, 2013.

Y. Liu, A. Jourabloo, and X. Liu, Learning deep models for face anti-spoofing : Binary or auxiliary supervision, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp.389-398, 2018.

S. Bobbia, R. Macwan, Y. Benezeth, A. Mansouri, and J. Dubois, Unsupervised skin tissue segmentation for remote photoplethysmography, Pattern Recognition Letters, 2017.
URL : https://hal.archives-ouvertes.fr/hal-01647490

A. De-luca, A. Hang, E. Von-zezschwitz, and H. Hussmann, I feel like i'm taking selfies all day ! : towards understanding biometric authentication on smartphones, Proceedings of the 33rd Annual ACM Conference on Human Factors in Computing Systems, pp.1411-1414, 2015.

N. L. Clarke and S. M. Furnell, Authentication of users on mobile telephones-a survey of attitudes and practices, Computers & Security, vol.24, pp.519-527, 2005.

W. Meng, D. S. Wong, S. Furnell, and J. Zhou, Surveying the development of biometric user authentication on mobile phones, IEEE Communications Surveys & Tutorials, vol.17, pp.1268-1293, 2015.

C. Brant, R. Steven-martin, F. J. , and Z. , Receiving fingerprints through touch screen of ce device, Sony Corp, 2017.

H. Yi and P. Bo, Under-lcd screen optical sensor module for on-screen fingerprint sensing, 2018. Shenzhen Goodix Tech Co Ltd, Application patent number US20180005005A1

H. Yi and P. Bo, Optical sensing performance of under-screen optical sensor module for on-screen fingerprint sensing, 2018.

V. Oganesian, Under screen sensor assembly, 2018.

P. Benny and M. Zafrir, Projectors of structured light, 2016.

B. Kwang-hyuk, K. Tae-chan, J. Seong-yeong, and C. Shung-han, Electronic device and eye region detection method in electronic device, 2016.

D. Hintze, R. D. Findling, S. Scholz, and R. Mayrhofer, Mobile device usage characteristics : The effect of context and form factor on locked and unlocked usage, Proceedings of the 12th International Conference on Advances in Mobile Computing and Multimedia, pp.105-114, 2014.

R. Bhagavatula, B. Ur, K. Iacovino, S. M. Kywe, L. F. Cranor et al., Biometric authentication on iphone and android : Usability, perceptions, and influences on adoption

, Facestation 2 -smart face recognition terminal

, Biostation 2 -ultra performance ip fingerprint terminal, vol.20

, Hybrid finger identification

, Morpho 3d face reader -fast, convenient, secure facial recognition

, Safran morphowave tower -access control with a wave of the hand

, Safran morphosmart finger vp -modile biométrique hybride réseau veineux et empreinte digitale

, Lecteur biométrique veinaccess -reconnaissance par les veines de la main

, Hybrid biometric platform : 1 integration, 1 server -4 leading forms of biometric technology

, Think excellence, choose multimodality

A. Lumini, N. , and L. , Overview of the combination of biometric matchers. Information Fusion, vol.33, pp.71-85, 2017.

S. N. Garg, R. Vig, and S. Gupta, A survey on different levels of fusion in multimodal biometrics, Indian Journal of Science and Technology, vol.10, p.44, 2017.

A. Ross and A. Jain, Information fusion in biometrics, Pattern recognition letters, vol.24, pp.2115-2125, 2003.

H. Guesmi, Identification de personnes par fusion de différentes modalités biomé-triques, 2014.

N. Morizet, Reconnaissance Biométrique par Fusion Multimodale du Visage et de l'Iris. Theses, Télécom ParisTech, 2009.

S. Iyengar, L. Prasad, M. , and H. , Advances in distributed sensor technology, 1995.

K. Woods, W. P. Kegelmeyer, and K. Bowyer, Combination of multiple classifiers using local accuracy estimates, vol.19, pp.405-410, 1997.

Y. S. Huang and C. Y. Suen, A method of combining multiple experts for the recognition of unconstrained handwritten numerals, vol.17, pp.90-94, 1995.

J. Kittler, M. Hatef, R. P. Duin, and J. Matas, On combining classifiers. IEEE transactions on pattern analysis and machine intelligence, vol.20, pp.226-239, 1998.

E. Lupu and P. G. Pop, Multimodal biometric systems overview

A. Ross, A. Jain, and J. Reisman, A hybrid fingerprint matcher, pattern recognition, vol.36, pp.1661-1673, 2003.

T. K. Ho, J. J. Hull, and S. N. Srihari, Decision combination in multiple classifier systems, IEEE transactions, vol.16, pp.66-75, 1994.

L. Lam and S. Suen, Application of majority voting to pattern recognition : an analysis of its behavior and performance, IEEE Transactions on Systems, Man, and CyberneticsPart A : Systems and Humans, vol.27, pp.553-568, 1997.

L. Lam and C. Y. Suen, Optimal combinations of pattern classifiers, Pattern Recognition Letters, vol.16, pp.945-954, 1995.

L. Xu, A. Krzyzak, and C. Y. Suen, Methods of combining multiple classifiers and their applications to handwriting recognition, IEEE transactions on systems, man, and cybernetics, vol.22, pp.418-435, 1992.

K. Krishneswari, A. , and S. , Multimodal biometrics using feature fusion, Journal of Computer Science, vol.8, p.431, 2012.

P. Lahane and S. Ganorkar, Fusion of iris & fingerprint biometric for security purpose, International Journal of Scientific & Engineering Research, vol.3, pp.1-5, 2012.

M. Abdolahi, M. Mohamadi, J. , and M. , Multimodal biometric system fusion using fingerprint and iris with fuzzy logic, International Journal of Soft Computing and Engineering, vol.2, issue.6, pp.504-510, 2013.

F. Cui, Y. , and G. , Score level fusion of fingerprint and finger vein recognition, Journal of Computational information systems, vol.7, pp.5723-5731, 2011.

R. S. Choras, Image feature extraction techniques and their applications for cbir and biometrics systems, International journal of biology and biomedical engineering, vol.1, pp.6-16, 2007.

M. Chihaoui, A. Elkefi, W. Bellil, B. Amar, and C. , A survey of 2d face recognition techniques, Computers, vol.5, p.21, 2016.

K. Pearson and . Liii, on lines and planes of closest fit to systems of points in space. The London, Edinburgh, and Dublin Philosophical Magazine, Journal of Science, vol.2, pp.559-572, 1901.

P. Geladi, H. Isaksson, L. Lindqvist, S. Wold, and K. Esbensen, Principal component analysis of multivariate images, Chemometrics and Intelligent Laboratory Systems, vol.5, pp.209-220, 1989.

S. Wold, K. Esbensen, and P. Geladi, Principal component analysis. Chemometrics and intelligent laboratory systems 2, pp.37-52, 1987.

B. Ans, Adaptive neural architectures. Detection of primitives. Proceedings of COGNI-TIVA, vol.85, pp.593-597, 1985.

P. Comon, Independent component analysis, a new concept, Signal processing, vol.36, pp.287-314, 1994.
URL : https://hal.archives-ouvertes.fr/hal-00417283

R. H. Riffenburgh, Linear discriminant analysis, 1957.

J. Shawe-taylor and N. Cristianini, Kernel methods for pattern analysis. Cambridge university press, 2004.

H. Hoffmann, Kernel pca for novelty detection, Pattern recognition, vol.40, pp.863-874, 2007.

F. R. Bach, J. , and M. I. , Kernel independent component analysis, Journal of machine learning research, vol.3, pp.1-48, 2002.

T. Zhang, B. Fang, Y. Y. Tang, Z. Shang, and B. Xu, Generalized discriminant analysis : A matrix exponential approach, IEEE Transactions on Systems, Man, and Cybernetics, vol.40, pp.186-197, 2010.

R. Brunelli and T. Poggio, Face recognition : Features versus templates. IEEE transactions on pattern analysis and machine intelligence, vol.15, pp.1042-1052, 1993.

P. Viola and M. J. Jones, Robust real-time face detection, International journal of computer vision, vol.57, pp.137-154, 2004.

D. G. Lowe, Distinctive image features from scale-invariant keypoints, International journal of computer vision, vol.60, pp.91-110, 2004.

M. Pietikäinen, A. Hadid, G. Zhao, A. , and T. , Local binary patterns for still images, Computer vision using local binary patterns, pp.13-47, 2011.

M. Heikkilä, M. Pietikäinen, and C. Schmid, Description of interest regions with local binary patterns, Pattern recognition, vol.42, pp.425-436, 2009.

M. Lades, J. C. Vorbruggen, J. Buhmann, J. Lange, C. Von-der-malsburg et al., Distortion invariant object recognition in the dynamic link architecture, IEEE Transactions on computers, vol.3, pp.300-311, 1993.

T. S. Lee, Image representation using 2d gabor wavelets, IEEE Transactions on Pattern Analysis & Machine Intelligence, vol.10, pp.959-971, 1996.

C. C. Aggarwal, A. Hinneburg, and D. A. Keim, On the surprising behavior of distance metrics in high dimensional space, International conference on database theory, pp.420-434, 2001.

T. O. Ayodele, Types of machine learning algorithms, New advances in machine learning, 2010.

C. J. Peng, K. L. Lee, and G. M. Ingersoll, An introduction to logistic regression analysis and reporting, The journal of educational research, vol.96, pp.3-14, 2002.

B. Widrow and M. Lehr, A. 30 years of adaptive neural networks : perceptron, madaline, and backpropagation, Proceedings of the IEEE, vol.78, pp.1415-1442, 1990.

C. Cortes and V. Vapnik, Support-vector networks, Machine learning, vol.20, pp.273-297, 1995.

A. K. Jain, Data clustering : 50 years beyond k-means, Pattern recognition letters, vol.31, pp.651-666, 2010.

A. Mucherino, P. J. Papajorgji, and P. M. Pardalos, K-nearest neighbor classification, Data Mining in Agriculture, pp.83-106, 2009.

J. R. Quinlan, Induction of decision trees, Machine learning, vol.1, pp.81-106, 1986.

L. Breiman, Random forests, Machine learning, vol.45, pp.5-32, 2001.

N. Friedman, D. Geiger, and M. Goldszmidt, Bayesian network classifiers, Machine learning, vol.29, pp.131-163, 1997.

R. P. Lippmann, An introduction to computing with neural nets, Artificial neural networks : theoretical concepts, pp.36-54, 1988.

S. B. Kotsiantis, I. Zaharakis, and P. Pintelas, Supervised machine learning : A review of classification techniques. Emerging artificial intelligence applications in computer engineering, vol.160, pp.3-24, 2007.

G. Biau and E. Scornet, A random forest guided tour, Test, vol.25, pp.197-227, 2016.
URL : https://hal.archives-ouvertes.fr/hal-01221748

G. Louppe, Understanding random forests : From theory to practice, 2014.

D. E. Rumelhart, G. E. Hinton, and R. J. Williams, Learning representations by backpropagating errors, nature, vol.323, p.533, 1986.

R. Dechter, Learning while searching in constraint-satisfaction problems, 1986.

Y. Lecun, Y. Bengio, and G. Hinton, Deep learning, nature, vol.521, p.436, 2015.

J. Schmidhuber, Deep learning in neural networks : An overview, Neural networks, vol.61, pp.85-117, 2015.

G. Montavon, W. Samek, and K. Müller, Methods for interpreting and understanding deep neural networks, Digital Signal Processing, 2017.

C. Olah, A. Satyanarayan, I. Johnson, S. Carter, L. Schubert et al., The building blocks of interpretability

. Distill, , 2018.

C. Olah, A. Mordvintsev, and L. Schubert, Feature visualization, 2017.

M. Turk and A. Pentland, Eigenfaces for recognition, Journal of cognitive neuroscience, vol.3, pp.71-86, 1991.

A. Canziani, A. Paszke, and E. Culurciello, An analysis of deep neural network models for practical applications, 2016.

N. Ma, X. Zhang, H. Zheng, J. Sun, and . Shufflenet-v2, Practical guidelines for efficient cnn architecture design, 2018.

S. Yao, Y. Zhao, H. Shao, S. Liu, D. Liu et al., Fastdeepiot : Towards understanding and optimizing neural network execution time on mobile and embedded devices, Proceedings of the 16th ACM Conference on Embedded Networked Sensor Systems, pp.278-291, 2018.

A. G. Santos, C. O. De-souza, C. Zanchettin, D. Macedo, A. L. Oliveira et al., Reducing squeezenet storage size with depthwise separable convolutions, 2018 International Joint Conference on Neural Networks (IJCNN), pp.1-6, 2018.

U. Elordi, L. Unzueta, I. Arganda-carreras, and O. Otaegui, How can deep neural networks be generated efficiently for devices with limited resources, International Conference on Articulated Motion and Deformable Objects, pp.24-33, 2018.

C. Rusu and G. Czibula, Optimizing convolutional neural networks for low-resource devices, 2018 IEEE 14th International Conference on Intelligent Computer Communication and Processing (ICCP), pp.245-252, 2018.

S. Han, H. Mao, and W. J. Dally, Deep compression : Compressing deep neural networks with pruning, trained quantization and huffman coding, 2015.

Y. Kim, E. Park, S. Yoo, T. Choi, L. Yang et al., Compression of deep convolutional neural networks for fast and low power mobile applications, 2015.

J. Wu, C. Leng, Y. Wang, Q. Hu, and J. Cheng, Quantized convolutional neural networks for mobile devices, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp.4820-4828, 2016.

A. Athar, An overview of datatype quantization techniques for convolutional neural networks, 2018.

W. Zhao, R. Chellappa, P. J. Phillips, and A. Rosenfeld, Face recognition : A literature survey, ACM computing surveys (CSUR), vol.35, pp.399-458, 2003.

Z. Kalal, K. Mikolajczyk, and J. Matas, Face-tld : Tracking-learning-detection applied to faces, 17th IEEE International Conference on, pp.3789-3792, 2010.

N. Kumar, A. C. Berg, P. N. Belhumeur, and S. K. Nayar, Attribute and simile classifiers for face verification, IEEE 12th International Conference on, pp.365-372, 2009.

Y. Fu, G. Guo, and T. S. Huang, Age synthesis and estimation via faces : A survey, vol.32, pp.1955-1976, 2010.

Y. Wang, L. Zhang, Z. Liu, G. Hua, Z. Wen et al., Face relighting from a single image under arbitrary unknown lighting conditions, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.31, pp.1968-1984, 2009.

H. Hatem, Z. Beiji, and R. Majeed, A survey of feature base methods for human face detection, International Journal of Control and Automation, vol.8, pp.61-78, 2015.

M. Yang, D. J. Kriegman, A. , and N. , Detecting faces in images : A survey, IEEE Transactions on pattern analysis and machine intelligence, vol.24, pp.34-58, 2002.

P. Viola and M. Jones, Rapid object detection using a boosted cascade of simple features, Proceedings of the Computer Society Conference on Computer Vision and Pattern Recognition, vol.1, 2001.

Y. Freund, R. Schapire, A. , and N. , A short introduction to boosting, Journal-Japanese Society For Artificial Intelligence, vol.14, p.1612, 1999.

N. Dalal and B. Triggs, Histograms of oriented gradients for human detection, Computer Vision and Pattern Recognition, vol.1, pp.886-893, 2005.
URL : https://hal.archives-ouvertes.fr/inria-00548512

H. Bay, A. Ess, T. Tuytelaars, and L. Van-gool, Computer vision and image understanding, vol.110, pp.346-359, 2008.

Y. Freund and R. E. Schapire, A decision-theoretic generalization of on-line learning and an application to boosting, Journal of computer and system sciences, vol.55, pp.119-139, 1997.

A. Krizhevsky, I. Sutskever, and G. E. Hinton, Imagenet classification with deep convolutional neural networks, Advances in neural information processing systems, pp.1097-1105, 2012.

G. B. Huang, M. J. Jones, and E. Learned-miller, Lfw results using a combined nowak plus merl recognizer, Workshop on Faces in'Real-Life'Images : Detection, Alignment, and Recognition, 2008.
URL : https://hal.archives-ouvertes.fr/inria-00326728

V. Jain and E. Learned-miller, Fddb : A benchmark for face detection in unconstrained settings, 2010.

G. Bradski and A. Kaehler, Learning OpenCV : Computer vision with the OpenCV library, 2008.

M. Abadi, P. Barham, J. Chen, Z. Chen, A. Davis et al., Tensorflow : a system for large-scale machine learning, OSDI, vol.16, pp.265-283, 2016.

S. Zafeiriou, C. Zhang, and Z. Zhang, A survey on face detection in the wild : past, present and future, Computer Vision and Image Understanding, vol.138, pp.1-24, 2015.

S. Yang, P. Luo, C. C. Loy, and X. Tang, Faceness-net : Face detection through deep facial part responses, vol.40, pp.1845-1859, 2018.

R. Ranjan, V. M. Patel, and R. Chellappa, Hyperface : A deep multi-task learning framework for face detection, landmark localization, pose estimation, and gender recognition, IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017.

H. Jiang and E. Learned-miller, Face detection with the faster r-cnn, Automatic Face & Gesture Recognition (FG 2017, pp.650-657, 2017.

P. Felzenszwalb, D. Mcallester, and D. Ramanan, A discriminatively trained, multiscale, deformable part model, Computer Vision and Pattern Recognition, pp.1-8, 2008.

P. F. Felzenszwalb and D. P. Huttenlocher, Pictorial structures for object recognition, International journal of computer vision, vol.61, pp.55-79, 2005.

M. Mathias, R. Benenson, M. Pedersoli, and L. Van-gool, Face detection without bells and whistles, European Conference on Computer Vision, pp.720-735, 2014.

D. Chen, S. Ren, Y. Wei, X. Cao, and J. Sun, Joint cascade face detection and alignment, European Conference on Computer Vision, pp.109-122, 2014.

X. Zhu and D. Ramanan, Face detection, pose estimation, and landmark localization in the wild, Computer Vision and Pattern Recognition (CVPR), 2012 IEEE Conference on, pp.2879-2886, 2012.

K. Delac, M. Grgic, and S. Grgic, Independent comparative study of pca, ica, and lda on the feret data set, International Journal of Imaging Systems and Technology, vol.15, pp.252-260, 2005.

M. A. Turk and A. P. Pentland, Face recognition using eigenfaces, Computer Vision and Pattern Recognition, pp.586-591, 1991.

M. S. Bartlett, J. R. Movellan, and T. J. Sejnowski, Face recognition by independent component analysis, IEEE Neural Networks Council, vol.13, p.1450, 2002.

M. Sharkas and M. A. Elenien, Eigenfaces vs. fisherfaces vs. ica for face recognition ; a comparative study, ICSP 2008. 9th International Conference on, pp.914-919, 2008.

R. Shyam and Y. N. Singh, Evaluation of eigenfaces and fisherfaces using bray curtis dissimilarity metric, Industrial and Information Systems (ICIIS), pp.1-6, 2014.

J. M. Meli?ek and M. O. Pavlovicová, Support vector machines, pca and lda in face recognition, J. Electr. Eng, vol.59, pp.203-209, 2008.

L. Wiskott, J. Fellous, N. Krüger, V. D. Malsburg, and C. , Face recognition by elastic bunch graph matching, International Conference on Computer Analysis of Images and Patterns, pp.456-463, 1997.

T. Ahonen, A. Hadid, and M. Pietikainen, Face description with local binary patterns : Application to face recognition, IEEE Transactions on Pattern Analysis & Machine Intelligence, vol.12, pp.2037-2041, 2006.

X. Tan and B. Triggs, Enhanced local texture feature sets for face recognition under difficult lighting conditions, IEEE transactions on image processing, vol.19, pp.1635-1650, 2010.
URL : https://hal.archives-ouvertes.fr/hal-00565029

O. Déniz, G. Bueno, J. Salido, and F. De-la-torre, Face recognition using histograms of oriented gradients, Pattern Recognition Letters, vol.32, pp.1598-1603, 2011.

F. S. Samaria and A. C. Harter, Parameterisation of a stochastic model for human face identification, Applications of Computer Vision, Proceedings of the Second IEEE Workshop on, pp.138-142, 1994.

P. J. Phillips, H. Wechsler, J. Huang, and P. J. Rauss, The feret database and evaluation procedure for face-recognition algorithms, Image and vision computing, vol.16, pp.295-306, 1998.

F. Schroff, D. Kalenichenko, and J. Philbin, Facenet : A unified embedding for face recognition and clustering, Proceedings of the IEEE conference on computer vision and pattern recognition, pp.815-823, 2015.

Y. Sun, X. Wang, and X. Tang, Deep learning face representation from predicting 10,000 classes, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp.1891-1898, 2014.

E. Zhou, Z. Cao, Y. , and Q. , Naive-deep face recognition : Touching the limit of lfw benchmark or not ?, 2015.

G. B. Huang, M. Mattar, T. Berg, and E. Learned-miller, Labeled faces in the wild : A database forstudying face recognition in unconstrained environments, Workshop on faces in'Real-Life'Images : detection, alignment, and recognition, 2008.
URL : https://hal.archives-ouvertes.fr/inria-00321923

G. B. Huang and E. Learned-miller, Labeled faces in the wild : Updates and new reporting procedures, Dept. Comput. Sci., Univ. Massachusetts Amherst, pp.14-17, 2014.

S. Balaban, Deep learning and face recognition : the state of the art, Biometric and Surveillance Technology for Human and Activity Identification XII, vol.9457, p.94570, 2015.

S. Kulwinder, K. Kiranbir, A. , and S. , Fingerprint feature extraction. IJCST, vol.2, pp.237-241, 2011.

L. Hong, Y. Wan, and A. Jain, Fingerprint image enhancement : Algorithm and performance evaluation, vol.20, pp.777-789, 1998.

N. Yager and A. Amin, Fingerprint verification based on minutiae features : a review, Pattern Analysis and Applications, vol.7, pp.94-113, 2004.

E. R. Henry, Classification and uses of finger prints. HM Stationery Office, 1905.

A. Syifaa'ahmad, R. Hassan, N. Ibrahim, M. N. Ahmad, and R. Ramlan, An investigation of matching approaches in fingerprints identification, Recent Developments in Intelligent Computing, Communication and Devices, pp.9-15, 2017.

D. Peralta, M. Galar, I. Triguero, D. Paternain, S. García et al., A survey on fingerprint minutiae-based local matching for verification and identification : Taxonomy and experimental evaluation, Information Sciences, vol.315, pp.67-87, 2015.

C. Liu, T. Xia, L. , and H. , A hierarchical hough transform for fingerprint matching, Biometric Authentication, pp.373-379, 2004.

E. Zhu, J. Yin, and G. Zhang, Fingerprint matching based on global alignment of multiple reference minutiae, Pattern Recognition, vol.38, pp.1685-1694, 2005.

F. Chen, X. Huang, and J. Zhou, Hierarchical minutiae matching for fingerprint and palmprint identification, IEEE Transactions on Image Processing, vol.22, pp.4964-4971, 2013.

R. Kumar, A review of non-minutiae based fingerprint features, International Journal of Computer Vision and Image Processing, vol.8, pp.32-58, 2018.

J. Yang, Non-minutiae based fingerprint descriptor, Biometrics. InTech, 2011.

Z. M. Kovacs-vajna, A fingerprint verification system based on triangular matching and dynamic time warping, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.22, pp.1266-1276, 2000.

K. Nilsson and J. Bigun, Localization of corresponding points in fingerprints by complex filtering, Pattern Recognition Letters, vol.24, pp.2135-2144, 2003.

C. L. Wilson, C. I. Watson, and E. G. Paek, Effect of resolution and image quality on combined optical and neural network fingerprint matching, Pattern Recognition, vol.33, pp.317-331, 2000.

A. T. Jin, D. N. Ling, and O. T. Song, An efficient fingerprint verification system using integrated wavelet and fourier-mellin invariant transform, Image and Vision Computing, vol.22, pp.503-513, 2004.

S. Helfroush and H. Ghassemian, Nonminutiae-based decision-level fusion for fingerprint verification, EURASIP Journal on Applied Signal Processing, vol.1, pp.35-35, 2007.

A. K. Jain, S. Prabhakar, L. Hong, and S. Pankanti, Fingercode : a filterbank for fingerprint representation and matching, Computer Vision and Pattern Recognition, vol.2, pp.187-193, 1999.

X. Dai, J. Liang, Q. Zhao, and F. Liu, Fingerprint segmentation via convolutional neural networks, Chinese Conference on Biometric Recognition, pp.324-333, 2017.

Y. Tang, F. Gao, J. Feng, and Y. Liu, Fingernet : An unified deep network for fingerprint minutiae extraction, 2017.

D. Peralta, I. Triguero, S. García, Y. Saeys, J. M. Benitez et al., On the use of convolutional neural networks for robust classification of multiple fingerprint captures, International Journal of Intelligent Systems, vol.33, pp.213-230, 2018.

B. Pandya, G. Cosma, A. A. Alani, A. Taherkhani, V. Bharadi et al., Fingerprint classification using a deep convolutional neural network, 4th International Conference on Information Management (ICIM), pp.86-91, 2018.

V. A. Bharadi, B. Pandya, and B. Nemade, Multimodal biometric recognition using iris & fingerprint : By texture feature extraction using hybrid wavelets, Confluence The Next Generation Information Technology Summit (Confluence), pp.697-702, 2014.

J. Yang, B. Zhang, and Y. Shi, Scattering removal for finger-vein image restoration, Sensors, vol.12, pp.3627-3640, 2012.

H. Kim, E. J. Lee, G. Yoon, S. Yang, E. C. Lee et al., Illumination normalization for sift based finger vein authentication, International Symposium on Visual Computing, pp.21-30, 2012.

P. Gupta and P. Gupta, An accurate finger vein based verification system, Digital Signal Processing, vol.38, pp.43-52, 2015.

J. Yang and Y. Shi, Finger-vein ROI localization and vein ridge enhancement, Pattern Recognition Letters, vol.33, pp.1569-1579, 2012.

J. Yang, Y. , and J. , Multi-channel gabor filter design for finger-vein image enhancement, Image and Graphics, 2009. ICIG'09. Fifth International Conference on, pp.87-91, 2009.

J. Yang and Y. Shi, Finger-vein network enhancement and segmentation, Pattern Analysis and Applications, vol.17, pp.783-797, 2014.

J. Sun, J. Jia, C. Tang, and H. Shum, Poisson matting. In ACM Transactions on Graphics (ToG), vol.23, pp.315-321, 2004.

E. C. Lee and K. R. Park, Image restoration of skin scattering and optical blurring for finger vein recognition, Optics and Lasers in Engineering, vol.49, pp.816-828, 2011.

W. Pi, J. Shin, and D. Park, An effective quality improvement approach for low quality finger vein image, Electronics and Information Engineering (ICEIE), 2010 International Conference On, vol.1, pp.1-424, 2010.

J. Yang, W. , and J. , Finger-vein image restoration considering skin layer structure, Hand-Based Biometrics (ICHB), 2011 International Conference on, pp.1-5, 2011.

S. J. Xie, Y. Lu, S. Yoon, J. Yang, and D. S. Park, Intensity variation normalization for finger vein recognition using guided filter based singe scale retinex, Sensors, vol.15, pp.17089-17105, 2015.

C. Wang, M. Peng, L. Xu, C. , and T. , A single scale retinex based method for palm vein extraction, Information Technology, Networking, Electronic and Automation Control Conference, pp.75-78, 2016.

K. He, J. Sun, and X. Tang, Guided image filtering, IEEE transactions on pattern analysis & machine intelligence, vol.6, pp.1397-1409, 2013.

H. Fu, Y. Xu, S. Lin, D. W. Wong, and J. Liu, Deepvessel : Retinal vessel segmentation via deep learning and conditional random field, International Conference on Medical Image Computing and Computer-Assisted Intervention, pp.132-139, 2016.

J. Lafferty, A. Mccallum, and F. C. Pereira, Conditional random fields : Probabilistic models for segmenting and labeling sequence data

K. Shaheed, H. Liu, G. Yang, I. Qureshi, J. Gou et al., A systematic review of finger vein recognition techniques, Information, vol.9, p.213, 2018.

C. Lemaitre, M. Perdoch, A. Rahmoune, J. Matas, and J. Miteran, Detection and matching of curvilinear structures, Pattern recognition, vol.44, pp.1514-1527, 2011.
URL : https://hal.archives-ouvertes.fr/hal-00643610

E. Bekkers, R. Duits, T. Berendschot, and B. Ter-haar-romeny, A multi-orientation analysis approach to retinal vessel tracking, Journal of Mathematical Imaging and Vision, vol.49, pp.583-610, 2014.

Y. Tao and Q. Gao, Vessel junction detection from retinal images, Proceedings of the 16th International Conference on Vision Interface, pp.388-394, 2003.

B. A. Rosdi, C. W. Shing, and S. A. Suandi, Finger vein recognition using local line binary pattern, Sensors, vol.11, pp.11357-11371, 2011.

Y. Lu, S. Yoon, S. J. Xie, J. Yang, Z. Wang et al., Finger vein recognition using generalized local line binary pattern, KSII Transactions on Internet & Information Systems, vol.8, p.5, 2014.

H. Liu, L. Song, G. Yang, L. Yang, Y. et al., Customized local line binary pattern method for finger vein recognition, Chinese Conference on Biometric Recognition, pp.314-323, 2017.

D. S. Trigueros, L. Meng, and M. Hartnett, Face recognition : From traditional to deep learning methods, 2018.

, Collection of facial images : Faces94

P. Bonazza, J. Miteran, D. Ginhac, D. , and J. , Optimisation conjointe de la taille de stockage et des performances de modèles de classification pour l'authentification de visages, p.2017, 2017.

M. Oquab, L. Bottou, I. Laptev, and J. Sivic, Learning and transferring mid-level image representations using convolutional neural networks, Proceedings of the IEEE conference on computer vision and pattern recognition, pp.1717-1724, 2014.
URL : https://hal.archives-ouvertes.fr/hal-00911179

F. N. Iandola, S. Han, M. W. Moskewicz, K. Ashraf, W. J. Dally et al., Squeezenet : Alexnet-level accuracy with 50x fewer parameters and < 0.5 mb model size

X. Zhang, X. Zhou, M. Lin, and J. Sun, Shufflenet : An extremely efficient convolutional neural network for mobile devices, 2017.

R. J. Wang, X. Li, S. Ao, C. X. Ling, and . Pelee, A real-time object detection system on mobile devices, 2018.

I. Freeman, L. Roese-koerner, A. Kummert, and . Effnet, An efficient structure for convolutional neural networks, 2018.

J. Deng, W. Dong, R. Socher, L. Li, K. Li et al., Imagenet : A large-scale hierarchical image database, Computer Vision and Pattern Recognition, pp.248-255, 2009.

A. G. Howard, M. Zhu, B. Chen, D. Kalenichenko, W. Wang et al., Efficient convolutional neural networks for mobile vision applications, 2017.

M. Sandler, A. Howard, M. Zhu, A. Zhmoginov, C. et al., MobileNetV2 : Inverted Residuals and Linear Bottlenecks -Mobile Networks for Classification, Detection and Segmentation

K. Simonyan and A. Zisserman, Very deep convolutional networks for large-scale image recognition, 2014.

K. He, X. Zhang, S. Ren, and J. Sun, Deep residual learning for image recognition, Proceedings of the IEEE conference on computer vision and pattern recognition, pp.770-778, 2016.

C. Szegedy, S. Ioffe, V. Vanhoucke, A. , and A. A. , Inception-v4, inception-resnet and the impact of residual connections on learning, AAAI, vol.4, p.12, 2017.

G. Kaur and M. M. Fuad, An evaluation of protocol buffer, IEEE SoutheastCon (SoutheastCon), Proceedings of the, pp.459-462, 2010.

Y. Sun, D. Liang, X. Wang, X. Tang, and . Deepid3, Face recognition with very deep neural networks, 2015.

O. M. Parkhi, A. Vedaldi, and A. Zisserman, Deep face recognition, British Machine Vision Association, vol.1, p.6

J. Liu, Y. Deng, T. Bai, Z. Wei, and C. Huang, Targeting ultimate accuracy : Face recognition via deep embedding, 2015.

P. M. Hambalik, Fingerprint recognition system using artificial neural network as feature extractor : design and performance evaluation, Tatra Mt. Math. Publ, vol.67, pp.117-134, 2016.

J. Stéphan, Laser de faible puissance et utilisation en acupuncture : principes physiques et mécanismes d'action, Acupuncture et Moxibustion, 2014.

D. Barolet, Light-emitting diodes (leds) in dermatology, Seminars in cutaneous medicine and surgery, vol.27, pp.227-238, 2008.

C. Kauba, B. Prommegger, and A. Uhl, The two sides of the finger-an evaluation on the recognition performance of dorsal vs. palmar finger-veins, 2018 International Conference of the Biometrics Special Interest Group (BIOSIG), pp.1-5, 2018.

V. P. Zharov, S. Ferguson, J. F. Eidt, P. C. Howard, L. M. Fink et al., Infrared imaging of subcutaneous veins, Lasers in Surgery and Medicine : The Official Journal of the American Society for Laser Medicine and Surgery, vol.34, pp.56-61, 2004.

M. Walu?, K. Bernacki, and J. Konopacki, Impact of nir wavelength lighting in image acquisition on finger vein biometric system effectiveness, Opto-Electronics Review, vol.25, pp.263-268, 2017.

Y. Yin, L. Liu, and X. Sun, Sdumla-hmt : a multimodal biometric database, Chinese Conference on Biometric Recognition, pp.260-268, 2011.

C. Lin and A. Kumar, Matching Contactless and Contact-Based Conventional Fingerprint Images for Biometrics Identification, IEEE Transactions on Image Processing, vol.27, pp.2008-2021, 2018.

M. A. Olsen, D. Hartung, C. Busch, and R. Larsen, Contrast enhancement and metrics for biometric vein pattern recognition, International Conference on Intelligent Computing, pp.425-434, 2010.

A. Buades, B. Coll, and J. Morel, Non-local means denoising, Image Processing On Line, vol.1, pp.208-212, 2011.

A. Buades, B. Coll, and J. Morel, A review of image denoising algorithms, with a new one, Multiscale Modeling & Simulation, vol.4, pp.490-530, 2005.
URL : https://hal.archives-ouvertes.fr/hal-00271141

T. Raymond, Fingerprint image enhancement and minutiae extraction, Report in the School of Computer Science and Software Engineering, 2003.

Y. Lu, S. Wu, Z. Fang, N. Xiong, S. Yoon et al., Exploring finger vein based personal authentication for secure iot, Future Generation Computer Systems, vol.77, pp.149-160, 2017.

N. Otsu, A threshold selection method from gray-level histograms, IEEE transactions on systems, man, and cybernetics, vol.9, pp.62-66, 1979.

M. Sezgin and B. Sankur, Survey over image thresholding techniques and quantitative performance evaluation, Journal of Electronic imaging, vol.13, pp.146-166, 2004.

W. Niblack, An introduction to digital image processing, vol.34, 1986.

S. Van-der-walt, J. L. Schönberger, J. Nunez-iglesias, F. Boulogne, J. D. Warner et al., scikit-image : image processing in python, PeerJ, vol.2, p.453, 2014.
URL : https://hal.archives-ouvertes.fr/hal-01071542

T. Zhang and C. Y. Suen, A fast parallel algorithm for thinning digital patterns, Communications of the ACM, vol.27, pp.236-239, 1984.

M. Kawagoe and A. Tojo, Fingerprint pattern classification, Pattern recognition, vol.17, pp.295-303, 1984.

M. Calonder, V. Lepetit, C. Strecha, and P. Fua, Brief : Binary robust independent elementary features, European conference on computer vision, pp.778-792, 2010.

P. Pudil, J. Novovi?ová, and J. Kittler, Floating search methods in feature selection, Pattern recognition letters, vol.15, pp.1119-1125, 1994.

L. I. Kuncheva, Combining pattern classifiers : methods and algorithms, 2004.

W. Elhamzi, J. Dubois, J. Miteran, A. , and M. , An efficient low-cost fpga implementation of a configurable motion estimation for h. 264 video coding, Journal of real-time image processing, vol.9, pp.19-30, 2014.
URL : https://hal.archives-ouvertes.fr/hal-00731285

K. Khattab, J. Dubois, and J. Miteran, Cascade boosting-based object detection from high-level description to hardware implementation, EURASIP Journal on Embedded Systems, vol.1, p.235032, 2009.
URL : https://hal.archives-ouvertes.fr/hal-00647542

R. Mosqueron, J. Dubois, M. Mattavelli, and D. Mauvilet, Smart camera based on embedded hw/sw coprocessor, EURASIP Journal on Embedded Systems, p.3, 2008.
URL : https://hal.archives-ouvertes.fr/hal-00657232

J. Mitéran, J. Matas, E. Bourennane, M. Paindavoine, and J. Dubois, Automatic hardware implementation tool for a discrete adaboost-based decision algorithm, EURASIP Journal on Applied Signal Processing, pp.1035-1046, 2005.

R. Thavot, R. Mosqueron, M. Alisafaee, C. Lucarz, M. Mattavelli et al., Dataflow design of a co-processor architecture for image processing, Proceedings of the 2008 Conference on Design and Architectures for Signal and Image Processing, 2008.

B. Senouci, I. Charfi, B. Heyrman, J. Dubois, and J. Miteran, Fast prototyping of a soc-based smart-camera : a real-time fall detection case study, Journal of Real-Time Image Processing, vol.12, pp.649-662, 2016.
URL : https://hal.archives-ouvertes.fr/hal-01074358

R. Marroquin, J. Dubois, N. , and C. , Ontology for a panoptes building : Exploiting contextual information and a smart camera network, Semantic Web, pp.1-26, 2018.
URL : https://hal.archives-ouvertes.fr/hal-01930610

, Intel movidius neural compute stick

B. Barry, C. Brick, F. Connor, D. Donohoe, D. Moloney et al., Always-on vision processing unit for mobile applications, IEEE Micro, vol.35, pp.56-66, 2015.

, Vpu -a dedicated vision processing platform

, Intel movidius myriad vpu 2 : A class-defining processor

D. Pena, A. Forembski, X. Xu, and D. Moloney, Benchmarking of cnns for low-cost, low-power robotics applications, RSS 2017 Workshop : New Frontier for Deep Learning in Robotics, 2017.

, The gflops/w of the various machines

S. Rivas-gomez, A. J. Pena, D. Moloney, E. Laure, and S. Markidis, Exploring the vision processing unit as co-processor for inference, 2018 IEEE International Parallel and Distributed Processing Symposium Workshops (IPDPSW), pp.589-598, 2018.

K. Pulli, A. Baksheev, K. Kornyakov, and V. Eruhimov, Real-time computer vision with opencv, Communications of the ACM, vol.55, pp.61-69, 2012.

I. Culjak, D. Abram, T. Pribanic, H. Dzapo, and M. Cifrek, A brief introduction to opencv, MIPRO, 2012 proceedings of the 35th international convention, pp.1725-1730, 2012.

Y. Jia, E. Shelhamer, J. Donahue, S. Karayev, J. Long et al., Caffe : Convolutional architecture for fast feature embedding, Proceedings of the 22nd ACM international conference on Multimedia, pp.675-678, 2014.

S. Tokui, K. Oono, S. Hido, C. , and J. , Chainer : a next-generation open source framework for deep learning, Proceedings of workshop on machine learning systems (LearningSys) in the twenty-ninth annual conference on neural information processing systems (NIPS) (2015), vol.5, pp.1-6

F. Seide, A. Agarwal, and . Cntk, Microsoft's open-source deep-learning toolkit, Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, pp.2135-2135, 2016.

R. Al-rfou, G. Alain, A. Almahairi, C. Angermueller, D. Bahdanau et al., Theano : A python framework for fast computation of mathematical expressions, 2016.

J. Liu, J. Dutta, N. Li, U. Kurup, and M. Shah, Usability study of distributed deep learning frameworks for convolutional neural networks

S. Shi, Q. Wang, P. Xu, C. , and X. , Benchmarking state-of-the-art deep learning software tools, Cloud Computing and Big Data (CCBD), pp.99-104, 2016.

S. Bahrampour, N. Ramakrishnan, L. Schott, and M. Shah, Comparative study of deep learning software frameworks, 2015.

H. Nakaya, Y. Komiyama, N. Kashikawa, T. Uchida, T. Nagayama et al., Low temperature performance of a commercially available ingaas image sensor, High Energy, Optical, and Infrared Detectors for Astronomy VII, vol.9915, p.99151, 2016.

S. Houver, P. Cavalié, M. R. St-jean, M. Amanti, C. Sirtori et al., Optical sideband generation up to room temperature with mid-infrared quantum cascade lasers, Optics express, vol.23, pp.4012-4020, 2015.
URL : https://hal.archives-ouvertes.fr/hal-01275202

S. Houver, A. Lebreton, A. Mottaghizadeh, M. I. Amanti, C. Sirtori et al., Multi-terahertz sideband generation on an optical telecom carrier with a quantum cascade laser, ACS Photonics, vol.5, pp.890-896, 2018.

E. Prados and O. Faugeras, Shape from shading. In Handbook of mathematical models in computer vision, pp.375-388, 2006.
URL : https://hal.archives-ouvertes.fr/inria-00377417

J. Durou, M. Falcone, and M. Sagona, A survey of numerical methods for shape from shading, vol.2, 2004.

L. Jiang, J. Zhang, B. Deng, H. Li, and L. Liu, 3d face reconstruction with geometry details from a single image, IEEE Transactions on Image Processing, vol.27, pp.4756-4770, 2018.

S. Bobbia, Y. Benezeth, and J. Dubois, Remote photoplethysmography based on implicit living skin tissue segmentation, 2016 23rd International Conference on Pattern Recognition (ICPR), pp.361-365, 2016.
URL : https://hal.archives-ouvertes.fr/hal-01356059

S. Bobbia, D. Luguern, Y. Benezeth, K. Nakamura, R. Gomez et al., Real-time temporal superpixels for unsupervised remote photoplethysmography, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops, pp.1341-1348, 2018.
URL : https://hal.archives-ouvertes.fr/hal-01830536

P. Bonazza, J. Miteran, D. Ginhac, and J. Dubois, Comparative study of deep learning and classical methods : smart camera implementation for face authentication, Counterterrorism, Crime Fighting, Forensics, and Surveillance Technologies II, vol.10802, p.108020, 2018.

P. Bonazza, J. Mitéran, D. Ginhac, and J. Dubois, Machine learning vs transfer learning smart camera implementation for face authentication, Proceedings of the 12th International Conference on Distributed Smart Cameras, p.21, 2018.

P. Bonazza, J. Mitéran, B. Heyrman, D. Ginhac, V. Thivent et al., An affordable contactless security system access for restricted area, 5th Workshop on Architecture of Smart Cameras (WASC), 2016.
URL : https://hal.archives-ouvertes.fr/hal-01342810

J. Dubois, A. Moinet, S. Bobbia, R. Marroquin, B. Heyrman et al., Wiseeye : A platform to manage and experiment on smart camera networks, 5th Workshop on Architecture of Smart Cameras, 2016.
URL : https://hal.archives-ouvertes.fr/hal-01342808

H. Kataoka, K. Iwata, and Y. Satoh, Feature evaluation of deep convolutional neural networks for object recognition and detection, 2015.

C. B. Jeong, K. G. Kim, T. S. Kim, and S. K. Kim, Comparison of image enhancement methods for the effective diagnosis in successive whole-body bone scans, Journal of digital imaging, vol.24, pp.424-436, 2011.

H. Li, Z. Xu, G. Taylor, C. Studer, and T. Goldstein, Visualizing the loss landscape of neural nets, Advances in Neural Information Processing Systems, pp.6389-6399, 2018.

S. M. Pizer, E. P. Amburn, J. D. Austin, R. Cromartie, A. Geselowitz et al., Adaptive histogram equalization and its variations. Computer vision, graphics, and image processing, vol.39, pp.355-368, 1987.

K. Zuiderveld, Contrast limited adaptive histogram equalization, Graphics gems IV, pp.474-485, 1994.

J. B. Zimmerman, S. B. Cousins, K. M. Hartzell, M. E. Frisse, and M. G. Kahn, A psychophysical comparison of two methods for adaptive histogram equalization, Journal of Digital Imaging, vol.2, p.82, 1989.

A. I. Awad and K. Baba, Singular point detection for efficient fingerprint classification, International Journal of New Computer Architectures and Their Applications, vol.2, pp.1-8, 2012.

J. Bernsen, Dynamic thresholding of gray-level images, Proc. Eighth Int'l conf. Pattern Recognition, p.1986, 1986.

J. Sauvola and M. Pietikäinen, Adaptive document image binarization. Pattern recognition, vol.33, pp.225-236, 2000.

N. Phansalkar, S. More, A. Sabale, and M. Joshi, Adaptive local thresholding for detection of nuclei in diversity stained cytology images, Communications and Signal Processing, pp.218-220, 2011.

K. H. Zou, S. K. Warfield, A. Bharatha, C. M. Tempany, M. R. Kaus et al., Statistical validation of image segmentation quality based on a spatial overlap index1 : scientific reports, Academic radiology, vol.11, pp.178-189, 2004.

, Exemples de répartitions de deux classes de données dans un plan 2D -(a) repré-sente des données linéairement séparables ; (b) représente des données non linéai-rement séparables pouvant tout de même être séparées par une droite en tolérant des erreurs ; (c) et (d) représentent des données non linéairement séparables, p.37

, Séparations de classes par les SVM dans le cas de données linéairement séparables, p.41

, Séparation de classes par les SVM dans le cas de données non linéairement sépa-rables

, Noyau appliqué aux SVM dans le cas de données non linéairement séparables, vol.1, p.43

, Schématisation du principe des Random Forest pour une classification binaire, p.44

P. .. , , vol.46

C. Différence-entre and . Et, Machine Learning Traditionnel pour l'analyse d'images, p.47

C. .. Fonctionnement-des-couches-d&apos;un-réseau, , p.48

. Analyse and . .. Prc,

, Premières composantes, sous forme d'images, des espaces ACP

, Illustrations d'extractions de caractéristiques locales

, Illustration de chaîne de prétraitement des empreintes digitales, p.60

, Échantillons en niveaux de gris des différentes bases de données utilisées, p.66

. .. , Exemples de variations perturbant la stabilité des mesures, p.67

. .. Seuillage-d&apos;otsu, , p.113

, Seuillage par moyennes locales et squelettisation du réseau vasculaire filtré et corrigé113

, Seuillage de Niblack et squelettisation du réseau vasculaire filtré et corrigé, p.113

. .. Seuillage-d&apos;otsu, 113 5.31 Description du protocole de la phase d'extraction des caractéristiques des empreintes digitales

, Description du protocole de la phase d'extraction des caractéristiques des vaisseaux 114

, 115 5.34 Illustration du processus de nettoyage des minuties correspondant à une fin de ligne non inscrite dans l'empreinte digitale

, Points d'intérêts détectés et points d'intérêts conservés, à partir du squelette des empreintes digitales issu du seuillage par moyennes locales, p.117

, Points d'intérêts détectés et points d'intérêts conservés, à partir du squelette des empreintes digitales issu du seuillage de Niblack

, Points d'intérêts détectés et points d'intérêts conservés, à partir du squelette des empreintes digitales issu du seuillage d'Otsu

, Points d'intérêts détectés et points d'intérêts conservés

, Points d'intérêts détectés et points d'intérêts conservés

, Points d'intérêts détectés et points d'intérêts conservés

, Taux d'erreur global de la correspondance selon le type de seuillage, l'image à laquelle est appliquée le descripteur, et la SBFS effectuée par les SVM et les RF, p.122

, Nombre de points d'intérêts moyens et maximum parmi les images d'empreintes digitales et de réseaux vasculaires, selon le type de seuillage d'image, p.125

.. .. Aperçu,

, Principe des votes à l'unanimité et à la majorité

, Boitier de la Smart Caméra Raspberry PI3 avec le capteur d'images CSI Raspberry 143

. .. Schemabloc-faces,

, Représentation graphique de la répartition des temps de calculs de la phase d'authentification pour les configurations les plus lentes et les plus rapides des SVM et

, Répartition des temps de calculs de la phase d'authentification pour les configurations les plus lentes et les plus rapides des réseaux MobileNet v1_025 et v2_035, p.153

. .. , Protocole de l'authentification des deux modalités du doigt, p.154

. .. Schéma-de-principe-du-prototype-de-scanner-rotatif, 156 6.10 Simulation 3D d'un doigt avec ses veines et son empreinte digitale, p.156

. .. Rotatif, 157 6.12 Reconstitutions aplanies des rendus noirs et blanc des veines (a)et des empreintes (b), obtenues par simulation du système sous le logiciel d'édition 3DSMax, Simulation 3D du scénario d'acquisition du système, p.158

, Comparaison des rendements quantiques de capteurs selon la longueur d'onde, p.159

. Réalisation-3d-du-prototype and . .. Sketchup, , p.161

, Exemple d'acquisition d'empreintes digitales de deux personnes distinctes avec le prototype du scanner rotatif

, Exemple d'acquisition du réseau vasculaire de deux personnes distinctes avec le prototype du scanner rotatif

, Sensibilité d'un capteur InGaAs selon différentes températures en Kelvin

, Acquisition d'une scène sombre par un capteur InGaAs, soumis à différentes températures, avec 2 secondes d'accumulation

, Acquisition d'une scène claire par un capteur InGaAs, soumis à différentes températures, avec 100 millisecondes d'accumulation

. .. , Acquisition du doigt, éclairé à l'arrière par un projecteur proche infrarouge, par une caméra fixe composée d'un capteur InGaAs refroidit à -40°C, p.165

. .. , Test de l'authentification de visages en implantation réelle, p.170

A. , Séparations de classes par les SVM dans le cas de données linéairement séparables 210

, Séparation de classes par les SVM dans le cas de données non linéairement sépa-rables

, A.3 Noyau appliqué aux SVM dans le cas de données non linéairement séparables, vol.1, p.213

, Illustration d'une convolution pour une image 4x4 de 3 canaux (RGB), un pas de 3 pixel, un zero padding et un noyau de convolution 3x3, p.218

, Exemples de fonctions non linéaires d'activations les plus connues, p.219

A. , Illustration de l'ensemble convolution et activation

A. ;. , Illustration de l'étape de sous échantillonnage ("pooling"), p.220

A. , Illustration de l'étape de "flattering

, Optimisation par descente de gradient

A. , Illustration de l'optimisation par "dropout"

A. and ]. .. , Architecture des réseaux "AlexNet" et "VGGNet, p.224

A. , ;. , and D. .. K-=-3,-m-=-3,-n-=-1, DepthWise Separable Convolution" 2, p.224

A. , Structure des convolutions des réseaux MobileNet v1 et v2 3, p.226

B. , Débruitage par moyennes non locales -Recherche de similitudes par voisinage, p.231

, Clahe -Seuil de contraste et redistribution d'histogramme, vol.294, p.232

, Exemple de singularités détectées par l'indice de Poincare selon les orientations, p.233

, Estimation de la qualité de la segmentation automatique

, Décomposition des différents noyaux composant la banque de filtres de Gabor utilisée pour le filtrage du réseau vasculaire

, Utilisation des sources radioactives à usages civil

, Comparaison des modalités biométriques les plus connues [35] (*** représente les meilleures performances)

, **** représente les meilleures performances ; AD : Arbre de Décision, RN : Réseaux de Neurones peu profond, RB : Réseaux Bayesiens, KNN : Plus proches voisins, SVM : Séparateurs à Vastes Marges )

, Matrice de confusion des prédictions d'un classifieur à C classes, p.51

, Matrice de confusion des prédictions d'un classifieur à deux classes, p.52

, ACP -Exemple avec 400 valeurs propres au total (N) et un seuil (?) à 90% donnant 112 valeurs propres conservées (K), Cumul des contributions des valeurs propres de l

, ACP : L'ajout de filtres limitant l'influence de la variabilité des classes (luminance, etc) induit une augmentation du nombre de vecteurs propres nécessaires pour représenter une inerte donnée, Nombre de valeurs propres conservées (?) après seuillage de l

(. Sensibilité and . Se, en pourcent) des SVM selon chaque configuration (type de filtre et contribution ?) et de seuil d'ACP (?, spécificité (Sp.) et précision (Pr.) moyennes

(. Sensibilité and . Se, spécificité (Sp.) et précision (Pr.) moyennes, en pourcent, des réseaux MobileNet selon chaque configuration (version du réseau, dimensions des images et nombre d'image d'apprentissage), vol.87

, Résultats des CNN de l'état de l'art sur la reconnaissance de visages, p.90

, Les 14 attributs, calculés à partir de la correspondance entre les descripteurs de deux images, et transmis à la SBFS pour la sélection des attributs les plus pertinents 121

(. Sensibilité and . Se, moyennes (en pourcent) de la correspondance des empreintes digitales avec le descripteur BRIEF-32 appliqué aux images corrigées en sortie du filtre de Gabor (E C (x, y)), selon la décision des SVM et des RF, et leur tailles de stockage moyennes (T ) et maximales (T max ) en kilooctets, spécificité (Sp.), précision (Pr.) et justesse (Ju.)

(. Sensibilité and . Se, (en pourcent) de la correspondance des vaisseaux avec le descripteur BRIEF-32 appliqué aux images corrigées en sortie du filtre de Gabor (E C (x, y)), selon la déci-sion des SVM et des RF, et leur tailles de stockage moyennes (T ) et maximales (T max ) en kilooctets, spécificité (Sp.), précision (Pr.) et justesse (Ju.) moyennes

(. Sensibilité and . Se, max.) des descripteurs BRIEF-32. Points d'intérêts limités à ? C et issus du seuillage par moyennes locales. Descripteurs appliqués aux images corrigées en sortie du filtre de Gabor (E C (x, y)) et décision par SVM, spécificité (Sp.), précision (Pr.) et justesse (Ju.) moyennes, ainsi que tailles moyennes (T ) et maximales (T

(. Sensibilité and . Se, max.) des descripteurs BRIEF-16. Points d'intérêts limités à ? C et issus du seuillage par moyennes locales. Descripteurs appliqués aux images corrigées en sortie du filtre de Gabor (E C (x, y)) et décision par SVM, spécificité (Sp.), précision (Pr.) et justesse (Ju.) moyennes, ainsi que tailles moyennes (T ) et maximales (T

. Attributs, ) sélectionnés par le classifieur SVM avec la SBFS, donnant la plus faible erreur globale, avec les descripteurs BRIEF-32 et BRIEF-16, appliqués au points d'intérêts détectés à partir des images seuillées par moyennes locales. Les attributs en gras représentent, pour chaque modalité, les attributs qui ont été sélectionnés pour les deux descripteurs

, ou taux de fausse acceptation) et la spécificité, Évaluation de la robustesse aux intrus, pour les descripteurs sélectionnés (associés à un SVM), avec l'erreur

, Tableau résumé des configurations retenues offrant le meilleur compromis entre performances (sensibilité, spécificité, précision et justesse en pourcent) et taille moyenne de stockage des descripteurs (en Ko), avec T max = 2, 5Ko, p.130

, 136 6.2 Estimation des performances d'authentification, en pourcentage, obtenues par fusion de décision des trois modalités à partir des résultats des chapitres précédents 139 6.3 Estimation des performances d'authentification, en pourcentage, obtenues par fusion de décision des trois modalités avec usurpation d'une modalité à la fois, à partir des résultats des chapitres précédents, Performances des configurations retenues de chaque modalité, pour l'authentification biométrique par fusion de décision

, Performances d'authentification obtenues pour chaque modalité avec le nouvel ensemble réduit d'évaluation

, Performances d'authentification, en pourcentage, obtenues par fusion de décision des trois modalités sur notre nouvel ensemble de données réduit, p.141

, obtenues par fusion de décision des trois modalités avec usurpation de l'une d'entre elles, sur notre nouvel ensemble de données réduit

. .. , Caractéristiques matérielles de la carte Raspberry PI 3 modèle B, p.143

, Popularité sur github, suivant trois type d'informations statistiques, de framework Deep Learning [278] -Mise à jour Sept, 2018.

, Temps de chargement des espaces de visages et temps de calcul des projections d'une image selon la contribution du filtrage et le seuil d'ACP, p.146

, Temps de préparation des données pour l'apprentissage : Filtrage et projection de 40 images (F+P) + chargement des projections d'intrus (PI)

, Temps d'apprentissage des SVM et RF selon les contributions de filtrage et les seuils d'ACP, p.148

, respectivement pour 1000 et 40 images d'apprentissage par classe, de résolution 128x128 et 224x224, Durées de l'apprentissage des réseaux MobileNet v1 et v2 les plus légers

, Temps de préparation des données pour une image : filtrage et projection dans l'espace de visage associé à la configuration des images d'entrée, p.150

, Temps de calcul de la prédiction de classe d'un échantillon pour les SVM et RF selon la contribution du filtrage et le seuil de l'ACP

, Temps de prédiction moyen pour un échantillon de MobileNet v1_025 et v2_035, non quantifiés et quantifiés, respectivement pour 1000 et 40 images d'apprentissage par classe

, Temps de calculs de la phase d'authentification du visage, avec une image, pour la configuration retenue : filtre de TanTriggs avec ? = 20

, Résumé des performances (en pourcent) des configurations retenues de chaque modalité indépendante, obtenues expérimentalement sur l'ensemble des bases de données de chaque modalité et la taille de stockage maximale (T max ) des données biométriques

, Résumé des performances d'authentification biométrique (en pourcent) par fusion de décision avec un vote à la majorité et un vote à l'unanimité, obtenues expéri-mentalement sur un sous ensemble des bases de données de chaque modalité et la taille de stockage maximale (T max ) des données biométriques, p.169

A. , Architecture des réseaux complets MobileNet v1 et v2 pour une image d'entrée de 224x224

B. , Taux de compression moyens (en pourcent) d'algorithmes de courants pour la ré-duction de la taille de stockage des modèles de classification, p.230

, Table de référence des possible types d'empreintes digitales selon le nombre de singularités locales détectées de chaque type, vol.254

. .. , Paramétrage des traitements de la correction d'images, p.236

, Paramétrage du filtrage de Gabor pour chaque modalité

. .. , Paramétrage des traitements de la seconde correction d'images, p.237

. .. Comparées, 237 A Précisions sur les algorithmes Sommaire A.1 Machine Learning Classique, Paramétrage des méthodes de seuillage

, 94194717e+01 -3.16993530e+02 -5.02721901e+01 -3.45211456e+02 -3.68552132e+01 -4.83171158e+01 4.05100586e+02 -1.73725567e+01 -4.83093842e+02 -3.83693542e+02 1.92268295e+02 2.32956726e+02 1.36045361e+00 2.06012787e+02 -5.75903320e+01 -3.93775391e+02 2.53923401e+02 -1.91929016e+01 1.65237930e+02 3.40357933e+01 -2.41368103e+02 2.55680420e+02 -1.56458984e+02 6.14017715e+01 1.08755943e+02 2.67144043e+02 -1.64698906e+01 1.26423286e+02 2.16332123e+02 -1.74757416e+02 -1.15382057e+02 2.15967957e+02 9.07019196e+01 1.79278549e+02 -6.06359634e+01 4.25044281e+02 -1.62669754e+01 -1.08339378e+02 -1.64651474e+02 -2.60441162e+02 4.23969238e+02 1.10181526e+02 2.58136200e+02 1.05583481e+02 5.79773102e+01 1.18944885e+02 -1.54037750e+02 -1.28837982e+02 -1.01631287e+02 -1.62281769e+02 -1.14152824e+02 7.71475296e+01 -1.04492500e+02 -3.18244667e+01 -5.42519836e+01 -1.14186684e+02 -1.79596756e+02 1.17646751e+02 3.30134926e+01 1.06564247e+02 2.07701797e+02 -2.52759399e+01 2.26194000e+02 7.81666641e+01 -2.07448978e+01 1.13684776e+02 1.04179945e+01 -9.92391014e+00 9.47137833e+01 -7.25973740e+01 1.31979080e+02 1.51288330e+02 -3.46075630e+01 -8.10010147e+01 -1.31766556e+02 -1.01447632e+02 -3.61141510e+01 1.42644104e+02 -2.01892681e+01 1.18168282e+02 1.61334534e+02 -2.29486221e+02 -1.14929626e+02 -7.13307953e+01</_> <_>, A.1.3.2/ Exemple d'un modèle de classification Machinesà Vecteurs Supports <?xml version="1.0"?> <opencv_storage> <my_svm type_id="opencv-ml-svm"> <svm_type>C_SVC</svm_type> <kernel><type>RBF</type> <gamma>1.4901161193847656e-08</gamma></kernel> <_> -4.49642700e+02 1.01862000e+03 -1.51037720e+03 -4.57064697e+02 -9.26060364e+02 -1.35186523e+02 -5.23293762e+02 -2.68006470e+02 -9.30458374e+02 -1.26954071e+02 -1.22082198e+00 1.30249069e+02 3.55707428e+02 1.72554993e+02 -3.93793091e+02 3.02044468e+01 -6.41788574e+02 -1.10044304e+02 1.26496094e+02 3.89551277e+01 1.32348495e+02 8.65020523e+01 6.86631393e+01 -7.93158951e+01 1.99552948e+02 2.27943069e+02 4.24283630e+02 4.74550385e+02 9, vol.1, pp.0525960713336291-01

, Principe d'une convolution standard (b) Principe d'une convolution "depthwise" (c) Principe d'une convolution

A. Figure, 13 -Comparaison des principes des différentes convolutions

, 3 pour une image couleur, dépend de la couche précédente pour une "feature map"), N au nombre de filtres (et donc nombre de canaux de sortie -"ouput depth") et D K la taille du noyau de convolution. En considérant un pas de un pixel, le nombre de multiplications d'une convolution "depthwise separable, Une comparaison directe entre les principes des convolutions classiques et des convolutions "depthwise separable" est illustrée figure A.13, où "M" correspond au nombre de canaux d'entrée ("input depth

, Ils utilisent également pour chacune de ces couches de convolutions une normalisation ainsi qu'une fonction d'activation de type ReLU (cf figures A.5 et A.6). La version 2 de MobileNet intègre quelques différences dans son bloc de convolution "depthwise separable", illustrées figure A.14, et désormais appelé bloc de "bottleneck" résiduel ("residual bottleneck bloc"). Le bloc de la version 2 contient une nouvelle première couche. Appelée couche d'expansion, c'est également une convolution 1x1 mais son objectif est d'étendre le nombre de canaux avant l'entrée de la convolution "depthwise". Cette augmentation est gérée par un hyperparamètre appelé le facteur d'extension. Afin d'effectuer une somme entre l'entrée et la sortie de ce bloc via la connexion résiduelle, une dernière couche 1x1, appelée couche de projection, va réduire le nombre de canaux en sortie de la couche de convolution "depthwise, Contrairement aux réseaux conventionnels, les réseaux MobileNet n'intègrent pas de couches de "pooling" entre ces blocs de convolutions

B. ;. Sommaire, 1 Authentification de visages -Compression de données, p.230

P. Développée-par, Pour chacune de ces régions, un histogramme est calculé et son égalisation est effectuée, basée sur les informations locales de l'image. De cet algorithme résulte une image pour laquelle le traitement de chaque pixel est différent et adapté à la distribution locale des intensités des pixels. Cette technique produit une image dans laquelle les différents objets, L'égalisation adaptative d'histogramme (Adaptive histogram equalization -AHE), vol.296

, Cependant, l'amélioration du contraste est tellement importante que, dans des zones à faible signal

, Avec cette méthode, l'amélioration de contraste produite localement est limitée par un paramètre (seuil) pouvant être ajusté suivant le type d'image. En d'autres termes, le nombre de pixels associés à chaque valeur d'intensité lumineuse dans l'histogramme local est tronqué à la valeur de ce seuil, De plus, pour certaines images, cette augmentation du contraste peut conduire à des discontinuités brutales des objets. Afin de remédier à ces difficultés

, Le premier niveau consiste à détecter l'aspect général de l'empreinte. Différentes structures, appelées singularités, peuvent être observée et leur combinaison permet de distinguer des groupes d'empreintes digitales. Leur traitement peut s'effectuer à partir de la carte des orientations locales calculée lors du paramétrage du filtre de Gabor. Une nouvelle fenêtre glissante parcourt ces orientations. Cette fenêtre sous divisée en neuf régions (hauteur et largeur divisées par 3), De par la composition du motif des empreintes digitales, il est possible d'extraire des informations à différents niveaux de précision, comme il a été montré au début du chapitre 5

. Ainsi, pour chaque position de la fenêtre glissante dans l'image, le type de singularité est estimée à l'aide de l

. Document and . At-e-x, le style L AT E X pour Thèse de Doctorat créé par S. Galland