Please use this identifier to cite or link to this item: http://archives.univ-biskra.dz/handle/123456789/14604
Title: Deep Learning basé sur les méthodes de réduction pour la reconnaissance de visage
Other Titles: ELECTRONIQUE
Authors: louam, abdel hak bilal
Issue Date: 20-Jun-2019
Abstract: La reconnaissance de visage est un des problèmes les plus étudiés de l’apprentissage automatique. Il a été bien étudié au cours des 50 dernières années. Les premières tentatives d’exploration de la reconnaissance faciale ont été faites dans les années 60, mais c’est jusqu’à ce que Turk et Pentland aient mis en oeuvre l’algorithme «Eigenfaces» pour que ce champ produise des résultats vraiment intéressants et utiles. Récemment la reconnaissance de visage attire de plus en plus d’attention. La sécurité reste le domaine d’application principal. Dans ce domaine la reconnaissance de visage est responsable de l’identification et de l’authentification. La reconnaissance de visage peut également être utilisée pour accélérer l'identification des personnes. Nous pouvons imaginer un système reconnaissant le client dès son entrée dans une succursale (banque, assurance) et le préposé au bureau d'accueil pourra ensuite accueillir le client par son nom et préparer son dossier avant qu'il ne parvienne au comptoir. La reconnaissance de visage a reçu une attention croissante en raison de ses nombreuses applications potentielles dans divers domaines. Les systèmes de RV les plus récents dépendent principalement des représentations de caractéristiques obtenues à l'aide de descripteurs localisés à la main, de modèles de commandes binaires locales (LBP) ou d'une approche d'apprentissage en profondeur [1]. L’identification automatisée des individus peut s’accomplir par une reconnaissance de visages qui nécessite l’application de techniques avancées et robustes de sorte à éviter les erreurs de classification des gens détectés. SRV font face à plusieurs défis majeurs liés à l’environnement de capture des images ainsi qu’aux méthodes d’évaluation des visages qui ont été détectés. Entre autres, les problèmes d’illumination, de pose et d’expression variante sur les visages à identifier font que la reconnaissance est très difficile à paramétrer. Aussi, l’acquisition des images peut s’effectuer dans divers environnements de capture plus ou moins contrôlés, ce qui apporte des difficultés supplémentaires par rapport à la résolution des images, l’ajout de mouvement des individus dans la scène, ainsi que certains cas d’occlusion des visages. L'identification et la vérification des visages ont attirées l'attention des chercheurs depuis quelques décennies, et restent encore et toujours un sujet de recherche attractif et très ouvert. Beaucoup de connaissances dans les domaines de la reconnaissance des formes, du traitement d'images, des statistiques ont été appliquées au domaine de la reconnaissance du visage. En plus, les capacités grandissantes des moyens informatiques et l'existence de bases de données de grandes tailles ont permis de mettre au point des algorithmes et des approches de plus en plus complexes [2]. Les données de haute dimension peuvent être converties en codes de basse dimension en formant un réseau de neurones multicouches avec une petite couche centrale afin de reconstruire des vecteurs d'entrée de haute dimension [3]. Avec le développement de Deep Learning (DL), Les réseaux de neurones profonds (DNN), en particulier les réseaux de neurones convolutifs (CNN), construits par des opérations de convolution et de mise en commun, ont fait l'objet d'une attention soutenue [4]. DL est devenue une nouvelle tendance pour extraire des fonctionnalités en raison de son efficacité à découvrir des structures complexes de données. Il est différent des modèles d'extraction de caractéristiques artisanaux traditionnels [5], et permet d’obtenir des résultats étonnants en matière de reconnaissance [4]. L'apprentissage supervisé (supervised Learning en anglais) est une tâche d'apprentissage automatique consistant à apprendre une fonction de prédiction à partir d'exemples annotés, au contraire de l'apprentissage non supervisé. Les exemples annotés constituent une base d'apprentissage, et la fonction de prédiction apprise peut aussi être appelée « hypothèse » ou « modèle ». On suppose cette base d'apprentissage représentative d'une population d'échantillons plus large et le but des méthodes d'apprentissage supervisé est de bien généraliser, c'est-à-dire d'apprendre une fonction qui fasse des prédictions correctes sur des données non présentes dans l'ensemble d'apprentissage. Ce qui nous motive à nous intéresser davantage à l’apprentissage automatique. La complexité de la dimensionnalité est connue depuis plus de trois décennies et son impact varie d'un domaine à l'autre. Dans l'optimisation combinatoire sur plusieurs dimensions, elle est vue comme une croissance exponentielle de l'effort de calcul avec le nombre de dimensions. En statistique, cela se traduit par un problème d'estimation de paramètre ou de densité, dû au manque de données. L'effet négatif de cette rareté résulte de certaines propriétés géométriques, statistiques et asymptotiques de l'espace des fonctions de grande dimension. Ces caractéristiques présentent un comportement surprenant pour les données en dimensions supérieures [6]. La réduction de dimensionnalité facilite la classification, la visualisation, la communication et le stockage de données de grande dimension. Une méthode simple et largement utilisée est l’analyse en composantes principales (ACP), qui recherche les directions de la plus grande variance dans l’ensemble de données et représente chaque point de données par ses coordonnées le long de chacune de ces directions [3]. Traditionnellement, la réduction de la dimensionnalité était réalisée à l'aide de techniques linéaires telles que l'analyse en composantes principales, l'analyse factorielle et la mise à l'échelle classique. Cependant, ces techniques linéaires ne peuvent pas traiter de manière adéquate des données non linéaires complexes. Un grand nombre de techniques non linéaires de réduction de dimensionnalité ont été proposées [7]. Apprentissage automatique et réduction du nombre de dimensions ? La faculté d'apprendre est essentielle à l'être humain pour reconnaître une voix, une personne, un objet... On distingue en général deux types d'apprentissage : l'apprentissage «par coeur» qui consiste à mémoriser telles quelles des informations, et l'apprentissage par généralisation où l'on apprend à partir d'exemples un modèle qui nous permettra de reconnaître de nouveaux exemples. Pour les systèmes informatiques, il est facile de mémoriser un grand nombre de données (textes, images, vidéos...), mais difficile de généraliser. Par exemple, il leur est difficile de construire un bon modèle d'un objet et d'être ensuite capable de reconnaître efficacement cet objet dans de nouvelles images. L'apprentissage automatique est une tentative de comprendre et de reproduire cette faculté d'apprentissage dans des systèmes artificiels. Il nous semble donc approprié d'utiliser des techniques issues de ce domaine pour découvrir et modéliser des connaissances liant texte et image, et pouvoir ainsi réduire le fossé sémantique. Dans le domaine de l'indexation et la recherche d'images, l'apprentissage peut jouer les rôles suivants : sélectionner les descripteurs visuels les plus pertinents, associer des descripteurs de bas niveaux à des concepts, regrouper les images de manière hiérarchique ou non par similarité visuelle et/ou conceptuelle, apprendre au fur et à mesure des interactions avec les utilisateurs,... Le grand volume de données multimédia et le nombre important de dimensions nécessaires pour les décrire imposent d'utiliser des techniques de réduction de dimensions afin de pouvoir, d'une part, extraire et résumer les connaissances souvent inconnues des données, et, d'autre part, indexer et retrouver rapidement les documents. On peut séparer les techniques d'analyses de données en deux grandes catégories : les classifications qui permettent de réduire la taille de l'ensemble des individus en regroupant ceux qui se ressemblent, et les analyses factorielles qui permettent de réduire le nombre de descripteurs. Dans ce mémoire, nous nous intéressons d'abord aux techniques de réduction de données et d'apprentissage automatique en général, et nous montrons quels sont leurs avantages et difficultés. Puis, nous présentons le problème de la malédiction de la dimension, et nous décrivons quelques techniques que l'on peut utiliser pour réduire le nombre de dimensions d'un espace. Nous allons étudier dans notre travail trois méthodes de réduction de dimension des images basée sur le CNN (PCANet2, PCANet2-SVD, PCANet2-LDA). Ces dernières seront validées sur la base de données FERET (Dup- II). Notre mémoire est structuré en quatre chapitres :  Le chapitre 1 repose sur les méthodes de réduction et Deep Learning pour RV.  Le chapitre 2 expose l’état de l’art sur les méthodes de réduction de dimensionnalité des images basée sur Deep Learning.  Le chapitre 3 nous définissons la conception de réduction en profondeur PCANet, LDANet, SVDNet.  Le chapitre 4 est consacré à l’implémentation de nos méthodes de réduction et aux résultats obtenus. Nous utilisons trois méthodes différentes.
URI: http://archives.univ-biskra.dz/handle/123456789/14604
Appears in Collections:Faculté des Sciences et de la technologie (FST)

Files in This Item:
File Description SizeFormat 
louam_abdelhak_bilal.pdf6,41 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.