Please use this identifier to cite or link to this item: http://archives.univ-biskra.dz/handle/123456789/4257
Full metadata record
DC FieldValueLanguage
dc.contributor.authorL. Cherroun-
dc.contributor.authorM. Boumehraz-
dc.date.accessioned2014-11-25T07:41:35Z-
dc.date.available2014-11-25T07:41:35Z-
dc.date.issued2014-11-25-
dc.identifier.urihttp://archives.univ-biskra.dz/handle/123456789/4257-
dc.description.abstractLa programmation d’un robot mobile est une tâche importante nécessitant une modélisation complète de l’environnement. Dans ce travail, on présente une technique intelligente pour la navigation d’un robot mobile, ne nécessitant qu’un signal scalaire comme information de retour. Au lieu de programmer un robot pour qu’il effectue une mission, on va le laisser apprendre seul sa propre stratégie. Premièrement, l’algorithme de Q-learning de l’apprentissage par renforcement est utilisé pour la navigation d’un robot mobile en discrétisant les espaces d’état et d’action. Afin d’améliorer les performances, une approche d’optimisation des contrôleurs flous par Q-learning et son application pour la tâche de navigation d'un robot mobile est proposée. L’approche consiste à introduire des connaissances à priori dans un système d’inférence flou pour que le comportement initial soit acceptable et d’améliorer les performances en utilisant le Q-learning .en_US
dc.language.isofren_US
dc.subjectrobot mobile, navigation intelligente, apprentissage par renforcement, Q-learning, contrôleur flouen_US
dc.titleOPTIMISATION DES CONTROLEURS FLOUS PAR RENFORCEMENT POUR LA NAVIGATION D'UN ROBOT MOBILEen_US
dc.typeArticleen_US
Appears in Collections:Communications Internationales



Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.