Please use this identifier to cite or link to this item: http://archives.univ-biskra.dz/handle/123456789/25109
Full metadata record
DC FieldValueLanguage
dc.contributor.authorBOUGHERARA, Saliha-
dc.date.accessioned2023-05-03T08:47:25Z-
dc.date.available2023-05-03T08:47:25Z-
dc.date.issued2005-
dc.identifier.urihttp://archives.univ-biskra.dz/handle/123456789/25109-
dc.description.abstractDans ce mémoire, notre intérêt s'est focalisé sur les problèmes de contrôle stochastiques où la dynamique vérifie une équation différentielle stochastique de type Itô. Au premier chapitre, nous avons introduit les différents problèmes de contrôle stochastique et donné quelques exemples. Au deuxième chapitre, nous avons étudié en détails le principe de Bellmann qui donne lieu à l'équation de Hamiton Bellmann Jacobi. Cette équation ne possède pas en général des solutions régulières. Nous nous sommes donc intéressés à la notion de solutions de viscosité introduite par Grandall et Lions. On montre en particulier que la fonction de valeur est l'unique solution de viscosité de l'équation d' HJB. Au troisième chapitre, nous nous sommes intéressés aux conditions nécessaires d'optimalité de type Pontriagin par des approches de Haussmann et Kushner.en_US
dc.language.isofren_US
dc.subjectEquation différentiel stochastique, contrôle stochastique, principe du maximum, programmation dynamique,Processus stochastiques et de Contrôle optimal,AMS Subject Classification. Primary 93E20, 60H30. Secondary, 60G44, 49N10.en_US
dc.titlePRINCIPE DU MAXIMUM POUR LES PROBLEMES DE CONTROLE STOCHASTIQUE: APPROCHE PAR LES PROBABILITES EQUIVALENTESen_US
dc.typeThesisen_US
Appears in Collections:Mathématiques



Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.