Please use this identifier to cite or link to this item: http://archives.univ-biskra.dz/handle/123456789/25109
Title: PRINCIPE DU MAXIMUM POUR LES PROBLEMES DE CONTROLE STOCHASTIQUE: APPROCHE PAR LES PROBABILITES EQUIVALENTES
Authors: BOUGHERARA, Saliha
Keywords: Equation différentiel stochastique, contrôle stochastique, principe du maximum, programmation dynamique,Processus stochastiques et de Contrôle optimal,AMS Subject Classification. Primary 93E20, 60H30. Secondary, 60G44, 49N10.
Issue Date: 2005
Abstract: Dans ce mémoire, notre intérêt s'est focalisé sur les problèmes de contrôle stochastiques où la dynamique vérifie une équation différentielle stochastique de type Itô. Au premier chapitre, nous avons introduit les différents problèmes de contrôle stochastique et donné quelques exemples. Au deuxième chapitre, nous avons étudié en détails le principe de Bellmann qui donne lieu à l'équation de Hamiton Bellmann Jacobi. Cette équation ne possède pas en général des solutions régulières. Nous nous sommes donc intéressés à la notion de solutions de viscosité introduite par Grandall et Lions. On montre en particulier que la fonction de valeur est l'unique solution de viscosité de l'équation d' HJB. Au troisième chapitre, nous nous sommes intéressés aux conditions nécessaires d'optimalité de type Pontriagin par des approches de Haussmann et Kushner.
URI: http://archives.univ-biskra.dz/handle/123456789/25109
Appears in Collections:Mathématiques



Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.