Please use this identifier to cite or link to this item: http://archives.univ-biskra.dz/handle/123456789/13635
Title: Principe du maximum stochastique sous l information partielle
Other Titles: Mathématiques
Authors: zid, ferdous
Issue Date: 20-Jun-2019
Abstract: Dans ce travail, on considère un problème de contrôle optimal stochastique sous l information partielle, qui consiste à minimiser une fonction de coût donnée par : J (u ( )) = E Z T 0 f (t;X (t) ; u (t)) dt + g (X (T)) ; où X( ) est une solution en t d un système gouverné par l équation di¤érentielle stochas- tique (EDS en bref) contrôlée de la forme suivante : 8>>< >>: dX(t) = b (t;X(t); u(t)) dt + (t;X(t); u(t))dW(t); X (0) = x0; où b et sont des fonctions déterministes et W(t) un mouvement brownien. Notre objectif est d établir des conditions nécessaires et su¢ santes d optimalité sous la forme de principe du maximum stochastique de Pontryagin. Le système considéré dans ce travail est gouverné par des équations di¤érentielles (EDSs) avec des coe¢ cients contrôllés. Nous supposons le domaine du contrôle est convexe. La preuve de ce résultat est basée sur la perturbation convexe et la formule d Itô. Nous présentons dans ce travail trois chapitres, le premier chapitre est introductif et per- met d introduire les outils essentiels pour le deuxième et le troisième chapitres, ces deux derniers, contient l essentielle de notre travail. La suite de ce travail est organisée de la manière suivante : Dans le deuxième chapitre, on s intéresse au problème de contrôle stochastique, nous commençons par présenter les résultats principaux des contrôles stochastiques de façon générale. On décrit brièvement les di¤érentes méthodes de résolutions du problème de contrôle stochastique, les bien- connues, qui sont la méthode de la programmation dy- namique (Principe de Bellman) et le principe du maximum de Pontryagin. Dans notre travail, nous employons la deuxième méthode. Le troisième chapitre contient la contribution essentielle de ce travail. Ce chapitre est consacré à l étude du problème de principe du maximum stochastique où le sytème di¤é- rentiel est gouverné par des EDSs sous l information partielle. Pour cela, on suppose que la fonction de coût J (u ( )), où u ( ) est un contrôle admissible, di¤érentiable et il accepte une minimum en ^u ( ) qu on appelera contrôle optimale, J (^u ( )) = min u2U fJ (u ( )) ; u ( ) 2 U : convexeg ; où U est l espace de contrôle admissible, puis on perturbe le contrôle ^u ( ) sur un intervalle de longueur " où on obtient un contrôle u qu on appellera perturbation convexe de ^u, en remarquant ici que u ( ) est un contrôle admissible et Gt-adapté (Gt sous ltration de Ft). L intérêt de la perturbation du contrôle optimal ^u ( ) est d introduire un contrôle u ( ) sur laquelle nous pourrons dériver la fonction de coût J (u ( )) : Le domaine de contrôle U est supposé convexe. Les conditions nécessaires véri ées par le contrôle ^u ( ) appellerons conditions nécessaire d optimalité. Notons que les étapes d étude suivies dans ce chapitre sont similaires à celles de Bensoussan [1]1. Dans le dernier chapitre, nous appliquons le principe du maximum stochastique au pro- blème de sélection de portefeuille moyenne-variance.
URI: http://archives.univ-biskra.dz/handle/123456789/13635
Appears in Collections:Faculté des Sciences Exactes et des Sciences de la Nature et de la Vie (FSESNV)

Files in This Item:
File Description SizeFormat 
ferdous_zid.pdf407,39 kBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.