Please use this identifier to cite or link to this item: http://archives.univ-biskra.dz/handle/123456789/13636
Title: Relation entre PM et PD pour les problèmes de contrôle optimal récursif
Other Titles: Mathématiques
Authors: yahiaoui, henia
Issue Date: 20-Jun-2019
Abstract: Les équations di¤érentielles stochastiques rétrogrades non linéaire (EDSRs) ont été introduit par Pardoux et Peng [12]. Indépendamment, Du¢ e et Epstein [4] ont introduit les EDSRs dans un contexte économique, ils ont présenté une formulation di¤érentielle stochastique d utilité récursif. Le problème de contrôle optimal dans le cas où le coût fonctionnel est décrit par la solution d une EDSR est appelé problème de contrôle optimal stochastique récursif. Dans ce cas, les systèmes de contrôle deviennent stochastique avant-arrière (FBSDES). Ce type de problème a trouvé des applications importantes dans des problèmes réels tels que l écono- mie mathématique, les mathématique nancière, et l ingénierie (voir Schroder et Skiadas [16], El Karoui et al.[5, 6], Ji et Zhou [9], Williams [21] et Wang et Wu [22]). Il est bien connu que le principe du maximum de Pontryagin et la programmation dyna- mique de Bellman sont deux outils importants pour résoudre les problèmes de contrôle op- timal stochastiques (voir le célèbre livre Yong et Zhou [26]). Pour les problèmes de contrôle optimal stochastique récursif, Peng [14] a été obtenu un principe maximum lorsque le do- maine de contrôle est convexe. Et puis Xu [25], étudié le cas de domaine de contrôle non convexe, mais il a besoin supposer que le coe¢ cient de di¤usion ne contient pas la variable de contrôle. Le principe du maximum pour un contrôle optimal stochastique récursif avec sauts de poisson, et leurs applications en nance, ont été étudiés par Shi et Wu [17], où le domaine de contrôle est convex. Pour une autre approche importante - la programmation dynamique - pour étudier les pro-blèmes de contrôle optimal stochastiques récursif, Peng [13] (voir aussi Peng [15]) d abord obtenu le principe de programmation dynamique généralisée et a introduit une équation Hamilton-Jacobi-Bellman généralisé (HJB) qui est une équation di¤érentielle partielle pa- rabolique de second-ordre (EDP). Une question naturelle se pose donc : existe-t-il des relations entre ces deux méthodes ? Un tel sujet a été discuté intuitivement par Bismut [3] et Bensoussan [2], puis étudié par de nombreux chercheurs. Dans certaines conditions de di¤érentiabilité, la relation entre le principe du maximum et la programmation dynamique est essentiellement la relation entre les dérivés de la fonction de valeur et la solution de l équation adjointe de l état optimal. La relation entre le principe du maximum et la programmation dynamiqueont ont été étudiés par Yong et Zhou [26]. Zhou [29], a obtenu le lien entre le principe du maximum et la programmation dynamique en utilisant la théorie de viscosité (voir aussi Yong et Zhou [26]), sans supposer que la fonction de valeur est lisse. Pour la di¤usion avec sauts, la relation entre le principe du maximum et la programmation dynamique ont été les premiers donnés par Framstad et al.[7, 8] dans certaines conditions de di¤éntiabilité, puis Shi et Wu [18] ont éliminé ces restrictions dans le cadre des solutions de viscosité. Pour les problèmes de contrôle optimal stochastique singulier, la relation entre le principe du maximum et la programmation dynamique ont été donnés par Bahlali et al. [1]. Pour le modèle de di¤usion à sauts de régime markovien, la relation entre le principe du maximum et la programmation dynamique était donné par Zhang et al. [27]. Notre objectif dans ce mémoire est de faire une étude détaillée sur le lien entre le principe de programmation dynamique (PD) et le principe du maximum (PM) pour les problèmes de contrôle optimal récursif. Cette étude est basé sur le travail de Shi et Yu [19] ( J. Shi and Z. Yu, Relationship between maximum principle and dynamic programming for stochastic recursive optimal control problems and applications,Mathematical Problems in Engineering 2013 (2013)). Nous présentons notre mémoire de la manière suivante : Dans le premier chapitre, nous commencons par présenter un rappel sur le calcul sto- chastique (Processus stochastiques, calcul d Itô, l existence et l unicité d une équation di¤érentielle stochastique (EDS)). Dans le deuxième chapitre, nous donnons une formulation générale d un problème de contrôle optimal récursif, puis nous étudions ce problème par le principe de programmation dynamique et le principe du maximum stochastique (condition nécessaire et su¢ sante d optimalité). Le dernier chapitre, contient la contribution essentielle de notre travail : Le lien entre les deux principes .
URI: http://archives.univ-biskra.dz/handle/123456789/13636
Appears in Collections:Faculté des Sciences Exactes et des Sciences de la Nature et de la Vie (FSESNV)

Files in This Item:
File Description SizeFormat 
henia_yahiaoui.pdf406,04 kBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.