Please use this identifier to cite or link to this item: http://archives.univ-biskra.dz/handle/123456789/13699
Title: la théorie de l estimation paramétrique
Other Titles: Mathématiques
Authors: abba, manar
Issue Date: 20-Jun-2019
Abstract: La théorie de l estimation étudie les propriétés des estimateurs et des méthodes gé- nérales d estimation. L objectif est de comparer les lois d échantillonage des estimateurs. Elle consiste à approximer les valeurs exacte et inconnues des paramètres d une popula- tion statistique considéré ou d un modèle mathématique à partir d observation d individus s appelle échantillon. Le paramètre de la population est estimé à partir d une statistique calculée sur la base d un échantillon. L estimation ponctuelle d un paramètre consiste à évaluer la valeur du paramètre de la population à l aide d une valeur unique prise dans un échantillon. Pour évaluer la précision d un estimateur, il est d usage de construire un intervalle de con ance autour de cet estimateur. Soit X une variable aléatoire associée à un certain phénomène aléatoire observable de facon répétée. Notre objectif est d estimer certaines caractéristiques d intérêt de sa loi (la moyenne, la variance, ... ) sur la base d une série d observations x1; x2; :::; xn: Considérerons toujours, même si des développements analogues sont possibles dans d autre circonstances, que x1; x2; :::; xn sont des réalisations d un n échantillon aléatoire X1;X2; :::;Xn: Cette hypothèse sur nos observations qui peut être plus ou moins réaliste est nécessaire pour étudier de facons simple, en termes probabilistes, la qualité des estimations que l on cherche à produire. Dans le cadre de ce mémoire, on va s intéresser aux théories de l estimation paramétrique, aussi nous donnons un aperçu historique sur les trois méthodes d estimations : la méthode du maximum de vraisemblance, la méthode des moments et la méthode d estimation par intervalle de con ance. La méthode du maximum de vraisemblance à été introduite par Gauss, cette approche est habituellement associée au nom du statisticien anglais Fisher; qui à découvert cette méthode d inférence et a été le premier à donner les bases d une théorie de l estimation paramétrique fondée sur la vraisemblance. La méthode des moments a en premier lieu était discutée par K.Pearson, puis elle été généralisée par L.Hansen. La méthode d estimation par intervalle de con ance a été introduite dans la statistique par Jerzy Neyman. Ce mémoire est partagée en deux chapitres. Dans le premier chapitre on dé nit qu est ce qu un estimateur, les qualités d un estimateur et recherche du meilleur estimateur. Dans le deuxième chapitre nous aborderons trois méthodes d estimation paramétrique (la méthode du maximum de vraisemblance, la méthode des moments et la méthode d esti- mation par intervalle de con ance).
URI: http://archives.univ-biskra.dz/handle/123456789/13699
Appears in Collections:Faculté des Sciences Exactes et des Sciences de la Nature et de la Vie (FSESNV)

Files in This Item:
File Description SizeFormat 
abba_manar.pdf400,47 kBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.