Please use this identifier to cite or link to this item:
http://archives.univ-biskra.dz/handle/123456789/13699
Full metadata record
DC Field | Value | Language |
---|---|---|
dc.contributor.author | abba, manar | - |
dc.date.accessioned | 2019-11-03T11:55:56Z | - |
dc.date.available | 2019-11-03T11:55:56Z | - |
dc.date.issued | 2019-06-20 | - |
dc.identifier.uri | http://archives.univ-biskra.dz/handle/123456789/13699 | - |
dc.description.abstract | La théorie de l estimation étudie les propriétés des estimateurs et des méthodes gé- nérales d estimation. L objectif est de comparer les lois d échantillonage des estimateurs. Elle consiste à approximer les valeurs exacte et inconnues des paramètres d une popula- tion statistique considéré ou d un modèle mathématique à partir d observation d individus s appelle échantillon. Le paramètre de la population est estimé à partir d une statistique calculée sur la base d un échantillon. L estimation ponctuelle d un paramètre consiste à évaluer la valeur du paramètre de la population à l aide d une valeur unique prise dans un échantillon. Pour évaluer la précision d un estimateur, il est d usage de construire un intervalle de con ance autour de cet estimateur. Soit X une variable aléatoire associée à un certain phénomène aléatoire observable de facon répétée. Notre objectif est d estimer certaines caractéristiques d intérêt de sa loi (la moyenne, la variance, ... ) sur la base d une série d observations x1; x2; :::; xn: Considérerons toujours, même si des développements analogues sont possibles dans d autre circonstances, que x1; x2; :::; xn sont des réalisations d un n échantillon aléatoire X1;X2; :::;Xn: Cette hypothèse sur nos observations qui peut être plus ou moins réaliste est nécessaire pour étudier de facons simple, en termes probabilistes, la qualité des estimations que l on cherche à produire. Dans le cadre de ce mémoire, on va s intéresser aux théories de l estimation paramétrique, aussi nous donnons un aperçu historique sur les trois méthodes d estimations : la méthode du maximum de vraisemblance, la méthode des moments et la méthode d estimation par intervalle de con ance. La méthode du maximum de vraisemblance à été introduite par Gauss, cette approche est habituellement associée au nom du statisticien anglais Fisher; qui à découvert cette méthode d inférence et a été le premier à donner les bases d une théorie de l estimation paramétrique fondée sur la vraisemblance. La méthode des moments a en premier lieu était discutée par K.Pearson, puis elle été généralisée par L.Hansen. La méthode d estimation par intervalle de con ance a été introduite dans la statistique par Jerzy Neyman. Ce mémoire est partagée en deux chapitres. Dans le premier chapitre on dé nit qu est ce qu un estimateur, les qualités d un estimateur et recherche du meilleur estimateur. Dans le deuxième chapitre nous aborderons trois méthodes d estimation paramétrique (la méthode du maximum de vraisemblance, la méthode des moments et la méthode d esti- mation par intervalle de con ance). | en_US |
dc.language.iso | fr | en_US |
dc.title | la théorie de l estimation paramétrique | en_US |
dc.title.alternative | Mathématiques | en_US |
dc.type | Master | en_US |
Appears in Collections: | Faculté des Sciences Exactes et des Science de la Nature et de la vie (FSESNV) |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
abba_manar.pdf | 400,47 kB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.