Méthode des moments

La méthode des moments est un outil d'estimation intuitif qui date du début des Statistiques.



Catégories :

Statistiques

La méthode des moments est un outil d'estimation intuitif qui date du début des Statistiques.

Elle consiste à estimer les paramètres recherchés en égalisant certains moments théoriques (qui dépendent de ces paramètres) avec leurs contreparties empiriques. L'égalisation se justifie par la loi des grands nombres qui implique qu'on peut "approcher" une espérance mathématique par une moyenne empirique.

On est par conséquent amené à résoudre un dispositif d'équations; il faut alors prendre garde à pouvoir identifier l'ensemble des paramètres.

Formalisation mathématique

On suppose que l'échantillon X1, ..., Xn est un échantillon iid (semblablement et indépendamment distribué) selon une famille de lois paramétriques, paramétrée par θ. Toute fonction des données de l'échantillon est par conséquent une fonction F (θ). C'est spécifiquement le cas des moments de la famille, si ceux-ci existent.

On sélectionne alors s moments G=\left[m_1(\theta), m_2(\theta), \cdots, m_s(\theta)\right], qui définissent un vecteur s×1. Il existe par conséquent une fonction G telle que G(\theta)=\left[m_1(\theta), m_2(\theta), \cdots, m_s(\theta)\right]. L'équivalent empirique du vecteur G est le vecteur composé des s moments d'échantillon, noté \widehat{G}. Cela veut dire qu'on remplace l'i-ème moment théorique, à savoir Eθ (Xi) , par la quantité :

\widehat{m}_i = \frac{1}{n} \sum_{i=1}ˆn xˆi

L'estimateur de θ par la méthode des moments, noté \widehat{\theta}, consiste à résoudre l'équation vectorielle :

\widehat{G} = G(\widehat{\theta})

Exemple

Supposons que X1, ..., Xn sont des variables aléatoires iid selon la loi Gamma avec pour densité

f(x;\alpha,\beta) = {xˆ{\alpha-1} eˆ{-x/\beta} \over \betaˆ\alpha\, \Gamma(\alpha)} \, \!pour x > 0, et 0 quand x < 0.

On cherche à estimer le vecteur des paramètres θ = [α;β]


On détermine en premier lieu les moments théoriques.

Le premier moment, l'espérance, est donné par
\operatorname{E}(X_1)\equiv m_1=\alpha\beta\,
et le second moment, l'espérance du carré de la variable, est
\operatorname{E}(X_1ˆ2)\equiv m_2=\betaˆ2\alpha(\alpha+1).\,

On exprime ensuite la relation entre les paramètres et les moments théoriques :

\begin{cases}  \alpha\beta & =  m_{1}\\ \betaˆ2\alpha(\alpha+1) & =  m_{2} \end{cases}

la résolution donne :

\alpha={ m_{1}ˆ2 
\over m_{2} - m_{1}ˆ2}\,\!

et

\beta={ m_{2} - m_{1}ˆ2 \over m_{1}}.\,\!

Une fois cette relation établie, la méthode des moments consiste à utiliser les moments empiriques, en l'occurrence pour notre exemple les deux premiers, \hat m_{1} et \hat m_{2} :

\hat m_{1} = {X_1+\cdots+X_n \over n} \,\!

et

\hat m_{2} = {X_1ˆ2+\cdots+X_nˆ2 \over n}.\,\!

que on pose égaux aux moments théoriques :

\hat m_{1} =  m_{1}\,\!
\hat m_{2} =  m_{2}\,\!


La résolution en α et β apporte alors :

\hat\alpha={ \hat m_{1}ˆ2 
\over \hat m_{2} - \hat m_{1}ˆ2}\,\!

et

\hat\beta={ \hat m_{2} - \hat m_{1}ˆ2 \over \hat m_{1}}.\,\!

Avantages et désavantages de cette méthode

Occasionnellemen, la méthode des moments n'est pas capable d'atteindre la limite d'information de Cramér-Rao : l'estimation est par conséquent dépassée par l'estimation par Maximum de vraisemblance.

Cependant, occasionnellementcomme celui de la loi Gamma, le calcul de la fonction de vraisemblance peut poser des problèmes (l'utilisation de l'ordinateur et d'algorithmes numériques est indispensable) alors que l'estimation des moments est particulièrement aisément accessible.

La méthode des moments peut s'utiliser comme point de départ pour maximiser la (log-) vraisemblance : en effet, on doit utiliser dans ce cas des algorithmes numériques, comme la Méthode de Newton, qui nécessitent des points de départ.

Par contre, quand la taille de l'échantillon n'est pas suffisamment grande, la loi des grands nombres ne s'applique pas et donc, les moments empiriques n'approchent pas suffisamment bien les moments théoriques. Ainsi, la méthode des moments n'est pas une méthode de confiance dans ce cas : les estimateurs ainsi obtenus peuvent avoir tendance à sortir du support des paramètres. A titre d'exemple, pour la loi gamma, un faible échantillon peut conduire à α < 0.

Enfin, nous avons vu que la méthode des moments consiste à résoudre :

\widehat{G} = G(\widehat{\theta})

ce qui n'est pas forcément envisageable. On peut alors chercher à minimiser sur θ la forme quadratique suivante

g' (θ) Wg (θ)

g (θ) = G (θ) − G

et où W est une matrice (s × s) de pondération. Résoudre ce dispositif revient à résoudre approximativement g(\widehat{\theta})\approx 0. Cette idée est le point de départ de la méthode des moments généralisée   (en) .

Voir aussi

Recherche sur Amazon (livres) :



Ce texte est issu de l'encyclopédie Wikipedia. Vous pouvez consulter sa version originale dans cette encyclopédie à l'adresse http://fr.wikipedia.org/wiki/M%C3%A9thode_des_moments_(statistiques).
Voir la liste des contributeurs.
La version présentée ici à été extraite depuis cette source le 07/04/2010.
Ce texte est disponible sous les termes de la licence de documentation libre GNU (GFDL).
La liste des définitions proposées en tête de page est une sélection parmi les résultats obtenus à l'aide de la commande "define:" de Google.
Cette page fait partie du projet Wikibis.
Accueil Recherche Aller au contenuDébut page
ContactContact ImprimerImprimer liens d'évitement et raccourcis clavierAccessibilité
Aller au menu