Théorème de Rao-Blackwell

Le théorème de Rao -Blackwell autorise partir d'un estimateur de construire un estimateur plus précis grâce à l'usage d'une statistique exhaustive.



Catégories :

Estimation (statistique) - Statistiques

Page(s) en rapport avec ce sujet :

  • Le Théorème de Rao - Blackwell apporte une méthode permettant de perfectionner les performances d'un estimateur sans biais d'un paramètre (c. à . d. de diminuer sa... (source : aiaccess)
  • Une implémentation du Théorème de Rao - Blackwell en simulation avec rejet = Rao- Blackwell Theorem for sampling schemes with rejection... (source : cat.inist)
  • In statistics, the Rao – Blackwell theorem, sometimes referred to as the Rao – Blackwell –Kolmogorov theorem, is a result which characterizes the transformation... (source : en.wikipedia)

Le théorème de Rao-Blackwell autorise partir d'un estimateur (statistique) de construire un estimateur plus précis grâce à l'usage d'une statistique exhaustive. L'avantage de ce théorème est que l'estimateur d'origine n'a pas obligatoirement besoin d'être particulièrement bon pour que l'estimateur que ce théorème construit fournisse de bons résultats. Il suffit en effet que l'estimateur de départ soit sans biais pour pouvoir construire un nouvel estimateur. L'estimateur de départ n'a entre autres pas besoin d'être convergent ou efficace.

Théorème

Si δ est un estimateur sans biais et S une statistique exhaustive alors l'estimateur augmenté \mathbb{E}(\delta |S) à une variance plus faible que la variance de l'estimateur d'origine. L'estimateur augmenté est par conséquent encore plus précis que l'estimateur d'origine si on l'augmente d'une statistique exhaustive.

Dans le cas multiparamétrique où l'estimateur et le paramètre sont en dimensions plus grands que 1 on remplace la variance par la matrice de variance-covariance. Le théorème de Rao-Blackwell donne alors :

Quel que soit A défini positif l'erreur quadratique en utilisant le produit scalaire défini par A est encore plus faible pour l'estimateur augmenté que pour l'estimateur d'origine.

Le fait de pouvoir prendre n'importe quel produit scalaire et non seulement le produit scalaire courant peut être particulièrement utile pour que les différentes composantes ne soit pas normés de la même façon. Ceci peut par exemple être le cas lorsque si une erreur sur l'une ou l'autre des composantes "coute plus cher" on pourra choisir une matrice de produit scalaire en fonction. L'estimateur augmenté sera toujours préférable même avec ce produit scalaire non courant.

En fait le théorème de Rao Blackwell donne un peu plus vu qu'il dit que quelle que soit la fonction de perte convexe L \mathbb{E}(L((\delta |S),\theta))\leq \mathbb{E}(L(\delta ,\theta)). L'estimateur augmenté est par conséquent encore plus précis et ce quelle que soit la définition (raisonnable) qu'on donne à "précis".

Exemple

On considère par conséquent n variables aléatoires Xi iid distribués selon des lois de Poisson de paramètre λ et on cherche à estimer e − λ. On peut montrer assez aisément en considérant le critère de factorisation que  S = \sum_{i=1}ˆn X_{i} est une statistique exhaustive. Pour montrer l'intérêt de ce théorème on prend un estimateur grossier de e − λ : δ0 = δ (X1, 0) qui vaut 1 si X1 = 0 et 0 sinon. Cet estimateur ne prend en compte qu'une seule valeur de X tandis qu'on en dispose de n et il ne donne pour résultat que 0 ou 1 tandis que la valeur de e − λ appartient à l'intervalle ]0, 1] et ne vaut probablement pas 1. (si c'était le cas Xi vaudrait 0 de façon déterministe et on s'en serai aperçu en regardant les données). Néenmoins quoique cet estimateur soit particulièrement grossier l'estimateur augmenté obtenu est particulièrement bon et on peut même montrer qu'il est optimal. L'estimateur augmenté vaut :

\delta_1=\mathbb{E}(\delta_0|S).\,\!

On peut montrer que :

\delta_1=\left(1-{1 \over n}\right)ˆ{S}.\,\!

δ1 est tout comme δ0 un estimateur de e − λ mais a l'avantage d'être bien plus précis grâce à l'application du théorème de Rao–Blackwell.

On peut montrer que \delta_2=\frac{S}{n} est un estimateur optimal de λ (Voir Théorème de Lehman Scheffé) mais que l'estimateur optimal pour e − λ est différent de eˆ{-\delta_2}.

En fait quoique eˆ{-\delta_2} soit un estimateur convergent de e − λ c'est un estimateur d'assez mauvaise qualité car il est biaisé et qu'en l'estimant de la sorte on fait une erreur systématique sur l'estimation. De façon général il peut être intéressant pour estimer f (λ) de construire un estimateur spécifique plutôt que de calculer la valeur prise par f par l'estimateur de λ.

voir aussi

Références

Liens externes

Recherche sur Amazon (livres) :



Ce texte est issu de l'encyclopédie Wikipedia. Vous pouvez consulter sa version originale dans cette encyclopédie à l'adresse http://fr.wikipedia.org/wiki/Th%C3%A9or%C3%A8me_de_Rao-Blackwell.
Voir la liste des contributeurs.
La version présentée ici à été extraite depuis cette source le 07/04/2010.
Ce texte est disponible sous les termes de la licence de documentation libre GNU (GFDL).
La liste des définitions proposées en tête de page est une sélection parmi les résultats obtenus à l'aide de la commande "define:" de Google.
Cette page fait partie du projet Wikibis.
Accueil Recherche Aller au contenuDébut page
ContactContact ImprimerImprimer liens d'évitement et raccourcis clavierAccessibilité
Aller au menu