Soit θ le paramètre à estimer (par exemple une moyenne, une variance). On considère un estimateur sans biais que l'on note . La borne de Cramér-Rao dit que l'inverse de l'information de Fisher, noté , du paramètre θ, est un minorant de la variance de :
où l'information de Fisher est , où est le nombre d'observations indépendantes de la variable aléatoire , où et où est la fonction de vraisemblance.
Si le modèle admet certaines régularités[1], on a .
Dans certains cas, aucun estimateur non biaisé n'atteint la borne inférieure.
L'information de n évènements indépendants étant seulement n fois l'information d'un seul évènement, soit .
L'inégalité de Cramér-Rao donne :
Dans ce cas, on a donc égalité. On dit alors que l'estimateur est efficace.
Conditions de régularité
Cette inégalité repose sur deux conditions faibles de régularité des densités de probabilité, , et l'estimateur :
L'information de Fisher est toujours définie ; de manière équivalente, pour tout tel que ,
soit fini.
L'intégration par rapport à x et la différentiation par rapport à θ peuvent être échangées dans le calcul de T ; soit encore,
si le second membre est fini.
Dans certains cas, un estimateur biaisé peut avoir une variance et une erreur quadratique moyenne en dessous de la borne de Cramér-Rao (cette borne ne s'appliquant que pour les estimateurs non biaisés).
Si la régularité permet d'atteindre la dérivée seconde, alors l'information de Fisher peut se mettre sous une autre forme, et l'inégalité de Cramér-Rao donne :
↑(en) S. M. Kay, Fundamentals of Statistical Signal Processing : Estimation Theory, Englewood Cliffs (N. J.), Prentice Hall, , 595 p. (ISBN0-13-042268-1), p. 47
Bibliographie
(en) Abram Kagan, « Another Look at the Cramér–Rao Inequality », The American Statistician, vol. 55, no 3, , p. 211-212