Statistique

Statistique

Une statistique est, au premier abord, le résultat d'une suite d'opérations appliquées à un ensemble de nombres appelé échantillon. D'une façon générale, c'est le résultat de l'application d'une méthode statistique à un ensemble de données. Dans le calcul de la moyenne arithmétique, par exemple, l'algorithme consiste à calculer la somme de toutes les valeurs des données et à diviser par le nombre de données. La moyenne est ainsi une statistique. Pour être complet dans la description de l'utilisation d'une statistique, il faut décrire à la fois la procédure et l'ensemble de données.

De façon formelle bien que cela soit rarement utilisé une statistique est une variable aléatoire d'un type particulier. C'est en effet une fonction d'un vecteur composée de plusieurs observations d'une loi. Cela permet entre autres d'étendre aux statistiques un certain nombre de résultats sur les variables aléatoires entre autres le caractère indépendant de deux statistiques ou calculer des densités de statistiques.

Parmi les statistiques un certain nombre ont des propriétés particulières qui servent entre autres en Inférence statistique pour l'estimation statistique. Les estimateurs servent, comme leur nom l'indique, à estimer des paramètres statistiques. L'optimisation de ces estimateurs peut également faire intervenir des statistiques auxiliaires vérifiant certaines propriétés et qui permettent de faire converger plus vite ces estimateurs.

Sommaire

Estimateurs

Article détaillé : Estimateur (statistique).

En statistique inférentielle, un estimateur est une valeur calculée sur un échantillon et que l'on espère être une bonne évaluation de la valeur que l'on aurait calculée sur la population totale. On cherche à ce qu'un estimateur soit sans biais, convergent, efficace et robuste.

Principales propriétés souhaitables

Si \widehat{\theta} est un estimateur de θ on dit qu'il est:

  • Convergent si: \widehat{\theta} tend en probabilité vers θ quand le nombre d'observations augmente. Plus le nombre d'observations est grand et plus l'on se rapproche de la vraie valeur. Cette propriété d'un estimateur est essentielle si l'on veut pouvoir estimer avec grande précision le paramètre θ. En effet, si c'est le cas, pour augmenter la précision de l'estimateur, il suffira d'effectuer plus de mesures.
  • Sans biais si: 
\mathbb{E}(\widehat{\theta})=\theta.\,
On peut voir un estimateur sans biais comme un estimateur pour lequel on ne fait pas d'erreur systématique pour une taille d'échantillon donnée. À contrario pour un estimateur qui aurait un biais il pourrait par exemple exister des valeurs du paramètre θ pour lesquelles on sur estimerait ou sous estimerait de façon systématique la grandeur que l'on cherche à évaluer. C'est pour qu'il soit sans biais que l'on estime d'ordinaire la variance quand on a n observations par \frac{n}{n-1}\sigma^2 et non par σ2 par exemple.

Ces deux propriétés sont essentielles et en règle générale on considère que tout estimateur devrait au moins vérifier ces deux propriétés pour qu'on puisse le considérer comme suffisamment précis. On peut de plus vouloir qu'un estimateur soit efficace (c'est-à-dire que l'estimation qu'il fournit varie le moins possible autour de la valeur à estimer) ou robuste (c'est-à-dire qu'il soit peu sensible aux variations d'une mesure sur les n). Ces deux propriétés sont détaillées plus bas dans les sections Optimisation d'estimateur et Robustesse.

Statistique exhaustive et information

Article détaillé : statistique exhaustive.

Une propriété de la théorie du physicien karl est très intéressante pour les probabilité en statistique qui peut avoir est son caractère exhaustif. Une statistique S est dite exhaustive si la probabilité conditionnelle d'observer X sachant S(X) est indépendante de θ. Cela peut se traduire par la formule suivante:

\mathbb{P}(X=x|S(X)=s,\theta) = \mathbb{P}(X=x|S(X)=s), \,

Cette définition n'étant pas forcément très simple à manier en pratique on préfère souvent utiliser la caractérisation de factorisation des statistiques exhaustives. Ces statistiques exhaustives sont particulièrement importantes car fournissent toute l'information qu'il est possible de récupérer sur le paramètre à partir d'une série d'observations. Une statistique exhaustive apporte donc autant d'information que l'ensemble du vecteur des observations x et l'on ne peut pas récupérer plus d'information que celle contenue dans une statistique exhaustive. Cela se formalise grâce à l'information de Fisher. Si IS est l'information de Fisher apportée par une statistique S et I l'information du modèle:

I_{S}(\theta)\leq I(\theta)

Avec un cas d'égalité uniquement dans le cas d'une statistique exhaustive. Pour le cas d'un modèle à un seul paramètre cette inégalité est une inégalité classique. Pour le cas des modèles multiparamétrés cette inégalité est une inégalité au sens de la relation d'ordre partielle introduite par: A\leq B si B-A est une matrice symétrique positive.

Optimisation d'estimateurs

L'optimisation d'estimateurs peut se faire grâce à l'usage de statistiques exhaustives. Une méthode possible pour trouver de "bons" estimateurs est de prendre un premier estimateur sans biais de la valeur à estimer sans trop chercher à l'optimiser. Ensuite on optimise cet estimateur en se servant de statistiques exhaustives.

Cette méthode repose principalement sur deux théorèmes : le théorème de Rao-Blackwell qui fournit un deuxième estimateur de meilleur qualité appelé estimateur augmenté et le théorème de Lehman-Scheffer qui donne des conditions suffisantes pour que cet estimateur soit optimal.

Estimateurs augmentés et Théorème de Rao-Blackwell

Article détaillé : Théorème de Rao-Blackwell.

Si δ est un estimateur sans biais et S une statistique exhaustive alors l'estimateur augmenté \mathbb{E}(\delta |S) a une variance plus faible que l'espérance de départ et est également sans biais. L'estimateur augmenté est donc toujours plus précis que l'estimateur initial si on l'augmente d'une statistique exhaustive.

Dans le cas multiparamétrique où l'estimateur et le paramètre sont de dimension supérieure 1, on considère la matrice de variance-covariance. L'erreur quadratique du nouvel estimateur est toujours plus faible que celui de l'ancien estimateur et ce quelle que soit la norme utilisée. Même si les différentes composantes ne sont pas normées de la même façon l'estimateur augmenté est toujours préférable.

Exemple

On considère donc n variables aléatoires Xi distribués selon des lois de Poisson de paramètre λ et l'on cherche à estimer e − λ. On peut montrer assez facilement en considérant le critère de factorisation que  S = \sum_{i=1}^n X_{i} est une statistique exhaustive. Pour montrer l'intérêt de ce théorème, on prend un estimateur très grossier de e − λ: δ0 = δ(X1,0) qui vaut 1 si X1 = 0 et 0 sinon. Cet estimateur ne prend en compte qu'une seule valeur de X alors qu'on en dispose de n et il ne donne pour résultat que 0 ou 1 alors que la valeur de e − λ appartient à l'intervalle ]0,1] et ne vaut sans doute pas 1. (si c'était le cas Xi vaudrait 0 de façon déterministe et on s'en serait aperçu en regardant les données). Pourtant malgré la grossièreté de cet estimateur, l'estimateur obtenu est très bon et on peut même montrer qu'il est optimal. L'estimateur augmenté vaut :

\delta_1=\mathbb{E}(\delta_0|S).\,\!

On peut montrer que:

\delta_1=\left(1-{1 \over n}\right)^{S}.\,\!

δ1 est tout comme de δ0 un estimateur de e − λ mais à l'avantage d'être beaucoup plus précis grâce à l'application du théorème de Rao–Blackwell. En fait, on montre avec Théorème de Lehman Scheffé qu'il est même optimal.

On remarquera entre autres que \delta_2=\frac{S}{n} est un estimateur optimal de λ (cela se montre de la même manière) mais que l'estimateur pour e − λ est différent de e^{-\delta_2}. En fait, on peut même montrer que bien que e^{-\delta_2} soit un estimateur convergent de e − λ c'est un estimateur de relativement mauvaise qualité car il est biaisé et qu'en l'estimant de la sorte on fait une erreur systématique sur l'estimation. De façon générale, il peut être intéressant pour estimer f(λ) de construire un estimateur spécifique plutôt que de calculer la valeur prise par f par l'estimateur de λ.

Statistique complète et Théorème de Lehman Scheffé

On dit qu'une statistique est complète (on dit parfois totale) si : \forall \theta, \, \mathbb{E}(f(s(x)))=0 implique f=0 presque partout.

Le théorème de Lehman-Scheffé a une importance particulière en statistiques puisqu'il permet de trouver des estimateurs optimaux qui ne peuvent pas être améliorés en termes de précision car ils atteignent la borne FDCR. De tels estimateurs n'existent pas forcément mais si l'on dispose d'une statistique qui soit à la fois complète et totale et d'un estimateur δ qui soit sans biais alors l'estimateur augmenté \mathbb{E}(\delta |S) est optimal et l'on ne peut pas trouver de meilleur estimateur.

Exemple

Montrons par exemple que pour une loi exponentielle de paramètres λ la moyenne des observations est le meilleure estimateur possible pour λ. Si l'on a un vecteur des observations X de taille n avec les Xi de loi exponentielle (λ,σ) on commence par montrer que S(X)=\sum_1^n X_i est une statistique exhaustive et complète.

Pour montrer que cette statistique est exhaustive cela se fait relativement simplement grâce au théorème de factorisation. Pour montrer le fait que cette statistique est complète il faut utiliser l'injectivité de la transformée de Laplace.

Une fois montré que la statistique S est à la fois complète et exhaustive l'estimateur de la moyenne \frac{S}{n} étant égal à l'estimateur augmenté \mathbb{E}\left(\left. \frac{S}{n}\right|S\right) on en déduit immédiatement grâce au théorème de Lehman Scheffé que cet estimateur est optimal au sens où il atteint la borne FDCR et que l'on ne peut en trouver de meilleur. L'estimateur de la moyenne est l'estimateur le plus précis que l'on puisse trouver pour le paramètre d'une loi exponentielle.

Statistique robuste

(en) Robust statistics

Voir aussi

Sur les autres projets Wikimedia :

Bibliographie

  • Alain Monfort, Cours de statistique mathématique, 1982, Economica, Paris.

Articles connexes

Liens externes



Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Statistique de Wikipédia en français (auteurs)

Игры ⚽ Нужно решить контрольную?

Regardez d'autres dictionnaires:

  • STATISTIQUE — Le mot «statistique» désigne à la fois un ensemble de données d’observation et l’activité qui consiste dans leur recueil, leur traitement et leur interprétation. Au cours de l’histoire, la collecte d’observations et la méthodologie de leur emploi …   Encyclopédie Universelle

  • statistique — (sta ti sti k ) s. f. 1°   Science qui a pour but de faire connaître l étendue, la population, les ressources agricoles et industrielles d un État. Achenwall, qui vivait vers la fin du milieu du XVIIIe siècle, est généralement considéré comme le… …   Dictionnaire de la Langue Française d'Émile Littré

  • STATISTIQUE — n. f. T. didactique Science qui a pour objet de recueillir et de dénombrer les divers faits de la vie sociale. Statistique des naissances, des mariages, des divorces. Statistique médicale. Statistique de la criminalité. Il désigne encore la… …   Dictionnaire de l'Academie Francaise, 8eme edition (1935)

  • STATISTIQUE — s. f. Science qui apprend à connaître un État sous les rapports de son étendue, de sa population, de son agriculture, de son industrie, de son commerce, etc. La statistique est une science nouvelle. La statistique fournit des matériaux à l… …   Dictionnaire de l'Academie Francaise, 7eme edition (1835)

  • statistique — statistika statusas T sritis fizika atitikmenys: angl. statistics vok. Statistik, f rus. статистика, f pranc. statistique, f …   Fizikos terminų žodynas

  • STATISTIQUE (MÉCANIQUE) — La mécanique statistique a pour but d’expliquer les propriétés de la matière, en particulier ses propriétés thermiques, à partir des lois de la mécanique auxquelles obéissent les atomes et molécules dont elle est formée (et, plus généralement,… …   Encyclopédie Universelle

  • Statistique mathematique — Statistique mathématique Pour les articles homonymes, voir Statistique. Les statistiques, dans le sens populaire du terme, traitent des populations. En statistique descriptive, on se contente de décrire un échantillon à partir de grandeurs comme… …   Wikipédia en Français

  • Statistique de fermi-dirac — Cet article fait partie de la série Mécanique quantique Postulats de la mécanique quantique Histo …   Wikipédia en Français

  • STATISTIQUE (THERMODYNAMIQUE) — L’interprétation de l’évolution des systèmes physiques nécessite à la fois les lois de la dynamique, classique ou quantique, et celles de la thermodynamique. Par conséquent, il est important de clarifier la relation entre dynamique et… …   Encyclopédie Universelle

  • Statistique de Bose Einstein — Pour les articles homonymes, voir Einstein (homonymie). Cet article fait partie de la série Mécanique quantique …   Wikipédia en Français

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”