STATISTIQUES TESTS D'HYPOTHÈSES

Carte mentale

Élargissez votre recherche dans Universalis

La théorie des tests d'hypothèses statistiques étudie des problèmes consistant à déterminer, à partir d'observations d'un phénomène aléatoire de loi de probabilité inconnue, si une hypothèse concernant cette loi (dite hypothèse statistique) est exacte ou non.

Pour les besoins de recherches appliquées, de nombreux chercheurs ont étudié des tests d'hypothèses statistiques. Un exemple de test d'hypothèse statistique figure dans un mémoire de Pierre Simon de Laplace (1749-1827) publié en 1773 et réédité en 1891. Une étude heuristique des conditions sous lesquelles l'hypothèse H0 devrait être rejetée (c'est-à-dire, en langage moderne, une étude des régions critiques) est donnée dans le livre d'Émile Borel (1871-1956) Le Hasard [1914]. À cette époque les idées concernant les tests statistiques étaient encore floues. Borel insistait sur l'existence d'un test statistique « remarquable » dont les propriétés pourraient être démontrées rigoureusement. Il disait aussi que le choix du test devait être fait avant toute expérience.

Les notions d'erreurs de première et de seconde espèces, sous les noms de risque de producteur et de risque de consommateur, étaient introduites en 1929 dans les recherches appliquées consacrées au contrôle de qualité de Harold French Dodge (1893-1976) et Harry Gutelius Romig (1900-1985). Plus tard, ces notions furent réinventées par des théoriciens et sont devenues les notions de base.

Les idées fondamentales dans la théorie des tests d'hypothèses statistiques furent introduites en 1900 par Karl Pearson (1857-1936), en 1928, 1933 et 1938 par Jerzy Neyman (1894-1981) et Egon Pearson (1895-1980), en 1935 par Ronald Fisher (1890-1962), en 1941, 1947 et 1950 par Abraham Wald (1902-1950). Voir aussi les écrits de Maurice Kendall (1907-1983) et Alan Stuart [1967], Erich Lehmann [1986], Alexandre Borovkov [1987] cités dans la bibliographie.

Idées de base

Soit (X1, ,..., Xn) un échantillon de n observations indépendantes de même loi de probabilité inconnue Pθ, θ ∈ Θ. Cet échantillon peut être représenté par un point ω d'un ensemble Ω que l'on munit d'une tribu B, de sorte que (Ω, B) est un espace mesurable. Rappelons qu'une tribu sur un ensemble Ω est un ensemble B de parties de Ω tel que : l'ensemble vide appartient à B ; le complémentaire d'un élément de B appartient à B ; la réunion d'un nombre fini ou infini dénombrable d'éléments de B appartient à B (il en résulte que Ω appartient à B et que l'intersection d'un nombre fini ou infini dénombrable d'éléments de B appartient à B). Soit P = {Pθ, θ ∈ Θ} un ensemble de lois de probabilités sur (Ω, B), où Θ est un espace paramétrique.

Supposons que l'on veuille vérifier une hypothèse H0 selon laquelle la vraie loi Pθ du phénomène aléatoire appartiendrait à un sous-ensemble P0 = {Pθ, θ ∈ Θ0} de P ; H0 peut donc s'exprimer par « Pθ ∈ P0 » ou, ce qui est équivalent, par « θ ∈ Θ0 ». L'hypothèse H0 est dite hypothèse nulle et son opposée H1, hypothèse alternative. En notant Θ1 le complémentaire de Θ0 dans Θ et P1 = {Pθ, θ ∈ Θ1}, l'hypothèse H1 peut s'exprimer par « Pθ ∈ P1 » ou par « θ ∈ Θ1 ».

Un problème de test d'hypothèses est dit paramétrique si l'espace Θ est de dimension finie, et non paramétrique sinon. Si le sous-ensemble P0 (respectivement P1) ne contient qu'une seule loi, l'hypothèse H0 (respectivement H1) est dite simple, et composite sinon.

Un test statistique est une procédure, basée sur l'échantillon ω, qui permet de décider si l'hypothèse H0 est vraie ou non, ou, plus exactement, de déclarer avec une probabilité d'erreur connue que H0 est vraie ou qu'elle est fausse.

Le principe suivant est à la base de tous les tests statistiques : on rejette l'hypothèse H0 si le point observé ω appartient à une région critique Rc de B. La région Rc, qui est donc un élément de B, est choisie avant l'expérience de façon que la probabilité de rejeter à tort l'hypothèse H0 (donc de la rejeter alors qu'elle est vraie) soit faible, c'est-à-dire de façon que ∀ θ, θ ∈ Θ0 ⇒ Pθ(Rc) ≤ α, où α est une probabilité d'erreur admise (par exemple, α = 0,05 ou 0,01). Comment faut-il choisir une région critique ? Pour répondre à cette question, introduisons les notions d'erreur de première espèce et d'erreur de seconde espèce.

L'erreur de première espèce, notée α0, est égale à la probabilité de rejeter une hypothèse vraie H0 : α0 = α0(θ) = Pθ(Rc), θ ∈ Θ0. On pourrai [...]

1  2  3  4  5
pour nos abonnés,
l’article se compose de 9 pages

Écrit par :

Classification

Autres références

«  STATISTIQUES TESTS D'HYPOTHÈSES  » est également traité dans :

STATISTIQUE

  • Écrit par 
  • Georges MORLAT
  •  • 14 019 mots
  •  • 1 média

Dans le chapitre « Théorie générale des tests »  : […] Comme nous l'avons indiqué à propos de χ 2 , les tests utilisés sur des bases empiriques s'appuient sur le principe de raisonnement suivant : si des observations avaient une probabilité très faible, cette probabilité étant calculée à l'aide d'une hypothèse (loi de probabilité) particulière, alors cette hypothèse est vraisemblablement fausse. Cette façon de raisonner a été très féconde, et, à une c […] Lire la suite

Voir aussi

Pour citer l’article

Leonid I. GALTCHOUK, « STATISTIQUES TESTS D'HYPOTHÈSES », Encyclopædia Universalis [en ligne], consulté le 24 janvier 2022. URL : https://www.universalis.fr/encyclopedie/tests-d-hypotheses-statistiques/