PROBABILITÉS CALCUL DES

Carte mentale

Élargissez votre recherche dans Universalis

Instruments de travail

Lois de répartition

La fin du chapitre précédent a attiré l'attention sur le cas où (Ω1, B1) est l'espace Rn muni de la tribu borélienne. Dans ce cas, l'ensemble (X1, ..., Xn) des n coordonnées d'un point constitue la variable aléatoire et l'on peut introduire une fonction de n variables x1, ..., xn :

On lui donne le nom de loi de probabilité (ou fonction de répartition) de la variable aléatoire considérée. C'est une fonction non décroissante de l'ensemble des n coordonnées. Dans le cas d'une coordonnée, la fonction F(x) non décroissante se décompose, selon le résultat classique de Lebesgue, en une somme :

de trois fonctions non décroissantes, où F1 est la fonction des « sauts » (c'est-à-dire qu'elle est constante en dehors des points de discontinuité de F, dont l'ensemble est au plus dénombrable, et qu'elle a en ces points de discontinuité une variation, un « saut » égal à celui de F). La fonction F − F1, qui est donc continue, se décompose en une somme de deux fonctions non décroissantes ; d'abord F3, absolument continue, c'est-à-dire égale à une intégrale de la forme suivante :
puis F2, égale naturellement à F − F1 − F3, qui sera non décroissante continue mais non absolument continue ; on prendra F2 telle qu'elle ne soit susceptible de variation que sur un ensemble de mesure nulle. Un exemple classique de cette dernière situation est la fonction attachée à l'ensemble triadique de Cantor : le nombre x étant compris entre 0 et 1, on l'exprime dans le système de base 3, soit :
ai est égal à 0, 1 ou 2. Considérons tous les x qui peuvent s'exprimer uniquement avec des ai égaux à 0 ou 2 (dans le cas où deux représentations sont possibles, on retiendra x si l'une des deux représentations ne comporte que des 0 ou des 2). Pour un tel x, posons :
en base 2, avec bi = 0 si ai = 0 et bi = 1 si ai = 2 ; en dehors de l'ensemble des x considérés, la fonction G sera constante. Cette fonction est continue et ne peut pas être représentée par une intégrale, car elle n'est pas absolument continue.

La décomposition F = F1 + F2 + F3 est unique ; bien entendu, une ou deux des fonctions Fi peuvent être nulles.

La définition :

et les axiomes auxquels obéit p entraînent que F est continue à gauche, c'est-à-dire que F(x) = F(x − 0). La donnée de la fonction de répartition permet de calculer la valeur de la probabilité de tous les ensembles probabilisables. C'est donc un instrument de travail essentiel.

Fonction caractéristique

Parallèlement à la fonction de répartition, le calcul des probabilités utilise la fonction caractéristique, introduite par H. Poincaré, puis, sous sa forme actuelle, par P. Lévy, donnée par l'intégrale de Lebesgue-Stieltjes :

Le passage de la fonction ϕ à la fonction F se fait par l'intermédiaire de la formule d'inversion de Fourier. Si la fonction de répartition est continue sur la frontière du pavé :

on a :
où :
si la fonction de répartition n'était pas continue sur la frontière, cette égalité devrait subir les modifications habituelles de la théorie de la transformation de Fourier (cf. analyse harmonique).

La fonction caractéristique possède plusieurs propriétés qui rendent son emploi fréquent en calcul des probabilités. La première propriété est topologique : Si une suite F1, F2, ..., Fn, ... de fonctions de répartition converge en tout point de Rn vers une fonction de répartition limite F, alors la suite ϕ1, ..., ϕn, ... des fonctions converge, uniformément, dans tout domaine borné contenant l'origine, vers la fonction caractéristique ϕ de F. Cet énoncé admet la réciproque suivante, souvent utilisée : Si en tout point de Rn la suite ϕ1, ..., ϕn, ... converge vers une fonction caractéristique ϕ, alors F1, ..., Fn, ... converge vers une fonction de répartition F (sauf peut-être aux discontinuités éventuelles de F) dont ϕ est la fonction caractéristique.

La deuxième propriété, d'usage très courant également, est la suivante : Si un ensemble I = {X1, ..., Xn} et un ensemble J = {X1′, ..., X′n} ont respectivement pour fonctions caractéristiques ϕI(u1, ..., un) et ϕJ(u1, ..., un), les ensembles I et J étant indépendants, l'ensemble :

a pour fonction caractéristique :

Il est donc facile d'obtenir la fonction caractéristique de la somme de deux variables aléatoires indépendantes si l'on connaît la fonction caractéristique de chacune d'elles. Avec les mêmes hypothèses, l'obtention de la fonction de répartition nécessite l'emploi du « produit de composition », ou « convolution » (cf. distributions [mathématiques]). Si l'on pose :

on a, pour X et Y indépendants,

Si Ω est l'ensemble des entiers naturels N, on utilise souvent la fonction génératrice :

pi étant la probabilité de la valeur i. La fonction génératrice de la somme de deux variables indépendantes est encore le produit des fonctions génératrices de chacune de ces variables.

Autres outils

Quelle que soit la fonction de répartition, la fonction caractéristique (et, dans le cas particulier précédent, la fonction génératrice) d'une variable aléatoire existe. Il n'en est pas toujours de même pour des nombres, appelés les moments, attachés à la loi de répartition. Le moment d'ordre p, p entier positif, est l'intégrale :

que l'on note souvent E(Xp), espérance mathématique de Xp. Avec cette notation, la fonction caractéristique est :

Dans tous les cas, on a :

de plus, si X et Y sont indépendants, on a :

Entre les moments et la fonction caractéristique, on a la relation suivante : S'il existe un moment d'ordre p, la fonction caractéristique admet à l'origine une dérivée d'ordre p égale à :

Enfin, on utilise parfois une fonction appelée fonction de concentration de Paul Lévy. C'est la probabilité maximale contenue dans un intervalle fermé de longueur l, c'est-à-dire :

On appelle variance de X, ou carré de l'écart type, la différence :

elle mesure également la dispersion de la variable aléatoire X. On appelle covariance des variables aléatoires X et Y la quantité :
le quotient :
qui, d'après l'inégalité de Schwarz, est compris entre − 1 et + 1, s'appelle le coefficient de corrélation de X et Y. Encore que ce fait soit contesté par Fréchet, ce coefficient donne une idée de la dépendance des deux variables X et Y. D'après ce qui a été dit, si X et Y sont indépendants, r est nul ; mais r peut être nul sans qu'il y ait indépendance de X et Y, ce qui justifie l'objection de Fréchet.

1  2  3  4  5
pour nos abonnés,
l’article se compose de 18 pages

Médias de l’article

Lois de Cauchy et de Laplace-Gauss

Lois de Cauchy et de Laplace-Gauss
Crédits : Encyclopædia Universalis France

graphique

Histogramme de fréquence

Histogramme de fréquence
Crédits : Encyclopædia Universalis France

graphique

Sortie d'un domaine au hasard

Sortie d'un domaine au hasard
Crédits : Encyclopædia Universalis France

graphique

Méthode de Monte-Carlo

Méthode de Monte-Carlo
Crédits : Encyclopædia Universalis France

dessin

Afficher les 6 médias de l'article


Écrit par :

  • : directeur de l'Institut statistique de l'université de Paris-VI

Classification

Autres références

«  PROBABILITÉS CALCUL DES  » est également traité dans :

ACTUARIAT & ACTUAIRES

  • Écrit par 
  • Georges BLUMBERG
  •  • 157 mots

L'activité appelée actuariat, accomplie par des actuaires, consiste à faire des calculs de probabilités à partir de renseignements statistiques. Ces calculs sont le plus souvent destinés à établir des taux de primes d'assurance en tenant compte de la fréquence des risques courus : mortalité, maladie, accidents, incendies, naufrages, vols. La plupart des actuaires sont au service des compagnies d'a […] Lire la suite

ARS CONJECTANDI, Jacob Bernoulli

  • Écrit par 
  • Bernard PIRE
  •  • 381 mots

Le traité Ars conjectandi (« Art de la conjecture ») est l'ouvrage le plus important du mathématicien suisse Jacob Bernoulli (1654-1705). Écrit de 1684 à 1689 lorsque Bernoulli enseigne la mécanique à l'université de Bâle, cet ouvrage resté incomplet fut publié en 1713, huit ans après la mort de l'auteur. Il s'accompagne d'une préface rédigée par son neveu Nicolas Bernoulli, juriste, qui s'inspi […] Lire la suite

ASSURANCE - Histoire et droit de l'assurance

  • Écrit par 
  • Jean-Pierre AUDINOT, 
  • Jacques GARNIER
  • , Universalis
  •  • 7 480 mots
  •  • 1 média

Dans le chapitre « Le calcul actuariel, création européenne »  : […] Pour que cet aléa disparaisse, il fallut attendre que la découverte du calcul des probabilités et le progrès de l'observation statistique permettent une prévision rationnelle du risque. Mais ce n'est qu'au xvii e  siècle que Pascal, à la demande d'un joueur de cartes passionné, le chevalier de Méré, découvre les bases du calcul des probabilités et la loi des grands nombres ( La Géométrie du hasard […] Lire la suite

ASSURANCE - Économie de l'assurance

  • Écrit par 
  • Pierre PICARD
  •  • 5 618 mots

Dans le chapitre « La loi des grands nombres »  : […] C'est le principe de mutualisation qui est au cœur de l'activité d'assurance. Pour en comprendre la logique, plaçons-nous dans le cas simple où les dommages subis par un ensemble d'individus sont des variables aléatoires identiques et indépendantes. Cela signifie simplement que tous les individus en question sont confrontés aux mêmes risques (la même probabilité de subir un sinistre – disons un a […] Lire la suite

BERNOULLI LES

  • Écrit par 
  • Universalis
  •  • 1 243 mots
  •  • 1 média

Dans le chapitre « Jacques Bernoulli »  : […] Poussé par son père, Jacques Bernoulli (1654-1705) étudie d'abord la théologie, mais il se rebelle vite contre elle et s'intéresse alors à la physique et aux mathématiques ; sa devise «  Invito sidera verso  » (« J'étudie les étoiles contre la volonté de mon père ») rappelle avec ironie ces dispositions contrariées. En 1687, il devint professeur à l'université de Bâle où il enseigna jusqu'à sa mo […] Lire la suite

BIT (binary digit)

  • Écrit par 
  • Pierre GOUJON
  •  • 327 mots

Contraction de l'expression anglaise binary digit (chiffre binaire), le terme bit prend en informatique trois significations différentes. Puisqu'on se trouve ici dans un système de numération à base 2, deux symboles (habituellement 0 et 1) suffisent pour représenter tous les nombres. Un bit peut donc prendre les valeurs 0 ou 1. Deux bits sont nécessaires pour représenter les nombres décimaux de 0 […] Lire la suite

BOREL ÉMILE (1871-1956)

  • Écrit par 
  • Maurice FRÉCHET
  •  • 2 309 mots

Dans le chapitre « Mathématiques appliquées et physique mathématique »  : […] Dès 1905, Borel s'était intéressé au calcul des probabilités, en liaison avec ses recherches sur la mesure des ensembles. À partir de la Première Guerre mondiale, il s'occupa de questions scientifiques variées liées à la Défense nationale et ce contact le poussa sans doute à s'intéresser plus étroitement aux mathématiques appliquées. Calcul des probabilités. Borel s'est ici encore montré un init […] Lire la suite

CASTELNUOVO GUIDO (1865-1952)

  • Écrit par 
  • Jean-Luc VERLEY
  •  • 342 mots

Mathématicien italien dont les travaux ont porté principalement sur la géométrie algébrique. Né à Venise, Castelnuovo fut l'élève de Véronèse à Padoue ; assistant à Turin, il eut avec C. Segre de nombreux entretiens d'où devait sortir l'exposé de la géométrie sur une courbe algébrique, publié en 1894 par Segre (où la méthode hyperspatiale est utilisée systématiquement). Appelé à l'université de Ro […] Lire la suite

CLADISTIQUE

  • Écrit par 
  • Pascal TASSY
  •  • 2 994 mots
  •  • 4 médias

Dans le chapitre « Cladistique et informatique »  : […] La cladistique a vite utilisé l'informatique. En effet, analyser de façon simultanée une multitude de caractères pour de nombreuses espèces, afin de construire l'arbre phylogénétique, est au-delà des capacités de l'esprit humain. Il est parfois difficile de faire ressortir la solution qui rend compte au mieux des partages de caractères dérivés considérés comme des synapomorphies. Par exemple, pou […] Lire la suite

CLASSIFICATION DU VIVANT

  • Écrit par 
  • Pascal DURIS, 
  • Pascal TASSY
  •  • 7 196 mots
  •  • 4 médias

Dans le chapitre « Face aux défis phylogénétiques »  : […] Aujourd'hui, les arbres construits à partir des caractères moléculaires sont majoritairement construits par les méthodes probabilistes qui, selon l'algorithme utilisé, sont dites de « maximum de vraisemblance » ou « bayesiennes ». Pourquoi de telles méthodes propres aux caractères moléculaires ? Il est vite apparu que les substitutions multiples affectant des régions données (sites) de tel ou te […] Lire la suite

Voir aussi

Pour citer l’article

Daniel DUGUÉ, « PROBABILITÉS CALCUL DES », Encyclopædia Universalis [en ligne], consulté le 26 novembre 2021. URL : https://www.universalis.fr/encyclopedie/calcul-des-probabilites/