Vous pouvez accéder par ces menus aux définitions et résultats concernant toutes les lois vues dans la partie Développement, et les convergences.

 

 

 

Calculateur et dessinateur en ligne de lois de probabilité : http://www.sgcorp.com/probability_distributions.htm

 

 

 


 

 

Loi uniforme discrète - Définition :

X suit une loi uniforme (discrète) si X correspond au choix équiprobable

d'un nombre parmi 1, 2, ..., n.


Loi uniforme discrète - Loi de Probabilité :

 

P ( X = k ) = 1 / n , pour k = 1, 2, ... , n.

 

 

 

 


Loi uniforme discrète - Espérance et Variance :

E ( X ) = ( ) et V ( X ) = ( n² - 1 ) / 12.

 


Loi uniforme discrète - Exemples :

Numéro obtenu en lançant un dé ( ici n = 6 ), ou en tirant un jeton de loto ( ici n = 49 ),

numéro d'ordre d'une personne prise au hasard sur une liste, ...

 


Loi uniforme discrète - Somme :

La somme de deux lois uniformes, même indépendantes, n'est pas une loi uniforme. Exemple : somme de deux dés.

 


Loi géométrique - Définition :

Si X est le nombre d'épreuves indépendantes qu'on a effectuées pour voir se réaliser pour la 1ère fois un événement de probabilité p,

X suit une loi géométrique de paramètre p ( 0 < p < 1 ).

 

 


Loi géométrique - Loi de Probabilité :

P ( X = k ) = p ( 1 - p )(k-1), pour k = 1, 2, ...

 

 

 

 


Loi géométrique - Espérance et Variance :

E ( X ) = 1 / p ; V ( X ) = ( 1 - p ) / p².

 


Loi géométrique - Exemples :

- nombre de fois où on lance un dé pour obtenir un "6".

- nombre de pièces à tester dans une production pour trouver la 1ère défectueuse.

- nombre de tentatives effectuées par une souris pour trouver la porte de sortie ... etc ...

 


Loi géométrique - Somme :

La somme de deux lois géométriques, même indépendantes et de même paramètre, n'est pas une loi géométrique.

 

 


Loi hypergéométrique - Définition :

Soit une population de n individus, dont une proportion p possède un certain caractère. On prélève, sans remise, un échantillon de taille m dans cette population, et on note X le nombre d'individus de l'échantillon possédant le caractère.

On dit que X suit une loi hypergéométrique de paramètres
n, m, p, notée H ( n , m , p ).

Si le tirage s'effectue avec remise, il s'agit d'une loi binomiale
B ( m , p ).

 

 


Loi hypergéométrique - Loi de Probabilité :

P ( X = k ) = ,

pour k = max(0, m-n+np), ... , min ( m , np )

 


Loi hypergéométrique - Espérance et Variance :

E ( X ) = m p ; V ( X ) = m p ( 1 - p )

 


Loi hypergéométrique - Exemples :

- nombre d'as obtenu en tirant 5 cartes parmi 32.

- nombre de pièces défectueuses trouvées en prenant 10 pièces dans un lot de 50.

- nombre de consommateurs connaissant un produit parmi 20 personnes, choisies parmi les 150 clients d'une boutique.

 


Loi hypergéométrique - Somme :

La somme de deux lois hypergéométriques, même indépendantes et de mêmes paramètres, n'est pas une loi hypergéométrique.

 


Loi hypergéométrique - Convergence, approximation :

Convergence de la loi hypergéométrique vers la loi binomiale :
si
n tend vers l'infini, la loi H ( n , m , p ) tend vers la loi B ( m , p ), c'est-à-dire que lorsqu'on effectue un tirage dans une grande population, il importe peu que ce tirage se fasse avec ou sans remise (en pratique, on considèrera que la population est "grande" lorsque l'échantillon représente moins de 10 % de cette population : m / n < 0.1 )


Loi de Bernoulli - Définition :

X suit une loi de Bernoulli de paramètre p si X ne prend que les valeurs 0 ou 1, avec les probabilités 1 - p et p .

 

 


Loi de Bernoulli - Loi de Probabilité :

P ( X = 1 ) = p ; P ( X = 0 ) = 1 - p

 

 

 


Loi de Bernoulli - Espérance et Variance :

E ( X ) = p et V ( X ) = p ( 1 - p )

 


Loi de Bernoulli - Exemples :

- pile ou face,

- pièce bonne ou mauvaise,

- oui ou non à un référendum

 

 


Loi de Bernoulli - Somme :

La somme de n variables de Bernoulli indépendantes, de même paramètre p, suit une loi binomiale B ( n , p )


Loi binomiale - Définition :

 

X suit une loi binomiale B ( n , p ) si X est la somme de n variables de Bernoulli indépendantes, de même paramètre p.

C'est le nombre de réalisations d'un événement de probabilité p dans une suite de n épreuves indépendantes (tirage avec remise).

 

 

 

 

 


Loi binomiale - Loi de Probabilité :

P ( X = k ) = pk ( 1 - p )n-k, pour k = 1, 2, ..., n

 


Loi binomiale - Espérance et Variance :

E ( X ) = np et V ( X ) = n p ( 1 - p )

 


Loi binomiale - Exemples :

- nombre de "6" obtenus en lançant 10 fois un dé.

- nombre de pièces défectueuses sur un échantillon.

- nombre d'as obtenus lors d'un tirage de 5 cartes avec remise.

 

 


Loi binomiale - Somme :

Si X1 et X2 sont indépendantes de lois respectives, B ( n1 , p ) et B ( n2 , p ) avec le même p, alors :

X1 + X2 est de loi B ( n1 + n2 , p )


Loi binomiale - Convergence, approximation :

Convergence de la loi binomiale vers la loi de Poisson :

Soit Xn une suite de variables aléatoires de lois

B ( n , p ), avec n ® ¥ , p ® 0 et n p ® l.

Alors la loi de Xn tend vers la loi P ( l )

 

 

 


Loi de Poisson - Définition :

- Si X est le nombre de fois où a lieu un événement par unité de temps (ou de longueur, etc... ), cet événement ne pouvant se produire qu'une seule fois (pas d'événements simultanés),

- si le nombre d'événements pendant une période ne dépend que de la durée de cette période,

- si les événements sont indépendants

... alors X suit une loi de Poisson P ( l ) l est le nombre moyen d'événements par unité de temps.

La loi de Poisson se rencontre lorsqu'on étudie le nombre de réalisations d'un événement "rare" dans une suite d'un grand nombre d'épreuves indépendantes. Par exemple, le nombre de pièces défectueuses parmi un très grand nombre de pièces produites par une machine bien réglée. La loi de Poisson se rencontre aussi lorsqu'on étudie le nombre de réalisations d'événements par unité de temps, ou de longueur, si le nombre moyen de ces événements est proportionnel à la durée (ou longueur) considérée, ces événements apparaissant indépendamment les uns des autres et ne pouvant être simultanés. Alors X suit une loi de Poisson de paramètre l, nombre moyen d'événements par unité de temps (ou longueur), notée P ( l ).


Loi de Poisson - Loi de Probabilité :

  = ;

P ( X = k ) = e-l , " k Î

Dans la pratique, les calculs sur la loi de Poisson se feront en utilisant les tables donnant les valeurs de :

e-l

ou les valeurs de la fonction de répartition :

F ( x ) = P ( X < x ) = e-l ( x Î )


Loi de Poisson - Espérance et Variance :

E ( X ) = l et V ( X ) = l

 


Loi de Poisson - Exemples :

- nombre de pièces défectueuses dans un grand échantillon de bonne qualité,

- nombre d'électeurs d'un petit parti dans un grand échantillon...

- nombre annuel d'accidents sur une route,

- nombre d'appels reçus à un standard en 1 h,

- nombre de défauts par mètre de tissus,

- nombre d'avions atterrissant sur un aéroport en 1/2 h, etc...

 

 


Loi de Poisson - Somme :

 

 

Si X et Y sont indépendantes de lois respectives :

P ( l1 ) et P ( l2 )

X + Y est de loi P ( l1 + l2 )

 

 

 


Loi de Poisson - Convergence, approximation :

Si X suit une loi B ( n , p ) : quand

n ® ¥ et p ® 0 avec np ® l

cette loi tend vers la loi P ( l )

C'est-à-dire que la loi P ( l ) correspond au nombre de réalisations d'un événement A "rare" ( p < 0.1 ) au cours d'un grand nombre ( n > 50 ) d'épreuves indépendantes où A a la probabilité p de se réaliser. Alors :

P ( X = k ) = e-np ; " k Î