Début de la boite de navigation du chapitre
fin de la boite de navigation du chapitre
En raison de limitations techniques, la typographie souhaitable du titre, «
Variables aléatoires continues : Loi normale Variables aléatoires continues/Loi normale », n'a pu être restituée correctement ci-dessus.
La loi normale est la loi de probabilité continue la plus connue. Nous avons amorcé son étude au niveau 13, au chapitre 4 de la leçon sur les lois de probabilité continues .
On la retrouve dans de nombreuses situations concrètes, et aussi dans de nombreux résultats théoriques.
Sa densité de probabilité est la célèbre « courbe en cloche » de Gauss.
La loi normale est une loi de probabilité pour les variables aléatoires continues.
On la définit au moyen d'une densité de probabilité (voir chap. 1) :
Exemples de densités gaussiennes pour différentes valeurs des paramètres.
On observe la forme « en cloche », que l’on peut observer en statistiques quand on construit l'histogramme d'un caractère dépendant d'un grand nombre de données :
la taille d'un individu (dépend de la taille de ses parents, de son alimentation, de son mode de vie…) ;
la conformité d'une pièce technologique ;
etc.
Définition
La loi normale centrée réduite est celle dont l'espérance vaut 0 (centrée) et l'écart-type 1 (réduite), c'est-à-dire
N
(
0
,
1
)
{\displaystyle {\mathcal {N}}(0,1)}
. Sa densité est :
f
(
t
)
=
1
2
π
e
−
t
2
2
{\displaystyle f(t)={\frac {1}{\sqrt {2\pi }}}\,\mathrm {e} ^{-{\frac {t^{2}}{2}}}}
.
Un simple changement de variable dans le calcul de la fonction de répartition montre que :
Fonction génératrice des moments
modifier
Début d’un théorème
Théorème
La fonction génératrice des moments d'une variable aléatoire
X
∼
N
(
μ
,
σ
2
)
{\displaystyle X\sim {\mathcal {N}}(\mu ,\sigma ^{2})}
est :
M
X
(
t
)
:=
E
(
e
t
X
)
=
exp
(
μ
t
+
σ
2
t
2
2
)
{\displaystyle M_{X}(t):=\mathbb {E} \left(\mathrm {e} ^{tX}\right)=\exp \left(\mu t+{\frac {\sigma ^{2}t^{2}}{2}}\right)}
.
Fin du théorème
Démonstration
Effectuons le changement de variable
x
=
y
+
σ
2
t
{\displaystyle x=y+\sigma ^{2}t}
:
E
(
e
t
X
)
=
1
σ
2
π
∫
−
∞
+
∞
exp
(
t
x
−
(
x
−
μ
)
2
2
σ
2
)
d
x
=
1
σ
2
π
∫
−
∞
+
∞
exp
(
μ
t
+
σ
2
t
2
2
−
(
y
−
μ
)
2
2
σ
2
)
d
y
=
exp
(
μ
t
+
σ
2
t
2
2
)
1
σ
2
π
∫
−
∞
+
∞
e
−
1
2
(
y
−
μ
σ
)
2
d
y
=
exp
(
μ
t
+
σ
2
t
2
2
)
{\displaystyle {\begin{aligned}\mathbb {E} \left(\mathrm {e} ^{tX}\right)&={\frac {1}{\sigma {\sqrt {2\pi }}}}\int _{-\infty }^{+\infty }\exp \left(tx-{\frac {(x-\mu )^{2}}{2\sigma ^{2}}}\right)\,\mathrm {d} x\\&={\frac {1}{\sigma {\sqrt {2\pi }}}}\int _{-\infty }^{+\infty }\exp \left(\mu t+{\frac {\sigma ^{2}t^{2}}{2}}-{\frac {(y-\mu )^{2}}{2\sigma ^{2}}}\right)\,\mathrm {d} y\\&=\exp \left(\mu t+{\frac {\sigma ^{2}t^{2}}{2}}\right){\frac {1}{\sigma {\sqrt {2\pi }}}}\int _{-\infty }^{+\infty }\mathrm {e} ^{-{\frac {1}{2}}\left({\frac {y-\mu }{\sigma }}\right)^{2}}\,\mathrm {d} y\\&=\exp \left(\mu t+{\frac {\sigma ^{2}t^{2}}{2}}\right)\end{aligned}}}
Remarque
Ceci prouve au passage que
X
{\displaystyle X}
a des moments à tout ordre.
Démonstration
D'après la proposition précédente,
M
X
′
(
t
)
=
(
μ
+
t
σ
2
)
M
X
(
t
)
{\displaystyle M'_{X}(t)=\left(\mu +t\sigma ^{2}\right)M_{X}(t)}
donc
∑
n
≥
0
E
(
X
n
+
1
)
t
n
n
!
=
M
X
′
(
t
)
=
(
μ
+
t
σ
2
)
∑
n
≥
0
E
(
X
n
)
t
n
n
!
=
μ
+
∑
n
≥
1
(
μ
E
(
X
n
)
+
n
σ
2
E
(
X
n
−
1
)
)
t
n
n
!
{\displaystyle \sum _{n\geq 0}\mathbb {E} (X^{n+1}){\frac {t^{n}}{n!}}=M'_{X}(t)=\left(\mu +t\sigma ^{2}\right)\sum _{n\geq 0}\mathbb {E} (X^{n}){\frac {t^{n}}{n!}}=\mu +\sum _{n\geq 1}\left(\mu \mathbb {E} (X^{n})+n\sigma ^{2}\mathbb {E} (X^{n-1})\right){\frac {t^{n}}{n!}}}
.
Variance et autres moments centrés
modifier
Si
X
∼
N
(
μ
,
σ
2
)
{\displaystyle X\sim {\mathcal {N}}(\mu ,\sigma ^{2})}
alors
X
−
E
(
X
)
=
X
−
μ
∼
N
(
0
,
σ
2
)
{\displaystyle X-\mathbb {E} (X)=X-\mu \sim {\mathcal {N}}(0,\sigma ^{2})}
. Par conséquent :
Proposition
Soit
X
∼
N
(
μ
,
σ
2
)
{\displaystyle X\sim {\mathcal {N}}(\mu ,\sigma ^{2})}
.
La fonction génératrice des moments centrés de
X
{\displaystyle X}
est :
E
(
e
t
(
X
−
μ
)
)
=
exp
(
σ
2
t
2
2
)
{\displaystyle \mathbb {E} \left(\mathrm {e} ^{t(X-\mu )}\right)=\exp \left({\frac {\sigma ^{2}t^{2}}{2}}\right)}
.
Autrement dit : les moments centrés d'ordres impairs sont nuls et ceux d'ordres pairs sont donnés par :
E
(
(
X
−
μ
)
2
n
)
=
(
2
n
)
!
2
n
n
!
σ
2
n
{\displaystyle \mathbb {E} \left((X-\mu )^{2n}\right)={\frac {(2n)!}{2^{n}n!}}\sigma ^{2n}}
.
Corollaire
La variance et l'écart-type d'une variable aléatoire
X
∼
N
(
μ
,
σ
2
)
{\displaystyle X\sim {\mathcal {N}}(\mu ,\sigma ^{2})}
sont :
V
(
X
)
=
σ
2
,
σ
(
X
)
=
σ
{\displaystyle \mathrm {V} (X)=\sigma ^{2},\quad \sigma (X)=\sigma }
.
Le coefficient d'asymétrie d'une loi normale est nul.
Le kurtosis d'une loi normale vaut 3.
Cette valeur est significative : si
X
∼
N
(
μ
,
σ
2
)
{\displaystyle X\sim {\mathcal {N}}(\mu ,\sigma ^{2})}
alors
P
(
−
3
σ
≤
X
−
μ
≤
3
σ
)
≈
0,997
{\displaystyle \mathbb {P} (-3\sigma \leq X-\mu \leq 3\sigma )\approx 0{,}997}
.
Souvent, on normalise le kurtosis d'une loi en lui soustrayant 3.
Dans les applications calculatoires, on se ramène à la table de probabilité de la loi normale centrée réduite .
Dans ce tableau, pour
T
∼
N
(
0
,
1
)
{\displaystyle T\sim {\mathcal {N}}(0,1)}
, on donne
P
(
T
≤
a
)
{\displaystyle \mathbb {P} (T\leq a)}
pour
a
∈
[
0
,
00
,
3
,
99
]
{\displaystyle a\in [0{,}00,\,3{,}99]}
.
L'entrée en lignes représente les chiffres des unités et des dixièmes de
a
{\displaystyle a}
et l'entrée en colonnes représente le chiffre des centièmes de
a
{\displaystyle a}
.
Début de l'exemple
Exemples
Si T suit une loi normale centrée réduite, déterminer à l'aide de la table la probabilité que T soit inférieure ou égale à 1,00.
Solution
On trouve dans la table 84134.
thumr
On en déduit que la probabilité cherchée est de 0,84134.
Si X suit une loi normale d'espérance 1 et d'écart-type 2, déterminer la probabilité pour que
X
≤
3
{\displaystyle X\leq 3}
.
Solution
X
≤
3
⇔
X
−
1
≤⇔
T
:=
X
−
1
2
≤
1
{\displaystyle X\leq 3\Leftrightarrow X-1\leq \Leftrightarrow T:={\frac {X-1}{2}}\leq 1}
.
Or, d’après le théorème de changement de variable, T suit une loi centrée réduite. Donc
P
(
T
≤
1
)
=
0,841
34
{\displaystyle \mathbb {P} (T\leq 1)=0{,}84134}
d'après l'exemple précédent.
Finalement,
P
(
X
≤
3
)
=
0,841
34
{\displaystyle \mathbb {P} (X\leq 3)=0{,}84134}
.
Une entreprise produit des boules, dont le diamètre d (en millimètres) suit une loi
N
(
73
,
σ
2
)
{\displaystyle {\mathcal {N}}\left(73,\sigma ^{2}\right)}
. Une boule sera dite « conforme » si
72
,
7
≤
d
≤
73
,
3
{\displaystyle 72{,}7\leq d\leq 73{,}3}
.
On suppose que
σ
=
0
,
2
{\displaystyle \sigma =0{,}2}
. Calculer la probabilité qu'une boule soit conforme.
Quelle valeur devrait prendre
σ
{\displaystyle \sigma }
pour que la probabilité d'obtenir une boule conforme soit supérieure à 0,9 ?
Solution
72
,
7
≤
d
≤
73
,
3
⇔
−
1
,
5
≤
d
−
73
0
,
2
≤
1
,
5
{\displaystyle 72{,}7\leq d\leq 73{,}3\Leftrightarrow -1{,}5\leq {\frac {d-73}{0{,}2}}\leq 1{,}5}
, or
X
:=
d
−
73
0
,
2
∼
N
(
0
,
1
)
{\displaystyle X:={\frac {d-73}{0{,}2}}\sim {\mathcal {N}}(0,1)}
. La table donne
P
(
X
≤
1
,
5
)
≈
0,933
19
{\displaystyle \mathbb {P} (X\leq 1{,}5)\approx 0{,}93319}
, or
P
(
X
≤
−
1
,
5
)
=
1
−
P
(
X
≤
1
,
5
)
{\displaystyle \mathbb {P} (X\leq -1{,}5)=1-\mathbb {P} (X\leq 1{,}5)}
donc
P
(
72
,
7
≤
d
≤
73
,
3
)
=
P
(
−
1
,
5
≤
X
≤
1
,
5
)
=
2
P
(
X
≤
1
,
5
)
−
1
≈
2
×
0,433
19
=
0,866
38
{\displaystyle \mathbb {P} (72{,}7\leq d\leq 73{,}3)=\mathbb {P} (-1{,}5\leq X\leq 1{,}5)=2\mathbb {P} (X\leq 1{,}5)-1\approx 2\times 0{,}43319=0{,}86638}
.
72
,
7
≤
d
≤
73
,
3
⇔
−
0
,
3
σ
≤
d
−
73
σ
≤
0
,
3
σ
{\displaystyle 72{,}7\leq d\leq 73{,}3\Leftrightarrow -{\frac {0{,}3}{\sigma }}\leq {\frac {d-73}{\sigma }}\leq {\frac {0{,}3}{\sigma }}}
, or
Y
:=
d
−
73
σ
∼
N
(
0
,
1
)
{\displaystyle Y:={\frac {d-73}{\sigma }}\sim {\mathcal {N}}(0,1)}
.
2
P
(
Y
≤
0
,
3
σ
)
−
1
>
0
,
9
⇔
P
(
Y
≤
0
,
3
σ
)
>
0
,
95
⇔
{\displaystyle 2\mathbb {P} \left(Y\leq {\frac {0{,}3}{\sigma }}\right)-1>0{,}9\Leftrightarrow \mathbb {P} \left(Y\leq {\frac {0{,}3}{\sigma }}\right)>0{,}95\Leftrightarrow }
(d'après la table)
0
,
3
σ
≥
1
,
65
⇔
σ
≤
0
,
3
1
,
65
≈
0,182
{\displaystyle {\frac {0{,}3}{\sigma }}\geq 1{,}65\Leftrightarrow \sigma \leq {\frac {0{,}3}{1{,}65}}\approx 0{,}182}
.
Fin de l'exemple