Généralités
\[X(\Omega) = \{ x_1, x_2, \dots , x_n \}\]
\[X(\Omega) = \{ x_1, x_2, \dots \}\]
La famille \((X=x_k)_{x_k\in X(\Omega)}\) est un système complet d’événements.
Exemple 1: Si \(X(\Omega) = \{0,1,2\}\), alors la famille \((X=0, X=1, X=2)\) est un SCE.
Exemple 2: Si \(X(\Omega) = \mathbb N\), alors la famille \((X=k)_{k\in \mathbb N}\) est un SCE.
\[E(X) = \sum_{x_k \in X(\Omega)} x_kP(X=x_k) = \sum_{k=1}^n x_kP(X=x_k)\]
Dans le cas dune variable aléatoire discrète infinie, la somme ci-dessus devient une série qui n’est pas toujours convergente.
\[E(X) = \sum_{x_k \in X(\Omega)} x_kP(X=x_k) = \sum_{k=1}^{+\infty} x_kP(X=x_k)\]
Soit \(X\) une variable aléatoire et \(g\) une fonction au moins définie sur \(X(\Omega)\).
On pose \(Y = g(X)\).
On dit que \(Y\) est une transformée de \(X\).
Si, en plus, la fonction \(g\) est affine, alors on dit que \(Y\) est une transfomée affine de \(X\).
Exemple : \(Y_1 = X^2\), \(Y_2=3X+1\), \(Y_3=|X|\) et \(Y_4=7-X\).
\(Y_1\) et \(Y_3\) ne sont pas des transformées affines de \(X\), mais \(Y_2\) et \(Y_4\) le sont.
\[E(Y) = E(g(X)) = \sum_{x_k \in X(\Omega)}g(x_k)P(X=x_k) = \sum_{k=1}^{n} g(x_k)P(X=x_k)\]
\[E(Y) = E(g(X)) = \sum_{x_k \in X(\Omega)}g(x_k)P(X=x_k) = \sum_{k=1}^{+\infty} g(x_k)P(X=x_k)\]
Soit \(r\) un entier naturel.
On dit que \(X\) admet un moment d’ordre \(r\), noté \(m_r(X)\) si \(X^r\) admet une espérance et dans ce cas
\[m_r(X) = E(X^r)\]
Remarque : le moment d’ordre 1 de \(X\) est l’espérance de \(X\)
\[m_1(X) = E(X^1) = E(X)\]
Soit \(r\) un entier naturel.
Si \(X\) admet un moment d’ordre \(r\), alors pour tout entier naturel \(n\leq r\), \(X\) admet un moment d’ordre \(n\).
En particulier, si \(X\) admet une moment d’ordre 2, alors \(X\) admet aussi un moment d’ordre 1, c’est-à-dire une espérance.
On dit que \(X\) admet une variance, notée \(V(X)\), si
Et dans ce cas
\[V(X) = m_2(Y) = E(Y^2) = E((X-E(X))^2)\]
et l’écart-type de \(X\) est
\[\sigma(X) = \sqrt{V(X)}\]
\(X\) admet une variance si et seulement si \(X\) admet un moment d’ordre 2.
Si \(X\) admet une variance, alors
\[V(X) = m_2(X) - (E(X))^2 = E(X^2) - (E(X))^2\]
Soient \(a\) et \(b\) des réels.
Si les variables aléatoires \(X\) et \(Y\) admettent une espérance, alors la variable aléatoire \(Z = aX + bY\) admet aussi une espérance et on a
\[E(Z) = E(aX + bY) = aE(X) + bE(Y)\]
Exemple classique
\[X(X-1) = X^2 - X \quad \Longleftrightarrow \quad X^2 = X(X-1) + X\]
donc si \(X\) et \(X(X-1)\) admettent une espérance, alors, par linéarité de l’espérance, \(X^2\) admet aussi une espérance (c’est-à-dire que \(X\) admet un moment d’ordre 2) et on a
\[E(X^2) = E(X(X-1)) + E(X)\]
Soient \(X\) et \(Y\) deux variables aléatoires.
Si \(P(X\leq Y) =1\), alors \(E(X) \leq E(Y)\).
Autrement dit, si l’événement \([X \leq Y]\) est quasi-certain, alors \(E(X) \leq E(Y)\).
Soient \(a\) et \(b\) des réels.
Si \(X\) admet une espérance alors \(Y=aX+b\) aussi et on a
\[E(Y) = E(aX+b) = aE(X)+b\]
Si \(X\) admet une variance, alors \(Y=aX+b\) aussi et on a
\[V(Y) = V(aX+b) = a^2V(X)\]
Soit \(X\) une variable aléatoire admettant une variance non nulle.
On appelle variable aléatoire centrée réduite de \(X\), et on note \(X^*\) la transformée affine de \(X\) suivante :
\[X^* = \frac{X-E(X)}{\sigma(X)} = \frac{X-E(X)}{\sqrt{V(X)}}\]
Et si on note \(\mu=E(X)\) et \(\sigma=\sigma(X)\), alors on a
\[X^* = \frac{X-\mu}{\sigma}\]