Variables aléatoires réelles

Définitions

Soit $(\Omega,\mathcal P(\Omega),P)$, ($\Omega$, ensemble fini) un espace probabilisé.

VAR : On appelle variable aléatoire réelle sur $\Omega$ (VAR en abrégé) toute application $X$ de $\Omega$ dans $[0,1]$.

On écrit $X(\Omega)=\{X(\omega),\omega\in\Omega\}=\{x_i,\, i\in[[1,n]]\}$ (par convention : $x_{i}<x_{i+1}$).

Si $B$ est une partie de $ R$, on note  $(X\in B)=\{\omega\in\Omega/X(\omega)\in B\}$ ou encore $(X=a), (X\geq a), (a<X<b) \dots$

Loi de probabilité d'une VAR :  l'application $f_X=\left\{ \begin{array}{ccc}  X(\Omega)&\rightarrow& R \\x&\mapsto &P(X=x)  \end{array} \right.$

Une loi de probabilité est représenté par un diagramme en bâtons.                                                   

Système complet d'événements : la famille ${(X=x_k)}_{k\in[[1,n]]}$, où les $x_k$ sont les valeurs prises par $X$,  est un système complet d'événements.

Fonction de répartition : l'application $F_X=\left\{ \begin{array}{ccc}   R&\rightarrow&[0,1] \\  x&\mapsto & F_X(x)=P(X\leq x)   \end{array} \right.$

  • $F_X$ est une  fonction croissante, en escalier, variant de 0 (limite en $-\infty$) à 1 (limite en $+\infty$)
  • Comment obtenir $F_X$ à l'aide de la loi : $\displaystyle F_X(x)=\left\{  \begin{array}{ll}  0, & \hbox{si } x<x_1\\  \displaystyle\sum_{k=1}^i P([X=x_k]), & \hbox{si  } x\in [x_i,x_{i+1}[\\  1, & \hbox{si $x\geq x_n$.} \end{array} \right.$
  • Comment obtenir la loi à l'aide de $F_X$ : $P([x_1])=F(x_1)$ et $\forall i\in[[2,n]],\ P([X=x_i])=F_X(x_i)-F_X(x_{i-1})$.

Composée $\varphi(X)$ : $X$ une VAR, $\varphi$ une fonction réelle telle que $X(\Omega)\subset  D_{\varphi}$ alors  $\varphi\circ X=\varphi(X)$  est  une VAR.

$$\displaystyle Y=\varphi(X) \quad \Longrightarrow  \quad Y(\Omega)=\varphi(X(\omega))=\{y_1,y_2,\dots y_m\}\qquad;\qquad  \forall y\in Y(\Omega),\ P(Y=y)=\sum_{x/\varphi(x)=y} P(X=x).$$

Moments

Définition : $E(X)=m_X=\displaystyle\sum_{x\in X(\Omega)} xP(X=x)$

  • L'espérance est la moyenne des valeurs possibles de $X$, pondérées par leur probabilité de réalisation.

Théorème de transfert : $\displaystyle E(\varphi(X))=\sum_{x\in X(\Omega)}\varphi(x)P(X=x)=\sum_{k=0}^n \varphi(x_k)P(X=x_k)$

Moments : on appelle moment d'ordre $r$ de  $X$ le réel $m_r(X)=E(X^r)$

Variance : On appelle variance d'une VAR $X$ le réel $V(X)=E[(X-E(X))^2]$.

L'écart-type est la racine carrée de la variance.

Formule de Huygens :$V(X)=E(X^2)-[E(X)]^2$

  • (Moyenne des carrées moins le carré de la moyenne)

Résultat :  $E(aX+b)=aE(X)+b\qquad;\qquad V(aX+b)=a^2V(X),\ a,b$ réels, $X$ VAR.

Inégalité de Bienaymé-Tchebychev : Soit $X$ une VAR d'espérance $m$ et d'écart-type $\sigma$ non nul, alors : $\displaystyle \forall \epsilon>0,\ P(|X-m|\geq \epsilon)\leq\frac{\sigma^2}{\epsilon^2}$

Lois usuelles

 

Loi certaine

  • Modèle : "Il n' y a qu'un trou à la roulette" (Léo Ferré)
  • Loi : $X(\Omega)=\{a\}; P(X=a)=1$
  •  Moments : $E(X)=a;V(X)=0$

Loi uniforme

  •  Modèle : On choisit au hasard (avec équiprobabilité) un numéro parmi les numéros de 1 à $n$.
  • Loi : $X$ suit $\mathscr U(n), X(\Omega)=[[1,n]]; \qquad ;\qquad \forall k\in[[0,n]],\ P(X=k)=\dfrac1n$.
  • Moments : $E(X)=\dfrac{n+1}{2}$ ;  $\left[V(X)=\dfrac{n^2-1}{12}\text{ : Hors programme, à démontrer}\right]$.

Attention : il peut exister des variables uniformes qui prennent des valeurs sur d'autres ensembles que $[[1,n]]$, il faut alors préciser la loi et calculer $E(X)$ et $V(X)$.

Loi de Bernoulli

  • Modèle : C'est une expérience à 2 issues Succès ($X=1$) ou Échec ($=0)$.
  • Loi : $X$ suit $\mathscr B(p)$ : $X(\Omega)=\{0,1\}\qquad ;\qquad P(X=1)=p;P(X=0)=q=1-p$
  • Moments : $E(X)=p$ ;  $V(X)=pq$

Loi binomiale

  • Modèle : on répète  $n$ fois la  même expérience de Bernoulli de manière indépendante et $X$ mesure le nombre de succès.
  • Exemple : obtenir des faces avec $n$ lancers de pièces ; des as en lançant $n$ dés ; des boules blanches en $n$ tirages \textbf{AVEC} remise
  • Loi : $X$ suit $\mathscr B(n,p)$ : $\displaystyle X(\Omega)=[[0,n]]\qquad ;\qquad \forall k\in[[0,n]],\ P(X=k)=\binom{n}{k}p^kq^{n-k}$
  • Moments : $E(X)=np$ ;  $V(X)=npq$

Loi Hypergéométrique

  •  Modèle : Une urne contient $N$ boules dont une proportion $p$ de boules blanches au début de l'expérience. On tire $n$ boules \textbf{SANS} remise dont  $X$ blanches.
  •  Loi : $X$ suit $t\mathscr H(N,n,p)$ : $\displaystyle X(\Omega)\subset[[0,n]] \qquad;\qquad \forall k\in[[1,n]],\ P(X=k)=\frac{\binom{Np}{k}\binom{Nq}{n-k}}{\binom{N}{n}}$
  • Moments : $E(X)=np$ ;  $\left[V(X)= npq\displaystyle\frac{N-n}{N-1}\text { : Hors programme}\right]$

 

Fichier Joint: