Variables aléatoires réelles
Définitions
Soit $(\Omega,\mathcal P(\Omega),P)$, ($\Omega$, ensemble fini) un espace probabilisé.
VAR : On appelle variable aléatoire réelle sur $\Omega$ (VAR en abrégé) toute application $X$ de $\Omega$ dans $[0,1]$.
On écrit $X(\Omega)=\{X(\omega),\omega\in\Omega\}=\{x_i,\, i\in[[1,n]]\}$ (par convention : $x_{i}<x_{i+1}$).
Si $B$ est une partie de $ R$, on note $(X\in B)=\{\omega\in\Omega/X(\omega)\in B\}$ ou encore $(X=a), (X\geq a), (a<X<b) \dots$
Loi de probabilité d'une VAR : l'application $f_X=\left\{ \begin{array}{ccc} X(\Omega)&\rightarrow& R \\x&\mapsto &P(X=x) \end{array} \right.$
Une loi de probabilité est représenté par un diagramme en bâtons.
Système complet d'événements : la famille ${(X=x_k)}_{k\in[[1,n]]}$, où les $x_k$ sont les valeurs prises par $X$, est un système complet d'événements.
Fonction de répartition : l'application $F_X=\left\{ \begin{array}{ccc} R&\rightarrow&[0,1] \\ x&\mapsto & F_X(x)=P(X\leq x) \end{array} \right.$
- $F_X$ est une fonction croissante, en escalier, variant de 0 (limite en $-\infty$) à 1 (limite en $+\infty$)
- Comment obtenir $F_X$ à l'aide de la loi : $\displaystyle F_X(x)=\left\{ \begin{array}{ll} 0, & \hbox{si } x<x_1\\ \displaystyle\sum_{k=1}^i P([X=x_k]), & \hbox{si } x\in [x_i,x_{i+1}[\\ 1, & \hbox{si $x\geq x_n$.} \end{array} \right.$
- Comment obtenir la loi à l'aide de $F_X$ : $P([x_1])=F(x_1)$ et $\forall i\in[[2,n]],\ P([X=x_i])=F_X(x_i)-F_X(x_{i-1})$.
Composée $\varphi(X)$ : $X$ une VAR, $\varphi$ une fonction réelle telle que $X(\Omega)\subset D_{\varphi}$ alors $\varphi\circ X=\varphi(X)$ est une VAR.
$$\displaystyle Y=\varphi(X) \quad \Longrightarrow \quad Y(\Omega)=\varphi(X(\omega))=\{y_1,y_2,\dots y_m\}\qquad;\qquad \forall y\in Y(\Omega),\ P(Y=y)=\sum_{x/\varphi(x)=y} P(X=x).$$
Moments
Définition : $E(X)=m_X=\displaystyle\sum_{x\in X(\Omega)} xP(X=x)$
- L'espérance est la moyenne des valeurs possibles de $X$, pondérées par leur probabilité de réalisation.
Théorème de transfert : $\displaystyle E(\varphi(X))=\sum_{x\in X(\Omega)}\varphi(x)P(X=x)=\sum_{k=0}^n \varphi(x_k)P(X=x_k)$
Moments : on appelle moment d'ordre $r$ de $X$ le réel $m_r(X)=E(X^r)$
Variance : On appelle variance d'une VAR $X$ le réel $V(X)=E[(X-E(X))^2]$.
L'écart-type est la racine carrée de la variance.
Formule de Huygens :$V(X)=E(X^2)-[E(X)]^2$
- (Moyenne des carrées moins le carré de la moyenne)
Résultat : $E(aX+b)=aE(X)+b\qquad;\qquad V(aX+b)=a^2V(X),\ a,b$ réels, $X$ VAR.
Inégalité de Bienaymé-Tchebychev : Soit $X$ une VAR d'espérance $m$ et d'écart-type $\sigma$ non nul, alors : $\displaystyle \forall \epsilon>0,\ P(|X-m|\geq \epsilon)\leq\frac{\sigma^2}{\epsilon^2}$
Lois usuelles
Loi certaine
- Modèle : "Il n' y a qu'un trou à la roulette" (Léo Ferré)
- Loi : $X(\Omega)=\{a\}; P(X=a)=1$
- Moments : $E(X)=a;V(X)=0$
Loi uniforme
- Modèle : On choisit au hasard (avec équiprobabilité) un numéro parmi les numéros de 1 à $n$.
- Loi : $X$ suit $\mathscr U(n), X(\Omega)=[[1,n]]; \qquad ;\qquad \forall k\in[[0,n]],\ P(X=k)=\dfrac1n$.
- Moments : $E(X)=\dfrac{n+1}{2}$ ; $\left[V(X)=\dfrac{n^2-1}{12}\text{ : Hors programme, à démontrer}\right]$.
Attention : il peut exister des variables uniformes qui prennent des valeurs sur d'autres ensembles que $[[1,n]]$, il faut alors préciser la loi et calculer $E(X)$ et $V(X)$.
Loi de Bernoulli
- Modèle : C'est une expérience à 2 issues Succès ($X=1$) ou Échec ($=0)$.
- Loi : $X$ suit $\mathscr B(p)$ : $X(\Omega)=\{0,1\}\qquad ;\qquad P(X=1)=p;P(X=0)=q=1-p$
- Moments : $E(X)=p$ ; $V(X)=pq$
Loi binomiale
- Modèle : on répète $n$ fois la même expérience de Bernoulli de manière indépendante et $X$ mesure le nombre de succès.
- Exemple : obtenir des faces avec $n$ lancers de pièces ; des as en lançant $n$ dés ; des boules blanches en $n$ tirages \textbf{AVEC} remise
- Loi : $X$ suit $\mathscr B(n,p)$ : $\displaystyle X(\Omega)=[[0,n]]\qquad ;\qquad \forall k\in[[0,n]],\ P(X=k)=\binom{n}{k}p^kq^{n-k}$
- Moments : $E(X)=np$ ; $V(X)=npq$
Loi Hypergéométrique
- Modèle : Une urne contient $N$ boules dont une proportion $p$ de boules blanches au début de l'expérience. On tire $n$ boules \textbf{SANS} remise dont $X$ blanches.
- Loi : $X$ suit $t\mathscr H(N,n,p)$ : $\displaystyle X(\Omega)\subset[[0,n]] \qquad;\qquad \forall k\in[[1,n]],\ P(X=k)=\frac{\binom{Np}{k}\binom{Nq}{n-k}}{\binom{N}{n}}$
- Moments : $E(X)=np$ ; $\left[V(X)= npq\displaystyle\frac{N-n}{N-1}\text { : Hors programme}\right]$
- Identifiez-vous pour poster des commentaires