Couple de VAR, suites de VAR

Définitions

Définition : Un couple de VAR est la donnée conjointe de deux variables $(X,Y)$ ; pour tout couple $(x,y)$ de $Z(\Omega)=X(\Omega)\times Y(\Omega), \ (Z=(x,y))=(X=x,Y=y)=(X=x)\cap(Y=y)$.

Loi conjointe : On appelle loi de probabilité conjointe de $X$ et de $Y$ l'application $\displaystyle\left\{ \begin{array}{ccc}  X(\Omega)\times Y(\Omega)&\rightarrow&[0,1] \\ (x,y)&\mapsto& P(X=x,Y=y)=P((X=x)\cap(Y=y))  \end{array}\right.$

$p_{i,j}=P(X=x_i,Y=y_j)$ et $\displaystyle\sum_{(i,j)\in[[1,r]]\times[[1,s]]} p_{i,j}=1$

Lois marginales : Les VAR $X$ et $Y$ sont appelés VAR marginales du couple $Z=(X,Y)$ ; On note $p_{i\cdot}=P(X=x_i)$ et $p_{\cdot j}=P(Y=y_j)$ ; on alors  $\displaystyle\forall i\in[[1,r]],\ p_{i\cdot}=\sum_{j=1}^s p_{i,j}$

Loi de la somme de deux VAR entières :  si $X(\Omega)=[[0,n]],Y(\Omega)=[[0,m]]$ alors $Z(\Omega)=[[0,m+n]]$ et $\forall  z\in N, P(Z=z)=\displaystyle\sum_{x=0}^n P(X=x)P(Y=z-x)$.

Théorème de transfert : Soit $u\left\{\begin{array}{ccc}  R^2&\rightarrow& R\\(x,y)&\mapsto &u(x,y)   \end{array} \right.$ et $(X,Y)$ un couple de VAR alors on a:

$$\displaystyle E(u(X,Y))=\sum_{\underset{1\leq j\leq s}{1\leq i\leq r}}u(x_i,y_j)P((X=x_i)\cap(Y=y_j))= \sum_{\underset{1\leq j\leq s}{1\leq i\leq r}}u(x_i,y_j)p_{i,j}= \sum_{(x,y)\in X(\Omega)\times Y(\Omega)}u(x,y).P(X=x\cap Y=y)$$

Résultat : Pour tout couple $(X,Y)$ de VAR et tout couple $(a,b)$ de réels, on a $E(aX+bY)=aE(X)+bE(Y)$

Lois conditionnelles : Soit $(X,Y)$ un couple de VAR sur $\Omega$, soit $y\in Y(\Omega)$, la loi conditionnelle de $X$ sachant $(Y=y)$ est l'application

$\forall x\in X(\Omega),\ P_{Y=y}(X=x)=\displaystyle\frac{P((X=x)\cap(Y=y))}{P(Y=y)}$

Couple de VAR indépendantes :   2 VAR sont indépendantes si et seulement si  la loi conjointe est le produit des lois marginales :

$$\displaystyle\forall(i,j)\in[[1,r]]\times[[1,s]],\ P((X=x_i)\cap(Y=y_j))=P(X=x_i)\times P(Y=y_j)$$

  •  si $X$ et $Y$ sont des VAR indépendantes et  $f$ et $g$ sont deux fonctions définies sur $ R$ alors $f(X)$ et $g(Y)$ sont des VAR indépendantes.
  • Si $X$ et $Y$ sont indépendants alors $E(XY)=E(X)E(Y)$

Corrélation linéaire

Covariance de $X$ et de $Y$ : $\text{cov}(X,Y)=E[(X-E(X))(Y-E(Y))] \underset{\text{Huygens}}{=}E(XY)-E(X)E(Y)$

  • $\text{cov}(aX+bY,Z)=a\text{cov}(X,Z)+b\text{cov}(Y,Z)$ (bilinéarité) ;
  • $\text{cov}(aX+b,cY+d)=ab\text{cov}(X,Y)$

$V(aX+bY)=a^2V(X)+2ab\text{cov}(X,Y)+b^2V(Y)$ ; $V(X+Y)=V(X)+2\text{cov}(X,Y)+V(Y)$

$X$ et $Y$ indépendants $\Rightarrow \text{cov}(X,Y)=0$ (Réciproque fausse).

Coefficient de corrélation linéaire : $\displaystyle \rho(X,Y)=\frac{\text{cov}(X,Y)}{\sigma(X)\sigma(Y)}$

Famille de $n$ variables aléatoires

Vecteur aléatoire : $(X_1,X_2,\dots X_n)$ est un vecteur aléatoire sur $ \Omega$ dont la loi conjointe est l'application

$$\displaystyle\left\{\begin{array}{ccc} X_1(\Omega)\times X_2(\Omega)\dots X_n(\Omega)&\rightarrow&[0,1] \\(x_1,x_2,\dots x_n)&\mapsto &P[(X_1=x_1)\cap(X_2=x_2)\dots (X_n=x_n)]\end{array} \right.$$

Espérance : Soit $(X_1,X_2\dots X_n)$ un vecteur aléatoire défini sur $\Omega$, alors $E(X_1+X_2+\cdots +X_n)=E(X_1)+E(X_2)+\cdots E(X_n)$

Indépendance: Soit $(X_1,X_2\dots X_n)$ un vecteur aléatoire défini sur $\Omega$, on dit qu'elles sont mutuellement indépendantes si la loi conjointe est le produit des lois marginales c'est à dire

$$\displaystyle\forall (x_1,x_2,\dots x_n)\in X_1(\Omega)\times\cdots X_n(\Omega),\ P((X_1=x_1)\cap\dots\cap(X_n=x_n))=P(X_1=x_1)\times \cdots \times P(X_n=x_n)$$

Propriétés des familles de VAR indépendantes

  • Toute sous famille d'une famille de variables indépendants est une famille de variables mutuellement indépendants
  • $(X_l, X_2, \dots, X_n, \dots, X_p)$ indépendantes $\Rightarrow (X_1, X_2,\dots, X_n)$ et $g(X_{n+1},\dots, X_p)$ indépendantes
  • $(X_l, X_2, \dots, X_n, \dots, X_p)$ indépendantes $\Rightarrow f_1 (X_1),\dots f_p(X_p)$ indépendantes .
  • Si les VAR $X_1,\dots X_n$ sont  indépendantes alors $\displaystyle V\left(\sum_{k=1}^n X_k\right)=\sum_{k=1}^n V(X_k)$

Loi Binomiale : La somme de $n$ variables de Bernoulli indépendantes et de même paramètre $p$ est une VAR binomiale de paramètres $n,p$

 

Fichier Joint: 

Ajouter un commentaire

Plain text

  • Aucune balise HTML autorisée.
  • Les adresses de pages web et de courriels sont transformées en liens automatiquement.
  • Les lignes et les paragraphes vont à la ligne automatiquement.
CAPTCHA
This question is for testing whether or not you are a human visitor and to prevent automated spam submissions.
Image CAPTCHA
Saisir les caractères affichés dans l'image.