[<] Calcul d'espérances et variances [>] Moments

 
Exercice 1  5632  Correction  

Soient X et Y deux variables aléatoires L2. Établir

(Cov(X,Y))2V(X)V(Y).

Solution

Par l’inégalité de Cauchy-Schwarz, on sait que pour toutes variables X,YL2,

E(XY)2E(X2)E(Y2).

Il suffit d’appliquer ce résultat aux variables X=X-E(X) et Y=Y-E(Y)L2 pour obtenir

(Cov(X,Y))2 =E((X-E(X))(Y-E(Y)))2
E((X-E(X))2)E((Y-E(Y))2)=V(X)V(Y).
 
Exercice 2  5339  Correction  

Pour XL2(Ω), on note σ(X)=V(X) l’écart-type de la variable X.

Pour X,YL2(Ω), comparer σ(X+Y) et σ(X)+σ(Y).

Solution

Soient X,YL2(Ω). On sait X+YL2(Ω) et

V(X+Y)=V(X)+2Cov(X,Y)+V(Y).

Or, par l’inégalité de Cauchy-Schwarz,

|Cov(X,Y)|V(X)V(Y)

et donc

V(X+Y)V(X)+2V(X)V(Y)+V(Y)=(V(X)+V(Y))2.

On en déduit

σ(X+Y)σ(X)+σ(Y).
 
Exercice 3  5862  Correction  

Soit (Xn)n1 une suite de variables aléatoires indépendantes et identiquement distribuées selon une loi de Bernoulli de paramètre p]0;1[.

Pour n1, on pose Yn=XnXn+1 et Sn=Y1++Yn.

  • (a)

    Identifier la loi de Yn.

  • (b)

    Calculer l’espérance et la variance de Sn.

  • (c)

    Soit ε>0. Justifier

    P(|Snnp2|ε)n+0.

Solution

  • (a)

    La variable Yn prend ses valeurs dans {0,1} et, par indépendance,

    P(Yn=1)=P(Xn=1,Xn+1=1)=P(Xn=1)P(Xn+1=1)=p2.

    La variable Yn suit une loi de Bernoulli de paramètre p2.

  • (b)

    Notons que les variables Yn ne sont pas indépendantes: on ne peut pas affirmer que Sn suit une loi binomiale de paramètres n et p2. Cependant, par linéarité,

    E(Sn)=E(Y1)++E(Yn)=np2.

    Aussi,

    Cov(Yn,Yn+1) =E(YnYn+1)E(Yn)E(Yn+1)
    =P(YnYn+1=1)p2×p2
    =P(Xn=1)P(Xn+1=1)P(Xn+2=1)p4=p3p4

    alors que, par indépendance par paquets,

    k2,Cov(Yn,Yn+k)=0.

    On en déduit

    V(Sn) =i=1nV(Yi)+21i<jnCov(Yi,Yj)
    =i=1nV(Yi)+2i=1n1Cov(Yi,Yi+1)
    =i=1np2(1p2)+2(n1)(p3p4)
    =np2+2(n1)p3(3n2)p4.
  • (c)

    Par l’inégalité de Bienaymé-Tchebychev,

    P(|Snnp2|ε)=P(|SnE(Sn)|nε)V(Sn)n2ε2n+0.
 
Exercice 4  5001   

Soient X1 et X2 deux variables aléatoires réelles suivant toutes les deux la loi d’une variable aléatoire réelle X bornée.

On suppose que X1+X2 suit la loi de la variable 2X. Montrer que X1=X2 presque sûrement11 1 Cela signifie P(X1=X2)=1..

 
Exercice 5  5320   Correction  

L’univers Ω est l’ensemble des permutations de 1;n (avec n*) que l’on munit de la tribu discrète et de la probabilité uniforme. Pour k1;n, on définit une variable aléatoire Xk sur Ω en posant, pour tout σ élément de Ω,

Xk(σ)={1 si σ(k)=k0 sinon.
  • (a)

    Identifier la loi de la variable Xk.

  • (b)

    Soient i,j1;n distincts. Calculer Cov(Xi,Xj).

  • (c)

    En déduire l’espérance et la variance de la variable N donnant le nombre de points fixes d’une permutation σ élément de Ω.

Solution

  • (a)

    La variable Xk prend ses valeurs dans {0,1}, elle suit donc une loi de Bernoulli. Pour déterminer son paramètre, il suffit d’évaluer P(Xk=1).

    Il y a n! éléments dans Ω et, parmi ceux-ci, il y a exactement (n-1)! permutations fixant k car ces dernières s’identifient par restriction aux permutations de 1;n{k}. La probabilité étant uniforme,

    P(Xk=1)=(n-1)!n!=1n.

    La variable Xk suit une loi de Bernoulli de paramètre p=1n.

  • (b)

    Méthode: Par la formule de Huygens,

    Cov(Xi,Xj)=E(XiXj)-E(Xi)E(Xj).

    La variable XiXj prend ses valeurs dans {0,1}, elle suit aussi une loi de Bernoulli. La variable XiXj prend la valeur 1 uniquement lorsque i et j sont des points fixes de la permutation étudiée. Les permutations fixant i,j s’identifient par restriction aux permutations de 1;n{i,j}, il y en a exactement (n-2)! et

    P(XiXj=1)=(n-2)!n!=1n(n-1).

    La variable XiXj suit une loi de Bernoulli de paramètre p=1n(n-1).

    L’espérance d’une loi de Bernoulli étant égale à son paramètre, on obtient11 1 La covariance obtenue est positive et cela peut être attendu car, si une permutation admet i pour point fixe, cela réduit les valeurs possibles pour j et accroît la probabilité que j soit point fixe.

    Cov(Xi,Xj)=E(XiXj)-E(Xi)E(Xj)=1n(n-1)-1n1n=1(n-1)n2.
  • (c)

    La variable N correspond à la somme X1++Xn. Par linéarité de l’espérance,

    E(N)=k=1nE(Xk)=k=1n1n=1.

    Méthode: La variance d’une somme se développe par bilinéarité de la covariance.

    Par développement,

    V(N) =Cov(N,N)=Cov(i=1nXi,j=1nXj)=i=1nj=1nCov(Xi,Xj)
    =i=1nV(Xi)+21i<jnCov(Xi,Xj).

    La première somme comporte n termes égaux à la variance d’une loi de Bernoulli de paramètre 1n et la seconde somme comporte n(n-1)2 égaux à la covariance précédemment calculée. On peut alors terminer le calcul

    V(N)=n1n(1-1n)+2n(n-1)21n2(n-1)=1.
 
Exercice 6  5400   Correction  

(Processus de comptage)

Un dispositif de comptage dénombre les visiteurs qui entrent dans un musée. On note X0=0 et, pour tout n*, on introduit la variable aléatoire Xn qui donne le nombre de visiteurs ayant passé le portail entre les instants 0 et n. On admet que la variable Xn+1Xn suit une loi de Poisson de paramètre α et que les différentes variables Xn+1Xn pour n0 sont indépendantes.

Soient (n,m)2 avec 0mn.

  • (a)

    Déterminer la loi de XnXm.

  • (b)

    Calculer E(Xm(XnXm)) puis la covariance des variables aléatoires Xm et Xn

  • (c)

    Quelle est la loi du couple (Xm,Xn)?

  • (d)

    Pour n0, on pose p=m/n. Pour k, calculer la loi de probabilité de Xm sachant que Xn=k puis identifier cette loi.

On note N la variable aléatoire qui prend pour valeur le plus petit entier n>0 tel qu’il soit entré au moins un visiteur entre les instants 0 et n.

  • (e)

    Pour n*, exprimer l’évènement (N=n) en fonction de Xn1 et Xn, puis déterminer la loi de N et donner son espérance.

Solution

  • (a)

    Par somme de variables aléatoires de Poisson indépendantes, XnXm suit une loi de Poisson de paramètre α(nm).

  • (b)

    La variable Xm=XmX0 suit une loi de Poisson de paramètre αm. En vertu du lemme des coalitions, les variables

    Xm=XmX0=k=0m1(Xk+1Xk)etXnXm=XnXm=k=mn1(Xk+1Xk)

    sont indépendantes.

    E(Xm(XnXm))=E(Xm)E((XnXm))=α2m(nm).

    On en déduit la covariance de Xm et Xn

    Cov(Xm,Xn) =E(XmXn)E(Xm)E(Xn)
    =E(Xm(XnXm))+E(Xm2)E(Xm)E(Xn)
    =E(Xm(XnXm))+V(Xm)+E(Xm)2E(Xm)E(Xn)
    =α2m(nm)+αm+α2m2α2mn=αm.

    La formule proposée n’est pas symétrique en m et n mais cela s’explique par la condition mn.

  • (c)

    Le couple (Xm,Xn) prend ses valeurs dans {(j,k)2|jk} car Xm et XnXm prennent leurs valeurs dans .

    Soit (j,k)2 tel que jk. On a

    P((Xm,Xn)=(j,k))=P(Xm=j,Xn=k)=P(Xm=j,XnXm=kj).

    Par indépendance,

    P((Xm,Xn)=(j,k)) =P(Xm=j)P(XnXm=kj)
    =eαm(αm)jj!×eα(nm)(α(nm)kj)(kj)!
    =eαnαkmj(nm)kjj!(kj)!.
  • (d)

    Sous la condition (Xn=k), la variable aléatoire Xm prend ses valeurs dans 0;k. Pour j0;k,

    P(Xm=jXn=k)=P(Xm=j,Xn=k)P(Xn=k)=(kj)pj(1p)kj.

    On reconnaît une loi binomiale de paramètres k et p.

  • (e)

    Immédiatement,

    (N=n)=(Xn1=0)(Xn>0)=(Xn1=0)(XnXn1>0).

    La variable N prend ses valeurs dans * et, par indépendance,

    P(N=n) =P(Xn1=0)P(XnXn1>0)
    =P(Xn1=0)(1P(XnXn1=0))
    =eα(n1)(1eα).

    On reconnaît une loi géométrique de paramètre 1eα et l’on peut alors donner son espérance et sa variance

    E(N)=11eα.
 
Exercice 7  4086   Correction  

Soient X et Y deux variables aléatoires réelles dont les carrés sont d’espérances finies.

On suppose V(X)>0. Déterminer a,b minimisant la quantité

E((Y-(aX+b))2).

Solution

On a

E((Y-(aX+b))2)=V(Y-(aX+b))+E(Y-(aX+b))2.

D’une part

V(Y-(aX+b))=V(Y-aX)=a2V(X)-2aCov(X,Y)+V(Y)

et donc

V(Y-(aX+b)) =V(Y-aX)
=(a-Cov(X,Y)V(X))2V(X)+V(X)V(Y)-(Cov(X,Y))2V(X).

D’autre part

E(Y-(aX+b))2=0 pour b=E(Y)-aE(X).

On en déduit que

E((Y-(aX+b))2)

est minimale pour

a=Cov(X,Y)V(X)etb=V(X)E(Y)-Cov(X,Y)E(X)V(X).

Ces valeurs de a et b réalisent une régression linéaire: elles donnent la meilleure expression linéaire de Y en fonction de X.

 
Exercice 8  4048   Correction  

Un signal est diffusé via un canal et un bruit vient malheureusement s’ajouter à la transmission. Le signal est modélisé par une variable aléatoire discrète réelle S d’espérance mS et de variance σS2 connues. Le bruit est modélisé par une variable B indépendante de S d’espérance nulle et de variance σB2>0. Après diffusion, le signal reçu est X=S+B.

Déterminer a,b pour que Y=aX+b soit au plus proche de S c’est-à-dire telle que l’espérance E((Y-S)2) soit minimale.

Solution

Par la formule de Huygens

E((Y-S)2)=V(Y-S)+(E(Y-S))2

avec

E(Y-S)=(a-1)mS+b

et

V(Y-S)=V((a-1)S+aB+b)=(a-1)2σs2+a2σB2

car la covariance de S et B est nulle.
La quantité V(Y-S) est minimale pour

a=σS2σS2+σB2

et l’on peut alors rendre le terme (E(Y-S))2 nul pour

b=(1-a)mS.

Au final

Y=σS2σS2+σB2X+σB2σS2+σB2mS.
 
Exercice 9  4047   Correction  

Soient X1,,Xn des variables aléatoires discrètes réelles L2. On appelle matrice de covariance de la famille (X1,,Xn) la matrice

Σ=(Cov(Xi,Xj))1i,jn.
  • (a)

    Soit X=a1X1++anXn avec ai.

    Exprimer la variance de X en fonction de la matrice Σ.

  • (b)

    En déduire que les valeurs propres de la matrice Σ sont toutes positives.

Solution

  • (a)

    On a

    V(X)=Cov(X,X).

    Par bilinéarité

    V(a1X1++anXn)=i=1nj=1naiajV(Xi,Xj).

    Ce calcul est aussi le résultat du produit matriciel

    CΣC avec C=(a1an).
  • (b)

    Soit C=(a1an) un vecteur propre de Σ associé à une valeur propre λ.
    On a CΣC=λCC=λC2 et, pour X=a1X1++anXn, V(X)0 donc

    λ=V(X)C20.
 
Exercice 10  4378   

Soient X1,,Xn des variables aléatoires discrètes réelles L2. On appelle matrice de covariance de la famille (X1,,Xn), la matrice

M=(Cov(Xi,Xj))1i,jnn().

Montrer que cette matrice est diagonalisable et à valeurs propres positives.

 
Exercice 11  5273     ENSTIM (MP)Correction  

Soient X,Y des variables aléatoires indépendantes suivant une loi de Poisson de paramètre λ+*.

  • (a)

    Déterminer les fonctions génératrices de X et 3Y.

  • (b)

    En déduire la fonction génératrice de Z=X+3Y.

  • (c)

    Calculer E(Z) et V(Z).

  • (d)

    Les variables X et Z sont-elles indépendantes?

  • (e)

    Trouver le minimum de la fonction tV(X+tY).

Solution

  • (a)

    Pour tout t réel,

    GX(t)=n=0+P(X=n)tn=n=0+e-λ(λt)nn!=eλ(t-1)

    et

    G3Y(t)=E(t3Y)=E((t3)Y)=GY(t3)=eλ(t3-1).
  • (b)

    Par indépendance des variables X et 3Y,

    GZ(t)=GX(t)G3Y(t)=eλ(t-1)(t2+t+2).
  • (c)

    Par linéarité,

    E(Z)=E(X)+3E(Y)=4λ.

    Par indépendance,

    V(Z)=V(X)+9V(Y)=10λ.
  • (d)

    Les variables X et Z ne sont pas indépendantes car

    P(X=1,Z=0)=0etP(X=1)P(Z=0)0.
  • (e)

    Par indépendance,

    V(Z)=V(X+tY)=V(X)+t2V(Y).

    Cette expression est minimale pour t=0.

[<] Calcul d'espérances et variances [>] Moments



Édité le 08-01-2024

Bootstrap Bootstrap 3 - LaTeXML [LOGO] - Powered by MathJax Powered by MathJax