[<] Calcul d'espérances et variances [>] Moments

 
Exercice 1  5339  Correction  

Pour XL2(Ω), on note σ(X)=V(X) l’écart-type de la variable X.

Pour X,YL2(Ω), comparer

σ(X+Y)etσ(X)+σ(Y).

Solution

Soient X,YL2(Ω). On sait X+YL2(Ω) et

V(X+Y)=V(X)+2Cov(X,Y)+V(Y).

Or, par l’inégalité de Cauchy-Schwarz,

|Cov(X,Y)|V(X)V(Y)

et donc

V(X+Y)V(X)+2V(X)V(Y)+V(Y)=(V(X)+V(Y))2.

On en déduit

σ(X+Y)σ(X)+σ(Y).
 
Exercice 2  5001   

Soient X1 et X2 deux variables aléatoires réelles suivant toutes les deux la loi d’une variable aléatoire réelle X bornée.

On suppose que X1+X2 suit la loi de la variable 2X. Montrer que X1=X2 presque sûrement11 1 Cela signifie P(X1=X2)=1..

 
Exercice 3  5320   Correction  

L’univers Ω est l’ensemble des permutations de 1;n (avec n*) que l’on munit de la tribu discrète et de la probabilité uniforme. Pour k1;n, on définit une variable aléatoire Xk sur Ω en posant, pour tout σ élément de Ω,

Xk(σ)={1 si σ(k)=k0 sinon.
  • (a)

    Identifier la loi de la variable Xk.

  • (b)

    Soient i,j1;n distincts. Calculer Cov(Xi,Xj).

  • (c)

    En déduire l’espérance et la variance de la variable N donnant le nombre de points fixes d’une permutation σ élément de Ω.

Solution

  • (a)

    La variable Xk prend ses valeurs dans {0,1}, elle suit donc une loi de Bernoulli. Pour déterminer son paramètre, il suffit d’évaluer P(Xk=1).

    Il y a n! éléments dans Ω et, parmi ceux-ci, il y a exactement (n-1)! permutations fixant k car ces dernières s’identifient par restriction aux permutations de 1;n{k}. La probabilité étant uniforme,

    P(Xk=1)=(n-1)!n!=1n.

    La variable Xk suit une loi de Bernoulli de paramètre p=1n.

  • (b)

    Méthode: Par la formule de Huygens (),

    Cov(Xi,Xj)=E(XiXj)-E(Xi)E(Xj).

    La variable XiXj prend ses valeurs dans {0,1}, elle suit aussi une loi de Bernoulli. La variable XiXj prend la valeur 1 uniquement lorsque i et j sont des points fixes de la permutation étudiée. Les permutations fixant i,j s’identifient par restriction aux permutations de 1;n{i,j}, il y en a exactement (n-2)! et

    P(XiXj=1)=(n-2)!n!=1n(n-1).

    La variable XiXj suit une loi de Bernoulli de paramètre p=1n(n-1).

    L’espérance d’une loi de Bernoulli étant égale à son paramètre, on obtient11 1 La covariance obtenue est positive et cela peut être attendu car, si une permutation admet i pour point fixe, cela réduit les valeurs possibles pour j et accroît la probabilité que j soit point fixe.

    Cov(Xi,Xj)=E(XiXj)-E(Xi)E(Xj)=1n(n-1)-1n1n=1(n-1)n2.
  • (c)

    La variable N correspond à la somme X1++Xn. Par linéarité de l’espérance,

    E(N)=k=1nE(Xk)=k=1n1n=1.

    Méthode: La variance d’une somme se développe par bilinéarité de la covariance ().

    Par développement,

    V(N) =Cov(N,N)=Cov(i=1nXi,j=1nXj)=i=1nj=1nCov(Xi,Xj)
    =i=1nV(Xi)+21i<jnCov(Xi,Xj).

    La première somme comporte n termes égaux à la variance d’une loi de Bernoulli de paramètre 1n et la seconde somme comporte n(n-1)2 égaux à la covariance précédemment calculée. On peut alors terminer le calcul22 2 On pourra comparer cette étude à celle du sujet 3986.

    V(N)=n1n(1-1n)+2n(n-1)21n2(n-1)=1.
 
Exercice 4  4086   Correction  

Soient X et Y deux variables aléatoires réelles admettant chacune une variance.
On suppose V(X)>0. Déterminer a,b minimisant la quantité

E((Y-(aX+b))2).

Solution

On a

E((Y-(aX+b))2)=V(Y-(aX+b))+E(Y-(aX+b))2.

D’une part

V(Y-(aX+b))=V(Y-aX)=a2V(X)-2aCov(X,Y)+V(Y)

et donc

V(Y-(aX+b)) =V(Y-aX)
=(a-Cov(X,Y)V(X))2V(X)+V(X)V(Y)-(Cov(X,Y))2V(X).

D’autre part

E(Y-(aX+b))2=0 pour b=E(Y)-aE(X).

On en déduit que

E((Y-(aX+b))2)

est minimale pour

a=Cov(X,Y)V(X)etb=V(X)E(Y)-Cov(X,Y)E(X)V(X).

Ces valeurs de a et b réalisent une régression linéaire: elles donnent la meilleure expression linéaire de Y en fonction de X.

 
Exercice 5  4048   Correction  

Un signal est diffusé via un canal et un bruit vient malheureusement s’ajouter à la transmission. Le signal est modélisé par une variable aléatoire discrète réelle S d’espérance mS et de variance σS2 connues. Le bruit est modélisé par une variable B indépendante de S d’espérance nulle et de variance σB2>0. Après diffusion, le signal reçu est X=S+B.

Déterminer a,b pour que Y=aX+b soit au plus proche de S c’est-à-dire telle que l’espérance E((Y-S)2) soit minimale.

Solution

Par la formule de Huygens

E((Y-S)2)=V(Y-S)+(E(Y-S))2

avec

E(Y-S)=(a-1)mS+b

et

V(Y-S)=V((a-1)S+aB+b)=(a-1)2σs2+a2σB2

car la covariance de S et B est nulle.
La quantité V(Y-S) est minimale pour

a=σS2σS2+σB2

et l’on peut alors rendre le terme (E(Y-S))2 nul pour

b=(1-a)mS.

Au final

Y=σS2σS2+σB2X+σB2σS2+σB2mS.
 
Exercice 6  4047   Correction  

Soient X1,,Xn des variables aléatoires discrètes réelles. On appelle matrice de covariance de la famille (X1,,Xn) la matrice

Σ=(Cov(Xi,Xj))1i,jn.
  • (a)

    Soit X=a1X1++anXn avec ai.

    Exprimer la variance de X en fonction de la matrice Σ.

  • (b)

    En déduire que les valeurs propres de la matrice Σ sont toutes positives.

Solution

  • (a)

    On a

    V(X)=Cov(X,X).

    Par bilinéarité

    V(a1X1++anXn)=i=1nj=1naiajV(Xi,Xj).

    Ce calcul est aussi le résultat du produit matriciel

    CtΣC avec C=(a1an)t.
  • (b)

    Soit C=(a1an)t un vecteur propre de Σ associé à une valeur propre λ.
    On a CtΣC=λCtC=λC2 et, pour X=a1X1++anXn, V(X)0 donc

    λ=V(X)C20.
 
Exercice 7  4378   

Soient X1,,Xn des variables aléatoires discrètes réelles admettant chacune une variance. On appelle matrice de covariance de la famille (X1,,Xn), la matrice

M=(Cov(Xi,Xj))1i,jnn().

Montrer que cette matrice est diagonalisable et à valeurs propres positives.

 
Exercice 8  5273     ENSTIM (MP)Correction  

Soient X,Y des variables aléatoires indépendantes suivant une loi de Poisson de paramètre λ+*.

  • (a)

    Déterminer les fonctions génératrices de X et 3Y.

  • (b)

    En déduire la fonction génératrice de Z=X+3Y.

  • (c)

    Calculer E(Z) et V(Z).

  • (d)

    Les variables X et Z sont-elles indépendantes?

  • (e)

    Trouver le minimum de la fonction tV(X+tY).

Solution

  • (a)

    Pour tout t réel,

    GX(t)=n=0+P(X=n)tn=n=0+e-λ(λt)nn!=eλ(t-1)

    et

    G3Y(t)=E(t3Y)=E((t3)Y)=GY(t3)=eλ(t3-1)
  • (b)

    Par indépendance des variables X et 3Y,

    GZ(t)=GX(t)G3Y(t)=eλ(t-1)(t2+t+2)
  • (c)

    Par linéarité,

    E(Z)=E(X)+3E(Y)=4λ.

    Par indépendance,

    V(Z)=V(X)+9V(Y)=10λ.
  • (d)

    Les variables X et Z ne sont pas indépendantes car

    P(X=1,Z=0)=0etP(X=1)P(Z=0)0
  • (e)

    Par indépendance,

    V(Z)=V(X+tY)=V(X)+t2V(Y)

    Cette expression est minimale pour t=0.

[<] Calcul d'espérances et variances [>] Moments



Édité le 08-11-2019

Bootstrap Bootstrap 3 - LaTeXML [LOGO] - Powered by MathJax Powered by MathJax