[>] Loi géométrique

 
Exercice 1  4365  

Pour quels a, existe-t-il une variable aléatoire X à valeurs dans * telle que

P(X=n)=an(n+1)pour tout n*?
 
Exercice 2  4083  Correction  

Soient X une variable aléatoire discrète définie sur (Ω,𝒜,P) et f une application définie sur X(Ω).
À quelle condition les variables aléatoires X et Y=f(X) sont-elles indépendantes?

Solution

Supposons les variables aléatoires X et Y=f(X) indépendantes.
Il existe au moins une valeur x par X vérifiant P(X=x)>0. En effet, la variable X étant discrète P(Ω)=1 est la somme des probabilités des événements valeurs (X=x). Considérons ensuite la valeur y=f(x).

P(f(X)=yX=x)=P(f(X)=yX=x)P(X=x).

Or (X=x)(f(X)=y), donc

P(f(X)=yX=x)=1.

Cependant, les variables X et f(X) étant supposées indépendantes

P(f(X)=yX=x)=P(f(X)=y).

Ainsi, l’événement (f(X)=y) est presque sûr. La variable aléatoire Y est donc presque sûrement constante. La réciproque est immédiate et donc X et Y=f(X) sont indépendantes si, et seulement si, Y est presque sûrement constante.

 
Exercice 3  4093   Correction  

Soit (Xn)n une suite de variables aléatoires discrètes à valeurs dans un ensemble E et N une variable aléatoire à valeurs naturelles toutes définies sur un même espace probabilisable (Ω,𝒯). On définit une fonction Y par

ωΩ,Y(ω)=XN(ω)(ω).

Justifier que Y est une variable aléatoire discrète.

Solution

Les Xn(Ω) sont des ensembles au plus dénombrables et

Y(Ω)nXn(Ω).

On en déduit que l’ensemble Y(Ω) est au plus dénombrable.
De plus, pour tout yY(Ω)

Y-1({y})=n{ωΩ|N(ω)=n et Xn(ω)=y}

et donc

Y-1({y})=n{N(ω)=n}{Xn(ω)=y}

est bien élément de la tribu 𝒯.

 
Exercice 4  5324   Correction  

(Fonction de répartition)

Soit X une variable aléatoire discrète à valeurs réelles.

On appelle fonction de répartition de la variable X, l’application fX: définie par

fX(x)=P(Xx)pour tout x.
  • (a)

    Montrer que la fonction fX est croissante et déterminer ses limites en ±.

  • (b)

    Montrer que la fonction fX est continue à droite en tout point.

  • (c)

    À quelle condition la fonction fX est-elle continue en un point a de ?

Solution

  • (a)

    Méthode: On établit la croissance de fX en vérifiant, pour tous x,y,

    xyfX(x)fX(y).

    Soient x,y avec xy. L’événement (Xx) est inclus dans (Xy) et, par croissance des probabilités,

    fX(x)=P(Xx)P(Xy)=fX(y).

    Ainsi, la fonction fX est croissante.

    La monotonie de fX assure l’existence de sa limite en +. Pour la calculer, nous allons prendre appui sur des suites en employant que, si (xn) est une suite de limite +, alors

    limx+f(x)=limn+f(xn)

    Méthode: Par continuité monotone, la probabilité d’une union croissante (resp. une intersection décroissante) est la limite des probabilités des événements réunis (resp. intersectés)

    On remarque

    Ω=n(Xn) avec (Xn)(Xn+1)pour tout n

    et donc

    P(Ω)=limn+P(Xn)=limn+fX(n).

    On en déduit

    limx+fX(x)=limn+fX(n)=P(Ω)=1.

    De la même façon, on sait que fX admet une limite en - et, puisque

    =n(X-n) avec (X-(n+1))(X-n)pour tout n

    on obtient

    limx-fX(x)=P()=0.
  • (b)

    De nouveau, la croissance de fX assure l’existence11 1 Au surplus, on peut affirmer que la valeur fX(a) est comprise entre les limites à gauche et à droite de fX en a: lima-fXfX(a)lima+fX. des limites à droite et à gauche de fX en tout point a. En particulier,

    limxa+fX(x)=limn+fX(a+1n).

    Or

    (Xa)=n*(Xa+1n) avec (Xa+1n+1)(Xa+1n)

    et donc

    limxa+fX(x)=limn+P(Xa+1n)=P(Xa)=fX(a).

    Ainsi, la fonction fX est continue à droite en tout point a de .

  • (c)

    Soit a. La fonction fX étant déjà continue à droite en a, il suffit d’étudier sa limite à gauche pour savoir si elle est continue en a. Par monotonie, on sait que celle-ci existe et l’on peut la calculer en observant

    n*(Xa-1n)=(X<a)

    ce qui donne

    limxa-fX(x)=P(X<a).

    On en déduit que la fonction fX est continue à gauche en a (et donc continue en a) si, et seulement si, P(X<a)=P(Xa) c’est-à-dire si, et seulement si, P(X=a)=0.

 
Exercice 5  4094    Correction  

Soit T une variable aléatoire à valeurs naturelles vérifiant

n,P(T>n)>0.

On appelle taux de panne associé à T la suite (θn)n déterminée par

θn=P(T=nTn).

Typiquement, si T est la variable aléatoire indiquant l’instant où un matériel tombe à panne, la quantité θn indique la probabilité qu’il tombe en panne à l’instant présent alors qu’il est actuellement fonctionnel.

  • (a)

    Justifier

    n,θn[0;1[.
  • (b)

    Exprimer en fonction des termes de la suite (θn)n, la probabilité P(Tn).
    En déduire la divergence de la série θn.

  • (c)

    Inversement, soit (θn)n une suite vérifiant

    n,θn[0;1[ et θn diverge.

    Montrer que la suite (θn)n est un taux de panne associé à une certaine variable aléatoire T.

Solution

  • (a)

    θn est une probabilité donc θn[0;1].
    Si θn=1 alors P(T=n)=P(Tn) et donc P(T>n)=0 ce qu’exclut les hypothèses.

  • (b)

    On a P(T=n)=θnP(Tn) et P(T=n)+P(Tn+1)=P(Tn) donc

    P(Tn+1)=(1-θn)P(Tn).

    Sachant P(T0)=1, on obtient

    P(Tn)=k=0n-1(1-θk).

    Puisque P(Tn)n+0, on a

    k=0n-1ln(1-θk)=ln(k=0n-1(1-θk))n+-.

    Ainsi, il y a divergence de la série ln(1-θn).
    Si la suite (θn)n ne tend pas vers 0, la série θn est évidemment divergente.
    Si la suite (θn)n tend vers 0 alors ln(1-θn)n+-θn et, par équivalence de séries à termes de signe constant, la série θn diverge.

  • (c)

    Analyse: Si T est une variable aléatoire solution alors

    P(T=n)=P(Tn)-P(Tn+1)=θnk=0n-1(1-θk)

    ce qui détermine entièrement la loi de T.

    Synthèse: Posons

    n,un=θnk=0n-1(1-θk).

    On a

    n,un0.

    Vérifions aussi (un)n de somme égale à 1.
    Introduisons Pn=k=0n-1(1-θk). On a

    ln(Pn)=k=0n-1ln(1-θk)n+-.

    En effet, la série des ln(1-θk) est divergente à terme négatifs et ce que la suite (θn) tend vers 0 ou non).
    On a aussi P0=1 et Pn-Pn+1=un, donc

    k=0nuk=P0-Pn+1n+1.

    On peut alors définir une variable aléatoire T dont la loi vérifie

    P(T=n)=un=θnk=0n-1(1-θk).

    On a alors

    P(Tn)=k=n+uk=Pn=k=0n-1(1-θk)>0

    et

    P(T=nTn)=θn.

    La variable aléatoire T est bien solution.

 
Exercice 6  5325   Correction  

(Valeur médiane)

On appelle valeur médiane d’une variable aléatoire réelle X, tout réel m vérifiant

P(Xm)12etP(Xm)12.
  • (a)

    Vérifier sur un exemple qu’une variable aléatoire réelle peut posséder plusieurs valeurs médianes.

  • (b)

    Montrer que toute variable aléatoire réelle possède au moins une valeur médiane. On pourra introduire la fonction de répartition11 1 Voir le sujet 5324. de la variable X.

Solution

  • (a)

    Soit X une variable aléatoire suivant une loi de Bernoulli de paramètre 1/2. Pour tout m]0;1[,

    P(Xm)=P(X=0)=12etP(Xm)=P(X=1)=12.

    Dans cet exemple toute valeur strictement comprise entre 0 et 1 est valeur médiane de la variable X. Notons que la valeur m=0 est aussi valeur médiane puisque

    P(X0)=12etP(X0)=1.

    De même, m=1 est encore valeur médiane22 2 En revanche, si X suit une loi de Bernoulli de paramètre p[0;1] avec p1/2, alors X admet une seule valeurs médiane qui est 0 ou 1 selon que p>1/2 ou p<1/2. de X.

  • (b)

    Méthode: À l’aide d’une borne inférieure, on introduit la plus petite valeur m vérifiant P(Xm)1/2.

    Posons

    A={x|P(Xx)1/2}={x|fX(x)1/2}

    avec fX la fonction de répartition de la variable aléatoire X. L’ensemble A est une partie de non vide et minorée car

    limx-fX(x)=0etlimx+fX(x)=1.

    Il est alors possible d’introduire m=inf(A). Vérifions qu’il s’agit d’une valeur médiane de X.

    D’une part, par réalisation séquentielle d’une borne inférieure, il existe une suite (xn) d’éléments de A qui tend vers m par valeurs supérieures. La fonction de répartition fX étant continue à droite, on obtient33 3 En particulier, m est élément de A et la croissance de fX entraîne que A est l’intervalle [m;+[.

    P(Xm)=fX(m)=limn+fX(xn)12.

    D’autre part, pour tout x<m, on a P(Xx)<1/2 car x n’appartient pas à A. On a donc

    P(X>x)=1-P(Xx)>1/2

    et l’on en déduit

    P(Xm)=P(n*(X>m-1n))=limn+P(X>m-1n)12

    car, par continuité monotone, la probabilité d’une réunion croissante et la limite des probabilités des événements réunis.

    Finalement, m est une44 4 On aurait aussi pu introduire m=sup{x|P(Xx)1/2} et vérifier qu’il s’agit d’une valeur médiane de X. valeur médiane de X.

 
Exercice 7  4049    Correction  

(Entropie d’une variable aléatoire)

Soit X une variable aléatoire à valeurs dans un ensemble fini 𝒳. Pour chaque valeur x𝒳, on pose

p(x)=P(X=x).

On appelle entropie de la variable X le réel

H(X)=-x𝒳p(x)log(p(x))

où l’on convient 0log0=0.

  • (a)

    Vérifier que H(X) est un réel positif. À quelle condition celui-ci est-il nul?
    Soient X et Y deux variables aléatoires à valeurs dans des ensembles finis 𝒳 et 𝒴.

  • (b)

    On appelle entropie conjointe de X et Y, l’entropie de la variable Z=(X,Y) simplement notée H(X,Y).
    On suppose les variables X et Y indépendantes, vérifier

    H(X,Y)=H(X)+H(Y).
  • (c)

    On appelle entropie de X sachant Y la quantité

    H(XY)=H(X,Y)-H(Y).

    Vérifier

    H(XY)=y𝒴P(Y=y)H(XY=y)

    avec

    H(XY=y)=-x𝒳P(X=xY=y)log(P(X=xY=y)).

Solution

  • (a)

    Pour tout x𝒳, on a -p(x)log(p(x))0 car p(x)1. On en déduit H(X)+.
    Si H(X)=0 alors, par somme nulle de positifs, on a

    x𝒳,p(x)log(p(x))=0

    et donc

    x𝒳,p(x)=0 ou p(x)=1.

    Sachant que

    x𝒳p(x)=P(X𝒳)=1

    on peut affirmer qu’il existe x𝒳 tel que p(x)=P(X=x)=1.
    La variable X est alors presque sûrement constante.

  • (b)

    Par définition

    H(X,Y)=-(x,y)𝒳×𝒴P(X=x,Y=y)log(P(X=x,Y=y)).

    Or les variables X et Y étant indépendantes

    P(X=x,Y=y)=P(X=x)P(Y=y)

    puis

    H(X,Y)=-(x,y)𝒳×𝒴P(X=x)P(Y=y)(log(P(X=x))+log(P(Y=y))).

    On sépare la somme en deux et l’on somme tantôt d’abord en x, tantôt d’abord en y et l’on obtient

    H(X,Y)=H(X)+H(Y)

    car

    x𝒳P(X=x)=y𝒴P(Y=y)=1.
  • (c)

    On sait

    P(X=xY=y)=P(X=x,Y=y)P(Y=y)

    donc

    P(Y=y)H(XY=y)=-x𝒳 P(X=x,Y=y)×
    (log(P(X=x,Y=y))-log(P(Y=y))).

    On sépare la somme en deux et l’on somme le résultat sur y𝒴 pour obtenir

    y𝒴P(Y=y)H(XY=y)=H(X,Y)+(x,y)𝒳×YP(X=x,Y=y)log(P(Y=y)).

    Or

    (x,y)𝒳×Y P(X=x,Y=y)log(P(Y=y))
    =y𝒴x𝒳P(X=x,Y=y)log(P(Y=y))

    avec

    x𝒳P(X=x,Y=y)=P(Y=y)

    donc

    y𝒴P(Y=y)H(XY=y)=H(X,Y)-H(Y).

[<] Variables aléatoires[>] Loi de Poisson

 
Exercice 8  4366  

On lance indéfiniment et indépendamment un dé équilibré et l’on admet l’existence d’un espace probabilisé (Ω,𝒯,P) permettant d’étudier cette expérience.

Pour n*, on note Xn la variable aléatoire définie par la valeur du n-ième lancer. On introduit le temps d’attente du premier six:

T=min({n*|Xn=6}{+}).

Montrer que T est une variable aléatoire discrète à valeurs dans *{+} et identifier sa loi.

 
Exercice 9  4022  

Soient X et Y deux variables aléatoires indépendantes suivant des lois géométriques de paramètres p et q éléments de ]0;1[.

  • (a)

    Calculer P(X>n) pour n.

  • (b)

    Identifier la loi de Z=min(X,Y).

 
Exercice 10  4021  Correction  

Soient X et Y deux variables aléatoires discrètes indépendantes.

On suppose que celles-ci suivent une même loi géométrique de paramètre p]0;1[.

Déterminer la loi de Z=X+Y.

Solution

Les variables X et Y sont à valeurs dans * donc X+Y est à valeurs {0,1}.

Pour n{0,1}, on a

P(X+Y=n)=k=1n-1P(X=k,Y=n-k).

Par indépendance

P(X+Y=n)=k=1n-1P(X=k)P(Y=n-k).

Il ne reste plus qu’à dérouler les calculs:

P(X+Y=n)=(n-1)p2(1-p)n-2.
 
Exercice 11  4038   

Soient X et Y deux variables aléatoires indépendantes géométriques de paramètres p et q éléments de ]0;1[. Calculer l’espérance de Z=max(X,Y).

 
Exercice 12  4115  Correction  

Soit X et Y deux variables aléatoires indépendantes suivant des lois géométriques de paramètres p,q]0;1[.
Calculer P(X<Y).

Solution

L’événement (X<Y) peut être décomposé en la réunion disjointes des événements

(X=k,Y>k) avec k*.

On a donc

P(X<Y)=k=1+P(X=k,Y>k).

Par indépendance des variables X et Y, on a

P(X=k,Y>k)=P(X=k)P(Y>k)

avec

P(X=k)=p(1-p)k-1 et P(Y>k)=(1-q)k.

On en déduit

P(X<Y)=k=1np(1-q)((1-p)(1-q))k-1=p-pqp+q-pq.
 
Exercice 13  5279     Navale (MP)Correction  

Soient X,Y deux variables aléatoires indépendantes de même loi géométrique de paramètre p]0;1[. Pour k*, calculer

P(XkY)

Solution

La famille des (Y=n) avec n* est un système complet d’événements et donc

P(XkY)=n=1+P(XkYY=n)P(Y=n)

Or

P(XkYY=n)=P(XkY,Y=n)P(Y=n)=P(Xkn,Y=n)P(Y=n)=P(Xkn)

car les variables X et Y sont supposées indépendantes. On en déduit

P(XkY)=n=1+(1-p)kn(1-p)n-1p=p(1-p)k1-(1-p)k+1
 
Exercice 14  4036  Correction  

Soit X une variable aléatoire suivant une loi géométrique de paramètre p. Calculer

E(1X).

Solution

Par la formule de transfert

E(1X)=k=1+1k(1-p)k-1p=p1-pk=1+(1-p)kk.

Or pour x]-1;1[

k=1+1kxk=-ln(1-x)

donc

E(1X)=pp-1ln(p).
 
Exercice 15  5287     ENSTIM (MP)Correction  

Soient X1 et X2 des variables aléatoires indépendantes suivant une même loi géométrique de paramètre p>0. On pose

A=(X110X2).
  • (a)

    Montrer que A est inversible.

  • (b)

    Trouver la probabilité pour que A soit diagonalisable.

Solution

  • (a)

    Les variables X1 et X2 sont à valeurs dans * et donc aucune ne s’annule. La matrice A est alors inversible car de déterminant X1X2 non nul.

  • (b)

    Si X1X2, la matrice A est diagonalisable car possède deux valeurs propres distinctes. Si X1=X2, la matrice A n’est pas diagonalisable car possède une seule valeur propre sans être égale à une matrice scalaire. La probabilité que A soit diagonalisable vaut donc

    P(X1X2) =1-P(X1=X2)=1-n=1+p2(1-p)2(n-1)
    =1-p21-(1-p)2=21-p2-p.
 
Exercice 16  4372   

Soient X et Y deux variables aléatoires indépendantes suivant des lois géométriques de paramètres respectifs p et q]0;1[.

Quelle est la probabilité que la matrice réelle suivante soit diagonalisable?

A=(X-YY-X).
 
Exercice 17  4373    

Sur un espace probabilisé (Ω,𝒯,P), on considère une suite (Xn)n de variables aléatoires telles que, pour tout n, Xn suit une loi binomiale de paramètres n et p]0;1[. On considère aussi une variable aléatoire N indépendante des variables Xn et telle que N+1 suit une loi géométrique de paramètre q]0;1[.

Pour toute issue ω de l’univers Ω, on pose Y(ω)=XN(ω)(ω).

Justifier que Y est une variable aléatoire discrète et déterminer sa loi.

On pourra employer l’identité binomiale déjà présentée dans le sujet 4085.

[<] Loi géométrique[>] Loi conjointes, Loi marginales

 
Exercice 18  4020  

Soient X et Y deux variables aléatoires indépendantes suivant des lois de Poisson de paramètres λ et μ strictement positifs.

Déterminer la loi suivie par X+Y.

 
Exercice 19  4037  

Soit X une variable aléatoire suivant une loi de Poisson de paramètre λ>0.

Calculer

E(1X+1).
 
Exercice 20  4045  Correction  

Soit X une variable aléatoire suivant une loi de Poisson de paramètre λ>0.
Déterminer la probabilité que la valeur de X soit pair.

Solution

L’évènement X est pair est la réunion dénombrable des évènements (X=2k) pour k. Sa probabilité vaut

k=0+P(X=2k)=k=0+e-λλ2k(2k)!=e-λch(λ)=1+e-2λ2.
 
Exercice 21  4112   

Le nombre quotidien de clients entrant dans une boulangerie suit une loi de Poisson de paramètre λ>0. Chaque client a la probabilité p]0;1[ d’acheter des croissants. Sur une journée, on note X le nombre de clients ayant acheté des croissants et Y le nombre de ceux qui n’en ont pas achetés.

  • (a)

    Déterminer la loi de X.

  • (b)

    Calculer la covariance de X et Y.

  • (c)

    Justifier que les variables aléatoires X et Y sont indépendantes.

 
Exercice 22  4034   Correction  

Soit X une variable aléatoire de Poisson de paramètre λ>0.

  • (a)

    Pour quelle valeur de n, la probabilité de l’évènement (X=n) est-elle maximale?

  • (b)

    Inversement, n étant fixé, pour quelle valeur du paramètre λ, la probabilité de (X=n) est-elle maximale?

Solution

  • (a)

    Posons

    un=P(X=n)=e-λλnn!.

    On a

    un+1un=λn+1

    donc si n+1λ alors un+1un et si n+1>λ alors un+1<un.
    La valeur maximale de un est donc obtenue pour n=λ.

  • (b)

    Il suffit d’étudier les variations de la fonction λe-λλn. La probabilité sera maximale si λ=n.

 
Exercice 23  4029   

Soient X et Y deux variables aléatoires indépendantes suivant des lois de Poisson de paramètres λ et μ. Pour n, identifier la loi de X sachant (X+Y=n).

 
Exercice 24  4129    Correction  

On souhaite modéliser le nombre d’arrivées de «  clients  » dans un «  service  » durant un laps de temps T.
Pour n et s,t avec 0st, on note A(n,s,t) l’événement

«  il arrive n clients dans l’intervalle de temps de [s;t[  »

On admet l’existence d’un espace probabilisé permettant d’étudier la probabilité de cet événement en supposant:

  • (H1)

    pour tous m,n et tous réels 0rst, les événements A(m,r,s) et A(n,s,t) sont indépendants;

  • (H2)

    la probabilité de l’événement A(n,s,t) ne dépend que de n et du réel t-s. On note

    pn(t)=P(A(n,0,t)).
  • (H3)

    la fonction p0 est continue et p0(0)=1;

  • (H4)

    pour tout t+,

    n=0+pn(t)=1.
  • (H5)

    on a le développement asymptotique

    1-p0(t)-p1(t)=t0+o(p1(t)).

Cette dernière hypothèse signifie que, durant un laps de temps minime, la probabilité d’arrivée d’au moins deux clients est négligeable devant la probabilité d’arrivée d’un seul client.

  • (a)

    Justifier que la fonction p0 est décroissante et que

    s,t+,p0(s+t)=p0(s)p0(t).
  • (b)

    Montrer que p0 est à valeurs strictement positives et qu’il existe un réel λ0 vérifiant

    t+,p0(t)=e-λt.
  • (c)

    Justifier

    p1(t)=t0+λt+o(t)etn2,pn(t)=t0+o(t).
  • (d)

    Soit n*. Montrer

    s,t0,pn(s+t)=k=0npk(s)pn-k(t).

    En déduire que la fonction pn est dérivable et

    t0,pn(t)=λ(pn-1(t)-pn(t)).
  • (e)

    Obtenir l’expression de pn(t) (on pourra étudier qn(t)=eλtpn(t)).

  • (f)

    On note X la variable aléatoire déterminant le nombre de «  clients  » arrivant durant le laps de temps T>0. Déterminer la loi de X. Comment interpréter le paramètre λ?

Solution

  • (a)

    Pour st, l’événement A(0,0,s) contient l’événement A(0,0,t) et donc p0(s)p0(t).
    Pour s,t0, l’événementA(0,0,s+t) est la conjonction des événements A(0,0,s) et A(0,s,s+t). Par conséquent,

    P(A(0,0,s+t)=P(A(0,0,s)A(0,s,s+t)).

    Par indépendance (hypothèse H1)

    P(A(0,0,s+t))=P(A(0,0,s))P(A(0,s,s+t)).

    Or, l’hypothèse H2 donne P(A(0,s,s+t))=P(A(0,0,t)) et donc

    p0(s+t)=p0(s)p0(t).
  • (b)

    Par l’hypothèse H3, la fonction p0 prend la valeur 1 en 0 et est continue. Si par l’absurde cette fonction prend une valeur négative, elle s’annule en un certain t0>0. L’équation fonctionnelle obtenue ci-dessus donne par une récurrence rapide

    k,t,p0(kt)=p0(t)k.

    En prenant t=t0/k, on obtient

    k*,p0(t0/k)=0.

    En passant à limite quand k tend vers l’infini, on obtient l’absurdité p0(0)=0!
    Puisqu’il est maintenant acquis que la fonction p0 est à valeurs strictement positives, on peut introduire la fonction f:+ définie par

    t+,f(t)=ln(p0(t)).

    L’équation fonctionnelle obtenue en a) se traduit

    s,t+,f(s+t)=f(s)+f(t).

    Sachant la fonction f continue, on peut affirmer que celle-ci est linéaire: il existe a tel que

    t+,f(t)=at.

    Ainsi,

    t+,p0(t)=eat.

    Enfin, puisque la fonction p0 est décroissante, le réel a est nécessairement négatif ce qui permet de l’écrire -λ avec λ+.

  • (c)

    Par l’hypothèse H5 avec p0(t)=t0+1-λt+o(t), on obtient

    p1(t)+o(p1(t))=t0+λt+o(t).

    Ainsi, p1(t)t0+λt ce qui peut encore s’écrire

    p1(t)=t0+λt+o(t).

    Aussi, l’hypothèse H4 permet d’affirmer

    n2,pn(t)1-p0(t)-p1(t)=t0+o(t)

    et donc pn(t)=t0+o(t) pour tout n2.

  • (d)

    L’événement A(n,0,s+t) est la réunion des événements deux à deux disjoints

    A(k,0,s)A(n-k,s,s+t) pour k0;n.

    On en déduit par additivité et les hypothèses H1 et H2 l’identité

    pn(s+t)=k=0nP(A(k,0,s))P(A(n-k,s,s+t))=k=0npk(s)pn-k(t).

    Cette identité fournit le développement asymptotique

    pn(t+s)=s0+(1-λs+o(s))pn(t)+λspn-1(t)+o(s)

    car

    p0(s)=s0+1-λs+o(s),p1(s)=s0+λs+o(s) et pk(s)=s0+o(s) pour k2.

    On obtient alors

    1s(pn(t+s)-pn(t))=s0+λpn-1(t)-λpn(t)+o(1).

    On en déduit que la fonction pn est dérivable et

    pn(t)=λ(pn-1(t)-pn(t)).
  • (e)

    En introduisant qn(t)=eλtpn(t), on constate

    q0(t)=1 et qn(t)=λqn-1(t).

    Par récurrence

    qn(t)=(λt)nn!

    puis

    n,t+,pn(t)=e-λt(λt)nn!.
  • (f)

    L’événement (X=n) a la probabilité de l’événement A(n,0,T) et donc

    P(X=n)=pn(T)=e-λT(λT)nn!.

    La variable X suit une loi de Poisson de paramètre λT. L’espérance de X vaut alors λT et le paramètre λ se comprend comme le nombre moyen de clients entrant par unité de temps.

[<] Loi de Poisson[>] Espérance

 
Exercice 25  4367  

Soient X et Y deux variables aléatoires à valeurs dans . On suppose que la loi conjointe de X et Y vérifie:

P(X=j,Y=k)=13e2j+k+1j!k!pour tout (j,k)2.
  • (a)

    Déterminer les lois des variables X et Y.

  • (b)

    Les variables X et Y sont-elles indépendantes?

 
Exercice 26  4055  Correction  

Soient X et Y deux variables aléatoires à valeurs dans .
On suppose que la loi conjointe de X et Y vérifie

P(X=j,Y=k)=aj!k! avec a.
  • (a)

    Déterminer la valeur de a.

  • (b)

    Reconnaître les lois marginales de X et Y.

  • (c)

    Les variables X et Y sont elles indépendantes?

Solution

  • (a)

    La loi conjointe de X et Y déterminant une probabilité

    j=0+k=0+P(X=j,Y=k)=1.

    Or

    j=0+k=0+P(X=j,Y=k)=ae2

    donc a=e-2.

  • (b)

    Pour j

    P(X=j)=k=0+P(X=j,Y=k)=e-1j!

    et donc X suit une loi de Poisson de paramètre λ=1. Il en est de même pour Y.

  • (c)

    Les variables sont indépendantes car l’on vérifie aisément

    P(X=j,Y=k)=P(X=j)P(Y=k).
 
Exercice 27  4056  Correction  

Soient X et Y deux variables aléatoires à valeurs dans .

On suppose que la loi conjointe de X et Y vérifie

(j,k)2,P(X=j,Y=k)=aj+k2j+k avec a.
  • (a)

    Déterminer la valeur de a.

  • (b)

    Déterminer les lois marginales X et Y.

  • (c)

    Les variables X et Y sont elles indépendantes?

  • (d)

    Calculer P(X=Y).

Solution

  • (a)

    La loi conjointe de X et Y déterminant une probabilité

    j=0+k=0+P(X=j,Y=k)=1.

    Or

    j=0+k=0+P(X=j,Y=k)=8a

    car

    j=0+k=0+j2j+k=j=0+j2j-1=1(1-1/2)2=4.

    On en déduit a=1/8

  • (b)

    Pour j

    P(X=j)=k=0+P(X=j,Y=k)=j+12j+2

    et pour k

    P(Y=k)=j=0+P(X=j,Y=k)=k+12k+2.
  • (c)

    Les variables ne sont par indépendantes car l’on vérifie aisément

    P(X=j,Y=k)P(X=j)P(Y=k)

    pour j=k=0.

  • (d)

    Par probabilités totales

    P(X=Y)=n=0+P(X=n,Y=n)=n=0+2n22n+3=19.
 
Exercice 28  4057   Correction  

Soient X et Y deux variables aléatoires à valeurs dans et p]0;1[.
On suppose que la loi conjointe de X et Y vérifie

P(X=k,Y=n)={(nk)anp(1-p)n si kn0 sinon avec a.
  • (a)

    Déterminer la valeur de a.

  • (b)

    Déterminer la loi marginale de Y.

  • (c)

    Sachant

    x]-1;1[,n=k+(nk)xn-k=1(1-x)k+1.

    Reconnaître la loi de X

  • (d)

    Les variables X et Y sont elle indépendantes?

Solution

  • (a)

    La loi conjointe de X et Y déterminant une probabilité

    k=0+k=0+P(X=k,Y=n)=1.

    En réordonnant les sommes et en simplifiant les zéros

    n=0+k=0nP(X=k,Y=n)=n=0+p(2a(1-p))n=p11-(2a(1-p)).

    On est donc amené à résoudre l’équation

    1-2a(1-p)=p

    ce qui conduit à la solution a=1/2.

  • (b)

    Pour n,

    P(Y=n)=k=0nP(X=k,Y=n)=12nk=0n(nk)p(1-p)n=p(1-p)n.
  • (c)

    Pour k,

    P(X=k)=n=k+(nk)p(1-p2)n=p(1-p2)k1(1-1-p2)k+1.

    En simplifiant

    P(X=k)=(1-1-p1+p)(1-p1+p)k.
  • (d)

    Les variables ne sont par indépendantes car l’on vérifie aisément

    P(X=k,Y=n)P(X=k)P(Y=n)

    pour k=n=0.

 
Exercice 29  4368  

Une urne contient un dé truqué donnant systématiquement un six. On lance une pièce équilibrée. Si l’on obtient face, on ajoute un dé équilibré dans l’urne et l’on relance la pièce. Si l’obtient pile, on tire un dé dans l’urne et on lance celui-ci. Déterminer la loi de la variable donnant la valeur du dé lancé.

 
Exercice 30  4054  Correction  

Soient X et Y deux variables aléatoires à valeurs dans .
On suppose que X suit une loi de Poisson de paramètre λ>0 et que la loi de Y sachant X=n est binomiale de paramètres n et p]0;1[.

  • (a)

    Déterminer la loi conjointe de (X,Y).

  • (b)

    Reconnaître la loi de Y.

Solution

  • (a)

    Pour (n,k)2. Si kn alors

    P(X=n,Y=k) =P(X=n)P(Y=kX=n)
    =e-λλnn!(nk)pk(1-p)n-k.

    Si k>n alors P(X=n,Y=k)=0.

  • (b)

    Pour k

    P(Y=k)=n=0+P(X=n,Y=k)=n=k+P(X=n,Y=k).

    Après réorganisation et glissement d’indice

    P(Y=k)=(λp)kk!e-λn=0+1n!(1-p)nλn=e-λp(λp)kk!.

    La variable Y suit une loi de Poisson de paramètre λp.

 
Exercice 31  5003   

On réalise une suite de lancers indépendants d’une pièce ayant la probabilité p]0;1[ de tomber du côté pile. On note X la longueur de la première série de lancers identiques et Y celle de la seconde série. Par exemple, les lancers PPFFFP… et FFPPPF… correspondent à X=2 et Y=3.

  • (a)

    Déterminer la loi du couple (X,Y).

  • (b)

    Calculer les espérances de X et Y et comparer celles-ci.

 
Exercice 32  5368   Correction  

On réalise une suite de lancers indépendants d’une pièce ayant la probabilité p]0;1[ de tomber du côté pile. On note X la longueur de la première série de lancers identiques et Y celle de la seconde série. Par exemple, les lancers PPFFFP… et FFPPPF… correspondent à X=2 et Y=3.

  • (a)

    Déterminer la loi de X et préciser son espérance.

  • (b)

    Déterminer la loi du couple (X,Y).

  • (c)

    Calculer l’espérance de Y et la comparer à l’espérance de X.

  • (d)

    À quelle condition les variables X et Y sont-elles indépendantes?

Solution

  • (a)

    En éliminant de l’univers des possibles l’événement négligeable où la pièce tombe toujours du même côté, la variable aléatoire X prend ses valeurs dans *. De même, en éliminant aussi l’événement négligeable où la deuxième succession est de longueur infinie, la variable Y est aussi définie à valeurs dans *. On poursuit l’étude en supposant être dans l’univers probabiliste correspondant11 1 Si Ω est un événement presque sûr d’un espace probabilisé (Ω,𝒯,P), c’est l’événement certain de l’espace (Ω,𝒯,P) avec 𝒯={AΩ|A𝒯}𝒯 et P la restriction de P à 𝒯..

    Pour n*, on introduit les événements:

    Pn=«  La pièce tombe du côté pile lors du n-ième lancer  »etFn=Pn¯.

    La variable X prend ses valeurs dans *.

    Pour k*, l’événement (X=k) est la réunion des événements incompatibles P1PkFk+1 et F1FkPk+1. On a donc

    P(X=k)=pk(1-p)+(1-p)kp

    Sachant l’espérance d’une loi géométrique,

    E(X)=k=1+kpk(1-p)+(1-p)kp=p1-p+1-pp
  • (b)

    La variable (X,Y) prend ses valeurs dans *×*. Pour k,*, calculons P(X=k,Y=). L’événement (X=k,Y=) est réalisé dans la situation où les k premiers lancers tombent du côté pile, les suivants du coté face et le k++1-ième du coté pile et aussi dans la situation inverse où l’on échange pile et face. Par incompatibilité de ces deux situations,

    P(X=k,Y=) =P(P1Pkk foisFk+1Fk+ fois Pk++1)
    +P(F1Fkk foisPk+1Pk+ foisFk++1)

    et par l’indépendance des lancers,

    P(X=k,Y=) =pk(1-p)p+(1-p)kp(1-p)
    =pk+1(1-p)+(1-p)k+1p.
  • (c)

    Pour *,

    P(Y=)=k=1+P(X=k,Y=)=p2(1-p)-1+(1-p)2p-1.

    puis

    E(Y)=pp+1-p1-p=2.

    Par l’inégalité a2+b22ab valable pour tous a et b réels, on observe

    E(X)2p(1-p)p(1-p)=2=E(Y).
  • (d)

    Les variables X et Y sont indépendantes si, et seulement si,

    P(X=k,Y=)=P(X=k)P(Y=)pour tout (k,)*×*

    c’est-à-dire

    pk+1(1-p)+(1-p)k+1p=(pk(1-p)+(1-p)kp)(p2(1-p)-1+(1-p)2p-1) (1)

    Pour k==1, on obtient la condition

    p2(1-p)+(1-p)2p=2(p3(1-p)+p(1-p)3)

    qui se simplifie en

    p(1-p)(2p-1)2=0

    Il est donc nécessaire que p=1/2.

    Inversement, pour p=1/2, la relation (1) est vérifiée.

 
Exercice 33  5004   

Soient X et Y deux variables aléatoires indépendantes suivant chacune des lois géométriques de paramètres p et q]0;1[. On pose11 1 On peut aussi exprimer V=|X-Y|.

U=min(X,Y)etV=max(X,Y)-min(X,Y)

Les variables U et V sont-elles indépendantes?

 
Exercice 34  5400   Correction  

Un dispositif de comptage dénombre les visiteurs qui entrent dans un musée. On note X0=0 et, pour tout n*, on introduit la variable aléatoire Xn qui donne le nombre de visiteurs ayant passé le portail entre les instants 0 et n.

On se place dans le cas où les variables sont telles que, pour tous entiers 0mn, Xm et Xn-Xm sont indépendantes et Xn-Xm suit la loi de Poisson de paramètre α(n-m) (avec α un réel strictement positif donné).

Soient (n,m)2 avec 0mn.

  • (a)

    Calculer E(Xm(Xn-Xm)) puis la covariance des variables aléatoires Xm et Xn

  • (b)

    Quelle est la loi du couple (Xm,Xn)?

  • (c)

    Pour n0, on pose p=m/n. Pour k, calculer la loi de probabilité de Xm sachant que Xn=k puis identifier cette loi.

On note N la variable aléatoire qui prend pour valeur le plus petit entier n>0 tel qu’il soit entré au moins un visiteur entre les instants 0 et n.

  • (d)

    Pour n*, exprimer l’évènement (N=n) en fonction de Xn-1 et Xn, puis déterminer la loi de N, son espérance et sa variance.

Solution

  • (a)

    La variable Xm=Xm-X0 suit une loi de Poisson de paramètre αm. Par indépendance,

    E(Xm(Xn-Xm))=E(Xm)E((Xn-Xm))=α2m(n-m).

    On en déduit la covariance de Xm et Xn

    Cov(Xm,Xn) =E(XmXn)-E(Xm)E(Xn)
    =E(Xm(Xn-Xm))+E(Xm2)-E(Xm)E(Xn)
    =E(Xm(Xn-Xm))+V(Xm)+E(Xm)2-E(Xm)E(Xn)
    =α2m(n-m)+αm+α2m2-α2mn=αm.

    La formule proposée n’est pas symétrique en m et n mais cela s’explique par la condition mn.

  • (b)

    Le couple (Xm,Xn) prend ses valeurs dans {(j,k)2|jk} car Xm et Xn-Xm prennent leurs valeurs dans .

    Soit (j,k)2 tel que jk. On a

    P((Xm,Xn)=(j,k))=P(Xm=j,Xn=k)=P(Xm=j,Xn-Xm=k-j).

    Par indépendance,

    P((Xm,Xn)=(j,k)) =P(Xm=j)P(Xn-Xm=k-j)
    =e-αm(αm)jj!×e-α(n-m)(α(n-m)k-j)(k-j)!
    =e-αnαkmj(n-m)k-jj!(k-j)!.
  • (c)

    Sous la condition (Xn=k), la variable aléatoire Xm prend ses valeurs dans 0;k. Pour j0;k,

    P(Xm=jXn=k)=P(Xm=j,Xn=k)P(Xn=k)=(kj)pj(1-p)k-j.

    On reconnaît une loi binomiale de paramètres k et p.

  • (d)

    Immédiatement,

    (N=n)=(Xn-1=0)(Xn>0)=(Xn-1=0)(Xn-Xn-1>0).

    La variable N prend ses valeurs dans * et, par indépendance,

    P(N=n) =P(Xn-1=0)P(Xn-Xn-1>0)
    =P(Xn-1=0)(1-P(Xn-Xn-1=0))
    =e-α(n-1)(1-e-α).

    On reconnaît une loi géométrique de paramètre e-α et l’on peut alors donner son espérance et sa variance

    E(N)=eαetV(N)=e2α-eα.
 
Exercice 35  5006      X (PSI)

Soit (Ui)i* une suite de variables aléatoires mutuellement indépendantes suivant chacune une loi de Bernoulli de paramètre p]0;1[. Soient N une variable à valeurs dans  indépendantes des précédentes et X,Y les variables déterminées par

X=i=1NUietY=N-i=1NUi.
  • (a)

    Vérifier

    P(X=k,Y=)=(k+k)pk(1-p)P(N=k+)pour tout (k,)2.

On suppose que les variables X et Y sont indépendantes et que la variable N n’est pas presque sûrement nulle. On pose

pk=P(X=k)etq=P(Y=)pour tout (k,)2.
  • (b)

    Justifier que les pk et les q sont tous strictement positifs.

  • (c)

    Vérifier que

    (k+1)pk+1q(1-p)=(+1)pkq+1ppour tout (k,)2.
  • (d)

    En déduire une relation de récurrence sur les termes de la suite (pk) puis identifier la loi suivie par X.

  • (e)

    Établir que N suit une loi de Poisson.

[<] Loi conjointes, Loi marginales[>] Calcul d'espérances et variances

 
Exercice 36  5093  Correction  

Soit X une variable aléatoire réelle admettant une variance. Montrer

E(X)2E(X2)P(X0)

Solution

Méthode: On applique l’inégalité de Cauchy-Schwarz à l’étude de l’espérance du produit des variables X et 𝟏(X0).

On remarque X=X𝟏(X0). En effet, l’égalité est vraie lorsque la valeur de la variable X est non nulle car la fonction indicatrice prend la valeur 1 et l’égalité est aussi vraie lorsque X prend la valeur nulle. Les variables X et 𝟏(X0) admettant chacune une variance, l’inégalité de Cauchy-Schwarz donne

E(X𝟏(X0))2E(X2)E(𝟏(X0)2)

avec

E(X𝟏(X0))=E(X)etE(𝟏(X0)2)=E(𝟏(X0))=P(X0)

On en déduit11 1 Cela entraîne E(X)2E(X2) ce qui découle aussi de V(X)=E(X2)-E(X)20.

E(X)2E(X2)P(X0)
 
Exercice 37  5411    MINES (MP)Correction  

Soient f: une fonction dérivable convexe et X une variable aléatoire réelle admettant une espérance finie.

  • (a)

    Montrer

    f(X)f(E(X))+f(E(X))(X-E(X)).
  • (b)

    En déduire que si f(X) admet une espérance finie alors

    E(f(X))f(E(X)).

Solution

  • (a)

    Puisque f est dérivable et convexe, le graphe de f est au-dessus de chacune de ses tangentes. Une équation de la tangente à f en a est

    y=f(a)+f(a)(x-a)

    et donc

    x,f(x)f(a)+f(a)(x-a).

    L’inégalité voulue est alors conséquence de la comparaison précédente pour a=E(X).

  • (b)

    Par croissance de l’espérance puis linéarité

    E(f(X)) E(f(E(X))+f(E(X))(X-E(X)))
    f(E(X))+f(E(X))(E(X)-E(X)=0)=f(E(X)).
 
Exercice 38  5412     MINES (MP)Correction  

Soient X et Y deux variables aléatoires indépendantes à valeurs strictement positives et de même loi. Établir

E(XY)1.

Solution

Par indépendance,

E(XY)=E(X)E(1Y).

Par correspondance des lois,

E(X)E(1Y)=E(Y)E(1X).

Ainsi,

E(XY)=E(YX).

Or

E(XY)+E(YX)=E(XY+YX)E(2)=2

car, pour tout x,

x+1x2.

On en déduit la comparaison voulue.

 
Exercice 39  5415  Correction  

Soit X une variable aléatoire à valeurs dans . On suppose que X admet une espérance finie. Montrer

nP(Xn)n+0.

Solution

Par hypothèse, la série kP(X=k) converge et donc, pour n,

0nP(Xn) =nk=n+P(X=k)
k=n+kP(X=k)n+0

car le reste d’une série convergente est de limite nulle.

 
Exercice 40  5280     Navale (MP)Correction  

Soit X une variable aléatoire à valeurs dans admettant une espérance finie.

  • (a)

    Montrer que pour tout entier naturel n,

    k=0nP(X>k)=k=0nkP(X=k)+(n+1)P(X>n).
  • (b)

    En déduire une expression de E(X).

Solution

  • (a)

    Raisonnons par récurrence sur n.

    La propriété est immédiate pour n=0.

    Supposons la propriété vraie au rang n0. En isolant un terme de la somme et en employant l’hypothèse de récurrence,

    k=0n+1P(X>k) =k=0nP(X>k)+P(X>n+1)
    =k=0nkP(X=k)+(n+1)P(X>n)+P(X>n+1).

    En écrivant

    P(X>n)=P(X=n+1)+P(X>n+1)

    on poursuit le calcul afin de former la relation attendue

    k=0n+1P(X>k) =k=0nkP(X=k)+(n+1)P(X=n+1)+(n+2)P(X>n+1)
    =k=0n+1kP(X=k)+(n+2)P(X>n+1).

    La récurrence est établie.

  • (b)

    Pour tout n,

    0(n+1)P(X>n)=k=n+1+(n+1)P(X=k)k=n+1+kP(X=k).

    Le reste d’une série convergente étant de limite nulle, on obtient par encadrement

    (n+1)P(X>n)n+0.

    On en déduit

    E(X)=n=0+P(X>n)

    avec convergence de la série introduite.

 
Exercice 41  4026   

Soit X une variable aléatoire à valeurs dans . Montrer que X admet une espérance finie si, et seulement si, la série P(X>n) converge et qu’alors11 1 Cette identité sera souvent utilisée par la suite.

E(X)=n=0+P(X>n).
 
Exercice 42  5283   Correction  

Soit X une variable aléatoire réelle prenant un nombre fini de valeurs.

  • (a)

    On suppose que X prend des valeurs toutes positives. Établir

    E(X)=0+P(X>t)dt.
  • (b)

    On suppose que les valeurs prises par X sont de signes quelconques. Proposer une expression de E(X) comme somme de deux intégrales.

Solution

  • (a)

    On remarque que la fonction tP(X>t) est en escalier et, par conséquent, continue par morceaux. Au surplus, celle-ci est identiquement nulle pour t assez grand11 1 Précisément, P(X>t)=0 dès que t est supérieur à la valeur maximale prise par X. et il est possible d’introduire l’intégrale étudiée. Notons x1<<xn les valeurs prises par X. Par la relation de Chasles,

    0+P(X>t)dt=k=1nxk-1xkP(X>t)dt

    en posant x0=0. Pour t dans l’intervalle [xk-1;xk[, la probabilité P(X>t) est constante égale à la somme des P(x) pour k;n. On a donc

    0+P(X>t)dt=k=1n(xk-xk-1)=knP(x).

    Ceci conduit à considérer une somme triangulaire où l’on échange les deux signes sommes,

    0+P(X>t)dt==1nk=1(xk-xk-1)P(x)==1n(x-x0)P(x)=E(X).
  • (b)

    Si X est une variable aléatoire à valeurs négatives, on obtient en considérant -X puis en réalisant le changement de variable u=-t

    E(X)=-0+P(-X>t)dt=-0+P(X<-t)dt=--0P(X<u)du.

    Si X est une variable aléatoire à valeurs de signes quelconques, on l’écrit X=X1+X2 avec X1=X𝟏(X0) et X2=X𝟏(X<0). On a alors

    E(X)=E(X1)+E(X2)=0+P(X1>t)dt--0P(X2<t)dt.

    Cependant, pour tout t0, (X1>t)=(X>t) tandis que (X2<t)=(X<t) pour tout t<0. On en déduit

    E(X)=0+P(X>t)dt--0P(X<t)dt.
 
Exercice 43  5414     MINES (MP)Correction  

Soit (Xn)n1 une suite de variables aléatoires suivant toute la loi d’une variable X à valeurs dans . Pour n1, on pose

Rn=Card{X1,,Xn}.
  • (a)

    Soit a+. Établir

    E(Rn)a+nP(Xa).
  • (b)

    En déduire

    E(Rn)=n+o(n).
  • (c)

    On suppose que X admet une espérance finie. Montrer

    E(Rn)=n+O(n).

Solution

  • (a)

    Cas: a. Tout entier naturel est soit élément de 0;a-1 soit supérieur ou égal à a. On en déduit que

    {X1,,Xn}0;a-1({X1,,Xn}[a;+[).

    Par suite,

    Rn a+Card({X1,,Xn}[a;+[)
    a+1(X1a)++1(Xna).

    Sachant E(1(XA))=P(XA), il vient

    E(Rn)a+P(X1a)++P(Xna)=a+nP(Xa).

    Cas: a+. On introduit a=a et l’on conclut à l’aide de ce qui précède en observant

    aaetP(Xa)=P(Xa).
  • (b)

    Considérons a=n. Puisque

    P(Xn)n+0

    on obtient

    n+nP(Xn)=n+o(n)

    puis, par comparaison,

    Rn=n+o(n).
  • (c)

    La variable est X à valeurs positives. Par l’inégalité de Markov,

    P(Xa)1aE(X)

    et donc

    E(Rn)a+naE(X).

    Pour a=n, on en déduit

    E(Rn)=n+O(n).
 
Exercice 44  5303    Correction  

Soit (An)n une suite d’événements d’un espace probabilisé (Ω,𝒯,P). On suppose que toutes les intersections d’une infinité d’événements choisis parmi les An sont vides et l’on introduit S la variable aléatoire à valeurs dans définie par11 1 La variable S dénombre les événements de la suite (An) qui sont réalisés. Par hypothèse, celle-ci ne prend que des «  valeurs finies  ».

S=n=0+𝟏An.

Montrer que S admet une espérance finie si, et seulement si, la série P(An) converge et qu’alors

E(S)=n=0+P(An).

Solution

Méthode: L’espérance de la fonction indicatrice d’un événement A est la probabilité de cet événement.

Pour N, introduisons la variable

SN=n=0N𝟏An.

Les variables SN admettent une espérance et, par linéarité,

E(SN)=n=0NE(𝟏An)=n=0NP(An).

Si la variable S admet une espérance finie, la comparaison SNS entraîne

n=0NP(An)=E(SN)E(S).

La série à termes positifs P(An) est alors convergente car ses sommes partielles sont majorées et l’on a

n=0+P(An)E(S). (1)

Inversement, supposons la convergence de la série P(An).

Méthode: Une variable aléatoire X à valeurs dans admet une espérance finie si, et seulement si, la série P(X>k) converge et sa somme détermine alors cette espérance.

Soit k. Pour tout N, on remarque l’inclusion

(SN>k)(SN+1>k) car SNSN+1

Par continuité croissante,

P(SN>k)N+P(N(SN>k))=P(S>k).

Pour tout K, on a alors

k=0KP(S>k)=limN+k=0KP(SN>k).

Or

k=0KP(SN>k)k=0+P(SN>k)=E(SN)=n=0NP(An)n=0+P(An)

et donc

k=0KP(S>k)n=0+P(An).

La série à termes positifs P(S>k) est alors convergente car ses sommes partielles sont majorées. Ainsi, S admet une espérance finie et de plus

E(S)=k=0+P(S>k)n=0+P(An). (2)

Les comparaisons (1) et (2) se complètent alors pour produire l’égalité voulue

E(S)=n=0+P(An).
 
Exercice 45  4184      CENTRALE (MP)Correction  

Soit (Ω,𝒯,P) un espace probabilisé et (En)n une suite d’événements quelconques vérifiant

n=0+P(En)<+.

Pour X un ensemble quelconque, on note 1X la fonction indicatrice de X.

  • (a)

    Soit Z=n=0+1En (on convient Z=+ si la série diverge).

    Prouvez que Z est une variable aléatoire discrète.

  • (b)

    Soit

    F={ωΩ|ω n’appartient qu’à un nombre fini de En}.

    Prouver que F est un événement et que P(F)=1.

  • (c)

    Prouver que Z admet une espérance.

Solution

  • (a)

    La variable aléatoire prend ses valeurs dans l’ensemble dénombrable {+}.

    Pour k, on a Z(ω)=k lorsque ω appartient à exactement k événements parmi les En. Pour i1<i2<<ik, appartenir aux ensembles Ei1,,Eik et pas aux autres s’expriment comme une intersection dénombrable d’événements Eik et Ej¯: c’est donc un événement. En faisant varier les i1,,ik sur l’ensemble dénombrable des possibles, (Z=k) se comprend comme une réunion d’événements.

    Enfin, (Z=+) est aussi un événement car c’est le complémentaire de la réunion dénombrable des événements (Z=k) pour k parcourant .

  • (b)

    F est le complémentaire de (Z=+), c’est bien un événement.

    F¯ correspond à l’ensemble des ω appartenant à une infinité de En. On peut l’écrire comme l’intersection décroissante

    F¯=NnNEn.

    Par continuité décroissante

    P(F¯)=limN+P(nNEn).

    Or

    P(nNEn)nNP(En)N+0.

    On peut conclure P(F¯)=0 puis P(F)=1.

  • (c)

    Posons ZN=n=0N1En. Commençons par établir

    k,P(ZN>k)N+P(Z>k).

    Puisque ZNZN+1, on a

    (ZN>k)(ZN+1>k)

    et, par continuité croissante,

    P(ZN>k)N+P(N(ZN>k))

    Or

    N(ZN>k)=(Z>k)

    ce qui établit la propriété voulue.

    Pour K, on a alors

    k=0KP(Z>k)=limN+k=0KP(ZN>k)

    avec

    k=0KP(ZN>k)k=0+P(ZN>k)=E(ZN)=n=0NP(En)n=0+P(En)

    La série P(Z>k) est alors convergente puisque c’est une série à termes positifs aux sommes partielles majorées. On en déduit que Z admet une espérance finie (et l’on peut montrer que celle-ci est la somme de la série des P(En)).

[<] Espérance[>] Covariances

 
Exercice 46  4128  

Soit X une variable aléatoire à valeurs dans .

On suppose qu’il existe k]0;1[ vérifiant

P(X=n)=kP(Xn)pour tout n.

Déterminer la loi de X puis calculer son espérance et sa variance.

 
Exercice 47  4032  Correction  

On suppose qu’à la roulette d’un Casino, on obtient la couleur noire avec la probabilité 1/2, la couleur rouge sinon (bref, on ne suppose pas de 0 vert…). Un joueur fortuné joue selon le protocole suivant:

  • il mise initialement 1 brouzouf sur la couleur noire;

  • s’il gagne, il arrête de jouer et empoche le double de sa mise.

  • s’il perd, il double sa mise et rejoue.

  • (a)

    On suppose la fortune du joueur infinie.
    Montrer que le jeu s’arrête presque sûrement. Déterminer l’espérance de gain du joueur.

  • (b)

    On suppose toujours la fortune du joueur infinie.
    Que se passe-t-il si au lieu de doubler, il décide de tripler sa mise lorsqu’il rejoue?

  • (c)

    Le joueur n’est en fait pas si fortuné qu’il le prétend: il ne possède que 2n-1 brouzoufs ce qui l’autorise à ne pouvoir jouer que n parties. Que devient son espérance de gain?

Solution

  • (a)

    Notons An l’évènement «  le jeu dure au moins n parties   ». An+1 est la conjonction des évènements indépendants An et le rouge sort au n+1- ième tirage   ». On en déduit

    P(An+1)=12P(An).

    Par continuité décroissante, on obtient

    P(n*An)=limn+P(An)=0.

    L’arrêt du jeu est donc presque sûr.
    Lorsque la partie s’arrête à la n-ième tentative, le joueur a perdu 1+2++2n-1 brouzoufs et vient de gagner 2n brouzoufs. Au total, il gagne 1 brouzouf. Son gain étant presque sûrement constant égal à 1 brouzoufs, son espérance de gain vaut 1 brouzouf.

  • (b)

    Avec ce nouveau protocole, lorsque la partie s’arrête à la n-ième tentative, le gain du joueur vaut

    2.3n-1-(1+3++3n-1)=3n-1+12.

    L’espérance de gain est

    n=1+3n-1+12P(An)=n=1+3n-1+12n+1=+.
  • (c)

    Puisque le joueur ne peut disputer que n parties, son espérance de gain devient

    k=1n1×P(An)-(2n-1)P(k=n+1+Ak)=1-12n-(2n-1)×12n=0.
 
Exercice 48  4028     MINES (MP)Correction  

(Loi de Pascal)

On dit qu’une variable aléatoire X suit une loi de Pascal de paramètres n* et p]0;1[ si

X(Ω)=n+etP(X=k)=(k-1n-1)pn(1-p)k-n.
  • (a)

    Soient X1,,Xn des variables aléatoires indépendantes suivant toutes une loi géométrique de paramètre p.

    Montrer que X1++Xn suit une loi de Pascal de paramètres n et p.

  • (b)

    En déduire l’espérance et la variance d’un loi de Pascal de paramètres n et p.

Solution

  • (a)

    Raisonnons par récurrence sur n*.

    Cas: n=1.. Si X suit une loi de Pascal de paramètres 1 et p alors

    P(X=k)=(k-10)p(1-p)k-1.

    On reconnaît une loi géométrique de paramètre p.

    Supposons la propriété vraie au rang n1.
    L’évènement X1++Xn+1=k peut se décomposer en la réunion des évènements incompatibles suivants

    X1++Xn= et Xn+1=k- pour n;k-1.

    On en déduit par indépendance

    P(X1++Xn+1=k)==nk-1(-1n-1)pn(1-p)-np(1-p)k--1

    puis

    P(X1++Xn+1=k)=pn+1(1-p)k-(n+1)=nk-1(-1n-1).

    Or, par la formule du triangle de Pascal,

    =nk-1(-1n-1)=(k-1n)

    et donc

    P(X1++Xn+1=k)=(k-1n)pn+1(1-p)k-(n+1).

    La récurrence est établie.

    Notons qu’une résolution par les fonctions génératrices est possible avec

    GX(t)=(pt1-(1-p)t)n.
  • (b)

    Par linéarité de l’espérance,

    E(X)=np.

    Par indépendance des variables sommées,

    V(X)=n1-pp2.
 
Exercice 49  4085   

(Loi binomiale négative11 1 Cette loi étudie le nombre d’échecs précédant le r-ième succès lors de la répétition d’épreuves de Bernoulli indépendantes de même paramètre p.)

Soient r*, p]0;1[ et X une variable aléatoire à valeurs dans telle qu’il existe un réel a pour lequel

P(X=n)=a(n+r-1n)(1-p)npour tout n.

Calculer l’espérance et la variance de X.

On rappelle l’identité binomiale22 2 Voir le sujet 3931. Cette identité est souvent utilisée en calcul des probabilités.:

n=0+(n+mn)xn=1(1-x)m+1pour tous m et x]-1;1[.
 
Exercice 50  4088   

(Problème du collectionneur)

Chez un marchand de journaux, on peut acheter des pochettes contenant chacune une image. La collection complète comporte N1 images distinctes.

  • (a)

    Montrer qu’il est presque sûr d’obtenir la collection complète en un nombre fini d’achats.

On limite l’étude à un espace probabilisé dans lequel la collection complète est toujours obtenue en un nombre fini d’achats. Pour k1;N, on note Xk* le nombre d’achats ayant permis d’obtenir k images distinctes. En particulier, X1=1 et XN est le nombre d’achats nécessaires à l’obtention de la collection complète.

  • (b)

    Soit k1;N-1. Par quelle loi peut-on modéliser la variable Xk+1-Xk?

  • (c)

    En déduire une expression de l’espérance de XN.

 
Exercice 51  4019   Correction  

On lance une pièce équilibrée jusqu’à ce que celle-ci ait produit au moins une fois «  face   » et une fois «  pile   ».

  • (a)

    Montrer qu’il est presque sûr que le jeu s’arrête.

  • (b)

    On note X le nombre de lancers avant que le jeu cesse.
    Montrer que X admet une espérance et déterminer celle-ci.

Solution

  • (a)

    Le jeu dure infiniment si, et seulement si, chaque lancer produit «  face   » ou bien chaque lancer produit «  pile   ». Notons An l’évènement:

    «  le n-ième lancer donne face  ».

    Par indépendance des lancers

    P(A1An)=k=1nP(Ak)=12n.

    Par continuité décroissante

    P(n=1+An)=limn+P(A1An)=0.

    De même

    P(n=0+An¯)=0.

    L’évènement «  le jeu ne s’arrête pas   » est donc négligeable.

  • (b)

    X est à valeurs dans {0,1}.
    Pour n*, on a X>n si les n premiers lancers sont identiques. On en déduit

    P(X>n)=P(k=1nAkk=1nAk¯)=12n-1.

    On en déduit

    E(X)=n=0+P(X>n)=1+n=1+12n-1=3.

    En fait X-1 suit une loi géométrique de paramètre 1/2.

 
Exercice 52  4182     CENTRALE (MP)Correction  

On s’intéresse à la première apparition du motif «  PF  » dans un tirage infini de pile ou face, indépendants et non truqués. On note Ai l’événement

«  Le motif PF apparaît pour la première fois au rang i  ».

(c’est-à-dire que le P est en position i-1 et le F en position i). On pose qi=P(Ai) et T la variable aléatoire donnant le rang d’apparition du motif.

  • (a)

    Écrire un programme Python calculant la moyenne d’apparition du motif. Conjecture?

  • (b)

    Montrer que

    P(i2Ai)=1.
  • (c)

    Décrire An, pour n2 et en déduire la valeur de qn.

  • (d)

    Montrer que T est d’espérance finie et calculer son espérance.

On s’intéresse maintenant à la première apparition du motif «  PP  ». On note toujours T la variable aléatoire donnant le rang de première apparition du motif et qn=P(T=n), pour n2.

  • (e)

    Calculer avec Python la moyenne d’apparition du motif. Conjecture?

  • (f)

    Montrer que q2=1/4, q3=1/8 et

    n4,qn=qn-12+qn-24.
  • (g)

    Montrer que T est d’espérance finie et calculer son espérance.

Solution

  • (a)
    import random as rnd
    
    def T():
        n = 0
        P = False
        PF = False
        while (not PF):
            n = n + 1
            x = rnd.random()
            if x < 0.5:
                P = True
            elif P:
                PF = True
            else:
                P = False
        return n
    
    def repete(n):
        c = 0
        for i in range(n):
            c = c + T()
        return c/n
    

    L’étude numérique amène à conjecturer E(T)=4.

  • (b)

    Posons A l’événement

    «  Le motif PF n’apparaît pas  ».

    L’événement A est exactement la réunion des événements correspondant à une succession de F de longeur k suivie exlcusivement de P ainsi que de l’événement correspondant uniquement à l’obtention de F. L’événement A est alors négligeable car réunion dénombrable d’événements de probabilités nulles11 1 Par exemple, la probabilité de n’obtenir que des F est par continuité décroissante la limite des probabilités de commencer par n F à savoir 1/2n. Les autres calculs sont analogues et, de façon générale, la probabilité d’obtenir un tirage infini précis est nulle.. On en déduit que la réunion des Ai, avec i2, est un événement presque sûr.

  • (c)

    An est la réunion des configurations commençant par un certain nombre k de F puis se poursuivant avec des P au nombre de * tel que k+=n-1 et se poursuivant enfin par un F. Chacune de ces configurations est de probabilité 1/2n et donc qn=n-12n.

  • (d)

    La suite des nqn est sommable donc T admet une espérance et

    E(T)=n=2+(n-1)n2n=142(1-1/2)3=4

    (la somme est calculée en dérivant deux fois la série entière géométrique).

  • (e)

    On adapte le code précédent

    def T():
        n = 0
        P = False
        PP = False
        while (not PP):
            n = n + 1
            x = rnd.random()
            if x < 0.5:
                if P:
                    PP = True
                P = True
            else:
                P = False
        return n
    

    On conjecture cette fois-ci une espérance égale à 6.

  • (f)

    q2 est la probabilité de PP et q3 celle de FPP d’où les valeurs proposées. Pour n4, on considère le système complet constitué des événements commençant par F, PF et PP et l’on obtient par argument de symétrie (quand on a obtenu F, cela remet les «  compteurs à zéro  »)

    qn=12qn-1+14qn-2+14×0. (1)
  • (g)

    Commençons par vérifier que les An avec n2 constituent un système complet. Les événements An sont deux à deux incompatibles et la série des qn converge. En sommant la relation (1) pour n supérieur à 2, on obtient après glissement d’indice

    n=2+qn=14+18+12n=3+qn+14n=2+qn

    puis

    n=2+qn=14+12n=2+qn+14n=2+qn.

    On en tire que la somme des qn est égale à 1. On peut alors calculer l’espérance de T.

    Pour t[-1;1], la fonction génératrice de T en t est donnée par

    GT(t)=n=2+qntn=14t2+18t3+t2(GT(t)-t24)+t24GT(t). (2)

    On peut exprimer GT(t) par une fraction rationnelle définie sur [-1;1], celle-ci est dérivable en 1 ce qui assure que T admet une espérance et, par dérivation de (2),

    GT(t)=t2+12GT(t)+t2GT(t)+t2GT(t)+t24GT(t).

    Pour t=1, on obtient

    E(T)=12+12+12E(T)+12+14E(T).

    On en tire E(T)=6.

 
Exercice 53  4370   

Soient N* et (Un)n1 une suite de variables aléatoires indépendantes et identiquement distribuées selon une loi uniforme sur 1;N. Pour tout n*, on pose

Mn=max(U1,,Un).

Déterminer les limites de E(Mn) et de V(Mn) lorsque n tend vers +.

 
Exercice 54  5276     St Cyr (MP)Correction  

On étudie la descendance d’une variété de fleurs. À la génération 0, on dispose d’une fleur. À chaque génération suivante, les fleurs présentes déterminent chacune et indépendemment un nombre de descendants qui suit une loi binomiale (2,p) avec p]0;1[. Les fleurs d’une génération disparaissent à la génération suivante.

Pour tout entier naturel n, on pose un la probabilité de l’événement

En=«  La n-ième génération ne comporte pas de fleurs  ».

Il est entendu que u0 est nul.

  • (a)

    Calculer u1 et montrer

    un+1=(1-p+pun)2pour tout n.
  • (b)

    Étudier la suite (un). Quelle est sa limite?

  • (c)

    Écrire une fonction descendance(p) qui simule la descendance d’une fleur sur une génération (cette fonction répond 0, 1 ou 2 selon la loi (2,p)).

    Écrire une fonction descendances(n,p) qui simule la descendance de la fleur sur n générations.

    Écrire une fonction extinction(N,p) qui renvoie la fréquence d’extinction de la descendance après 20 générations sur un nombre N de simulations. Comparer aux résultats trouvés au-dessus.

Solution

  • (a)

    Notons X la variable aléatoire donnant le nombre de descendants de la première fleur.

    u1 est la probabilité que la première fleur ne détermine pas de descendants:

    u1=P(X=0)=(02)p0(1-p)2=(1-p)2.

    Pour exprimer un+1 en fonction de un, on discute selon le nombre de descendants de la première fleur.

    Si la première fleur n’a pas de descendants, il est certain que la n+1-ième génération ne comporte aucune fleur

    P(En+1X=0)=1.

    Si la première fleur a un descendant, on a par translation de l’expérience

    P(En+1X=1)=un.

    Si la première fleur a deux descendants, l’indépendance des générations entraîne que les n générations induites par chacune des deux fleurs soient éteintes pour que En+1 soit réalisé

    P(En+1X=2)=un2.

    La formule des probabilités totales donne alors

    P(En+1)=1×P(X=0)+unP(X=1)+un2P(X=2)

    et donc

    un+1=(1-p)2+2p(1-p)un+p2un2=((1-p)+pun)2.
  • (b)

    La suite (un) est une suite récurrente de premier terme u0=0 et de fonction itératrice

    f:x((1-p)+px)2.

    Afin d’acquérir la monotonie de (un), on étudie le signe de

    g:xf(x)-x=p2x2+(2p(1-p)-1)x+(1-p)2.

    On remarque que 1 est racine apparente et le produit des racines de cette équation du second degré suffit pour déterminer l’autre racine

    r=(1-pp)2.

    On distingue alors deux cas:

    Cas: p1/2. Le réel r est supérieur à 1 et la fonction g est positive sur [0;1]. La suite (un) est alors croissante et majorée donc convergente. Sa limite est point fixe de f dans [0;1], c’est-à-dire racine de g, c’est 1. L’extinction est presque sûre.

    Cas: p<1/2. Le réel r est élément de ]0;1[. L’intervalle [0;r] étant stable par f, u0 étant élément de celui-ci et g étant positive sur cet intervalle, la suite (un) croît et est majorée par r. Sa limite est alors r.

  • (c)
    from random import random
    
    def descendance(p):
        r = random()
        if r < (1-p)**2: return 0
        if r - (1-p)**2 < 2* p * (1-p): return 1
        return 2
    
    def descendances(n,p):
        res = 1
        for _ in range(n):
            k = 0
            for i in range(res):
                k = k + descendance(p)
            res = k
        return res
    
    def extinction(N,p):
        c = 0
        for _ in range(N):
            if descendances(20,p) == 0: c = c + 1
        return c/N
    

    L’expérimentation est conforme à la théorie.

 
Exercice 55  4374   

Un joueur dispose de N dés équilibrés. Il lance une première fois ceux-ci et met de côté les dés ayant donné un six. S’il en reste, les autres dés sont relancés et l’on répète l’expérience jusqu’à ce que tous les dés aient donné un six. On introduit la variable aléatoire T à valeurs dans *{+} donnant le nombre de lancers nécessaires.

  • (a)

    Soit n*. Calculer la probabilité de (Tn).

  • (b)

    Justifier que l’expérience s’arrête presque sûrement.

  • (c)

    Vérifier que la variable T admet une espérance et donner une formule exprimant celle-ci à l’aide d’une somme finie.

 
Exercice 56  4130   Correction  

On considère une suite (Xn)n1 de variables de Bernoulli indépendantes de même paramètre p]0;1[ et l’on étudie la première apparition de deux succès consécutifs dans cette suite.

  • (a)

    Montrer qu’il est presque sûr qu’il existe n2 vérifiant

    Xn=Xn-1=1.
  • (b)

    On note T la variable aléatoire donnée par

    T=min{n2|Xn=Xn-1=1}{+}.

    Calculer P(T=2), P(T=3) et exprimer, pour n4, P(T=n) en fonction de P(T=n-1) et P(T=n-2).

  • (c)

    Justifier que T admet une espérance finie et calculer celle-ci.

Solution

  • (a)

    Introduisons les événements

    Ap={X2p-1+X2p1} avec p1.

    Ces événements sont indépendants et

    P(Ap)=(1-p)2+2p(1-p)=1-p2.

    Par continuité décroissante

    P(p=1+Ap)=limN+P(p=1NAp).

    Par indépendance

    P(p=1NAp)=p=1NP(Ap)=(1-p2)N.

    Par limite d’une suite géométrique de raison 1-p2]0;1[, on obtient

    P(p=1+Ap)=0.

    Par conséquent, l’événement p=1+Ap¯ est presque sûr. Ainsi, il existe presque sûrement un rang pair en lequel il y a deux succès consécutifs. A fortiori, il est presque sûr qu’il existe un rang (pair ou impair) en lequel il y a deux succès consécutifs.

  • (b)

    Pour n2, on souhaite calculer pn=P(T=n).
    Pour n=2, l’événement (T=2) correspond à (X1=1,X2=1) de probabilité p2.
    Pour n=3, l’événement (T=3) correspond à (X1=0,X2=1,X3=1) de probabilité (1-p)p2.
    Pour n3, les choses se compliquent quelque peu. Considérons le système complet d’événements

    (X1=0),(X1=1,X2=0),(X1=1,X2=1).

    Par la formule des probabilités totales
    P(T=n)=PX1=0(T=n)P(X1=0)+PX1=1,X2=0(T=n)P(X1=1,X2=0)+PX1=1,X2=1(T=n)P(X1=1,X2=1)
    Or

    PX1=0(T=n)=P(T=n-1).

    En effet, la première épreuve étant un échec, obtenir deux succès consécutifs au rang n revient maintenant à obtenir deux succès consécutifs au rang n-1. Par un argument analogue

    PX1=1,X2=0(T=n)=P(T=n-2).

    Enfin

    PX1=1,X2=1(T=n)=0

    car les deux succès consécutifs ont été obtenus au rang 2 et qu’ici n3.
    Finalement, on obtient la relation de récurrence

    P(T=n)=(1-p)P(T=n-1)+p(1-p)P(T=n-2).
  • (c)

    Par calculer l’espérance de T, on multiplie par n la relation précédente et l’on somme

    n=3+nP(T=n)=(1-p)n=3+nP(T=n-1)+p(1-p)n=3+nP(T=n-2).

    Or

    n=3+nP(T=n-1)=n=3+(n-1+1)P(T=n-1)=n=2+nP(T=n)+1

    car n=2+P(T=n)=1
    De même

    n=3+nP(T=n-2)=n=2+nP(T=n)+2.

    Ainsi,

    n=2+nP(T=n)-2P(T=2)=(1-p2)n=2+P(T=n)+1+p-2p2.

    Finalement, T admet une espérance finie et

    E(T)=1+pp2.
 
Exercice 57  4124   Correction  

Dans une urne figurent N boules numérotées de 1 à N (avec N2). Dans celle-ci on opère des tirages successifs avec remise jusqu’à l’obtention d’une série de k boules consécutives identiques (avec k2). On admet qu’il est presque sûr que ce processus s’arrête et l’on note T la variable aléatoire déterminant le nombre de tirages opérés à l’arrêt du processus.

  • (a)

    Soit n1, établir

    P(T=n+k)=N-1NkP(T>n)
  • (b)

    En déduire que la variable T admet une espérance et déterminer celle-ci.

Solution

Pour i2, on introduit l’événement:

Ai=«  La i-ème boule tirée est identique à la précédente  »

Compte tenu de la composition de l’urne, on peut affirmer

P(Ai)=1N

Au surplus, les événements Ai sont mutuellement indépendants.

  • (a)

    Méthode: On exprime (T=n+k) en fonction (Tn)¯ et d’événements Ai bien choisis.

    L’événement (T=n+k) est évidemment inclus dans etc. Fin de rédaction…

    orrespond à (Tn)¯An+1¯An+2An+k et donc

    P(T=n+k)=P(T>n)×N-1Nk
  • (b)

    Sous réserve de convergence, l’espérance de T peut s’écrire

    E(T)=n=0+P(T>n)

    Ici

    n=0+P(T>n)=P(T>0)+NkN-1n=1+P(T=n+k)

    Ce qui assure l’existence de l’espérance. De plus, puisque le processus s’arrête presque sûrement et que la variableT prend ses valeurs dans {k,k+1,}, on a

    n=1+P(T=n+k)=n=k+P(T=n)-P(T=k)=1-1Nk-1

    On en déduit la valeur de l’espérance de T

    E(T)=Nk-1N-1
 
Exercice 58  5295     ENSTIM (MP)Correction  
  • (a)

    Soit k*. Pour x]-1;1[, exprimer simplement

    n=0+(n+k)(n+k-1)××(n+1)xn.

On lance une pièce de monnaie ayant une probabilité p]0;1[ de faire pile. On compte N le nombre de lancers nécessaires pour obtenir pile pour la première fois. Ensuite, on lance la pièce N fois et l’on compte le nombre de fois X où l’on obtient pile.

  • (b)

    Déterminer la loi de X.

  • (c)

    Calculer l’espérance de X.

Solution

  • (a)

    On sait le développement en série entière

    11-x=n=0+xnpour tout x]-1;1[.

    Par dérivation à l’ordre k de ce développement,

    k!(1-x)k+1=n=0+(n+k)(n+k-1)××(n+1)xnpour tout x]-1;1[.
  • (b)

    La variable N suit une loi géométrique de paramètre p. Pour n*, lorsque N=n, la variable X suit une loi binomiale de paramètres n et p. La variable X prend globalement ses valeurs dans .

    Pour k*, la formule des probabilités totales donne

    P(X=k) =n=1+P(X=kN=n)P(N=n)
    =n=k+(nk)pk(1-p)n-kp(1-p)n-1
    =n=0+(n+kk)pk+1(1-p)2n+k-1
    =pk+1(1-p)k-11k!n=0+(n+k)(n+k-1)××(n+1)(1-p)2n
    =pk+1(1-p)k-11k!(k!(1-x)k+1)|x=(1-p)2
    =pk+1(1-p)k-11(2p-p2)k+1=(1-p)k-1(2-p)k+1.

    Pour k=0, le calcul est légèrement différent car N prend seulement ses valeurs dans *,

    P(X=0) =n=1+P(X=0N=n)P(N=n)
    =n=1+(1-p)np(1-p)n-1=p(1-p)1-(1-p)2.
  • (c)

    L’espérance de X vaut alors

    E(X)=k=1+k(1-p)k-1(2-p)k+1=1(2-p)2ddx(11-x)x=1-p2-p=1.
 
Exercice 59  4018   Correction  

Soit X une variable aléatoire discrète à valeurs dans [a;b].

  • (a)

    Montrer que X admet une espérance m et que celle-ci est élément de [a;b].
    La variable X admet aussi une variance σ2 que l’on se propose de majorer.
    On introduit la variable aléatoire Y=X-m et les quantités

    t=y0yP(Y=y),s=y0y2P(Y=y) et u=P(Y0).
  • (b)

    Vérifier

    t2su.
  • (c)

    Calculer espérance et variance de Y. En déduire

    t2(σ2-s)(1-u).
  • (d)

    En exploitant les deux majorations précédentes, obtenir

    t2σ2/4.
  • (e)

    Conclure

    σ2(b-a)2/4.

Solution

  • (a)

    Posons M=max(-a,b). On a |X|M et la constante M admet une espérance. On en déduit que X admet une espérance. De plus,

    m=E(X)=xX(Ω)xP(X=x)xX(Ω)aP(X=x)=a

    et de même mb.

  • (b)

    Par l’inégalité de Cauchy-Schwarz

    (y0yP(Y=y))2y0y2P(Y=y)y0P(Y=y)=su.
  • (c)

    De façon immédiate E(Y)=0 et V(Y)=σ2. On en déduit

    t=-y<0yP(Y=y) et y<0y2P(Y=y)=σ2-s.

    En appliquant à nouveau l’inégalité de Cauchy-Schwarz

    t2(σ2-s)(1-u).
  • (d)

    Ce qui précède fournit

    t2min{su,(σ2-s)(1-u)}

    pour u[0;1] et s[0;σ2]. Sachant

    su(σ2-s)(1-u)s+σ2uσ2.

    Si s+σ2uσ2 alors

    min{su,(σ2-s)(1-u)}=suσ2(1-u)uσ2/4.

    Si s+σ2u>σ2, c’est analogue et la conclusion demeure.

  • (e)

    On a

    σ2=E(Y2)=y0y2P(Y=y)+y<0y2P(Y=y).

    Puisque Y est à valeurs dans [a-m;b-m], on a

    y0y2P(Y=y)y0(b-m)yP(Y=y)=(b-m)t

    et

    y<0y2P(Y=y)y<0(a-m)yP(Y=y)=-(a-m)t.

    On en déduit

    σ2(b-a)t.

    En élevant au carré

    σ4(b-a)2t2=(b-a)24σ2.

    Enfin, que σ soit nul ou non, on obtient

    σ2(b-a)24.

    Notons que cette inégalité est une égalité lorsque X suit une loi de Bernoulli de paramètre p=1/2.

 
Exercice 60  4949     MINES (MP)Correction  

Pour un entier n2, on donne une matrice Mn() dont les coefficients mi,j sont des variables aléatoires indépendantes et identiquement distribuées selon une loi d’espérance μ. Pour λ, calculer l’espérance de χM(λ).

Solution

On sait χM(λ)=det(λIn-M). Par la formule définissant le déterminant et la linéarité de l’espérance

E(χM(λ))=σ𝒮nε(σ)E(i=1n(λδσ(i),i-mσ(i),i)).

Par indépendance des variables, on a pour tout σ𝒮n,

E(i=1n(λδσ(i),i-mσ(i),i))=i=1nE(λδσ(i),i-mσ(i),i)=i=1n(λδσ(i),i-μ).

On en déduit

E(χM(λ))=χA(λ)

avec A la matrice dont tous les coefficients sont égaux à μ. La poursuite des calculs donne

E(χM(λ))=(λ-nμ)λn-1.
 
Exercice 61  4379    

Soit An() une matrice dont les coefficients sont des variables aléatoires indépendantes et identiquement distribuées selon la loi uniforme sur {-1,1}.

Calculer E(det(A)) et V(det(A)).

 
Exercice 62  4380    

Cinq amis prennent place autour d’une table ronde et possèdent chacun deux jetons. On suppose que les jetons sont tous blancs sauf deux bleus qui sont possédés par deux voisins. À chaque tour, chacun distribue arbitrairement ses deux jetons, l’un à son camarade de droite, l’autre à son camarade de gauche. Le jeu s’arrête lorsque l’un des amis prend possession des deux jetons bleus.

Calculer le nombre moyen de tours nécessaires pour que le jeu s’arrête.

[<] Calcul d'espérances et variances[>] Moments

 
Exercice 63  5339  Correction  

Pour XL2(Ω), on note σ(X)=V(X) l’écart-type de la variable X.

Pour X,YL2(Ω), comparer

σ(X+Y)etσ(X)+σ(Y).

Solution

Soient X,YL2(Ω). On sait X+YL2(Ω) et

V(X+Y)=V(X)+2Cov(X,Y)+V(Y).

Or, par l’inégalité de Cauchy-Schwarz,

|Cov(X,Y)|V(X)V(Y)

et donc

V(X+Y)V(X)+2V(X)V(Y)+V(Y)=(V(X)+V(Y))2.

On en déduit

σ(X+Y)σ(X)+σ(Y).
 
Exercice 64  5001   

Soient X1 et X2 deux variables aléatoires réelles suivant toutes les deux la loi d’une variable aléatoire réelle X bornée.

On suppose que X1+X2 suit la loi de la variable 2X. Montrer que X1=X2 presque sûrement11 1 Cela signifie P(X1=X2)=1..

 
Exercice 65  5320   Correction  

L’univers Ω est l’ensemble des permutations de 1;n (avec n*) que l’on munit de la tribu discrète et de la probabilité uniforme. Pour k1;n, on définit une variable aléatoire Xk sur Ω en posant, pour tout σ élément de Ω,

Xk(σ)={1 si σ(k)=k0 sinon.
  • (a)

    Identifier la loi de la variable Xk.

  • (b)

    Soient i,j1;n distincts. Calculer Cov(Xi,Xj).

  • (c)

    En déduire l’espérance et la variance de la variable N donnant le nombre de points fixes d’une permutation σ élément de Ω.

Solution

  • (a)

    La variable Xk prend ses valeurs dans {0,1}, elle suit donc une loi de Bernoulli. Pour déterminer son paramètre, il suffit d’évaluer P(Xk=1).

    Il y a n! éléments dans Ω et, parmi ceux-ci, il y a exactement (n-1)! permutations fixant k car ces dernières s’identifient par restriction aux permutations de 1;n{k}. La probabilité étant uniforme,

    P(Xk=1)=(n-1)!n!=1n.

    La variable Xk suit une loi de Bernoulli de paramètre p=1n.

  • (b)

    Méthode: Par la formule de Huygens (),

    Cov(Xi,Xj)=E(XiXj)-E(Xi)E(Xj).

    La variable XiXj prend ses valeurs dans {0,1}, elle suit aussi une loi de Bernoulli. La variable XiXj prend la valeur 1 uniquement lorsque i et j sont des points fixes de la permutation étudiée. Les permutations fixant i,j s’identifient par restriction aux permutations de 1;n{i,j}, il y en a exactement (n-2)! et

    P(XiXj=1)=(n-2)!n!=1n(n-1).

    La variable XiXj suit une loi de Bernoulli de paramètre p=1n(n-1).

    L’espérance d’une loi de Bernoulli étant égale à son paramètre, on obtient11 1 La covariance obtenue est positive et cela peut être attendu car, si une permutation admet i pour point fixe, cela réduit les valeurs possibles pour j et accroît la probabilité que j soit point fixe.

    Cov(Xi,Xj)=E(XiXj)-E(Xi)E(Xj)=1n(n-1)-1n1n=1(n-1)n2.
  • (c)

    La variable N correspond à la somme X1++Xn. Par linéarité de l’espérance,

    E(N)=k=1nE(Xk)=k=1n1n=1.

    Méthode: La variance d’une somme se développe par bilinéarité de la covariance ().

    Par développement,

    V(N) =Cov(N,N)=Cov(i=1nXi,j=1nXj)=i=1nj=1nCov(Xi,Xj)
    =i=1nV(Xi)+21i<jnCov(Xi,Xj).

    La première somme comporte n termes égaux à la variance d’une loi de Bernoulli de paramètre 1n et la seconde somme comporte n(n-1)2 égaux à la covariance précédemment calculée. On peut alors terminer le calcul22 2 On pourra comparer cette étude à celle du sujet 3986.

    V(N)=n1n(1-1n)+2n(n-1)21n2(n-1)=1.
 
Exercice 66  4086   Correction  

Soient X et Y deux variables aléatoires réelles admettant chacune une variance.
On suppose V(X)>0. Déterminer a,b minimisant la quantité

E((Y-(aX+b))2).

Solution

On a

E((Y-(aX+b))2)=V(Y-(aX+b))+E(Y-(aX+b))2.

D’une part

V(Y-(aX+b))=V(Y-aX)=a2V(X)-2aCov(X,Y)+V(Y)

et donc

V(Y-(aX+b)) =V(Y-aX)
=(a-Cov(X,Y)V(X))2V(X)+V(X)V(Y)-(Cov(X,Y))2V(X).

D’autre part

E(Y-(aX+b))2=0 pour b=E(Y)-aE(X).

On en déduit que

E((Y-(aX+b))2)

est minimale pour

a=Cov(X,Y)V(X)etb=V(X)E(Y)-Cov(X,Y)E(X)V(X).

Ces valeurs de a et b réalisent une régression linéaire: elles donnent la meilleure expression linéaire de Y en fonction de X.

 
Exercice 67  4048   Correction  

Un signal est diffusé via un canal et un bruit vient malheureusement s’ajouter à la transmission. Le signal est modélisé par une variable aléatoire discrète réelle S d’espérance mS et de variance σS2 connues. Le bruit est modélisé par une variable B indépendante de S d’espérance nulle et de variance σB2>0. Après diffusion, le signal reçu est X=S+B.

Déterminer a,b pour que Y=aX+b soit au plus proche de S c’est-à-dire telle que l’espérance E((Y-S)2) soit minimale.

Solution

Par la formule de Huygens

E((Y-S)2)=V(Y-S)+(E(Y-S))2

avec

E(Y-S)=(a-1)mS+b

et

V(Y-S)=V((a-1)S+aB+b)=(a-1)2σs2+a2σB2

car la covariance de S et B est nulle.
La quantité V(Y-S) est minimale pour

a=σS2σS2+σB2

et l’on peut alors rendre le terme (E(Y-S))2 nul pour

b=(1-a)mS.

Au final

Y=σS2σS2+σB2X+σB2σS2+σB2mS.
 
Exercice 68  4047   Correction  

Soient X1,,Xn des variables aléatoires discrètes réelles. On appelle matrice de covariance de la famille (X1,,Xn) la matrice

Σ=(Cov(Xi,Xj))1i,jn.
  • (a)

    Soit X=a1X1++anXn avec ai.

    Exprimer la variance de X en fonction de la matrice Σ.

  • (b)

    En déduire que les valeurs propres de la matrice Σ sont toutes positives.

Solution

  • (a)

    On a

    V(X)=Cov(X,X).

    Par bilinéarité

    V(a1X1++anXn)=i=1nj=1naiajV(Xi,Xj).

    Ce calcul est aussi le résultat du produit matriciel

    CtΣC avec C=(a1an)t.
  • (b)

    Soit C=(a1an)t un vecteur propre de Σ associé à une valeur propre λ.
    On a CtΣC=λCtC=λC2 et, pour X=a1X1++anXn, V(X)0 donc

    λ=V(X)C20.
 
Exercice 69  4378   

Soient X1,,Xn des variables aléatoires discrètes réelles admettant chacune une variance. On appelle matrice de covariance de la famille (X1,,Xn), la matrice

M=(Cov(Xi,Xj))1i,jnn().

Montrer que cette matrice est diagonalisable et à valeurs propres positives.

 
Exercice 70  5273     ENSTIM (MP)Correction  

Soient X,Y des variables aléatoires indépendantes suivant une loi de Poisson de paramètre λ+*.

  • (a)

    Déterminer les fonctions génératrices de X et 3Y.

  • (b)

    En déduire la fonction génératrice de Z=X+3Y.

  • (c)

    Calculer E(Z) et V(Z).

  • (d)

    Les variables X et Z sont-elles indépendantes?

  • (e)

    Trouver le minimum de la fonction tV(X+tY).

Solution

  • (a)

    Pour tout t réel,

    GX(t)=n=0+P(X=n)tn=n=0+e-λ(λt)nn!=eλ(t-1)

    et

    G3Y(t)=E(t3Y)=E((t3)Y)=GY(t3)=eλ(t3-1)
  • (b)

    Par indépendance des variables X et 3Y,

    GZ(t)=GX(t)G3Y(t)=eλ(t-1)(t2+t+2)
  • (c)

    Par linéarité,

    E(Z)=E(X)+3E(Y)=4λ.

    Par indépendance,

    V(Z)=V(X)+9V(Y)=10λ.
  • (d)

    Les variables X et Z ne sont pas indépendantes car

    P(X=1,Z=0)=0etP(X=1)P(Z=0)0
  • (e)

    Par indépendance,

    V(Z)=V(X+tY)=V(X)+t2V(Y)

    Cette expression est minimale pour t=0.

[<] Covariances[>] Inégalités de concentration

 
Exercice 71  4025  

Soient X une variable aléatoire discrète à valeurs réelles et p. On suppose que Xp admet une espérance. Montrer que pour toute valeur de k0;p, la variable Xk admet une espérance.

 
Exercice 72  5377  Correction  

Soient X et Y deux variables aléatoires discrètes réelles bornées. On suppose

E(Xk)=E(Yk)pour tout k*.

A-t-on nécessairement P(X=Y)=1?

Solution

La réponse est négative. Si X suit une loi de Bernoulli de paramètre 1/2 et si Y=1-X, on vérifie

E(Xk)=12=E(Yk)pour tout k*

alors que P(XY)=1!

 
Exercice 73  5376   Correction  

Soient X et Y deux variables aléatoires discrètes réelles prenant chacune leurs valeurs dans [a;b]. On suppose

E(Xk)=E(Yk)pour tout k.

Montrer que, pour toute fonction f:[a;b] continue,

E(f(X))=E(f(Y)).

Solution

Par linéarité, on vérifie

E(P(X))=E(P(Y))pour tout P[X].

Soit f:[a;b] une fonction continue. Pour tout ε>0, le théorème de Weierstrass assure l’existence d’un polynôme P[X] tel que

supt[a;b]|f(t)-P(t)|ε.

On a alors

|E(f(X))-E(P(X))|=|E(f(X)-P(X))|E(|f(X)-P(X)|)ε

et de même

|E(f(Y))-E(P(Y))|ε avec E(P(X))=E(P(Y)).

On en déduit

|E(f(X))-E(f(Y))|2ε.

Cela étant vrai pour tout ε>0, on peut conclure.

 
Exercice 74  4084   

(Fonction génératrice des moments)

Soit X une variable aléatoire discrète réelle. On note IX l’ensemble des t pour lesquels la variable etX admet une espérance finie et l’on pose

MX(t)=E(etX)pour tout tIX.
  • (a)

    Montrer que IX est un intervalle contenant 0.

  • (b)

    On suppose que 0 est intérieur à l’intervalle IX. Montrer que la variable X admet des moments à tout ordre et que, sur un intervalle centré en 0,

    MX(t)=n=0+E(Xn)n!tn.
 
Exercice 75  4023     MINES (MP)Correction  

Soit X une variable aléatoire discrète réelle. Sous réserve d’existence, on appelle fonction génératrice des moments de X l’application

MX(t)=E(etX).
  • (a)

    On suppose que X suit une loi de Poisson de paramètre λ. Déterminer MX(t).

  • (b)

    On suppose que la fonction MX est définie sur un intervalle ]-a;a[.
    Montrer qu’elle y est de classe 𝒞 et que l’on a

    E(Xn)=MX(n)(0).

Solution

  • (a)

    Soit t, on a, avec convergence absolue

    MX(t)=k=0+e-λλkk!ekt=eλ(et-1).
  • (b)

    Si X ne prend qu’un nombre fini de valeurs {x1,,xn}, l’affaire est entendue: la fonction génératrice des moments de X est développable en série entière sur avec

    MX(t)=k=1netxkP(X=xk)

    et après permutation des sommes

    MX(t)==0+1!k=1n(xk)P(X=xk)t==0+1!E(X)t.

    Si X prend une infinité de valeurs, c’est plus technique…
    Notons (xn)n une énumération des valeurs de X. Pour t]-a;a[

    MX(t)=n=0+P(X=xn)etxn=n=0+un(t)

    avec

    un(t)=P(X=xn)etxn.

    Par hypothèse, la série de fonctions convergence simplement sur ]-a;a[.
    Les fonctions un sont toutes de classe 𝒞 avec

    un(k)(t)=P(X=xn)xnketxn.

    Soit α>0 tel que [-α;α]]-a;a[.
    Pour t[-α;α], on peut écrire

    |un(k)(t)|P(X=xn)|xnk|eα|xn|.

    Introduisons ρ]α;a[. On peut écrire

    P(X=xn)|xn|keα|xn|=|xn|ke(α-ρ)|xn|×P(X=xn)eρ|xn|.

    D’une part, la fonction ttke(α-ρ)t est définie et continue sur [0;+[ et de limite nulle en +, elle est donc bornée ce qui permet d’introduire une constante Mk vérifiant

    n,|xn|ke(α-ρ)|xn|Mk.

    D’autre part,

    P(X=xn)eρ|xn|P(X=xn)eρxn+P(X=xn)e-ρxn.

    En vertu de la convergence en ±ρ de la série définissant MX(t), on peut assurer la convergence de la série positive

    P(X=xn)eρ|xn|.

    La majoration uniforme

    |un(k)(t)|MkP(X=xn)eρ|xn|

    donne la convergence normale de un(k) sur [-α;α].
    Via convergence uniforme sur tout segment, on peut conclure que MX est de classe 𝒞 sur ]-a;a[.
    De plus, on a pour tout ordre de dérivation k et avec sommabilité la relation

    MX(k)(0)=n=0+un(k)(0)=n=0+xnkP(X=xn)=E(Xk).

[<] Moments[>] Fonctions génératrices

 
Exercice 76  4113  Correction  

Soit (Xn)n1 une suite de variables aléatoires deux à deux indépendantes avec Xn suivant une loi de Bernoulli de paramètre pn. Montrer que pour tout ε>0

limn+P(|X1++Xnn-1ni=1npi|<ε)=1.

Solution

Posons

X=X1++Xnn.

Par linéarité de l’espérance,

E(X)=1ni=1nE(Xi)=1ni=1npi.

Les variables étant deux à deux indépendantes,

V(X)=1n2i=1nV(Xi)=1n2i=1npi(1-pi)14n

car x(1-x)1/4 pour tout x[0;1].

En appliquant l’inégalité de Bienaymé-Tchebychev, on écrit

P(|X-E(X)|ε)V(X)ε2.

En passant au complémentaire, on obtient

P(|X1++Xnn-1ni=1npi|<ε)1-14nε2n+1

ce qui permet de conclure.

 
Exercice 77  4122   Correction  

Soit f:[0;1] une fonction continue et n*.

  • (a)

    Soit Sn une variable aléatoire suivant une loi binomiale de paramètres n et x[0;1] et Xn=Sn/n
    Donner les valeurs de l’espérance et de la variance de Xn. Justifier

    α>0,P(|Xn-x|>α)14nα2.
  • (b)

    On introduit la variable aléatoire Yn=f(Xn) et l’on pose Bn(f)(x)=E(Yn).
    Vérifier que Bn(f)(x) est une fonction polynôme de la variable x.
    Soit ε>0. La fonction f étant continue sur le segment [0;1], elle y est uniformément continue (théorème de Heine). Ceci assure l’existence d’un réel α>0 vérifiant

    (x,y)[0;1]2,|y-x|α|f(y)-f(x)|ε.

    Au surplus, la fonction f étant continue sur un segment, elle y est bornée (théorème de la borne atteinte). Ceci permet d’introduire un réel M vérifiant

    x[0;1],|f(x)|M.
  • (c)

    Avec les notations ci-dessus, établir

    ||kn-x|>α(f(kn)-f(x))P(Xn=k/n)|M2nα2

    et

    ||kn-x|α(f(kn)-f(x))P(Xn=k/n)|ε.
  • (d)

    Conclure qu’à partir d’un certain rang, on a

    x[0;1],|Bn(f)(x)-f(x)|2ε.

    Ce résultat constitue une démonstration «  probabiliste  » du théorème de Stone-Weierstrass assurant que toute fonction réelle continue sur un segment peut être uniformément approchée par une fonction polynôme.

Solution

  • (a)

    On sait E(Sn)=nx et V(Sn)=nx(1-x). On en déduit

    E(Xn)=x et V(Xn)=x(1-x)n.

    Par l’inégalité de Bienaymé-Tchebychev, on peut affirmer

    P(|Xn-E(Xn)|>α)V(Xn)α2.

    On en déduit

    P(|Xn-x|>α)x(1-x)nα214nα2

    car x(1-x)1/4 pour tout x[0;1].

  • (b)

    Sachant que les valeurs prises par Xn figurent parmi les k/n avec k0;n, la formule de transfert donne

    E(Yn)=k=0nf(kn)P(Xn=kn) avec P(Xn=kn)=P(Sn=k)=(nk)xk(1-x)n-k.

    Ainsi,

    Bn(f)(x)=k=0n(nk)f(kn)xk(1-x)n-k.

    La fonction xBn(f)(x) est bien une fonction polynôme.

  • (c)

    Sachant

    |f(kn)-f(x)||f(kn)|+|f(x)|2M

    on obtient

    ||kn-x|>α(f(kn)-f(x))P(Xn=k/n)|2M|kn-x|>αP(Xn=k/n)=2MP(|Xn-x|>α)

    et donc

    ||kn-x|>α(f(kn)-f(x))P(Xn=k/n)|M2nα2.

    Aussi, lorsque |k/n-x|α, on a

    |f(kn)-f(x)|ε

    et donc

    ||kn-x|α(f(kn)-f(x))P(Xn=k/n)|ε|kn-x|αP(Xn=k/n)ε.
  • (d)

    Pour n assez grand, on a M/2nα2ε et alors

    |Bn(f)(x)-f(x)|||kn-x|α(f(kn)-f(x))P(Xn=k/n)|+||kn-x|>α(f(kn)-f(x))P(Xn=k/n)|2ε.
 
Exercice 78  4183     CENTRALE (MP)Correction  
  • (a)

    Écrire une fonction S(n,p) qui simule une variable aléatoire Sn=Y/n, où Y suit une loi binomiale (n,p).

    En déduire une fonction test(n,p) qui affiche les courbes interpolant les points (k,Sk), puis

    (k,p-ln(k)k) et (k,p+ln(k)k).

    Que remarque-t-on?

  • (b)

    Soit t et x[-1;1]. Montrer que

    etx12(1-x)e-t+12(1+x)et.
  • (c)

    On considère une variable aléatoire X telle que |X|1 et E(X)=0. Montrer que exp(tX) est d’espérance finie et

    E(exp(tX))ch(t)exp(t2/2).
  • (d)

    Soit X1,,Xn des variables aléatoires centrées indépendantes telles que, pour tout i, |Xi|ai. On pose

    Sn=i=1nXi.

    Montrer

    E(exp(tS))exp(t22i=1nai2).

    Soit ε>0. Montrer

    P(Sn>ε)exp(-tε+t22i=1nai2).
  • (e)

    En choisissant une bonne valeur de t, montrer

    P(Sn>ε)exp(-ε22i=1nai2).
  • (f)

    Commenter le résultat observé à la première question.

Solution

  • (a)
    import random as rnd
    import math
    
    def S(n,p):
        R = 0
        for k in range(n+1):
            if rnd.random() < p: R = R + 1
        return R/n
    
    import matplotlib.pyplot as plt
    
    def test(n,p):
        Lk = range(1,n)
        LS = [S(k,p) for k in Lk]
        Linf = [p - math.sqrt(math.log(k)/k) for k in Lk]
        Lsup = [p + math.sqrt(math.log(k)/k) for k in Lk]
        plt.clf()
        plt.plot(Lk,LS)
        plt.plot(Lk,Linf)
        plt.plot(Lk,Lsup)
    

    On remarque que la courbe expérimentale est plutôt bien encadrée.

  • (b)

    On a

    tx=(1-λ)×(-t)+λt avec λ=12(1+x)[0;1].

    La convexité de la fonction exponentielle produit alors le résultat voulu.

  • (c)

    La variable aléatoire X est bornée donc aussi exp(tX) qui est alors d’espérence finie. L’inégalité au-dessus permet d’écrire la comparaison

    exp(tX)12(1-X)e-t+12(1+X)et.

    Par croissance et linéarité de l’espérance, il vient

    E(exp(tX))12(1-E(X))e-t+12(1+E(X))et.

    Enfin, la nullité de l’espérance de X permet de conclure

    E(exp(tX))ch(t).

    En développant en série entière ch(t) et exp(t2/2), on remarque ch(t)exp(t2/2) car on peut comparer les termes sommés respectifs.

  • (d)

    On écrit Xi=aiYi avec E(Yi)=0 et |Yi|1 et alors

    E(exp(tS))=E(i=1nexp(taiYi)).

    Par indépendance et l’inégalité précédente

    E(exp(tS))=i=1nE(exp(taiYi))i=1nexp(12t2ai2)=exp(t22i=1nai2).

    Par l’inégalité de Markov,

    P(Sn>ε)=P(exp(tSn)>exp(tε))exp(-tε)E(exp(tSn))

    ce qui donne l’inégalité voulue.

  • (e)

    On prend

    t=εi=1nai2.
  • (f)

    Sn est la somme de n variables de Bernoulli indépendantes. En centrant celle-ci, on peut (avec largesse) prendre ai=1 et alors

    P(Sn-p>ε)exp(-ε22n).

    Avec ε=(ln(n))/n, on obtient

    P(Sn>p+ln(n)n)exp(-ln(n)2)=1n.

    Par passage à l’opposé de Sn, on obtient l’autre inégalité.

 
Exercice 79  4948     MINES (MP)Correction  

Soient (Ω,𝒯,P) un espace probabilisé et X une variable aléatoire centrée prenant ses valeurs dans [-1;1].

  • (a)

    Par un argument de convexié, montrer que, pour tout x[-1;1] et tout t,

    etx12(1-x)e-t+12(1+x)et.
  • (b)

    Soit t. Montrer que E(etX) existe et

    E(etX)et2/2.
  • (c)

    Soit r>0. Établir

    P(|X|>r)2e-r2/2.

Solution

  • (a)

    On pose λ=(1+x)/2[0;1] et la convexité de l’exponentielle donne

    e(1-λ)(-t)+λt(1-λ)e-t+λet

    ce qui produit la comparaison voulue.

  • (b)

    La variable X est bornée et donc Y=etx l’est aussi et par conséquent admet une espérance. Par ce qui précède, on a la comparaison

    Y12(1-X)e-t+12(1+X)et.

    Par croissance de l’espérance et nullité de l’espérance de X

    E(Y)12e-t+12et=ch(t).

    Par développement en série entière et en employant (2n)!2nn!, on obtient

    ch(t)=n=0+t2n(2n)!n=0+t2n2nn!=et2/2.
  • (c)

    Par l’inégalité de Markov, on a pour tout t>0,

    P(X>r)=P(etX>etr)e-trE(etX)e-tr+t2/2.

    Pour t=r, il vient

    P(X>r)e-r2/2.

    En considérant X=-X, on obtient

    P(X<-r)e-r2/2

    et l’on conclut

    P(|X|>r)2e-r2/2.
 
Exercice 80  4087  Correction  

Soit X une variable aléatoires réelle discrète admettant une variance σ2 (avec σ>0). Montrer

α>0,P(|X-E(X)|<ασ)1-1α2.

Solution

Par l’inégalité de Bienaymé-Tchebychev,

P(|X-E(X)|ασ)<σ2(ασ2)=1α2.

On conclut par considération d’évènement complémentaire.

 
Exercice 81  5007      X (PSI)

(Inégalité de Chernoff)

Soit Y une variable aléatoire discrète prenant ses valeurs dans [α;β] avec α<β. On suppose que la variable Y est d’espérance nulle.

  • (a)

    Soit Φ:[α;β] une fonction de classe 𝒞2 vérifiant

    Φ(α)=Φ(β)=0etΦ′′0.

    Montrer que Φ(y)0 pour tout y[α;β].

  • (b)

    Soit s un réel. Montrer

    (β-α)esy(β-y)esα+(y-α)esβpour tout y[α;β].

    En déduire

    (β-α)E(esY)βesα-αesβ.
  • (c)

    Soit s un réel. Montrer

    ln(βesα-αesβ)18(β-α)2s2+ln(β-α).

    En déduire

    E(esY)exp((β-α)28s2).

Soient n* et X1,,Xn des variables aléatoires mutuellement indépendantes prenant leurs valeurs dans [a;b] avec a<b. On pose S la somme de ces variables et l’on introduit t un réel strictement positif.

  • (c)

    Montrer que pour tout s>0,

    P(S-E(S)t) e-sti=1nE(es(Xi-E(Xi)))
    exp(-st+n(b-a)28s2).
  • (d)

    En déduire l’inégalité de Chernoff

    P(S-E(S)t)exp(-2t2n(b-a)2).
 
Exercice 82  5008   

Soient X1,,Xn des variables aléatoires indépendantes de loi uniforme11 1 On dit que les variables X1,,Xn suivent une loi de Rademacher. sur {-1,1}. On pose Sn=X1++Xn.

  • (a)

    Soit λ. Montrer

    ch(λ)eλ2/2.
  • (b)

    Établir que pour tout α>0,

    P(Snn>α)e-nα2/2.
 
Exercice 83  5275     ENSTIM (MP)Correction  

On suppose qu’une variable aléatoire X suit une loi binomiale de paramètres n* et p]0;1[. Soit ε>0. Montrer

P(Xn-pε)p(1-p)εn.

Solution

Par croissance des probabilités,

P(Xn-pε)P(|Xn-p|ε)

et par l’inégalité de Markov (la variable aléatoire considérée est à valeurs positives)

P(|Xn-p|ε)1εE(|Xn-p|).

Or, pour toute variable aléatoire Y admettant un moment d’ordre 2, l’inégalité de Cauchy-Schwarz donne

E(Y)=E(1×Y)E(1)E(Y2)=E(Y2).

Ainsi,

E(|Xn-p|)(E(|Xn-p|2))1/2=(V(Xn))1/2=1nV(X)=p(1-p)n.

Au final, on conclut

P(Xn-pε)p(1-p)εn.

Notons que cette inégalité est meilleure que celle de Bienaymé-Tchebychev seulement lorsque le majorant est supérieur à 1 (autrement dit, elle n’est pas très utile).

 
Exercice 84  4375    

(Inégalité de Kolmogorov)

Sur un espace probabilisé (Ω,𝒯,P), on considère X1,,Xn des variables aléatoires discrètes réelles indépendantes, d’espérances nulles et admettant chacune un moment d’ordre 2. Pour tout k1;n, on note Sk la somme des variables X1,,Xk et l’on introduit t un réel strictement positif.

Pour k1;n, on introduit l’événement

Ak=j=1k-1{|Sj|<t}{|Sk|t}.
  • (a)

    Justifier l’indépendance des variables 1AkSk2 et Sn-Sk pour tout k1;n.

  • (b)

    Montrer

    E(Sn2)k=1nE(Sk21Ak).
  • (c)

    En déduire

    P(max1kn|Sk|t)1t2i=1nV(Xi).
 
Exercice 85  4377   

(Inégalité de Chernoff)

Soit Y une variable aléatoire discrète prenant ses valeurs dans [α;β] avec α<β. On suppose que la variable Y est d’espérance nulle.

  • (a)

    Soit s un réel. Montrer que

    (β-α)esy(β-y)esα+(y-α)esβpour tout y[α;β].

    En déduire (β-α)E(esY)βesα-αesβ.

  • (b)

    Montrer à l’aide d’une étude de fonction

    ln(βesα-αesβ)18(β-α)2s2+ln(β-α)pour tout s0.

    En déduire

    E(esY)exp((β-α)28s2).

Soient n* et X1,,Xn des variables aléatoires mutuellement indépendantes prenant leurs valeurs dans [a;b] avec a<b. On pose S la somme de ces variables et l’on introduit t un réel strictement positif.

  • (c)

    Montrer que pour tout s>0

    P(S-E(S)t)e-sti=1nE(es(Xi-E(Xi)))exp(-st+n(b-a)28s2).
  • (d)

    En déduire l’inégalité de Chernoff

    P(S-E(S)t)exp(-2t2n(b-a)2).
 
Exercice 86  5365  Correction  
  • (a)

    Énoncer et démontrer l’inégalité de Markov.

  • (b)

    Application: Soit X une variable aléatoire à valeurs réelles.

    Montrer que pour tout réel a

    P(Xa)E(eX-a).

Solution

  • (a)

    Soient X une variable aléatoire à valeurs dans + et a0. Posons A=(Xa). On remarque Xa𝟏A et par croissance et linéarité de l’espérance

    E(X)aE(𝟏A)=aP(A)=aP(Xa)

    ce qui constitue l’inégalité de Markov.

  • (b)

    Par stricte croissance de l’exponentielle, on remarque

    (Xa)=(eXea).

    La variable aléatoire Y=eX est positive et, pour a, l’inégalité de Markov donne

    E(Y)eaP(Yea).

    On en déduit

    P(Xa)e-aE(Y)=E(eX-a).
 
Exercice 87  5367   Correction  

Soient X1,,Xn des variables aléatoires indépendantes de loi uniforme sur {-1,1}. On pose Sn=X1++Xn.

  • (a)

    Soient α et λ des réels strictement positifs. Établir

    P(Snn>α)=P(eλSn>eλnα)
  • (b)

    En déduire que pour tout α>0,

    P(Snn>α)e-nα2/2.

    On admettra l’inégalité ch(λ)eλ2/2 pour tout λR.

  • (c)

    Établir l’inégalité précédemment admise.

Solution

  • (a)

    Soient α et λ des réels strictement positifs. Par stricte croissance de la fonction teλt, on a l’égalité d’événements

    (Snn>α)=(Sn>nα)=(eλSn>eλnα).
  • (b)

    Par l’inégalité de Markov11 1 L’inégalité de Markov propose une majoration de P(Xa). Sachant (X>a)(Xa), elle peut aussi être employée pour majorer P(X>a). appliquée à la variable Y=eλSn, il vient

    P(Snn>α)=P(eλSn>eλnα)e-λnαE(eλSn).

    On peut calculer l’espérance figurant en second membre par l’indépendance des variables X1,,Xn qui entraîne22 2 Cette affirmation se justifie aisément par le . celle des variables eλX1,,eλXn:

    E(eλSn) =E(eλX1××eλXn)
    =E(eλX1)××E(eλXn)
    =(eλ+e-λ2)n=(ch(λ))n.

    En exploitant l’inégalité de la question précédente, on poursuit

    P(Snn>α)e-λnα(ch(λ))ne-λnαenλ2/2.

    Il reste à choisir convenablement la valeur de λ. Pour33 3 Le polynôme du second degré λn2λ2-nαλ est minimal en α. λ=α, on conclut44 4 Ce résultat est un cas particulier de l’inégalité de Chernoff (voir le sujet 5007).

    P(Snn>α)e-nα2enα2/2=e-nα2/2.
  • (c)

    Méthode: On développe en série entière les fonctions des deux membres puis on compare les termes sommés.

    D’une part,

    ch(λ)=p=0+λ2p(2p)!.

    D’autre part,

    eλ2/2=p=0+1p!(λ22)p=p=0+λ2p2pp!.

    Pour tout p, on a 2pp!(2p)! car le premier membre correspond au produit des entiers pairs allant de 1 à 2p alors que le second correspond au produit de tous les entiers allant de 1 à 2p. On a alors

    1(2p)!12pp! puis λ2p(2p)!λ2p2pp! car λ2p0.

    En sommant ces inégalités, on obtient la comparaison voulue.

[<] Inégalités de concentration[>] Calcul d'espérance par les fonctions génératrices

 
Exercice 88  4114  Correction  

Une urne contient 4 boules rapportant 0,1,1,2 points. On y effectue n tirages avec remise et l’on note S le score total obtenu.
Déterminer la fonction génératrice de S et en déduire la loi de S.

Solution

Notons X1,,Xn les variables aléatoires fournissant les points obtenus lors des tirages.
Les variables Xi suivent la même loi de fonction génératrice

GX(t)=14+24t+14t2=(1+t2)2.

Puisque S=X1++Xn avec X1,,Xn mutuellement indépendantes on a

GS(t)=GX1(t)GXn(t)=(GX(t))n=(1+t2)2n.

En développant la somme

GS(t)=122nk=02n(2nk)tk.

Ceci détermine la loi de S:

k0;2n,P(S=k)=122n(2nk)

S suit une loi binomiale de paramètre 2n et 1/2: cela s’explique aisément car l’expérience de chaque tirage peut être modélisée par deux tirages successifs d’une pièce équilibrée.

 
Exercice 89  4371  
  • (a)

    Calculer la fonction génératrice d’une variable aléatoire X suivant une loi de Poisson de paramètre λ>0.

  • (b)

    À l’aide de leurs fonctions génératrices, déterminer la loi suivie par la somme de deux variables aléatoires indépendantes suivant des lois de Poisson de paramètres λ et μ strictement positifs.

 
Exercice 90  5413    MINES (MP)Correction  

Soient X et Y deux variables aléatoires à valeurs dans indépendantes. On suppose que X suit une loi de Poisson de paramètre λ>0.

Montrer que Y suit une loi de Poisson de paramètre μ>0 si, et seulement si, X+Y suit une loi de Poisson de paramètre λ+μ.

Solution

Rappellons que la fonction génératrice d’une variable aléatoire X suivant une loi de Poisson de paramètre λ>0 est

GX(t)=eλ(t-1)

Si X et Y suivent des lois de Poisson de paramètres λ et μ alors, par indépendance,

GX+Y(t)=GX(t)GY(t)=eλ(t-1)eμ(t-1)=e(λ+μ)(t-1)

Ainsi, X+Y suit une loi de Poisson de paramètre λ+μ.

Inversement, supposons que X+Y suive un loi de Poisson de paramètre λ+μ. On a

GX+Y(t)=GX(t)GY(t)=eλ(t-1)GY(t)=e(λ+μ)(t-1)

donc

GY(t)=eμ(t-1)

Ainsi, Y suit une loi de Poisson de paramètre μ.

 
Exercice 91  5347  Correction  
  • (a)

    Soient X et Y deux variables aléatoires à valeurs dans .

    On suppose que les fonctions génératrices de X et Y sont égales sur [-1;1]. Justifier que X et Y suivent la même loi.

  • (b)

    Application: Soient n* et p]0;1[.

    Par les fonctions génératrices, déterminer la loi de la somme de n* variables mutuellement indépendantes suivant chacune une même loi de Bernoulli de paramètre p[0;1].

Solution

  • (a)

    L’unicité des coefficients d’un développement en série entière donne

    P(X=n)=P(Y=n)pour tout nN.
  • (b)

    Si X suit une loi de Bernoulli de paramètre p alors GX(t)=(1-p)+pt pour tout t.

    Si X1,,Xn sont mutuellement indépendantes de même loi que X alors

    GX1++Xn(t)=(GX(t))n=((1-p)+pt)npour tout t.

    On reconnaît la fonction génératrice d’une loi binomiale de paramètres n et p (et la fonction génératrice suffit à caractériser la loi).

 
Exercice 92  5366  Correction  

Soit X une variable aléatoire à valeurs dans .

Pour t réel convenable, on pose

GX(t)=n=0+P(X=n)tn
  • (a)

    Montrer que la fonction GX est définie et continue sur [-1;1].

  • (b)

    Justifier que la fonction GX est croissante et convexe sur [0;1].

Solution

  • (a)

    Posons un(t)=P(X=n)tn pour t[-1;1]. On remarque

    |un(t)|=P(X=n)|t|nP(X=n)pour tout t[-1;1]

    Puisque la série P(X=n) converge (et est de somme 1), la série de fonctions un converge normalement sur [-1;1]. De plus, les fonctions un sont continues et l’on peut donc affirmer que la fonction somme GX est définie et continue sur [-1;1].

  • (b)

    Les fonctions un sont croissantes et convexes sur [0;1] donc la somme GX l’est aussi (par convergence simple).

 
Exercice 93  5111  

Soit X une variable aléatoire prenant ses valeurs dans de fonction génératrice GX. On étudie l’événement A=« X est un entier pair  ».

  • (a)

    Identifier la loi de la variable Y=12(1+(-1)X).

  • (b)

    Exprimer P(A) en fonction de GX(-1).

  • (c)

    Application: Calculer P(A) lorsque X suit une loi de Poisson de paramètre λ>0.

 
Exercice 94  4044   

Deux joueurs lancent chacun deux dés équilibrés et l’on veut calculer la probabilité que les sommes des deux jets soient égales. On note X1 et X2 les variables aléatoires déterminant les valeurs des dés lancés par le premier joueur et Y1 et Y2 celles associées au deuxième joueur.

  • (a)

    Montrer que P(X1+X2=Y1+Y2)=P(14+X1+X2-Y1-Y2=14).

  • (b)

    Déterminer la fonction génératrice de la variable Z=14+X1+X2-Y1-Y2.

  • (c)

    En déduire la valeur de P(X1+X2=Y1+Y2).

 
Exercice 95  4194   Correction  

Montrer par les fonctions génératrices qu’il est impossible de «  truquer  » deux dés cubiques et indépendants pour que la somme d’un lancer suive une loi uniforme sur 2;12

Solution

La fonction génératrice d’une variable Y suivant une loi uniforme sur 2;12 est la fonction polynomiale

GY(t)=112(t2+t3++t12).

Notons GX1 et GX2 les fonctions génératices de chacun des dés.

GX1(t)=(p1t+p2t2++p6t6) et GX2(t)=(q1t+q2t2++q6t6).

La fonction génératrice de la somme X1+X2 est donnée par

GX1+X2(t)=GX1(t)×GX2(t)=t2(p1+p2t++p6t5)(q1+q2t++q6t5).

Pour que GY=GX1GX2, il faut p1q1>0 et p6q6>0 auquel cas les facteurs de degré 5 possèdent chacune une racine réelle non nulle. Cependant

GY(t)=112t21-t111-t

n’en possède pas!

 
Exercice 96  4051   

Soit (Xn)n* une suite de variables aléatoires indépendantes et identiquement distribuées selon une loi de Bernoulli de paramètre p]0;1[. Soit aussi N une variable aléatoire à valeurs dans indépendante des précédentes. On considère les variables aléatoires

X=k=1NXketY=k=1N(1-Xk).
  • (a)

    Pour t et u dans [-1;1], exprimer à l’aide de la fonction génératrice de N l’expression

    G(t,u)=E(tXuY).
  • (b)

    On suppose que N suit une loi de Poisson. Montrer que les variables X et Y sont indépendantes.

  • (c)

    Inversement, on suppose que les variables X et Y sont indépendantes. Montrer que N suit une loi de Poisson.

 
Exercice 97  4206    

Soient A et B deux événements indépendants d’un espace probabilisé (Ω,𝒯,P) et la variable aléatoire Z=𝟏A+𝟏B.

Montrer que, parmi les événements (Z=0), (Z=1) et (Z=2), il y en a au moins un de probabilité supérieure à 4/9.

 
Exercice 98  4376