[>] Loi géométrique

 
Exercice 1  4365  

Soit X une variable aléatoire à valeurs dans *. On suppose qu’il existe a tel que

P(X=n)=an(n+1)pour tout n*.
  • (a)

    Déterminer a.

  • (b)

    Calculer la probabilité de l’événement « X prend une valeur impaire ».

 
Exercice 2  4083  Correction  

Soient X une variable aléatoire discrète définie sur (Ω,𝒜,P) et f une application définie sur X(Ω).
À quelle condition les variables aléatoires X et Y=f(X) sont-elles indépendantes?

Solution

Supposons les variables aléatoires X et Y=f(X) indépendantes.
Il existe au moins une valeur x par X vérifiant P(X=x)>0. En effet, la variable X étant discrète P(Ω)=1 est la somme des probabilités des événements valeurs (X=x). Considérons ensuite la valeur y=f(x).

P(f(X)=yX=x)=P(f(X)=yX=x)P(X=x).

Or (X=x)(f(X)=y), donc

P(f(X)=yX=x)=1.

Cependant, les variables X et f(X) étant supposées indépendantes

P(f(X)=yX=x)=P(f(X)=y).

Ainsi, l’événement (f(X)=y) est presque sûr. La variable aléatoire Y est donc presque sûrement constante. La réciproque est immédiate et donc X et Y=f(X) sont indépendantes si, et seulement si, Y est presque sûrement constante.

 
Exercice 3  4093   Correction  

Soit (Xn)n une suite de variables aléatoires discrètes à valeurs dans un ensemble E et N une variable aléatoire à valeurs naturelles toutes définies sur un même espace probabilisable (Ω,𝒜). On définit une fonction Y par

ωΩ,Y(ω)=XN(ω)(ω).

Justifier que Y est une variable aléatoire discrète.

Solution

Les Xn(Ω) sont des ensembles au plus dénombrables et

Y(Ω)nXn(Ω).

On en déduit que l’ensemble Y(Ω) est au plus dénombrable.
De plus, pour tout yY(Ω)

Y1({y})=n{ωΩ|N(ω)=n et Xn(ω)=y}

et donc

Y1({y})=n{N(ω)=n}{Xn(ω)=y}

est bien élément de la tribu 𝒜.

 
Exercice 4  5324   Correction  

(Fonction de répartition)

Soit X une variable aléatoire discrète à valeurs réelles.

On appelle fonction de répartition de la variable X, l’application FX: définie par

FX(x)=P(Xx)pour tout x.
  • (a)

    Montrer que la fonction FX est croissante et déterminer ses limites en ±.

  • (b)

    Montrer que la fonction FX est continue à droite en tout point.

  • (c)

    À quelle condition la fonction FX est-elle continue en un point a de ?

Solution

  • (a)

    Méthode: On établit la croissance de FX en vérifiant, pour tous x,y,

    xyFX(x)FX(y).

    Soient x,y avec xy. L’événement (Xx) est inclus dans (Xy) et, par croissance des probabilités,

    FX(x)=P(Xx)P(Xy)=FX(y).

    Ainsi, la fonction FX est croissante.

    La monotonie de FX assure l’existence de sa limite en +. Pour la calculer, nous allons prendre appui sur des suites en employant que, si (xn) est une suite de limite +, alors

    limx+F(x)=limn+F(xn).

    Méthode: Par continuité monotone, la probabilité d’une union croissante (resp. une intersection décroissante) est la limite des probabilités des événements réunis (resp. intersectés)

    On remarque

    Ω=n(Xn) avec (Xn)(Xn+1)pour tout n

    et donc

    P(Ω)=limn+P(Xn)=limn+FX(n).

    On en déduit

    limx+FX(x)=limn+FX(n)=P(Ω)=1.

    De la même façon, on sait que FX admet une limite en - et, puisque

    =n(X-n) avec (X-(n+1))(X-n)pour tout n

    on obtient

    limx-FX(x)=P()=0.
  • (b)

    De nouveau, la croissance de FX assure l’existence11 1 Au surplus, on peut affirmer que la valeur FX(a) est comprise entre les limites à gauche et à droite de FX en a: lima-FXFX(a)lima+FX. des limites à droite et à gauche de FX en tout point a. En particulier,

    limxa+FX(x)=limn+FX(a+1n).

    Or

    (Xa)=n*(Xa+1n) avec (Xa+1n+1)(Xa+1n)

    et donc

    limxa+FX(x)=limn+P(Xa+1n)=P(Xa)=FX(a).

    Ainsi, la fonction FX est continue à droite en tout point a de .

  • (c)

    Soit a. La fonction FX étant déjà continue à droite en a, il suffit d’étudier sa limite à gauche pour savoir si elle est continue en a. Par monotonie, on sait que celle-ci existe et l’on peut la calculer en observant

    n*(Xa-1n)=(X<a)

    ce qui donne

    limxa-FX(x)=P(X<a).

    On en déduit que la fonction FX est continue à gauche en a (et donc continue en a) si, et seulement si, P(X<a)=P(Xa) c’est-à-dire si, et seulement si, P(X=a)=0.

 
Exercice 5  5631   Correction  

(Fonction de répartition)

Soit X une variable aléatoire réelle. On appelle fonction de répartition de la variable X la fonction réelle définie par

FX(x)=P(Xx)pour tout x.
  • (a)

    Vérifier que la fonction de répartition FX est croissante.

  • (b)

    Déterminer les limites de FX en - et en +.

  • (c)

    Établir que pour tout x

    limtx+FX(t)=P(Xx)etlimtx-FX(t)=P(X<x).
  • (d)

    En déduire que deux variables aléatoires réelles ont même loi si, et seulement si, leurs fonctions de répartition sont égales.

Solution

  • (a)

    Soient x,y avec xy. On a (Xx)(Xy) donc, par croissance des probabilités,

    FX(x)=P(Xx)P(Xy)=FX(y).

    La fonction FX est croissante.

  • (b)

    Puisqu’elle est croissante, la fonction FX admet assurément des limites en - et en +. On peut calculer celles-ci par des suites

    lim+FX=limn+FX(n)etlim-FX=limn+FX(-n).

    Par continuité croissante,

    limn+FX(n)=limn+P(Xn)=P(n(Xn))=P(Ω)=1.

    Par continuité décroissante,

    limn+FX(-n)=limn+P(X-n)=P(n(X-n))=P()=0.
  • (c)

    Puisqu’elle est croissante, la fonction FX admet des limites à droite et à gauche en tout x. On peut calculer celles-ci par des suites

    limtx+FX(t)=limn+FX(x+1n)etlimtx-FX=limn+FX(x-1n).

    Par continuité décroissante,

    limn+FX(x+1n)=limn+P(Xx+1n)=P(n*(Xx+1n))=P(Xx).

    Par continuité croissante,

    limn+FX(x-1n)=limn+P(Xx-1n)=P(n*(Xx-1n))=P(X<x).
  • (d)

    Par définition de la fonction de répartition, la loi de X suffit à déterminer sa fonction de répartition.

    Inversement, par ce qui précède, pour tout x,

    P(X=x)=P(Xx)-P(X<x)=limtx+FX(t)-limtx-FX(t).

    Ainsi, la fonction de répartition de X suffit à déterminer la loi de X.

 
Exercice 6  5962     CCINP (MP)Correction  

Soient (Ω,𝒜,P) un espace probabilisé et X une variable aléatoire définie sur Ω et à valeurs dans * vérifiant

n*,P(Xn)>0.

On définit le taux de panne de X par la suite (xn)n1 avec

xn=P(X=nXn).
  • (a)

    Montrer que si l’on pose P(Y=n)=1n(n+1) pour tout n*, on définit une loi de probabilité. Déterminer le taux de panne de Y.

  • (b)

    Dans le cas général, établir

    n2,P(Xn)=k=1n1(1xk).
  • (c)

    En déduire une expression de P(X=n) en fonction des xk valable pour tout n1.

  • (d)

    Déterminer les variables aléatoires discrètes à taux de panne constant.

Solution

  • (a)

    La famille (1n(n+1))n* est une famille de réels positifs de somme 1 puisque

    n*1n(n+1)=n=1+(1n1n+1)=1limN+1N+1=1.

    La famille (1n(n+1))n* est donc une distribution de probabilités: elle détermine une loi de probabilité.

    On note (yn)n1 le taux de panne de Y. Pour n*,

    P(Yn)=k=n+(1k1k+1)=1n

    et donc

    yn=P(Y=nYn)=P(Y=nYn)P(Yn)=P(Y=n)P(Yn)=1n+1.
  • (b)

    Par récurrence, on établit la formule pour tout n* (et non seulement n2).

    Pour n=1, la formule est valable puisque qu’un produit vide vaut 1.

    Supposons la propriété vraie au rang n1. Par la formule des probabilités composées,

    P(Xn+1) =P(Xn)P(X=n)
    =P(Xn)P(X=nXn)P(Xn)
    =P(Xn)(1xn)=k=1n(1xk).

    La récurrence est établie.

  • (c)

    Pour tout n1,

    P(X=n)=P(X=nXn)P(Xn)=xnk=1n1(1xk).
  • (d)

    Une variable aléatoire à taux de panne constant p vérifie

    n*,P(X=n)=p(1p)n1.

    Puisque p est une probabilité conditionnelle, on a p[0;1]. Nécessairement p0 et p1 pour que X vérifie la condition énoncée initialement. La variable X suit donc une loi géométrique de paramètre p.

    Inversement, supposons que X suive une loi géométrique de paramètre p]0;1[. On a P(Xn)=(1p)n1 pour tout n1 puis

    xn=P(X=n)P(Xn)=p.

    Le taux de panne de X est constant.

 
Exercice 7  4094    Correction  

Soit T une variable aléatoire à valeurs dans . On suppose que P(Tn)>0 pour tout n et l’on pose

θn=P(T=nTn).
  • (a)

    Justifier

    n,θn[0;1[.
  • (b)

    Exprimer la probabilité P(Tn) en fonction des termes de la suite (θn)n.

    En déduire la divergence de la série θn.

  • (c)

    Inversement, soit (θn)n une suite vérifiant

    n,θn[0;1[etθn diverge.

    Montrer qu’il existe une variable aléatoire T à valeurs dans telle P(Tn)>0 et P(T=nTn)=θn pour tout n.

Solution

  • (a)

    Pour n, θn est une probabilité et donc θn[0;1]. Si θn=1 alors P(T=n)=P(Tn) et donc P(T>n)=0. Cela est exclut par les hypothèses.

  • (b)

    Pour n, P(T=n)=θnP(Tn) et P(T=n)+P(Tn+1)=P(Tn) donc

    P(Tn+1)=(1-θn)P(Tn).

    Sachant P(T0)=1, on obtient

    P(Tn)=k=0n-1(1-θk).

    Puisque P(Tn)n+0, il vient

    k=0n-1ln(1-θk)=ln(k=0n-1(1-θk))n+-.

    Ainsi, il y a divergence de la série ln(1-θn).

    Si la suite (θn)n ne tend pas vers 0, la série θn est évidemment divergente.

    Si la suite (θn)n tend vers 0 alors ln(1-θn)n+-θn et, par équivalence de séries à termes de signe constant, la série θn diverge.

  • (c)

    Analyse: Si T est une variable aléatoire solution alors

    P(T=n)=P(Tn)-P(Tn+1)=θnk=0n-1(1-θk)

    ce qui détermine entièrement la loi de T.

    Synthèse: Posons

    n,un=θnk=0n-1(1-θk).

    On a

    n,un0.

    Vérifions aussi que la famille (un)n de somme égale à 1.

    Introduisons

    Pn=k=0n-1(1-θk).

    On a

    ln(Pn)=k=0n-1ln(1-θk)n+-.

    En effet, la série des ln(1-θk) est divergente à terme négatifs (et l’affirmation est vraie que la suite (θn) tend vers 0 ou non).

    Aussi, P0=1 et Pn-Pn+1=un, donc

    k=0nuk=P0-Pn+1n+1.

    On peut alors définir une variable aléatoire T à valeurs dans dont la loi est déterminée par

    n,P(T=n)=un=θnk=0n-1(1-θk).

    On observe

    P(Tn)=k=n+uk=Pn=k=0n-1(1-θk)>0

    et

    P(T=nTn)=θn.

    La variable aléatoire T est bien solution.

 
Exercice 8  5325   Correction  

(Valeur médiane)

On appelle valeur médiane d’une variable aléatoire réelle X, tout réel m vérifiant

P(Xm)12etP(Xm)12.
  • (a)

    Vérifier sur un exemple qu’une variable aléatoire réelle peut posséder plusieurs valeurs médianes.

  • (b)

    Montrer que toute variable aléatoire réelle possède au moins une valeur médiane. On pourra introduire la fonction de répartition (voir le sujet 5324) de la variable X.

Solution

  • (a)

    Soit X une variable aléatoire suivant une loi de Bernoulli de paramètre 1/2. Pour tout m]0;1[,

    P(Xm)=P(X=0)=12etP(Xm)=P(X=1)=12.

    Dans cet exemple toute valeur strictement comprise entre 0 et 1 est valeur médiane de la variable X. Notons que la valeur m=0 est aussi valeur médiane puisque

    P(X0)=12etP(X0)=1.

    De même, m=1 est encore valeur médiane11 1 En revanche, si X suit une loi de Bernoulli de paramètre p[0;1] avec p1/2, alors X admet une seule valeurs médiane qui est 0 ou 1 selon que p>1/2 ou p<1/2. de X.

  • (b)

    Méthode: À l’aide d’une borne inférieure, on introduit la plus petite valeur m vérifiant P(Xm)1/2.

    Posons

    A={x|P(Xx)1/2}={x|fX(x)1/2}

    avec fX la fonction de répartition de la variable aléatoire X. L’ensemble A est une partie de non vide et minorée car

    limx-fX(x)=0etlimx+fX(x)=1.

    Il est alors possible d’introduire m=inf(A). Vérifions qu’il s’agit d’une valeur médiane de X.

    D’une part, par réalisation séquentielle d’une borne inférieure, il existe une suite (xn) d’éléments de A qui tend vers m par valeurs supérieures. La fonction de répartition fX étant continue à droite, on obtient22 2 En particulier, m est élément de A et la croissance de fX entraîne que A est l’intervalle [m;+[.

    P(Xm)=fX(m)=limn+fX(xn)12.

    D’autre part, pour tout x<m, on a P(Xx)<1/2 car x n’appartient pas à A. On a donc

    P(X>x)=1-P(Xx)>1/2

    et l’on en déduit

    P(Xm)=P(n*(X>m-1n))=limn+P(X>m-1n)12

    car, par continuité monotone, la probabilité d’une réunion croissante et la limite des probabilités des événements réunis.

    Finalement, m est une33 3 On aurait aussi pu introduire m=sup{x|P(Xx)1/2} et vérifier qu’il s’agit d’une valeur médiane de X. valeur médiane de X.

 
Exercice 9  4049    Correction  

(Entropie d’une variable aléatoire)

Soit X une variable aléatoire à valeurs dans un ensemble fini 𝒳. Pour chaque valeur x𝒳, on pose

p(x)=P(X=x).

On appelle entropie de la variable X le réel

H(X)=-x𝒳p(x)log(p(x))

où l’on convient 0log0=0.

  • (a)

    Vérifier que H(X) est un réel positif. À quelle condition celui-ci est-il nul?
    Soient X et Y deux variables aléatoires à valeurs dans des ensembles finis 𝒳 et 𝒴.

  • (b)

    On appelle entropie conjointe de X et Y, l’entropie de la variable Z=(X,Y) simplement notée H(X,Y).
    On suppose les variables X et Y indépendantes, vérifier

    H(X,Y)=H(X)+H(Y).
  • (c)

    On appelle entropie de X sachant Y la quantité

    H(XY)=H(X,Y)-H(Y).

    Vérifier

    H(XY)=y𝒴P(Y=y)H(XY=y)

    avec

    H(XY=y)=-x𝒳P(X=xY=y)log(P(X=xY=y)).

Solution

  • (a)

    Pour tout x𝒳, on a -p(x)log(p(x))0 car p(x)1. On en déduit H(X)+.
    Si H(X)=0 alors, par somme nulle de positifs, on a

    x𝒳,p(x)log(p(x))=0

    et donc

    x𝒳,p(x)=0 ou p(x)=1.

    Sachant que

    x𝒳p(x)=P(X𝒳)=1

    on peut affirmer qu’il existe x𝒳 tel que p(x)=P(X=x)=1.
    La variable X est alors presque sûrement constante.

  • (b)

    Par définition

    H(X,Y)=-(x,y)𝒳×𝒴P(X=x,Y=y)log(P(X=x,Y=y)).

    Or les variables X et Y étant indépendantes

    P(X=x,Y=y)=P(X=x)P(Y=y)

    puis

    H(X,Y)=-(x,y)𝒳×𝒴P(X=x)P(Y=y)(log(P(X=x))+log(P(Y=y))).

    On sépare la somme en deux et l’on somme tantôt d’abord en x, tantôt d’abord en y et l’on obtient

    H(X,Y)=H(X)+H(Y)

    car

    x𝒳P(X=x)=y𝒴P(Y=y)=1.
  • (c)

    On sait

    P(X=xY=y)=P(X=x,Y=y)P(Y=y)

    donc

    P(Y=y)H(XY=y)=-x𝒳 P(X=x,Y=y)×
    (log(P(X=x,Y=y))-log(P(Y=y))).

    On sépare la somme en deux et l’on somme le résultat sur y𝒴 pour obtenir

    y𝒴P(Y=y)H(XY=y)=H(X,Y)+(x,y)𝒳×YP(X=x,Y=y)log(P(Y=y)).

    Or

    (x,y)𝒳×Y P(X=x,Y=y)log(P(Y=y))
    =y𝒴x𝒳P(X=x,Y=y)log(P(Y=y))

    avec

    x𝒳P(X=x,Y=y)=P(Y=y)

    donc

    y𝒴P(Y=y)H(XY=y)=H(X,Y)-H(Y).

[<] Variables aléatoires[>] Loi de Poisson

 
Exercice 10  4366  

On lance indéfiniment et indépendamment un dé équilibré. Pour n*, on note Xn la variable aléatoire définie par la valeur du n-ième lancer. On introduit le temps d’attente du premier six:

T=min({n*|Xn=6}{+}).
  • (a)

    Montrer que T est une variable aléatoire discrète.

  • (b)

    Identifier la loi de T.

 
Exercice 11  4022  

Soient X et Y deux variables aléatoires indépendantes suivant des lois géométriques de paramètres p et q éléments de ]0;1[.

  • (a)

    Calculer P(X>n) pour n.

  • (b)

    Identifier la loi de Z=min(X,Y).

 
Exercice 12  5844   Correction  

Soient X1,,Xn des variables aléatoires indépendantes suivant des lois géométriques de paramètres p1,,pn>0.

Identifier la loi de la variable Y=min(X1,,Xn).

Solution

Pour i=1,,n, on a Xi(Ω)=* avec

k*,P(Xi=k)=(1pi)k1pi.

On en tire

k,,P(Xi>k)=(1pi)k.

Notons que, à l’inverse, si une variable aléatoire X est à valeurs dans * et vérifie

k,P(X>k)=(1q)k

pour un certain q>0 alors X suit une loi géométrique de paramètre q. En effet, pour tout k*, P(X=k)=P(X>k1)P(X>k)=(1q)k1q.

Étudions maintenant la variable Y.

On a immédiatement Y(Ω)*.

Pour k,

(Y>k)=(X1>k)(Xn>k).

Par indépendance,

P(Y>k)=P(X1>k)××P(Xn>k)=i=1n(1pi)k.

On peut réécrire

P(Y>k)=(i=1n(1pi))k=(1q)k avec q=1i=1n(1pi).

La variable Y suit donc une loi géométrique de paramètre q.

 
Exercice 13  4021  Correction  

Soient X et Y deux variables aléatoires discrètes indépendantes.

On suppose que celles-ci suivent une même loi géométrique de paramètre p]0;1[.

Calculer la loi de Z=X+Y.

Solution

Les variables X et Y sont à valeurs dans * donc X+Y est à valeurs {0,1}.

Pour n{0,1}, on a

P(X+Y=n)=k=1n1P(X=k,Y=nk).

Par indépendance

P(X+Y=n)=k=1n1P(X=k)P(Y=nk).

Il ne reste plus qu’à dérouler les calculs:

P(X+Y=n)=(n1)p2(1p)n2.
 
Exercice 14  5846  Correction  

Une urne contient n2 boules numérotées de 1 à n. Avec remise, on tire les boules de cette urne une à une et l’on note X la variable aléatoire égale au nombre de tirages nécessaires pour tirer une boule différente de la première.

Calculer la loi de X puis identifier la loi de Y=X-1.

Solution

Pour i=1,,n, introduisons l’événement

Ai=« La première boule tirée a le numéro i ».

Les A1,,An forment un système complet d’événements équiprobables.

La variable X prend ses valeurs dans {0,1}.

Compte-tenu des conditions de l’expérience, la loi de X-1 sachant Ai est géométrique de paramètre p=n-1/n.

Par la formule des probabilités totales,

k{0,1},P(X=k) =i=1nP(X-1=k-1Ai)P(Ai)
=i=1n(1-p)k-2p×1n=(1-p)k-2p.

La variable Y suit une loi géométrique de paramètre p.

 
Exercice 15  5582  Correction  

Soit X une variable aléatoire suivant une loi géométrique de paramètre p]0;1[.

  • (a)

    Déterminer la loi de la variable X sachant (X>1).

  • (b)

    Quelle est son espérance?

Solution

  • (a)

    La variable aléatoire X prend ses valeurs dans * avec

    P(X=n)=(1-p)n-1ppour tout n*.

    On en déduit

    P(X>1)=1-P(X=1)=1-p.

    Par définition,

    P(X=nX>1)=P(X=n,X>1)P(X>1)pour tout n*.

    Pour n=1, l’événement (X=n)(X>1) est impossible et donc P(X=nX>1).

    Pour n2, l’événement (X=n) contient (X>1) et donc

    P(X=nX>1)=P(X=n)P(X>1)=(1-p)n-1p1-p=(1-p)n-2p.
  • (b)

    Considérons la variable Y=X-1. Celle-ci prend ses valeurs dans * et l’on vérifie

    P(Y=n)=P(X=n+1)=(1-p)n-1ppour tout n*.

    La variable Y suit une loi géométrique de paramètre p. On connaît l’espérance de Y et l’on en déduit par linéarité l’espérance voulue.

    E(Y)+1=1p+1.

    Celle-ci est une espérance conditionnelle, généralement notée E(XX>1): c’est l’espérance de X pour la probabilité conditionnelle P(X>1).

 
Exercice 16  5375    NAVALE (MP)Correction  

Écrire un programme en langage Python simulant une loi géométrique de paramètre p]0;1[.

Solution

Une option peut être de répéter une expérience de Bernoulli jusqu’à l’obtention d’un succès.

import random

def geom(p):
    c = 1
    while (random.random() < 1 - p):
        c = c + 1
    return c

Cela a cependant l’inconvénient de ne pas produire une réponse en temps constant.

Une alternative est d’employer que si X suit une loi géométrique de paramètre p alors

P(X>k)=(1-p)kpour tout k.

On peut alors choisir uniformément x dans ]0;1[ puis de rechercher k tel que

(1-p)k<x(1-p)k-1

ce qui donne

k=ln(x)ln(1-p)+1.
import random
import numpy as np

def geom(p):
    x = random.random()
    return np.floor(np.log(x)/np.log(1-p)) + 1
 
Exercice 17  4038   

Soient X et Y deux variables aléatoires indépendantes suivant des lois géométriques de paramètres p et q éléments de ]0;1[.

Calculer l’espérance de Z=max(X,Y).

 
Exercice 18  4115  Correction  

Soit X et Y deux variables aléatoires indépendantes suivant des lois géométriques de paramètres p,q]0;1[.
Calculer P(X<Y).

Solution

L’événement (X<Y) peut être décomposé en la réunion disjointes des événements

(X=k,Y>k) avec k*.

On a donc

P(X<Y)=k=1+P(X=k,Y>k).

Par indépendance des variables X et Y, on a

P(X=k,Y>k)=P(X=k)P(Y>k)

avec

P(X=k)=p(1-p)k-1 et P(Y>k)=(1-q)k.

On en déduit

P(X<Y)=k=1np(1-q)((1-p)(1-q))k-1=p-pqp+q-pq.
 
Exercice 19  5279     NAVALE (MP)Correction  

Soient X,Y deux variables aléatoires indépendantes de même loi géométrique de paramètre p]0;1[. Pour k*, calculer

P(XkY).

Solution

La famille des (Y=n) avec n* est un système complet d’événements et donc

P(XkY)=n=1+P(XkYY=n)P(Y=n).

Or

P(XkYY=n)=P(XkY,Y=n)P(Y=n)=P(Xkn,Y=n)P(Y=n)=P(Xkn)

car les variables X et Y sont supposées indépendantes. On en déduit

P(XkY)=n=1+(1-p)kn(1-p)n-1p=p(1-p)k1-(1-p)k+1.
 
Exercice 20  5674     CCINP (MP)Correction  

Soient X,Y,Z des variables aléatoires indépendantes définies sur un même espace probabilisé (Ω,𝒜,P) et suivant la même loi géométrique de paramètre p]0;1[.

  • (a)

    Calculer P(X=Y). En déduire P(XY).

  • (b)

    Calculer la loi de X+Y.

  • (c)

    Soit n tel que P(X+Y=n)0. Identifier la loi de X sachant (X+Y=n).

  • (d)

    Pour n, calculer P(X>n) et en déduire P(Z>X+Y).

Solution

  • (a)

    Puisque les variables X et Y prennent leurs valeurs dans *,

    (X=Y)=n*(X=n,Y=n).

    Par incompatibilité,

    P(X=Y)=n=1+P(X=n,Y=n).

    Par indépendance,

    P(X=Y)=n=1+P(X=n)P(Y=n)=n=1+((1p)n1p)2.

    Il s’agit d’une somme géométrique de raison q=(1p)2 avec |q|<1 et de premier terme p2, on a donc

    P(X=Y)=p21(1p)2=p2p.

    Par symétrie, P(XY)=P(XY) car les couples (X,Y) et (Y,X) suivent la même loi. Aussi, par incompatibilité, P(XY)=P(X<Y)+P(X=Y). On a donc

    1=P(Ω)=P(X<Y)+P(XY)=2P(XY)P(X=Y).

    On en tire

    P(XY)=12(1+p2p)=12p.
  • (b)

    On a (X+Y)(Ω){0,1} et, pour n, on obtient par indépendance

    P(X+Y=n+2) =k=0nP(X=k+1)P(Y=nk+1)
    =k=0n(1p)kp(1p)nkp=(n+1)(1p)np2.

    Cela détermine la loi de la variable X+Y (à un glissement de la variable près).

  • (c)

    Soit n{0,1} de sorte que l’événement (X+Y=n) ne soit pas négligeable.

    Pour k*,

    P(X=kX+Y=n)=P((X=k)(X+Y=n))P(X+Y=n).

    Cas: kn. L’événement (X=k)(X+Y=n) est impossible car Y(Ω)=*. On a alors P(X=kX+Y=n)=0 Cas: k1;n1.

    P(X=kX+Y=n)=P(X=k,Y=nk)P(X+Y=n).

    Par indépendance des variables X et Y,

    P(X=kX+Y=n) =P(X=k)P(Y=nk)P(X+Y=n)
    =p2(1p)n2(n1)p2(1p)n2=1n1.

    La loi de X sachant (X+Y=n) est uniforme sur 1;n1.

  • (d)

    Par incompatibilité,

    P(X>n)=k=n+1+P(X=k)=k=n+1+(1p)kp=(1p)np1(1p)=(1p)n.

    On peut décomposer,

    P(Z>X+Y) =n=0+P(Z>n+2,X+Y=n+2)
    =n=0+P(Z>n+2)P(X+Y=n+2)
    =n=0+(n+1)(1p)2n+2p2.

    On factorise

    P(Z>X+Y)=(1p)2p2n=0+(n+1)((1p)2)n.

    Par la théorie des séries entières, on sait

    x]1;1[,n=0+(n+1)xn=ddx(n=0+xn)=ddx(11x)=1(1x)2.

    On a donc

    P(Z>X+Y)=(1p)2p2(1(1p)2)2=(1p2p)2.
 
Exercice 21  5927   Correction  

Soient X,Y,Z trois variables aléatoires indépendantes suivant une loi géométrique de paramètre p]0;1[. Calculer P(X+Y=Z).

Solution

La variable X+Y prend ses valeurs dans {0,1}. Par incompatibilité puis indépendance

P(X+Y=Z)=n=2+P(X+Y=n,Z=n)=n=2+P(X+Y=n)P(Z=n).

Or pour n{0,1},

P(X+Y=n)=k=1n1P(X=k,Y=nk)=k=1n1P(X=k)P(Y=nk)

ce qui se concrétise

P(X+Y=n)=k=1n1(1p)k1p(1p)nk1p=(n1)(1p)n2p2

et donc

P(X+Y=Z)=n=2+(n1)(1p)n2p2(1p)n1p=n=2+(n1)(1p)2n3p3.

On opère une translation d’indice et l’on transforme l’écriture pour faire apparaître le calcul d’un espérance d’un loi géométrique

P(X+Y=Z)=n=1+n(1p)2n1p3=p3(1p)2pp2n=1+n((1p)2)n1(2pp2).

L’espérance d’une loi géométrique de paramètre q=2pp2 vaut

n=1+n((1p)2)n1(2pp2)=12pp2.

On conclut

P(Z=X+Y)=p3(1p)(2pp2)2=p(1p)(2p)2.
 
Exercice 22  4036  Correction  

Soit X une variable aléatoire suivant une loi géométrique de paramètre p. Calculer

E(1X).

Solution

Par la formule de transfert

E(1X)=k=1+1k(1-p)k-1p=p1-pk=1+(1-p)kk.

Or pour x]-1;1[

k=1+1kxk=-ln(1-x)

donc

E(1X)=pp-1ln(p).
 
Exercice 23  5634   Correction  
  • (a)

    Montrer que si X est une variable aléatoire suivant une loi géométrique de paramètre p]0;1[ alors

    (n,k)2,P(X>n)0etP(X>n+kX>n)=P(X>k).
  • (b)

    Inversement, établir que si une variable aléatoire X à valeurs dans * vérifie la propriété précédente alors celle-ci suit une loi géométrique.

Solution

  • (a)

    Puisque X suit une loi géométrique de paramètre p, on sait

    n,P(X>n)=k=n+1+P(X=k)=(1-p)n>0

    et alors

    (n,k)2,P(X>n+kX>n) =P((X>n+k)(X>n))P(X>n)=P(X>n+k)P(X>n)
    =(1-p)n+k(1-p)n=(1-p)k=P(X>k).
  • (b)

    Inversement, supposons que X soit une variable aléatoire à valeurs dans * vérifiant, pour tout (n,k)2,

    P(X>n)>0etP(X>n+kX>n)=P(X>k).

    Pour k=1, on obtient

    P(X>n+1X>n)=P(X>1)pour tout n.

    En posant q=P(X>1)]0;1], il vient

    P(X>n+1,X>n)P(X>n)=P(X>n+1)P(X>n)=q

    et donc

    P(X>n+1)=qP(X>n).

    La suite de terme général P(X>n) est alors géométrique de raison q et de premier terme P(X>0)=1. On en déduit

    P(X>n)=qnpour tout n.

    Soit n*. On a la réunion disjointe

    (X>n-1)=(X=n)(X>n)

    et l’on en déduit

    P(X=n) =P(X>n-1)-P(X>n)=qn-1-qn
    =qn-1(1-q)=(1-p)n-1p.

    Ainsi, X suit une loi géométrique de paramètre p=1-q[0;1[. Enfin, p ne peut pas être nul car, sinon, P(X=n) est nul pour tout n*.

 
Exercice 24  5287     ENSTIM (MP)Correction  

Soient X1 et X2 des variables aléatoires indépendantes suivant une même loi géométrique de paramètre p]0;1[. On pose

A=(X110X2).
  • (a)

    Montrer que A est presque sûrement inversible.

  • (b)

    Trouver la probabilité pour que A soit diagonalisable.

Solution

  • (a)

    Les variables X1 et X2 sont à valeurs dans * et donc aucune ne s’annulent pas. La matrice A est alors inversible car de déterminant X1X2 non nul.

  • (b)

    Si X1X2, la matrice A est diagonalisable car possède deux valeurs propres distinctes. Si X1=X2, la matrice A n’est pas diagonalisable car possède une seule valeur propre sans être égale à une matrice scalaire. La probabilité que A soit diagonalisable vaut donc

    P(X1X2) =1P(X1=X2)=1n=1+p2(1p)2(n1)
    =1p21(1p)2=21p2p.
 
Exercice 25  4372   

Soient X et Y deux variables aléatoires indépendantes suivant des lois géométriques de paramètres respectifs p et q]0;1[.

Quelle est la probabilité que la matrice réelle suivante soit diagonalisable?

A=(X-YY-X).
 
Exercice 26  5847   Correction  

(Loi de Pascal)

Soient (Xk)k* une suite de variables aléatoires indépendantes suivant chacune une même loi géométrique de paramètre p>0.

Pour r*, on étudie la variable aléatoire Sr=X1++Xr.

  • (a)

    En terme de temps d’attente, comment interpréter la loi de Sr?

  • (b)

    Vérifier

    nr,k=rn(k-1r-1)=(nr).
  • (c)

    Établir

    nr,P(Sr=n)=(n-1r-1)(1-p)r-npr.

Solution

  • (a)

    Chaque variable aléatoire géométrique Xk se comprend comme le temps d’attente d’un succès lors de la répétition indépendante d’expériences de Bernoulli de paramètre p. En sommant, r variables géométriques indépendantes, on obtient le temps d’attente du r-ième succès lors de la répétition indépendante d’épreuves de Bernoulli de paramètre p.

  • (b)

    Pour r* fixé, établissons l’identité par récurrence sur nr.

    Pour n=r,

    (r-1r-1)=1=(rr).

    Supposons la propriété vraie au rang nr.

    Au rang n+1, l’hypothèse de récurrence donne

    k=rn+1(k-1r-1)=k=rn(k-1r-1)+(nr-1)=(nr)+(nr-1).

    Par la formule du triangle de Pascal,

    (nr)+(nr-1)=(n+1r)

    et donc

    k=rn+1(k-1r-1)=(n+1r).

    La récurrence est établie.

  • (c)

    Commençons par souligner que la variable Sr prend ses valeurs dans 0;r-1.

    Par récurrence sur r* montrons

    nr,P(Sr=n)=(n-1r-1)(1-p)n-rpr.

    Pour r=1, S1=X1 suit une loi géométrique de paramètre p ce qui produit la formule.

    Supposons la propriété vérifiée au rang r1.

    On a Sr+1=Sr+Xr+1. Les variables engagées prenant leurs valeurs dans , on a pour nr+1,

    (Sr+1=n)=k=0n(Sr=k)(Xr+1=n-k).

    Puisque Sr prend uniquement des valeurs supérieures à r et puisque Xr+1 prend des valeurs non nulles, on simplifie

    (Sr+1=n)=k=rn-1(Sr=k)(Xr+1=n-k).

    Par incompatibilité puis indépendance,

    P(Sr+1=n) =k=rn-1P(Sr=k)P(Xr+1=n-k)
    =k=rn-1(k-1r-1)(1-p)k-rpr×(1-p)n-k-1p
    =k=rn-1(k-1r-1)(1-p)n-r-1pr+1

    Par l’identité de la question précédente employée avec n-1 au lieu de n,

    P(Sr+1=n)=(n-1r)(1-p)n-(r+1)pr+1.

    La récurrence est établie.

 
Exercice 27  5575   Correction  

(Loi de Pascal)

Soit (Xn)n1 une suite de variables aléatoires indépendantes et identiquement distribuées selon une loi de Bernoulli de paramètre p]0;1[.

Pour r*, on définit une variable aléatoire Tr à valeurs dans *{+} en posant

Tr=min({n*|X1++Xn=r}{+}).

La variable Tr se comprend comme le temps d’attente du r-ième succès.

  • (a)

    Reconnaître la loi de Tr lorsque r=1.

  • (b)

    Soit r>1.

    Pour n*, déterminer P(X1++Xn1=r1) et en déduire P(Tr=n).

  • (c)

    Montrer que l’événement (Tr=+) est négligeable.

Solution

  • (a)

    T1 correspond au temps d’attente du premier succès dans la répétition indépendante d’épreuves de Bernoulli indépendantes de même paramètre p, T1 suit dont une loi géométrique de paramètre p.

  • (b)

    Soit n*. La variable X1++Xn1 suit une loi binomiale de paramètres n1 et p. On a donc

    P(X1++Xn1=r1)=(n1r1)pr1(1p)nr

    (avec la convention que le coefficient binomial est nul lorsque r>n). L’événement (Tr=n) est réalisé lorsque (X1++Xn=r) et (Xn=1). Or

    (X1++Xn=r)(Xn=1)=(X1++Xn1=r1)(Xn=1).

    Par l’indépendance11 1 Cette affirmation de bon sens peut être détaillée: l’événement (X1++Xn1=r1) s’exprime comme une réunion d’événements (X1=ε1,,Xn1=εn1) avec des εi égaux à 0 ou 1 et de somme égale à r1: ceux-ci sont tous indépendants de (Xn=1). des variables de la suite (Xn)n*,

    P(Tr=n)=P(X1++Xn1=r1)P(Xn=1).

    Cas: n<r. On obtient

    P(Tr=n)=0.

    Cas: nr. On obtient22 2 Chaque séquence comportant r succès et nr échecs est de probabilité pr(1p)nr et il y a (n1r1) séquences qui se terminent par un succès.

    P(Tr=n)=(n1r1)pr1(1p)(n1)(r1)×p=(n1r1)pr(1p)nr.
  • (c)

    Calculons33 3 On peut aussi inclure l’événement (Tr=+) dans celui exprimant que les variables Xn sont toutes nulles au delà d’un certain rang: (Tr=+) se comprend alors comme inclus dans une réunion dénombrable d’événements négligeables. la probabilité de (Tr=+). Par continuité décroissante,

    P(Tr=+)=limn+P(Tr>n).

    L’événement (Tr>n) signifie que l’on n’a pas obtenu r succès lors des n premières expériences et donc

    P(Tr>n)=P(X1++Xn<r)=j=0r1P(X1++Xn=j)=j=0r1(nj)pj(1p)nj

    car X1++Xn suit une loi binomiale de paramètres n et p. Or, par croissance comparée,

    (nj)pj(1p)njn+0.

    En effet,

    (nj)=n(n1)××(nj+1)j facteurs équivalents à nj!n+njj!

    donc

    (nj)pj(1p)njn+Ctenj(1p)nn+0.

    On obtient donc P(Tr=+)=0: il est presque sûr d’obtenir au moins r succès.

 
Exercice 28  5940    Correction  

Soit (Xn)n1 une suite de variables indépendantes et identiquement distribuées selon une loi géométrique de paramètre p]0;1[. Pour n*, on pose

Yn=min{X1,,Xn}etZn=max{X1,,Xn}.
  • (a)

    Calculer E(Yn).

  • (b)

    Déterminer un équivalent de E(Zn) lorsque n tend vers l’infini.

Solution

  • (a)

    La variable Yn est à valeurs dans * donc

    E(Yn)=k=0+P(Yn>k).

    Or

    (Yn>k)=(X1>k)(Xn>k).

    Par indépendance,

    P(Yn>k)=P(X1>k)××P(Xn>k)

    avec P(Xi>k)=qk pour q=1-p. On a donc par sommation géométrique

    E(Yn)=k=0+qkn=11-qn.
  • (b)

    Comme au-dessus

    E(Zn)=k=0+P(Zn>k)=k=0+(1-P(Znk))

    Or

    (Znk)=(X1k)(Xnk).

    Par indépendance,

    P(Znk)=P(X1k)××P(Xnk)

    avec P(Xik)=1-P(Xi>k)=1-qk. On a donc

    E(Zn)=k=0+(1-(1-qk)n).

    Considérons la fonction f:[0;+[ donnée par

    f(x)=1-(1-qx)n.

    Cette fonction est continue, décroissante et positive. Par comparaison série-intégrale,

    0+(1-(1-qx)n)dxE(Zn)1+0+(1-(1-qx)n)dx

    avec convergence de l’intégrale généralisée introduite. On réalise le changement de variable u=1-qx. Celui-ci est légitime car la fonction x1-qx est de classe 𝒞1 et strictement croissante. On obtient

    0+(1-(1-qx)n)dx =01(1-un)-dxln(q)(1-u)=-1ln(q)011-un1-udu
    =-1ln(q)01k=0n-1ukdu=-1ln(q)k=1n1kn+-ln(n)ln(q).

    On conclut

    E(Zn)n+-ln(n)ln(q).
 
Exercice 29  4373    

Sur un espace probabilisé (Ω,𝒜,P), on considère une suite (Xn)n de variables aléatoires telles que, pour tout n, Xn suit une loi binomiale de paramètres n et p]0;1[. On considère aussi une variable aléatoire N indépendante des variables Xn et telle que N+1 suit une loi géométrique de paramètre q]0;1[.

Pour toute issue ω de l’univers Ω, on pose Y(ω)=XN(ω)(ω).

Justifier que Y est une variable aléatoire discrète et déterminer sa loi.

On pourra employer l’identité binomiale déjà présentée dans le sujet 4085.

[<] Loi géométrique[>] Loi conjointes, Loi marginales

 
Exercice 30  4037  

Soit X une variable aléatoire suivant une loi de Poisson de paramètre λ>0.

Calculer

E(1X+1).
 
Exercice 31  4045  Correction  

Soit X une variable aléatoire suivant une loi de Poisson de paramètre λ>0.
Déterminer la probabilité que la valeur de X soit pair.

Solution

L’évènement X est pair est la réunion dénombrable des évènements (X=2k) pour k. Sa probabilité vaut

k=0+P(X=2k)=k=0+e-λλ2k(2k)!=e-λch(λ)=1+e-2λ2.
 
Exercice 32  4112   

Le nombre quotidien de clients entrant dans une boulangerie suit une loi de Poisson de paramètre λ>0. Chaque client a la probabilité p]0;1[ d’acheter des croissants. Sur une journée, on note X le nombre de clients ayant acheté des croissants et Y le nombre de ceux qui n’en ont pas achetés.

  • (a)

    Déterminer la loi de X.

  • (b)

    Calculer la covariance de X et Y.

  • (c)

    Justifier que les variables aléatoires X et Y sont indépendantes.

 
Exercice 33  6042     CENTRALE (MP)Correction  

Soit (Ω,𝒜,P) un espace probabilisé sur lequel une variable aléatoire X suit une loi de Poisson de paramètre λ>0.

Soit Y une variable aléatoire telle que 0YX et dont la loi conditionnée à (X=n) est, pour tout n, la loi binomiale de paramètre (n,p) avec p]0;1[.

  • (a)

    Énoncer les propriétés des lois de Poisson: X(Ω), E(X), V(X) (avec démonstration), GX(t), interprétation avec la loi binomiale.

  • (b)

    Quelle loi suit Y?

  • (c)

    Déterminer la loi de Z=XY. Les variables Y et Z sont-elles indépendantes?

Solution

  • (a)

    X(Ω)=, E(X)=V(X)=λ et GX(t)=eλ(t1).

    Si (Xn)n1 est une suite de loi binomiale de paramètre (n,pn) avec npnn+λ alors

    k,P(Xn=k)n+eλλkk!=P(X=k).
  • (b)

    La variable Y prend ses valeurs dans . Pour k,

    P(Y=k)=n=0+P(Y=k,X=n)=n=0+P(Y=kX=n)P(X=n).

    Les termes pour n<k sont nuls car YX. On les simplifie

    P(Y=k)=n=k+P(Y=kX=n)P(X=n)=n=k+(nk)pk(1p)nkeλλnn!.

    Par glissement d’indice et simplification des factorielles,

    P(Y=k)=n=0+pk(1p)nk!n!eλλn+k=eλ(pλ)kk!n=0+(1p)nλnn!=epλ(pλ)kk!.

    La variable Y suit une loi de Poisson de paramètre pλ.

  • (c)

    La variable Z vérifie 0ZX et la loi de Z conditionnée à (X=n) est la loi de nY conditionnée à (X=n) c’est-à-dire une loi binomiale de paramètre (n,1p). Par les calculs qui précèdent, Z suit une loi de Poisson de paramètre (1p)λ.

    Pour (k,)2,

    P(Y=k,Z=)=P(Y=k,X=k+)=P(Y=kX=k+)P(X=k+)

    et donc

    P(Y=k,Z=)=(k+k)pk(1p)eλλk+(k+)!=eλpk(1p)λk+k!!.

    On remarque

    (k,)2,P(Y=k,Z=)=P(Y=k)P(Z=).

    Les variables Y et Z sont indépendantes.

 
Exercice 34  4034   Correction  

Soit X une variable aléatoire de Poisson de paramètre λ>0.

  • (a)

    Pour quelle valeur de n, la probabilité de l’évènement (X=n) est-elle maximale?

  • (b)

    Inversement, n étant fixé, pour quelle valeur du paramètre λ, la probabilité de (X=n) est-elle maximale?

Solution

  • (a)

    Posons

    un=P(X=n)=e-λλnn!.

    On a

    un+1un=λn+1

    donc si n+1λ alors un+1un et si n+1>λ alors un+1<un.
    La valeur maximale de un est donc obtenue pour n=λ.

  • (b)

    Il suffit d’étudier les variations de la fonction λe-λλn. La probabilité sera maximale si λ=n.

 
Exercice 35  4020  

Soient X et Y deux variables aléatoires indépendantes suivant des lois de Poisson de paramètres λ et μ strictement positifs.

  • (a)

    Déterminer la loi suivie par S=X+Y.

  • (b)

    Soit n. Identifier la loi de X pour la probabilité conditionnelle P(S=n).

 
Exercice 36  4029   

Soient X et Y deux variables aléatoires indépendantes suivant des lois de Poisson de paramètres λ et μ. Pour n, identifier la loi de X sachant (X+Y=n).

 
Exercice 37  4129    Correction  

On souhaite modéliser le nombre d’arrivées de «  clients  » dans un «  service  » durant un laps de temps T.
Pour n et s,t avec 0st, on note A(n,s,t) l’événement

«  il arrive n clients dans l’intervalle de temps de [s;t[   »

On admet l’existence d’un espace probabilisé permettant d’étudier la probabilité de cet événement en supposant:

  • (H1)

    pour tous m,n et tous réels 0rst, les événements A(m,r,s) et A(n,s,t) sont indépendants;

  • (H2)

    la probabilité de l’événement A(n,s,t) ne dépend que de n et du réel t-s. On note

    pn(t)=P(A(n,0,t)).
  • (H3)

    la fonction p0 est continue et p0(0)=1;

  • (H4)

    pour tout t+,

    n=0+pn(t)=1.
  • (H5)

    on a le développement asymptotique

    1-p0(t)-p1(t)=t0+o(p1(t)).

Cette dernière hypothèse signifie que, durant un laps de temps minime, la probabilité d’arrivée d’au moins deux clients est négligeable devant la probabilité d’arrivée d’un seul client.

  • (a)

    Justifier que la fonction p0 est décroissante et que

    s,t+,p0(s+t)=p0(s)p0(t).
  • (b)

    Montrer que p0 est à valeurs strictement positives et qu’il existe un réel λ0 vérifiant

    t+,p0(t)=e-λt.
  • (c)

    Justifier

    p1(t)=t0+λt+o(t)etn2,pn(t)=t0+o(t).
  • (d)

    Soit n*. Montrer

    s,t0,pn(s+t)=k=0npk(s)pn-k(t).

    En déduire que la fonction pn est dérivable et

    t0,pn(t)=λ(pn-1(t)-pn(t)).
  • (e)

    Obtenir l’expression de pn(t) (on pourra étudier qn(t)=eλtpn(t)).

  • (f)

    On note X la variable aléatoire déterminant le nombre de «  clients  » arrivant durant le laps de temps T>0. Déterminer la loi de X. Comment interpréter le paramètre λ?

Solution

  • (a)

    Pour st, l’événement A(0,0,s) contient l’événement A(0,0,t) et donc p0(s)p0(t).
    Pour s,t0, l’événement A(0,0,s+t) est la conjonction des événements A(0,0,s) et A(0,s,s+t). Par conséquent,

    P(A(0,0,s+t)=P(A(0,0,s)A(0,s,s+t)).

    Par indépendance (hypothèse H1)

    P(A(0,0,s+t))=P(A(0,0,s))P(A(0,s,s+t)).

    Or, l’hypothèse H2 donne P(A(0,s,s+t))=P(A(0,0,t)) et donc

    p0(s+t)=p0(s)p0(t).
  • (b)

    Par l’hypothèse H3, la fonction p0 prend la valeur 1 en 0 et est continue. Si par l’absurde cette fonction prend une valeur négative, elle s’annule en un certain t0>0. L’équation fonctionnelle obtenue ci-dessus donne par une récurrence rapide

    k,t,p0(kt)=p0(t)k.

    En prenant t=t0/k, on obtient

    k*,p0(t0/k)=0.

    En passant à limite quand k tend vers l’infini, on obtient l’absurdité p0(0)=0!
    Puisqu’il est maintenant acquis que la fonction p0 est à valeurs strictement positives, on peut introduire la fonction f:+ définie par

    t+,f(t)=ln(p0(t)).

    L’équation fonctionnelle obtenue en a) se traduit

    s,t+,f(s+t)=f(s)+f(t).

    Sachant la fonction f continue, on peut affirmer que celle-ci est linéaire: il existe a tel que

    t+,f(t)=at.

    Ainsi,

    t+,p0(t)=eat.

    Enfin, puisque la fonction p0 est décroissante, le réel a est nécessairement négatif ce qui permet de l’écrire -λ avec λ+.

  • (c)

    Par l’hypothèse H5 avec p0(t)=t0+1-λt+o(t), on obtient

    p1(t)+o(p1(t))=t0+λt+o(t).

    Ainsi, p1(t)t0+λt ce qui peut encore s’écrire

    p1(t)=t0+λt+o(t).

    Aussi, l’hypothèse H4 permet d’affirmer

    n2,pn(t)1-p0(t)-p1(t)=t0+o(t)

    et donc pn(t)=t0+o(t) pour tout n2.

  • (d)

    L’événement A(n,0,s+t) est la réunion des événements deux à deux disjoints

    A(k,0,s)A(n-k,s,s+t) pour k0;n.

    On en déduit par additivité et les hypothèses H1 et H2 l’identité

    pn(s+t)=k=0nP(A(k,0,s))P(A(n-k,s,s+t))=k=0npk(s)pn-k(t).

    Cette identité fournit le développement asymptotique

    pn(t+s)=s0+(1-λs+o(s))pn(t)+λspn-1(t)+o(s)

    car

    p0(s)=s0+1-λs+o(s),p1(s)=s0+λs+o(s) et pk(s)=s0+o(s) pour k2.

    On obtient alors

    1s(pn(t+s)-pn(t))=s0+λpn-1(t)-λpn(t)+o(1).

    On en déduit que la fonction pn est dérivable et

    pn(t)=λ(pn-1(t)-pn(t)).
  • (e)

    En introduisant qn(t)=eλtpn(t), on constate

    q0(t)=1 et qn(t)=λqn-1(t).

    Par récurrence

    qn(t)=(λt)nn!

    puis

    n,t+,pn(t)=e-λt(λt)nn!.
  • (f)

    L’événement (X=n) a la probabilité de l’événement A(n,0,T) et donc

    P(X=n)=pn(T)=e-λT(λT)nn!.

    La variable X suit une loi de Poisson de paramètre λT. L’espérance de X vaut alors λT et le paramètre λ se comprend comme le nombre moyen de clients entrant par unité de temps.

[<] Loi de Poisson[>] Espérance

 
Exercice 38  4367  

Soient X et Y deux variables aléatoires à valeurs dans . On suppose que la loi conjointe de X et Y vérifie:

P(X=j,Y=k)=13e2j+k+1j!k!pour tout (j,k)2.
  • (a)

    Déterminer les lois des variables X et Y.

  • (b)

    Les variables X et Y sont-elles indépendantes?

 
Exercice 39  4055  Correction  

Soient X et Y deux variables aléatoires à valeurs dans définies sur un même espace probabilisé (Ω,𝒜,P).

On suppose que la loi conjointe de X et Y vérifie

(j,k)2,P(X=j,Y=k)=aj!k! avec a.
  • (a)

    Déterminer la valeur de a.

  • (b)

    Reconnaître les lois marginales de X et Y.

  • (c)

    Les variables X et Y sont elles indépendantes?

Solution

  • (a)

    La distribution de probabilités de la loi conjointe de X et Y est de somme 1 donc

    (j,k)2P(X=j,Y=j)=j=0+k=0+P(X=j,Y=k)=1.

    Or

    j=0+k=0+P(X=j,Y=k)=a(j=0+1j!)(k=0+1k!)=ae2

    On en déduit a=e-2.

  • (b)

    Pour j,

    P(X=j)=k=0+P(X=j,Y=k)=aj!(k=0+1k!)=e-1j!

    La variable X suit donc une loi de Poisson de paramètre λ=1. Il en est de même pour Y.

  • (c)

    Les variables sont indépendantes car l’on vérifie aisément

    (j,k)2,P(X=j,Y=k)=P(X=j)P(Y=k).
 
Exercice 40  4056  Correction  

Soient X et Y deux variables aléatoires à valeurs dans .

On suppose que la loi conjointe de X et Y vérifie

(j,k)2,P(X=j,Y=k)=aj+k2j+k avec a.
  • (a)

    Déterminer la valeur de a.

  • (b)

    Déterminer les lois marginales X et Y.

  • (c)

    Les variables X et Y sont elles indépendantes?

  • (d)

    Calculer P(X=Y).

Solution

  • (a)

    La loi conjointe de X et Y déterminant une probabilité

    j=0+k=0+P(X=j,Y=k)=1.

    Or

    j=0+k=0+P(X=j,Y=k)=8a

    car

    j=0+k=0+j2j+k=j=0+j2j-1=1(1-1/2)2=4.

    On en déduit a=1/8

  • (b)

    Pour j

    P(X=j)=k=0+P(X=j,Y=k)=j+12j+2

    et pour k

    P(Y=k)=j=0+P(X=j,Y=k)=k+12k+2.
  • (c)

    Les variables ne sont par indépendantes car l’on vérifie aisément

    P(X=j,Y=k)P(X=j)P(Y=k)

    pour j=k=0.

  • (d)

    Par probabilités totales

    P(X=Y)=n=0+P(X=n,Y=n)=n=0+2n22n+3=19.
 
Exercice 41  4057   Correction  

Soient X et Y deux variables aléatoires à valeurs dans et p]0;1[.
On suppose que la loi conjointe de X et Y vérifie

P(X=k,Y=n)={(nk)anp(1-p)n si kn0 sinon avec a.
  • (a)

    Déterminer la valeur de a.

  • (b)

    Déterminer la loi marginale de Y.

  • (c)

    Sachant

    x]-1;1[,n=k+(nk)xn-k=1(1-x)k+1.

    Reconnaître la loi de X

  • (d)

    Les variables X et Y sont elle indépendantes?

Solution

  • (a)

    La loi conjointe de X et Y déterminant une probabilité

    k=0+k=0+P(X=k,Y=n)=1.

    En réordonnant les sommes et en simplifiant les zéros

    n=0+k=0nP(X=k,Y=n)=n=0+p(2a(1-p))n=p11-(2a(1-p)).

    On est donc amené à résoudre l’équation

    1-2a(1-p)=p

    ce qui conduit à la solution a=1/2.

  • (b)

    Pour n,

    P(Y=n)=k=0nP(X=k,Y=n)=12nk=0n(nk)p(1-p)n=p(1-p)n.
  • (c)

    Pour k,

    P(X=k)=n=k+(nk)p(1-p2)n=p(1-p2)k1(1-1-p2)k+1.

    En simplifiant

    P(X=k)=(1-1-p1+p)(1-p1+p)k.
  • (d)

    Les variables ne sont par indépendantes car l’on vérifie aisément

    P(X=k,Y=n)P(X=k)P(Y=n)

    pour k=n=0.

 
Exercice 42  4368  

Une urne contient un dé truqué donnant systématiquement un six. On lance une pièce équilibrée. Si l’on obtient face, on ajoute un dé équilibré dans l’urne et l’on relance la pièce. Si l’obtient pile, on tire un dé dans l’urne et on lance celui-ci. Déterminer la loi de la variable donnant la valeur du dé lancé.

 
Exercice 43  4054  Correction  

Soient X et Y deux variables aléatoires à valeurs dans .

On suppose que X suit une loi de Poisson de paramètre λ>0 et que la loi de Y pour la probabilité conditionnelle P(X=n) est binomiale de paramètres n et p]0;1[.

  • (a)

    Déterminer la loi conjointe de X et Y.

  • (b)

    Reconnaître la loi de Y.

Solution

  • (a)

    Pour (n,k)2. Si kn alors

    P(X=n,Y=k) =P(X=n)P(Y=kX=n)
    =eλλnn!(nk)pk(1p)nk.

    Si k>n alors P(X=n,Y=k)=0.

  • (b)

    Pour k

    P(Y=k)=n=0+P(X=n,Y=k)=n=k+P(X=n,Y=k).

    Après réorganisation et glissement d’indice

    P(Y=k)=(λp)kk!eλn=0+1n!(1p)nλn=eλp(λp)kk!.

    La variable Y suit une loi de Poisson de paramètre λp.

 
Exercice 44  5368   Correction  

On réalise une suite de lancers indépendants d’une pièce ayant la probabilité p]0;1[ de tomber du côté pile. On note X la longueur de la première série de lancers identiques et Y celle de la seconde série. Par exemple, les lancers PPFFFP… et FFPPPF… correspondent à X=2 et Y=3.

  • (a)

    Déterminer la loi de X et préciser son espérance.

  • (b)

    Déterminer la loi du couple (X,Y).

  • (c)

    Calculer l’espérance de Y et la comparer à l’espérance de X.

  • (d)

    À quelle condition les variables X et Y sont-elles indépendantes?

Solution

  • (a)

    En éliminant de l’univers des possibles l’événement négligeable où la pièce tombe toujours du même côté, la variable aléatoire X prend ses valeurs dans *. De même, en éliminant aussi l’événement négligeable où la deuxième succession est de longueur infinie, la variable Y est aussi définie à valeurs dans *. On poursuit l’étude en supposant être dans l’univers probabiliste correspondant11 1 Si Ω est un événement presque sûr d’un espace probabilisé (Ω,𝒜,P), c’est l’événement certain de l’espace (Ω,𝒜,P) avec 𝒜={AΩ|A𝒜}𝒜 et P la restriction de P à 𝒜..

    Pour n*, on introduit les événements:

    Pn=« La pièce tombe du côté pile lors du n-ième lancer »etFn=Pn¯.

    La variable X prend ses valeurs dans *.

    Pour k*, l’événement (X=k) est la réunion des événements incompatibles P1PkFk+1 et F1FkPk+1. On a donc

    P(X=k)=pk(1p)+(1p)kp.

    Sachant l’espérance d’une loi géométrique,

    E(X)=k=1+kpk(1p)+(1p)kp=p1p+1pp.
  • (b)

    La variable (X,Y) prend ses valeurs dans *×*. Pour k,*, calculons P(X=k,Y=). L’événement (X=k,Y=) est réalisé dans la situation où les k premiers lancers tombent du côté pile, les suivants du coté face et le k++1-ième du coté pile et aussi dans la situation inverse où l’on échange pile et face. Par incompatibilité de ces deux situations,

    P(X=k,Y=) =P(P1Pkk foisFk+1Fk+ fois Pk++1)
    +P(F1Fkk foisPk+1Pk+ foisFk++1)

    et par l’indépendance des lancers,

    P(X=k,Y=) =pk(1p)p+(1p)kp(1p)
    =pk+1(1p)+(1p)k+1p.
  • (c)

    Pour *,

    P(Y=)=k=1+P(X=k,Y=)=p2(1p)1+(1p)2p1

    puis

    E(Y)=pp+1p1p=2.

    Par l’inégalité a2+b22ab valable pour tous a et b réels, on observe

    E(X)2p(1p)p(1p)=2=E(Y).
  • (d)

    Les variables X et Y sont indépendantes si, et seulement si,

    P(X=k,Y=)=P(X=k)P(Y=)pour tout (k,)*×*

    c’est-à-dire

    pk+1(1p)+(1p)k+1p=(pk(1p)+(1p)kp)(p2(1p)1+(1p)2p1). (1)

    Pour k==1, on obtient la condition

    p2(1p)+(1p)2p=2(p3(1p)+p(1p)3)

    qui se simplifie en

    p(1p)(2p1)2=0.

    Il est donc nécessaire que p=1/2.

    Inversement, pour p=1/2, la relation (1) est vérifiée.

 
Exercice 45  5004   

Soient X et Y deux variables aléatoires indépendantes suivant chacune des lois géométriques de paramètres p et q]0;1[. On pose11 1 On peut aussi exprimer V=|X-Y|.

U=min(X,Y)etV=max(X,Y)-min(X,Y).

Les variables U et V sont-elles indépendantes?

 
Exercice 46  5006      X (PSI)

Soit (Ui)i* une suite de variables aléatoires indépendantes suivant chacune une loi de Bernoulli de paramètre p]0;1[. Soient N une variable à valeurs dans  indépendantes des précédentes et X,Y les variables déterminées par

X=i=1NUietY=N-i=1NUi.
  • (a)

    Vérifier

    P(X=k,Y=)=(k+k)pk(1-p)P(N=k+)pour tout (k,)2.

On suppose que les variables X et Y sont indépendantes et que la variable N n’est pas presque sûrement nulle. On pose

pk=P(X=k)etq=P(Y=)pour tout (k,)2.
  • (b)

    Justifier que les pk et les q sont tous strictement positifs.

  • (c)

    Vérifier que

    (k+1)pk+1q(1-p)=(+1)pkq+1ppour tout (k,)2.
  • (d)

    En déduire une relation de récurrence sur les termes de la suite (pk) puis identifier la loi suivie par X.

  • (e)

    Établir que N suit une loi de Poisson.

[<] Loi conjointes, Loi marginales[>] Calcul d'espérances et variances

 
Exercice 47  5581  Correction  

Soit X une variable aléatoire réelle presque sûrement bornée.

Montrer que X admet une espérance finie.

Solution

Méthode: S’il existe une variable aléatoire Y d’espérance finie telle que |X|Y presque sûrement alors X admet une espérance finie.

Affirmer que la variable aléatoire X est presque sûrement bornée signifie qu’il existe M+ tel que |X|M presque sûrement. Puisque la variable aléatoire constante égale à M admet une espérance finie, par domination, X admet aussi une espérance finie.

 
Exercice 48  5093  Correction  

Soit X une variable aléatoire réelle admettant une variance.

  • (a)

    Justifier

    X=X1(X0)
  • (b)

    En déduire

    E(X)2E(X2)P(X0).

Solution

  • (a)

    L’égalité est vraie lorsque la valeur de la variable X est non nulle car la fonction indicatrice prend la valeur 1 et l’égalité est aussi vraie lorsque X prend la valeur nulle.

  • (b)

    Méthode: On applique l’inégalité de Cauchy-Schwarz à l’étude de l’espérance du produit des variables X et 1(X0).

    Les variables X et 1(X0) admettant chacune une variance, l’inégalité de Cauchy-Schwarz donne

    E(X1(X0))2E(X2)E(1(X0)2)

    avec

    E(X1(X0))=E(X)etE(1(X0)2)=E(1(X0))=P(X0).

    On en déduit11 1 Cela entraîne E(X)2E(X2) ce qui découle aussi de V(X)=E(X2)E(X)20.

    E(X)2E(X2)P(X0).
 
Exercice 49  5860   Correction  

Soit X une variable aléatoire réelle centrée admettant une variance. Établir

E(|X|)V(X).

Solution

Pour X,YL2, l’inégalité de Cauchy-Schwarz s’exprime

E(XY)2E(X2)E(Y2). (1)

D’une part,

V(X)=E(X2)-E(X)2=E(X2).

D’autre part, considérons Y prenant les valeurs ±1 de sorte que XY=|X|. On a

V(Y)=E(Y2)-E(Y)2E(Y2)=1

car Y2 est constante égale à 1.

L’inégalité (1) donne alors

E(|X|)V(X).
 
Exercice 50  5411    MINES (MP)Correction  

(Inégalité de Jensen)

Soient f: une fonction dérivable convexe et X une variable aléatoire réelle admettant une espérance finie.

  • (a)

    Montrer

    f(X)f(E(X))+f(E(X))(XE(X)).
  • (b)

    En déduire que si f(X) admet une espérance finie alors

    E(f(X))f(E(X)).

Solution

  • (a)

    Puisque f est dérivable et convexe, le graphe de f est au-dessus de chacune de ses tangentes. Une équation de la tangente à f en a est

    y=f(a)+f(a)(xa)

    et donc

    x,f(x)f(a)+f(a)(xa).

    L’inégalité voulue est alors conséquence de la comparaison précédente pour a=E(X).

  • (b)

    Par croissance de l’espérance puis linéarité

    E(f(X)) E(f(E(X))+f(E(X))(XE(X)))
    f(E(X))+f(E(X))(E(X)E(X)=0)=f(E(X)).
 
Exercice 51  5412     MINES (MP)Correction  

Soient X et Y deux variables aléatoires indépendantes à valeurs strictement positives et de même loi. Établir

E(XY)1.

Solution

Par indépendance,

E(XY)=E(X)E(1Y).

Par correspondance des lois,

E(X)E(1Y)=E(Y)E(1X).

Ainsi,

E(XY)=E(YX).

Or

E(XY)+E(YX)=E(XY+YX)E(2)=2

car, pour tout x,

x+1x2.

On en déduit la comparaison voulue.

 
Exercice 52  5415  Correction  

Soit X une variable aléatoire à valeurs dans . On suppose que X admet une espérance finie. Montrer

nP(Xn)n+0.

Solution

Par hypothèse, la série kP(X=k) converge et donc, pour n,

0nP(Xn) =nk=n+P(X=k)
k=n+kP(X=k)n+0

car le reste d’une série convergente est de limite nulle.

 
Exercice 53  5280     NAVALE (MP)Correction  

Soit X une variable aléatoire à valeurs dans admettant une espérance finie.

  • (a)

    Montrer que pour tout entier naturel n,

    k=0nP(X>k)=k=0nkP(X=k)+(n+1)P(X>n).
  • (b)

    En déduire une expression de E(X).

Solution

  • (a)

    Raisonnons par récurrence sur n.

    La propriété est immédiate pour n=0.

    Supposons la propriété vraie au rang n0. En isolant un terme de la somme et en employant l’hypothèse de récurrence,

    k=0n+1P(X>k) =k=0nP(X>k)+P(X>n+1)
    =k=0nkP(X=k)+(n+1)P(X>n)+P(X>n+1).

    En écrivant

    P(X>n)=P(X=n+1)+P(X>n+1)

    on poursuit le calcul afin de former la relation attendue

    k=0n+1P(X>k) =k=0nkP(X=k)+(n+1)P(X=n+1)+(n+2)P(X>n+1)
    =k=0n+1kP(X=k)+(n+2)P(X>n+1).

    La récurrence est établie.

  • (b)

    Pour tout n,

    0(n+1)P(X>n)=k=n+1+(n+1)P(X=k)k=n+1+kP(X=k).

    Le reste d’une série convergente étant de limite nulle, on obtient par encadrement

    (n+1)P(X>n)n+0.

    On en déduit

    E(X)=n=0+P(X>n)

    avec convergence de la série introduite.

 
Exercice 54  4026   

Soit X une variable aléatoire à valeurs dans .

Montrer que X admet une espérance finie si, et seulement si, la série P(X>n) converge et qu’alors11 1 Cette identité sera souvent utilisée par la suite.

E(X)=n=0+P(X>n).
 
Exercice 55  5473   Correction  

Soit X une variable aléatoire à valeurs dans admettant une variance. Établir

E(X2)=n=0+(2n+1)P(X>n).

Solution

Pour une variable aléatoire X à valeurs dans admettant une espérance finie, on sait

E(X)=n=0+P(X>n)

avec convergence de la série exprimant le second membre.

On emploie ici ce résultat pour la variable X2 et l’on écrit

E(X2)=n=0+P(X2>n)

avec convergence de la série à termes positifs exprimant le second membre.

Visualisons les premiers termes de cette somme:

E(X2) =P(X2>0)+P(X2>1)+P(X2>2)+P(X2>3)+P(X2>4)+
=P(X>0)+P(X>1)+P(X>2)+P(X>3)+P(X2>2)+

Puisque X prend ses valeurs dans ,

P(X>n)=P(X>n)

et donc

E(X2)=P(X>0)+P(X>1)+P(X>1)+P(X>1)+P(X>2)+

Par sommation par paquets, regroupons entre eux les termes égaux

E(X2)=N=0+(N2n<(N+1)2P(X2>n)).

avec, pour tout nN2;(N+1)21,

P(X2>n)=P(X2>N2)=P(X>N)

La somme comportant 2N+1 termes identiques,

N2n<(N+1)2P(X2>n)=(2N+1)P(X>N).

On en déduit

E(X2)=N=0+(2N+1)P(X>N)

avec convergence de la série exprimant le second membre.

 
Exercice 56  5283   Correction  

Soit X une variable aléatoire réelle prenant un nombre fini de valeurs.

  • (a)

    On suppose que X prend des valeurs toutes positives. Établir

    E(X)=0+P(X>t)dt.
  • (b)

    On suppose que les valeurs prises par X sont de signes quelconques. Proposer une expression de E(X) comme somme de deux intégrales.

Solution

  • (a)

    On remarque que la fonction tP(X>t) est en escalier et, par conséquent, continue par morceaux. Au surplus, celle-ci est identiquement nulle pour t assez grand11 1 Précisément, P(X>t)=0 dès que t est supérieur à la valeur maximale prise par X. et il est possible d’introduire l’intégrale étudiée. Notons x1<<xn les valeurs prises par X. Par la relation de Chasles,

    0+P(X>t)dt=k=1nxk-1xkP(X>t)dt

    en posant x0=0. Pour t dans l’intervalle [xk-1;xk[, la probabilité P(X>t) est constante égale à la somme des P(x) pour k;n. On a donc

    0+P(X>t)dt=k=1n(xk-xk-1)=knP(x).

    Ceci conduit à considérer une somme triangulaire où l’on échange les deux signes sommes,

    0+P(X>t)dt==1nk=1(xk-xk-1)P(x)==1n(x-x0)P(x)=E(X).
  • (b)

    Si X est une variable aléatoire à valeurs négatives, on obtient en considérant -X puis en réalisant le changement de variable u=-t

    E(X)=-0+P(-X>t)dt=-0+P(X<-t)dt=--0P(X<u)du.

    Si X est une variable aléatoire à valeurs de signes quelconques, on l’écrit X=X1+X2 avec X1=X1(X0) et X2=X1(X<0). On a alors

    E(X)=E(X1)+E(X2)=0+P(X1>t)dt--0P(X2<t)dt.

    Cependant, pour tout t0, (X1>t)=(X>t) tandis que (X2<t)=(X<t) pour tout t<0. On en déduit

    E(X)=0+P(X>t)dt--0P(X<t)dt.
 
Exercice 57  5852   Correction  

Soit X une variable aléatoire à valeurs dans d’espérance finie.

Établir

k=1nP(X<k)n+n.

Solution

Pour k*, on a

P(X<k)=P(X=0)++P(X=k-1).

Pour n*, en réorganisant le calcul de la somme

k=1nP(X<k) =k=0n-1i=0k-1P(X=i)=i=0n-1k=in-1P(X=i)=i=0n-1(n-i)P(X=i)
=nk=0n-1P(X=i)-i=0n-1iP(X=i).

D’une part,

i=0n-1P(X=i)n+i=0+P(X=i)=1

et donc

ni=0n-1P(X=i)n+n.

D’autre part

i=0n-1iP(X=i)n+E(X)

et donc

i=0n-1iP(X=i)=n+o(n).

On conclut

k=1nP(X<k)n+n.
 
Exercice 58  5859   Correction  

(Fonction caractéristique)

On appelle fonction caractéristique d’une variable aléatoire X prenant ses valeurs dans , l’application φX: donnée par

φX(t)=E(eitX).
  • (a)

    Vérifier que φX est définie, continue sur et 2π-périodique.

  • (b)

    Soient X et Y deux variables aléatoires indépendantes à valeurs dans . Établir

    φX+Y=φXφY.
  • (c)

    Soient X et Y deux variables aléatoires à valeurs dans . Établir

    φX=φYX et Y suivent la même loi.
  • (d)

    Application : Retrouver que la somme de deux variables aléatoires indépendantes suivant des lois Poisson suit une loi de Poisson.

Solution

  • (a)

    Pour tout t, la variable aléatoire eitX est bornée, elle admet donc une espérance et cela assure la définition φX(t). De plus, la formule de transfert donne

    φX(t)=nun(t) avec un(t)=eintP(X=n).

    Les fonctions un sont continues et la série de fonctions un converge normalement11 1 Contrairement à l’usage, n parcourt au lieu de mais cela ne change par grand chose: il suffit de séparer la somme en deux selon le signe de l’indice pour adapter les propos. sur car

    nsupt|un(t)|=nP(X=n)<+

    On en déduit que la fonction φX est continue. Aussi, cette fonction est 2π-périodique car chacune des fonctions un l’est.

  • (b)

    Notons que X+Y prend ses valeurs dans ce qui autorise à introduire sa fonction caractéristique. Pour t,

    φX+Y(t)=E(eit(X+Y))=E(eitXeitY).

    Or les variables X et Y sont indépendantes et donc eitX et eitY le sont aussi. L’espérance du produit de ses variables est alors le produit des espérances

    φX+Y(t)=E(eitX)E(eitY)=φX(t)φY(t).
  • (c)

    Remarquonq que, pour tout k,

    02πeiktdt={2π si k=00 si k*.

    Supposons φX=φY.

    Soit k. On a

    02πφX(t)e-iktdt=02πφY(t)e-iktdt.

    Or

    02πφX(t)e-iktdt=02πnei(n-k)tP(X=n)dt.

    Les fonctions vn:tei(n-k)tP(X=n) sont continues sur [0;2π] et la série vn converge normalement sur [0;2π] par des arguments analogues à ceux déjà dits: on peut intégrer terme à terme

    02πφX(t)e-iktdt=n02πei(n-k)tP(X=n)dt.

    Compte tenu du calcul initial, on simplifie la somme

    02πφX(t)e-iktdt=2πP(X=k).

    De la même façon,

    02πφY(t)e-iktdt=2πP(Y=k)

    et donc P(X=k)=P(Y=k). Puisque cela vaut pour tout k, les variables aléatoires X et Y suivent la même loi.

  • (d)

    Si X suit une loi de Poisson de paramètre λ>0,

    t,φX(t)=neinte-λλnn!=e-λn=0+(λeit)nn!=e-λeλeit.

    Si X et Y suivent des lois de Poisson indépendantes de paramètres λ et μ>0,

    φX+Y(t)=φX(t)φY(t)=e-λ-μe(λ+μ)eit.

    On reconnaît la fonction caractéristique d’une loi de Poisson de paramètre λ+μ et donc X+Y suit une telle loi.

 
Exercice 59  5856   Correction  

(Formule de Wald)

Soit (Xn)n* une suite de variables aléatoires indépendantes et identiquement distribuées suivant la loi d’une certaine variable réelle X. Soit aussi N une variable aléatoire à valeurs dans indépendante des variables Xn. On pose

S=k=1NXk.

On admet que S définit une variable aléatoire11 1 Voir sujet 4046.

On suppose X et N admettent une espérance. Établir que S admet une espérance et vérifier E(S)=E(N)E(X).

Solution

La famille (N=n)n constitue un système complet d’événements.

Pour x,

(S=x) =n(S=x,N=n)
=n(k=1NXk=x,N=n)
=n(k=1nXk=x,N=n).

Par incompatibilité puis indépendance,

P(S=x) =n=0+P(k=1nXk=x,N=n)
=n=0+P(k=1nXk=x)P(N=n).

En conduisant le calcul dans [0;+],

x|x|P(S=x)=xn=0+|x|P(k=1nXk=x)P(N=n).

Les termes étant tous positifs, on peut réorganiser le calcul de la somme

x|x|P(S=x)=n=0+x|x|P(k=1nXk=x)P(N=n).

Par la formule du transfert,

x|x|P(S=x)=n=0+E(|k=1nXk|)P(N=n).

Or

E(|k=1nXk|)k=1nE(|Xk|)=nE(X)

et donc

x|x|P(S=x)n=0+nE(|X|)P(N=n)=E(|X|)E(N)<+.

Par conséquent, la famille (|x|P(S=x))x est sommable: la variable S admet une espérance finie.

On reprend les calculs précédents sachant la sommabilité

E(S) =xxP(X=x)
=xn=0+xP(k=1nXk=x)P(N=n)
=n=0+xxP(k=1nXk=x)P(N=n)
=n=0+E(k=1nXk)P(N=n)
=n=0+nE(X)P(N=n)=nE(X)E(N).
 
Exercice 60  5851   Correction  

(Espérance conditionnelle)

Soit X une variable aléatoire sur un espace probabilisé (Ω,𝒜,P).

Pour A événement non négligeable et sous réserve d’existence, on introduit, l’espérance conditionnelle de X sachant A égale à l’espérance de X pour la probabilité conditionnelle PA:

E(XA)=xX(Ω)xP(X=xA).

On suppose que X est d’espérance finie.

  • (a)

    Justifier l’existence de E(XA) et vérifier

    E(XA)=E(1AX)P(A).
  • (b)

    Soit (Ai)iI un système complet d’événements non négligeables. Vérifier

    E(X)=iIE(XAi)P(Ai).

Solution

  • (a)

    Pour xX(Ω),

    |x|P(X=xA)=|x|P(X=xA)P(A)|x|P(X=x)P(A).

    Puisque X est d’espérance finie, la famille (xP(X=x))xX(Ω) est sommable. Par domination, la famille (xP(X=xA))xX(Ω) est sommable. On peut donc introduire l’espérance de X sachant A et, en reprenant le calcul,

    E(XA)=1P(A)xX(Ω)xP(X=xA).

    Pour x0, (X=xA)=(1AX=x) donc xP(X=xA)=xP(1AX=x). Cette égalité est aussi vraie pour x=0 et donc

    E(XA)=1P(A)xX(Ω)xP(1AX=x)=1P(A)E(1AX).
  • (b)

    Par sommation par paquets,

    E(X)=iIxAixP(X=x).

    Par probabilités composées,

    E(X)=iIxAixP(X=xAi)P(Ai)=iIE(XAi)P(Ai).
 
Exercice 61  5414     MINES (MP)Correction  

Soit (Xn)n1 une suite de variables aléatoires suivant toute la loi d’une variable X à valeurs dans . Pour n1, on pose

Rn=Card{X1,,Xn}.
  • (a)

    Soit a+. Établir

    E(Rn)a+nP(Xa).
  • (b)

    En déduire

    E(Rn)=n+o(n).
  • (c)

    On suppose que X admet une espérance finie. Montrer

    E(Rn)=n+O(n).

Solution

  • (a)

    Cas: a. Tout entier naturel est soit élément de 0;a-1 soit supérieur ou égal à a. On en déduit que

    {X1,,Xn}0;a-1({X1,,Xn}[a;+[).

    Par suite,

    Rn a+Card({X1,,Xn}[a;+[)
    a+1(X1a)++1(Xna).

    Sachant E(1(XA))=P(XA), il vient

    E(Rn)a+P(X1a)++P(Xna)=a+nP(Xa).

    Cas: a+. On introduit a=a et l’on conclut à l’aide de ce qui précède en observant

    aaetP(Xa)=P(Xa).
  • (b)

    Considérons a=n. Puisque

    P(Xn)n+0

    on obtient

    n+nP(Xn)=n+o(n)

    puis, par comparaison,

    Rn=n+o(n).
  • (c)

    La variable est X à valeurs positives. Par l’inégalité de Markov,

    P(Xa)1aE(X)

    et donc

    E(Rn)a+naE(X).

    Pour a=n, on en déduit

    E(Rn)=n+O(n).
 
Exercice 62  5855   Correction  

Soient X une variable aléatoire admettant une espérance et (An)n un système complet d’événements. Établir

E(X)=n=0+E(X1An).

Solution

Par définition,

E(X)=xxP(X=x).

Puisque (An)n est un système complet d’événements,

(X=x)=n(X=x)An.

Par incompatibilité,

P(X=x)=nP((X=x)An).

Pour x*,

(X=x)An=(X1An=x).

On a donc

xP((X=x)An)=xP(X1An=x)

et cette dernière égalité est aussi vraie lorsque x=0.

On a donc

E(X)=xnxP(X1An=x).

La famille initiale (xP(X=x))x étant sommable, la famille doublement indexée (xP(X1An=x))(x,n)× qui s’en est déduit est aussi: cela permet d’échanger les deux sommes puis conclure

E(X)=nxxP(X1An=x)=n=0+E(X1An).
 
Exercice 63  2121   Correction  

Soit X une variable aléatoire réelle admettant une espérance finie.

Montrer

E(X1|X|A)A+E(X)

Solution

Soit (xn) une suite réelle injective contenant les valeurs prises par X. Par hypothèse, il y a convergence absolue de la série

xnP(X=xn).

Considérons ensuite la série de fonctions fn avec

fn(A)={xnP(X=xn) si |xn|A0 sinon.

On remarque

E(X1|X|A)=n=0+fn(A).

On remarque aussi

fn(A)A+xnP(X=xn)et|fn(A)||xn|P(X=xn).

La série de fonctions fn converge normalement sur et, par le théorème de la double limite,

E(X1|X|A)=n=0+fn(A)A+n=0+xnP(X=xn)=E(X).
 
Exercice 64  5303    Correction  

Soit (An)n une suite d’événements d’un espace probabilisé (Ω,𝒜,P). On suppose que toutes les intersections d’une infinité d’événements choisis parmi les An sont vides et l’on introduit S la variable aléatoire à valeurs dans définie par11 1 La variable S dénombre les événements de la suite (An) qui sont réalisés. Par hypothèse, celle-ci ne prend que des «  valeurs finies  ».

S=n=0+1An.

Montrer que S admet une espérance finie si, et seulement si, la série P(An) converge et qu’alors

E(S)=n=0+P(An).

Solution

Méthode: L’espérance de la fonction indicatrice d’un événement A est la probabilité de cet événement.

Pour N, introduisons la variable

SN=n=0N1An.

Les variables SN admettent une espérance et, par linéarité,

E(SN)=n=0NE(1An)=n=0NP(An).

Si la variable S admet une espérance finie, la comparaison SNS entraîne

n=0NP(An)=E(SN)E(S).

La série à termes positifs P(An) est alors convergente car ses sommes partielles sont majorées et l’on a

n=0+P(An)E(S). (1)

Inversement, supposons la convergence de la série P(An).

Méthode: Une variable aléatoire X à valeurs dans admet une espérance finie si, et seulement si, la série P(X>k) converge et sa somme détermine alors cette espérance. Voir le sujet 4026.

Soit k. Pour tout N, on remarque l’inclusion

(SN>k)(SN+1>k) car SNSN+1.

Par continuité croissante,

P(SN>k)N+P(N(SN>k))=P(S>k).

Pour tout K, on a alors

k=0KP(S>k)=limN+k=0KP(SN>k).

Or

k=0KP(SN>k)k=0+P(SN>k)=E(SN)=n=0NP(An)n=0+P(An)

et donc

k=0KP(S>k)n=0+P(An).

La série à termes positifs P(S>k) est alors convergente car ses sommes partielles sont majorées. Ainsi, S admet une espérance finie et de plus

E(S)=k=0+P(S>k)n=0+P(An). (2)

Les comparaisons (1) et (2) se complètent alors pour produire l’égalité voulue

E(S)=n=0+P(An).
 
Exercice 65  4184      CENTRALE (MP)Correction  

Soit (Ω,𝒜,P) un espace probabilisé et (En)n une suite d’événements quelconques vérifiant

n=0+P(En)<+.

Pour X un ensemble quelconque, on note 1X la fonction indicatrice de X.

  • (a)

    Soit Z=n=0+1En (on convient Z=+ si la série diverge).

    Prouvez que Z est une variable aléatoire discrète.

  • (b)

    Soit

    F={ωΩ|ω n’appartient qu’à un nombre fini de En}.

    Prouver que F est un événement et que P(F)=1.

  • (c)

    Prouver que Z admet une espérance.

Solution

  • (a)

    La variable aléatoire prend ses valeurs dans l’ensemble dénombrable {+}.

    Pour k, on a Z(ω)=k lorsque ω appartient à exactement k événements parmi les En. Pour i1<i2<<ik, appartenir aux ensembles Ei1,,Eik et pas aux autres s’expriment comme une intersection dénombrable d’événements Eik et Ej¯: c’est donc un événement. En faisant varier les i1,,ik sur l’ensemble dénombrable des possibles, (Z=k) se comprend comme une réunion d’événements.

    Enfin, (Z=+) est aussi un événement car c’est le complémentaire de la réunion dénombrable des événements (Z=k) pour k parcourant .

  • (b)

    F est le complémentaire de (Z=+), c’est bien un événement.

    F¯ correspond à l’ensemble des ω appartenant à une infinité de En. On peut l’écrire comme l’intersection décroissante

    F¯=NnNEn.

    Par continuité décroissante

    P(F¯)=limN+P(nNEn).

    Or

    P(nNEn)nNP(En)N+0.

    On peut conclure P(F¯)=0 puis P(F)=1.

  • (c)

    Posons ZN=n=0N1En. Commençons par établir

    k,P(ZN>k)N+P(Z>k).

    Puisque ZNZN+1, on a

    (ZN>k)(ZN+1>k)

    et, par continuité croissante,

    P(ZN>k)N+P(N(ZN>k)).

    Or

    N(ZN>k)=(Z>k)

    ce qui établit la propriété voulue.

    Pour K, on a alors

    k=0KP(Z>k)=limN+k=0KP(ZN>k)

    avec

    k=0KP(ZN>k)k=0+P(ZN>k)=E(ZN)=n=0NP(En)n=0+P(En).

    La série P(Z>k) est alors convergente puisque c’est une série à termes positifs aux sommes partielles majorées. On en déduit que Z admet une espérance finie (et l’on peut montrer que celle-ci est la somme de la série des P(En)).

[<] Espérance[>] Covariances

 
Exercice 66  4128  

Soit X une variable aléatoire à valeurs dans . On suppose qu’il existe k]0;1[ vérifiant

P(X=n)=kP(Xn)pour tout n.

Déterminer la loi de X puis calculer son espérance et sa variance.

 
Exercice 67  4032  Correction  

On suppose qu’à la roulette d’un Casino, on obtient la couleur noire avec la probabilité 1/2, la couleur rouge sinon (bref, on ne suppose pas de 0 vert…). Un joueur fortuné joue selon le protocole suivant:

  • il mise initialement 1 brouzouf sur la couleur noire;

  • s’il gagne, il arrête de jouer et empoche le double de sa mise.

  • s’il perd, il double sa mise et rejoue.

  • (a)

    On suppose la fortune du joueur infinie.
    Montrer que le jeu s’arrête presque sûrement. Déterminer l’espérance de gain du joueur.

  • (b)

    On suppose toujours la fortune du joueur infinie.
    Que se passe-t-il si au lieu de doubler, il décide de tripler sa mise lorsqu’il rejoue?

  • (c)

    Le joueur n’est en fait pas si fortuné qu’il le prétend: il ne possède que 2n-1 brouzoufs ce qui l’autorise à ne pouvoir jouer que n parties. Que devient son espérance de gain?

Solution

  • (a)

    Notons An l’évènement «  le jeu dure au moins n parties   ». An+1 est la conjonction des évènements indépendants An et le rouge sort au n+1- ième tirage   ». On en déduit

    P(An+1)=12P(An).

    Par continuité décroissante, on obtient

    P(n*An)=limn+P(An)=0.

    L’arrêt du jeu est donc presque sûr.
    Lorsque la partie s’arrête à la n-ième tentative, le joueur a perdu 1+2++2n-1 brouzoufs et vient de gagner 2n brouzoufs. Au total, il gagne 1 brouzouf. Son gain étant presque sûrement constant égal à 1 brouzoufs, son espérance de gain vaut 1 brouzouf.

  • (b)

    Avec ce nouveau protocole, lorsque la partie s’arrête à la n-ième tentative, le gain du joueur vaut

    2.3n-1-(1+3++3n-1)=3n-1+12.

    L’espérance de gain est

    n=1+3n-1+12P(An)=n=1+3n-1+12n+1=+.
  • (c)

    Puisque le joueur ne peut disputer que n parties, son espérance de gain devient

    k=1n1×P(An)-(2n-1)P(k=n+1+Ak)=1-12n-(2n-1)×12n=0.
 
Exercice 68  4028     MINES (MP)Correction  

(Loi de Pascal)

On dit qu’une variable aléatoire X suit une loi de Pascal de paramètres n* et p]0;1[ si

X(Ω)=n+etP(X=k)=(k-1n-1)pn(1-p)k-n.
  • (a)

    Soient X1,,Xn des variables aléatoires indépendantes suivant toutes une loi géométrique de paramètre p.

    Montrer que X1++Xn suit une loi de Pascal de paramètres n et p.

  • (b)

    En déduire l’espérance et la variance d’une loi de Pascal de paramètres n et p.

Solution

  • (a)

    Raisonnons par récurrence sur n*.

    Cas: n=1.. Si X suit une loi de Pascal de paramètres 1 et p alors

    P(X=k)=(k-10)p(1-p)k-1.

    On reconnaît une loi géométrique de paramètre p.

    Supposons la propriété vraie au rang n1.
    L’évènement X1++Xn+1=k peut se décomposer en la réunion des évènements incompatibles suivants

    X1++Xn= et Xn+1=k- pour n;k-1.

    On en déduit par indépendance

    P(X1++Xn+1=k)==nk-1(-1n-1)pn(1-p)-np(1-p)k--1

    puis

    P(X1++Xn+1=k)=pn+1(1-p)k-(n+1)=nk-1(-1n-1).

    Or, par la formule du triangle de Pascal,

    =nk-1(-1n-1)=(k-1n)

    et donc

    P(X1++Xn+1=k)=(k-1n)pn+1(1-p)k-(n+1).

    La récurrence est établie.

    Notons qu’une résolution par les fonctions génératrices est possible avec

    GX(t)=(pt1-(1-p)t)n.
  • (b)

    Par linéarité de l’espérance,

    E(X)=np.

    Par indépendance des variables sommées,

    V(X)=n1-pp2.
 
Exercice 69  4085   

(Loi binomiale négative11 1 Cette loi étudie le nombre d’échecs précédant le r-ième succès lors de la répétition d’épreuves de Bernoulli indépendantes de même paramètre p.)

Soient r*, p]0;1[ et X une variable aléatoire à valeurs dans telle qu’il existe un réel a pour lequel

P(X=n)=a(n+r-1n)(1-p)npour tout n.
  • (a)

    Déterminer a.

  • (b)

    Calculer l’espérance et la variance de X.

    On rappelle l’identité binomiale22 2 Voir le sujet 3931. Cette identité est souvent utilisée en calcul des probabilités.:

    n=0+(n+mn)xn=1(1-x)m+1pour tous m et x]-1;1[.
 
Exercice 70  6041     CENTRALE (MP)Correction  

Soit (Xn)n1 une suite de variables aléatoires indépendantes, Xn suite une loi de Bernoulli de paramètre 1/n. On pose

T=min{n*|Xn=1,Xn+1=0}
  • (a)

    Déterminer la loi de T.

  • (b)

    Calculer E(T) et V(T).

  • (c)

    Pour (k,n)(*)2, calculer P(T=nXk=1).

Solution

  • (a)

    On a T(Ω)*. Pour n*,

    (T=n)=(X1=1)(X2=1)(Xn=1)(Xn+1=0)

    Par indépendance,

    P(T=n)=1×12××1nnn+1=n(n+1)!
  • (b)

    On introduit la fonction génératrice11 1 Un calcul direct est possible et pas plus compliqué.

    GT(t)=n=0+P(T=n)tn=n=0+n(n+1)!tn

    (la formule donnant P(T=n) vaut aussi pour n=0). Pour t,

    GT(t)=n=0+(n+1(n+1)!1(n+1)!)tn=etet1t

    On a GT(1)=e1 et GT′′(1)=2. On en déduit

    E(T)=e1etV(T)=2+(e1)(e1)2=3ee2
  • (c)

    Par définition,

    P(T=nXk=1)=P(T=n,Xk=1)P(Xk=1)

    Cas: kn+2. Les événements (T=n) et (Xk=1) sont indépendants:

    P(T=nXk=1)=P(T=n)

    Cas: k=n+1. Les événements (T=n) et (Xn+1=1) sont incompatibles:

    P(T=nXk=1)=0

    Cas: kn. L’événement (Xk=1) est inclus dans (T=n):

    P(T=nXk=1)=P(T=n)P(Xk=1)=kP(T=n)
 
Exercice 71  4088   

(Problème du collectionneur)

Chez un marchand de journaux, on peut acheter des pochettes contenant chacune une image. La collection complète comporte N1 images distinctes.

  • (a)

    Montrer qu’il est presque sûr d’obtenir la collection complète en un nombre fini d’achats.

On limite l’étude à un espace probabilisé dans lequel la collection complète est toujours obtenue en un nombre fini d’achats. Pour k1;N, on note Xk* le nombre d’achats ayant permis d’obtenir k images distinctes. En particulier, X1=1 et XN est le nombre d’achats nécessaires à l’obtention de la collection complète.

  • (b)

    Soit k1;N-1. Par quelle loi peut-on modéliser la variable Xk+1-Xk?

  • (c)

    En déduire une expression de l’espérance de XN.

 
Exercice 72  4019   Correction  

On lance une pièce équilibrée jusqu’à ce que celle-ci ait produit au moins une fois face et une fois pile.

  • (a)

    Montrer qu’il est presque sûr que le jeu s’arrête.

  • (b)

    On note X le nombre de lancers avant que le jeu cesse.
    Montrer que X admet une espérance et déterminer celle-ci.

Solution

  • (a)

    Le jeu dure infiniment si, et seulement si, chaque lancer produit «  face   » ou bien chaque lancer produit «  pile   ». Notons An l’évènement:

    «  le n-ième lancer donne face  ».

    Par indépendance des lancers

    P(A1An)=k=1nP(Ak)=12n.

    Par continuité décroissante

    P(n=1+An)=limn+P(A1An)=0.

    De même

    P(n=0+An¯)=0.

    L’évènement «  le jeu ne s’arrête pas   » est donc négligeable.

  • (b)

    X est à valeurs dans {0,1}.
    Pour n*, on a X>n si les n premiers lancers sont identiques. On en déduit

    P(X>n)=P(k=1nAkk=1nAk¯)=12n-1.

    On en déduit

    E(X)=n=0+P(X>n)=1+n=1+12n-1=3.

    En fait, X-1 suit une loi géométrique de paramètre 1/2.

 
Exercice 73  4182     CENTRALE (MP)Correction  

On s’intéresse à la première apparition du motif «  PF  » dans un tirage infini de pile ou face, indépendants et non truqués. On note Ai l’événement

«  Le motif PF apparaît pour la première fois au rang i   ».

(c’est-à-dire que le P est en position i-1 et le F en position i). On pose qi=P(Ai) et T la variable aléatoire donnant le rang d’apparition du motif.

  • (a)

    Écrire un programme Python calculant la moyenne d’apparition du motif. Conjecture?

  • (b)

    Montrer que

    P(i2Ai)=1.
  • (c)

    Décrire An, pour n2 et en déduire la valeur de qn.

  • (d)

    Montrer que T est d’espérance finie et calculer son espérance.

On s’intéresse maintenant à la première apparition du motif «  PP  ». On note toujours T la variable aléatoire donnant le rang de première apparition du motif et qn=P(T=n), pour n2.

  • (e)

    Calculer avec Python la moyenne d’apparition du motif. Conjecture?

  • (f)

    Montrer que q2=1/4, q3=1/8 et

    n4,qn=qn-12+qn-24.
  • (g)

    Montrer que T est d’espérance finie et calculer son espérance.

Solution

  • (a)
    import random as rnd
    
    def T():
        n = 0
        P = False
        PF = False
        while (not PF):
            n = n + 1
            x = rnd.random()
            if x < 0.5:
                P = True
            elif P:
                PF = True
            else:
                P = False
        return n
    
    def repete(n):
        c = 0
        for i in range(n):
            c = c + T()
        return c/n
    

    L’étude numérique amène à conjecturer E(T)=4.

  • (b)

    Posons A l’événement

    «  Le motif PF n’apparaît pas  ».

    L’événement A est exactement la réunion des événements correspondant à une succession de F de longeur k suivie exlcusivement de P ainsi que de l’événement correspondant uniquement à l’obtention de F. L’événement A est alors négligeable car réunion dénombrable d’événements de probabilités nulles11 1 Par exemple, la probabilité de n’obtenir que des F est par continuité décroissante la limite des probabilités de commencer par n F à savoir 1/2n. Les autres calculs sont analogues et, de façon générale, la probabilité d’obtenir un tirage infini précis est nulle.. On en déduit que la réunion des Ai, avec i2, est un événement presque sûr.

  • (c)

    An est la réunion des configurations commençant par un certain nombre k de F puis se poursuivant avec des P au nombre de * tel que k+=n-1 et se poursuivant enfin par un F. Chacune de ces configurations est de probabilité 1/2n et donc qn=n-12n.

  • (d)

    La suite des nqn est sommable donc T admet une espérance et

    E(T)=n=2+(n-1)n2n=142(1-1/2)3=4

    (la somme est calculée en dérivant deux fois la série entière géométrique).

  • (e)

    On adapte le code précédent

    def T():
        n = 0
        P = False
        PP = False
        while (not PP):
            n = n + 1
            x = rnd.random()
            if x < 0.5:
                if P:
                    PP = True
                P = True
            else:
                P = False
        return n
    

    On conjecture cette fois-ci une espérance égale à 6.

  • (f)

    q2 est la probabilité de PP et q3 celle de FPP d’où les valeurs proposées. Pour n4, on considère le système complet constitué des événements commençant par F, PF et PP et l’on obtient par argument de symétrie (quand on a obtenu F, cela remet les «  compteurs à zéro  »)

    qn=12qn-1+14qn-2+14×0. (1)
  • (g)

    Commençons par vérifier que les An avec n2 constituent un système complet. Les événements An sont deux à deux incompatibles et la série des qn converge. En sommant la relation (1) pour n supérieur à 2, on obtient après glissement d’indice

    n=2+qn=14+18+12n=3+qn+14n=2+qn

    puis

    n=2+qn=14+12n=2+qn+14n=2+qn.

    On en tire que la somme des qn est égale à 1. On peut alors calculer l’espérance de T.

    Pour t[-1;1], la fonction génératrice de T en t est donnée par

    GT(t)=n=2+qntn=14t2+18t3+t2(GT(t)-t24)+t24GT(t). (2)

    On peut exprimer GT(t) par une fraction rationnelle définie sur [-1;1], celle-ci est dérivable en 1 ce qui assure que T admet une espérance et, par dérivation de (2),

    GT(t)=t2+12GT(t)+t2GT(t)+t2GT(t)+t24GT(t).

    Pour t=1, on obtient

    E(T)=12+12+12E(T)+12+14E(T).

    On en tire E(T)=6.

 
Exercice 74  4370   

Soient N* et (Un)n1 une suite de variables aléatoires indépendantes et identiquement distribuées selon une loi uniforme sur 1;N. Pour tout n*, on pose

Mn=max(U1,,Un).

Déterminer les limites de E(Mn) et de V(Mn) lorsque n tend vers +.

 
Exercice 75  5276     SAINT CYR (MP)Correction  

On étudie la descendance d’une variété de fleurs. À la génération 0, on dispose d’une fleur. À chaque génération suivante, les fleurs présentes déterminent chacune et indépendamment un nombre de descendants qui suit une loi binomiale (2,p) avec p]0;1[. Les fleurs d’une génération disparaissent à la génération suivante.

Pour tout entier naturel n, on pose un la probabilité de l’événement

En=«  La n-ième génération ne comporte pas de fleurs  ».

Il est entendu que u0 est nul.

  • (a)

    Calculer u1 et montrer

    un+1=(1-p+pun)2pour tout n.
  • (b)

    Étudier la suite (un). Quelle est sa limite?

  • (c)

    Écrire une fonction descendance(p) qui simule la descendance d’une fleur sur une génération (cette fonction répond 0, 1 ou 2 selon la loi (2,p)).

    Écrire une fonction descendances(n,p) qui simule la descendance de la fleur sur n générations.

    Écrire une fonction extinction(N,p) qui renvoie la fréquence d’extinction de la descendance après 20 générations sur un nombre N de simulations. Comparer aux résultats trouvés au-dessus.

Solution

  • (a)

    Notons X la variable aléatoire donnant le nombre de descendants de la première fleur.

    u1 est la probabilité que la première fleur ne détermine pas de descendants:

    u1=P(X=0)=(02)p0(1-p)2=(1-p)2.

    Pour exprimer un+1 en fonction de un, on discute selon le nombre de descendants de la première fleur.

    Si la première fleur n’a pas de descendants, il est certain que la n+1-ième génération ne comporte aucune fleur

    P(En+1X=0)=1.

    Si la première fleur a un descendant, on a par translation de l’expérience

    P(En+1X=1)=un.

    Si la première fleur a deux descendants, l’indépendance des générations entraîne que les n générations induites par chacune des deux fleurs soient éteintes pour que En+1 soit réalisé

    P(En+1X=2)=un2.

    La formule des probabilités totales donne alors

    P(En+1)=1×P(X=0)+unP(X=1)+un2P(X=2)

    et donc

    un+1=(1-p)2+2p(1-p)un+p2un2=((1-p)+pun)2.
  • (b)

    La suite (un) est une suite récurrente de premier terme u0=0 et de fonction itératrice

    f:x((1-p)+px)2.

    Afin d’acquérir la monotonie de (un), on étudie le signe de

    g:xf(x)-x=p2x2+(2p(1-p)-1)x+(1-p)2.

    On remarque que 1 est racine apparente et le produit des racines de cette équation du second degré suffit pour déterminer l’autre racine

    r=(1-pp)2.

    On distingue alors deux cas:

    Cas: p1/2. Le réel r est supérieur à 1 et la fonction g est positive sur [0;1]. La suite (un) est alors croissante et majorée donc convergente. Sa limite est point fixe de f dans [0;1], c’est-à-dire racine de g, c’est 1. L’extinction est presque sûre.

    Cas: p<1/2. Le réel r est élément de ]0;1[. L’intervalle [0;r] étant stable par f, u0 étant élément de celui-ci et g étant positive sur cet intervalle, la suite (un) croît et est majorée par r. Sa limite est alors r.

  • (c)
    from random import random
    
    def descendance(p):
        r = random()
        if r < (1-p)**2: return 0
        if r - (1-p)**2 < 2* p * (1-p): return 1
        return 2
    
    def descendances(n,p):
        res = 1
        for _ in range(n):
            k = 0
            for i in range(res):
                k = k + descendance(p)
            res = k
        return res
    
    def extinction(N,p):
        c = 0
        for _ in range(N):
            if descendances(20,p) == 0: c = c + 1
        return c/N
    

    L’expérimentation est conforme à la théorie.

 
Exercice 76  4374   

Un joueur dispose de N dés équilibrés. Il lance une première fois ceux-ci et met de côté les dés ayant donné un six. S’il en reste, les autres dés sont relancés et l’on répète l’expérience jusqu’à ce que tous les dés aient donné un six. On introduit la variable aléatoire T à valeurs dans *{+} donnant le nombre de lancers nécessaires.

  • (a)

    Soit n*. Calculer la probabilité de (Tn).

  • (b)

    Justifier que l’expérience s’arrête presque sûrement.

  • (c)

    Vérifier que la variable T admet une espérance finie et donner une formule exprimant celle-ci à l’aide d’une somme finie.

 
Exercice 77  4130   Correction  

On considère une suite (Xn)n1 de variables de Bernoulli indépendantes de même paramètre p]0;1[ et l’on étudie la première apparition de deux succès consécutifs dans cette suite.

  • (a)

    Montrer qu’il est presque sûr qu’il existe n2 vérifiant

    Xn=Xn1=1.
  • (b)

    On note T la variable aléatoire donnée par

    T=min{n2|Xn=Xn1=1}{+}.

    Calculer P(T=2), P(T=3).

  • (c)

    Pour n3, exprimer P(T=n) en fonction de P(T=n1) et P(T=n2).

  • (d)

    Calculer l’espérance de T.

Solution

  • (a)

    Introduisons les événements

    Ap={X2p1+X2p1} avec p1.

    Ces événements sont indépendants et

    P(Ap)=(1p)2+2p(1p)=1p2.

    Par continuité décroissante

    P(p=1+Ap)=limN+P(p=1NAp).

    Par indépendance

    P(p=1NAp)=p=1NP(Ap)=(1p2)N.

    Par limite d’une suite géométrique de raison 1p2]0;1[, on obtient

    P(p=1+Ap)=0.

    Par conséquent, l’événement p=1+Ap¯ est presque sûr. Ainsi, il existe presque sûrement un rang pair en lequel il y a deux succès consécutifs. A fortiori, il est presque sûr qu’il existe un rang (pair ou impair) en lequel il y a deux succès consécutifs.

  • (b)

    Pour n2, on souhaite calculer pn=P(T=n).

    Pour n=2, l’événement (T=2) correspond à (X1=1,X2=1) de probabilité p2.
    Pour n=3, l’événement (T=3) correspond à (X1=0,X2=1,X3=1) de probabilité (1p)p2.

  • (c)

    Pour n3, considérons le système complet d’événements

    (X1=0),(X1=1,X2=0),(X1=1,X2=1).

    Par la formule des probabilités totales,

    P(T=n)=P(X1=0)(T=n)P(X1=0)+P(X1=1,X2=0)(T=n)P(X1=1,X2=0)+P(X1=1,X2=1)(T=n)P(X1=1,X2=1)

    Or

    P(X1=0)(T=n)=P(T=n1).

    En effet, la première épreuve étant un échec, obtenir deux succès consécutifs au rang n revient maintenant à obtenir deux succès consécutifs au rang n1. Par un argument analogue

    PX1=1,X2=0(T=n)=P(T=n2).

    Enfin

    PX1=1,X2=1(T=n)=0

    car les deux succès consécutifs ont été obtenus au rang 2 et qu’ici n3.
    Finalement, on obtient la relation de récurrence

    P(T=n)=(1p)P(T=n1)+p(1p)P(T=n2).
  • (d)

    Puisque la variable T est à valeurs dans {+}, on sait

    E(T)=n=1+P(Tn)dans [0;+]

    La formule qui précède donne

    n3,,P(Tn)=(1p)P(Tn1)+p(1p)P(Tn2).

    En sommant, il vient

    E(T)P(T1)P(T2)=(1p)(E(T)P(T1))+p(1p)E(T)

    avec P(T1)=P(T2)=1. On en déduit

    E(T)=1+pp2.
 
Exercice 78  5848   Correction  

Soit (Xn)n1 une suite de variables aléatoires indépendantes et identiquement distribuées selon la loi de Bernoulli de paramètre p]0;1[.

Soit r>0. On pose

Tr=inf{nr|Xn=Xn1==Xnr+1=1}

avec la convention inf=+.

On admet que Tr définit une variable aléatoire.

  • (a)

    Interpréter Tr et identifier la loi de T1.

  • (b)

    Établir que pour tout n, P(Tr=n+r+1)=(1p)prP(Tr>n).

  • (c)

    Calculer l’espérance de Tr.

Solution

  • (a)

    La variable Tr détermine le temps d’attente d’une première série de r succès consécutifs dans la répétition indépendante d’une même épreuve de Bernoulli de paramètre p. En particulier, T1 est le temps d’attente d’un premier succès, T1 suit donc une loi géométrique de paramètre p.

  • (b)

    On remarque

    (Tr=n+r+1)(Tr>n)

    et

    (Tr=n+r+1)(Xn+1=0)(Xn+2=1)(Xn+r+1=1)

    donc

    (Tr=n+r+1)(Xn+1=0)(Xn+2=1)(Xn+r+1=1)(Tr>n).

    L’inclusion réciproque est évidente et donc

    (Tr=n+r+1)=(Xn+1=0)(Xn+2=1)(Xn+r+1=1)(Tr>n).

    L’événement (Tr>n) est uniquement fonction des variables X1,,Xn et est donc indépendants de l’événement (Xn+r+1=1)(Xn+2=1)(Xn+1=0).

    Par indépendance,

    P(Tr=n+r+1) =P((Xn+1=0)(Xn+2=1)(Xn+r+1=1))P(Tr>n)
    =P(Xn+1=0)P(Xn+2=1)××P(Xn+r+1=1))P(Tr>n)
    =(1p)prP(Tr>n).
  • (c)

    Dans [0;+], on sait

    E(Tr)=n=0+P(Tr>n).

    En sommant les relations précédentes,

    n=0+P(Tr=n+r+1)=(1p)prE(Tr). (1)

    Or

    n=0+P(Tr=n+r+1)=n=r+1+P(Tr=n)=1P(Tr=r)P(Tr=+).

    Nécessairement P(Tr=+)=0 car sinon E(Tr)=+ ce qui n’est pas compatible avec l’identité (1). Aussi,

    P(Tr=r)=P(X1=1,,Xr=1)=P(X1=1)××P(Xr=1)=pr

    et donc

    n=0+P(Tr=n+r+1)=1pr.

    On peut alors conclure

    E(Tr)=1pr(1p)pr=(1p)(1+p++pr1)(1p)pr=1pr++1p.
 
Exercice 79  4124   Correction  

Dans une urne figurent N boules numérotées de 1 à N (avec N2). Dans celle-ci on opère des tirages successifs avec remise dans l’attente d’une série de k boules consécutives identiques (avec k2). On admet qu’il est presque sûr que ce processus s’arrête et l’on note T la variable aléatoire déterminant le nombre de tirages opérés à l’arrêt du processus.

  • (a)

    Calculer P(T=k) et P(T=k+1).

  • (b)

    Soit n1, établir

    P(T=n+k)=N-1NkP(T>n).
  • (c)

    En déduire que l’espérance de la variable T.

Solution

Pour i2, on introduit l’événement:

Ai=«  La i-ème boule tirée est identique à la précédente  ».

Compte tenu de la composition de l’urne, on peut affirmer

P(Ai)=1N.

Au surplus, les événements Ai sont indépendants.

  • (a)

    On observe

    (T=k)=A2Ak

    Par indépendance,

    P(T=k)=P(A2)××P(Ak)=1Nk-1.

    Aussi,

    (T=k+1)=A2¯A3Ak+1

    Par indépendance,

    P(T=k+1)=(1-1N)(1N)k-1=N-1Nk
  • (b)

    Méthode: On exprime (T=n+k) en fonction (Tn)¯ et d’événements Ai bien choisis.

    L’événement (T=n+k) correspond à (Tn)¯An+1¯An+2An+k. Par indépendance,

    P(T=n+k)=P(T>n)×N-1Nk.
  • (c)

    Puisque la variable T est à valeurs dans {+}, on sait

    E(T)=n=0+P(T>n)dans [0;+].

    Cela donne

    n=0+P(T>n)=P(T>0)+NkN-1n=1+P(T=n+k).

    De plus, puisque le processus s’arrête presque sûrement et que la variable T prend ses valeurs dans {k,k+1,}, on a

    n=1+P(T=n+k)=n=k+P(T=n)-P(T=k)=1-1Nk-1.

    On en déduit la valeur de l’espérance de T

    E(T)=Nk-1N-1.
 
Exercice 80  5448   Correction  

Deux urnes sont respectivement constituées de N boules blanches pour la première et de N boules rouges pour la seconde (avec N*).

On tire une boule dans chaque urne, on échange celles-ci et l’on recommence. On note Xn le nombre de boules rouges figurant dans la première urne après le n-ième tirage et l’on admet l’existence d’un espace probabilisé (Ω,𝒜,P) permettant l’étude de cette expérience.

  • (a)

    Déterminer X0 et X1.

Pour n, on pose Yn=Xn+1-Xn

  • (b)

    Soit k0;N. Déterminer la loi de Yn pour la probabilité conditionnelle sachant (Xn=k).

  • (c)

    En déduire l’espérance de Xn puis étudier la limite de celle-ci quand n tend vers +.

Solution

  • (a)

    Par lecture de l’expérience, X0=0 et X1=1.

  • (b)

    La variable Xn prend ses valeurs dans 0;N.

    La variable Yn prend ses valeurs dans {-1,0,1}.

    Pour avoir (Yn=-1), il faut piocher une boule rouge dans la première urne et une boule blanche dans la deuxième. Puisque ces urnes comportent respectivement Xn boules rouges et Xn boules blanches, il vient

    P(Yn=-1Xn=k)=kNkN=k2N2 pour tout k0;N. (1)

    De même, on obtient

    P(Yn=1Xn=k)=(N-k)2N2

    et, par complément,

    P(Yn=0Xn=k)=1-k2N2-(N-k)2N2=2(N-k)kN2.
  • (c)

    On remarque que E(Yn)=E(Xn+1)-E(Xn) avec

    E(Yn) =P(Yn=1)-P(Yn=-1)
    =k=0N(N-k)2N2P(Xn=k)-k=0Nk2N2P(Xn=k)
    =k=0NN2-2NkN2P(Xn=k)=1-2NE(Xn).

    Ainsi, on obtient la relation de récurrence

    E(Xn+1)=N-2NE(Xn)-1pour tout n.

    On reconnaît une suite arithmético-géométrique dont on peut exprimer le terme général sachant E(X0=0)

    E(Xn)=N2-N2(N-2N)npour tout n.

    On en déduit

    E(Xn)n+N2

    sauf si N=1 où l’on observe que E(Xn) alterne entre 0 et 1.

 
Exercice 81  2124   Correction  
  • (a)

    Pour q]-1;1[, établir la convergence et donne la valeur de n=0+nqn.

On lance un dé à six faces équilibré jusqu’à obtenir la valeur 6. On note X la variable aléatoire donnée par le nombre de lancers effectués. Si X est pair, on gagne X euros. Si X est impair, on perd X euros. On note Y la variable aléatoire représentant le gain.

  • (b)

    Écrire une fonction Python simulant la variable X. Écrire aussi une fonction Python simulant la variable Y.

  • (c)

    Donner la loi de X.

  • (d)

    Calculer l’espérance de Y

Solution

  • (a)

    On sait que la série entière géométrique xn est de rayon de convergence R=1. La série entière nxn est donc aussi de rayon de convergence R=1. Cela assure la convergence absolue de la série étudiée pour tout q]-1;1[. Au surplus,

    n=0+nqn=qn=1+nqn-1=qddq(n=0+qn)=qddq(11-q)=q(1-q)2.
  • (b)

    On peut anticiper que la variable X suit une loi géométrique de paramètre p=1/6 et employer la fonction geometric de la librairie numpy.random. À défaut, on peut être plus élémentaire

    import numpy.random as rd
    
    def X():
        n = 1
        while rd.randint(1, 7) != 6:
            n += 1
        return n
    
    def Y():
        x = X()
        if x % 2 == 0:
            return x
        else:
            return -x
    
  • (c)

    X est le temps d’attente dans la répétition indépendante d’une même épreuve de Bernoulli de paramètre p=1/6. La variable X suit donc une loi géométrique de paramètre p.

  • (d)

    Sous réserve de convergence absolue,

    E(Y) =yyP(Y=y)=k=1+2kP(Y=2k)-k=0+(2k+1)P(Y=-(2k+1))
    =k=1+2kP(X=2k)-k=0+(2k+1)P(X=2k+1)
    =k=1+2kp(1-p)2k-1-k=0+(2k+1)p(1-p)2k.

    Il y a convergence absolue des sommes manipulées ce qui assure la sommabilité de la famille définissant l’espérance de Y.

    Par introduction des termes d’indices pairs,

    E(Y) =k=1+4kp(1-p)2k-1-k=1+kp(1-p)k-1
    =4p1-pk=0+k((1-p)2)k-p1-pk=0+k(1-p)k.

    Par le calcul de la première question,

    E(Y)=4(1-p)p(1-(1-p)2)2-p(1-(1-p))2=4(1-p)p(2-p)2-1p.

    Enfin, par réduction au même dénominateur,

    E(Y)=-p(2-p)2.
 
Exercice 82  5295     ENSTIM (MP)Correction  
  • (a)

    Soit k*. Pour x]-1;1[, exprimer simplement

    n=0+(n+k)(n+k-1)××(n+1)xn.

On lance une pièce de monnaie ayant une probabilité p]0;1[ de faire pile. On compte N le nombre de lancers nécessaires pour obtenir pile pour la première fois. Ensuite, on lance la pièce N fois et l’on compte le nombre de fois X où l’on obtient pile.

  • (b)

    Déterminer la loi de X.

  • (c)

    Calculer l’espérance de X.

Solution

  • (a)

    On sait le développement en série entière

    11-x=n=0+xnpour tout x]-1;1[.

    Par dérivation à l’ordre k de ce développement,

    k!(1-x)k+1=n=0+(n+k)(n+k-1)××(n+1)xnpour tout x]-1;1[.
  • (b)

    La variable N suit une loi géométrique de paramètre p. Pour n*, lorsque N=n, la variable X suit une loi binomiale de paramètres n et p. La variable X prend globalement ses valeurs dans .

    Pour k*, la formule des probabilités totales donne

    P(X=k) =n=1+P(X=kN=n)P(N=n)
    =n=k+(nk)pk(1-p)n-kp(1-p)n-1
    =n=0+(n+kk)pk+1(1-p)2n+k-1
    =pk+1(1-p)k-11k!n=0+(n+k)(n+k-1)××(n+1)(1-p)2n
    =pk+1(1-p)k-11k!(k!(1-x)k+1)|x=(1-p)2
    =pk+1(1-p)k-11(2p-p2)k+1=(1-p)k-1(2-p)k+1.

    Pour k=0, le calcul est légèrement différent11 1 À la première étape, lorsque la somme débute à n=k au lieu de n=1, l’égalité devient fausse pour k=0 car cela adjoint un terme. car N prend seulement ses valeurs dans *,

    P(X=0) =n=1+P(X=0N=n)P(N=n)
    =n=1+(1-p)np(1-p)n-1=p(1-p)1-(1-p)2.
  • (c)

    L’espérance de X vaut alors

    E(X)=k=1+k(1-p)k-1(2-p)k+1=1(2-p)2ddx(11-x)x=1-p2-p=1.
 
Exercice 83  5858   Correction  

(Fonction caractéristique)

On appelle fonction caractéristique d’une variable aléatoire X prenant ses valeurs dans , l’application φX: donnée par

φX(t)=E(eitX).
  • (a)

    Vérifier que φX est définie, continue sur et 2π-périodique.

  • (b)

    On suppose que X admet une espérance. Vérifier que φX est de classe 𝒞1 sur et exprimer E(X) à l’aide de φX.

    Que peut-on dire si X est de variance finie? Exprimer alors V(X) à l’aide de φX.

  • (c)

    Application : Retrouver les valeurs connues de l’espérance et la variance d’une loi géométrique.

Solution

  • (a)

    Pour tout t, la variable aléatoire eitX est bornée, elle admet donc une espérance et cela assure la définition φX(t). De plus, la formule de transfert donne

    φX(t)=nun(t) avec un(t)=eintP(X=n).

    Les fonctions un sont continues et la série de fonctions un converge normalement11 1 Contrairement à l’usage, n parcourt au lieu de mais cela ne change par grand chose: il suffit de séparer la somme en deux selon le signe de l’indice pour adapter les propos. sur car

    nsupt|un(t)|=nP(X=n)<+

    On en déduit que la fonction φX est continue. Aussi, cette fonction est 2π-périodique car chacune des fonctions un l’est.

  • (b)

    Supposons que X admette une espérance:

    n|n|P(X=n)<+.

    Les fonctions un introduites au-dessus sont de classe 𝒞1 sur avec

    un(t)=ineintP(X=n).

    La série de fonctions un converge normalement puisque

    nsupt|un(t)|=n|n|P(X=n)<+

    On en déduit22 2 Encore une fois, la somme est indexée sur mais cela ne change rien. que φX est de classe 𝒞1 sur avec

    φX(t)=nineintP(X=n)=E(iXeitX).

    En particulier, E(X)=iφX(0).

    De façon analogue, on obtient que si X est de variance finie, φX est de classe 𝒞2 sur et E(X2)=φ′′(0). Par la formule de Huygens,

    V(X)=(φ(0))2φ′′(0).
  • (c)

    Si X suit une loi géométrique de paramètre p]0;1[, on obtient par sommation géométrique de raison q=(1p)eit avec |q|<1

    φX(t)=n*eint(1p)n1p=peit1(1p)eit.

    On a alors

    φX(t)=ipeit1(1p)eit+ip(1p)e2it(1(1p)eit)2

    et

    φX′′(t)=peit1(1p)eit3p(1p)e2it(1(1p)eit)22p(1p)2e3it(1(1p)eit)3.

    On en tire

    E(X)=1+1pp=1p

    et

    V(X)=1p2+1+3(1p)p+2(1p)2p2=1p21p.
 
Exercice 84  4018   Correction  

Soit X une variable aléatoire discrète à valeurs dans [a;b].

  • (a)

    Montrer que X admet une espérance m et que celle-ci est élément de [a;b].
    La variable X admet aussi une variance σ2 que l’on se propose de majorer.
    On introduit la variable aléatoire Y=X-m et les quantités

    t=y0yP(Y=y),s=y0y2P(Y=y) et u=P(Y0).
  • (b)

    Vérifier

    t2su.
  • (c)

    Calculer espérance et variance de Y. En déduire

    t2(σ2-s)(1-u).
  • (d)

    En exploitant les deux majorations précédentes, obtenir

    t2σ2/4.
  • (e)

    Conclure

    σ2(b-a)2/4.

Solution

  • (a)

    Posons M=max(-a,b). On a |X|M et la constante M admet une espérance. On en déduit que X admet une espérance. De plus,

    m=E(X)=xX(Ω)xP(X=x)xX(Ω)aP(X=x)=a

    et de même mb.

  • (b)

    Par l’inégalité de Cauchy-Schwarz

    (y0yP(Y=y))2y0y2P(Y=y)y0P(Y=y)=su.
  • (c)

    De façon immédiate E(Y)=0 et V(Y)=σ2. On en déduit

    t=-y<0yP(Y=y) et y<0y2P(Y=y)=σ2-s.

    En appliquant à nouveau l’inégalité de Cauchy-Schwarz

    t2(σ2-s)(1-u).
  • (d)

    Ce qui précède fournit

    t2min{su,(σ2-s)(1-u)}

    pour u[0;1] et s[0;σ2]. Sachant

    su(σ2-s)(1-u)s+σ2uσ2.

    Si s+σ2uσ2 alors

    min{su,(σ2-s)(1-u)}=suσ2(1-u)uσ2/4.

    Si s+σ2u>σ2, c’est analogue et la conclusion demeure.

  • (e)

    On a

    σ2=E(Y2)=y0y2P(Y=y)+y<0y2P(Y=y).

    Puisque Y est à valeurs dans [a-m;b-m], on a

    y0y2P(Y=y)y0(b-m)yP(Y=y)=(b-m)t

    et

    y<0y2P(Y=y)y<0(a-m)yP(Y=y)=-(a-m)t.

    On en déduit

    σ2(b-a)t.

    En élevant au carré

    σ4(b-a)2t2=(b-a)24σ2.

    Enfin, que σ soit nul ou non, on obtient

    σ2(b-a)24.

    Notons que cette inégalité est une égalité lorsque X suit une loi de Bernoulli de paramètre p=1/2.

 
Exercice 85  4949     MINES (MP)Correction  

Pour un entier n2, on donne une matrice Mn() dont les coefficients mi,j sont des variables aléatoires indépendantes et identiquement distribuées selon une loi d’espérance μ. Pour λ, calculer l’espérance de χM(λ).

Solution

On sait χM(λ)=det(λIn-M). Par la formule définissant le déterminant et la linéarité de l’espérance

E(χM(λ))=σ𝒮nε(σ)E(i=1n(λδσ(i),i-mσ(i),i)).

Par indépendance des variables, on a pour tout σ𝒮n,

E(i=1n(λδσ(i),i-mσ(i),i))=i=1nE(λδσ(i),i-mσ(i),i)=i=1n(λδσ(i),i-μ).

On en déduit

E(χM(λ))=χA(λ)

avec A la matrice dont tous les coefficients sont égaux à μ. La poursuite des calculs donne

E(χM(λ))=(λ-nμ)λn-1.
 
Exercice 86  4379    

Soit An() une matrice dont les coefficients sont des variables aléatoires indépendantes et identiquement distribuées selon la loi centrée réduite.

Calculer E(det(A)) et V(det(A)).

 
Exercice 87  4380    

Cinq amis prennent place autour d’une table ronde et possèdent chacun deux jetons. On suppose que les jetons sont tous blancs sauf deux bleus qui sont possédés par deux voisins. À chaque tour, chacun distribue arbitrairement ses deux jetons, l’un à son camarade de droite, l’autre à son camarade de gauche. Le jeu s’arrête lorsque l’un des amis prend possession des deux jetons bleus.

Calculer le nombre moyen de tours nécessaires pour que le jeu s’arrête.

[<] Calcul d'espérances et variances[>] Moments

 
Exercice 88  5632  Correction  

Soient X et Y deux variables aléatoires L2. Établir

(Cov(X,Y))2V(X)V(Y).

Solution

Par l’inégalité de Cauchy-Schwarz, on sait que pour toutes variables X,YL2,

E(XY)2E(X2)E(Y2).

Il suffit d’appliquer ce résultat aux variables X=X-E(X) et Y=Y-E(Y)L2 pour obtenir

(Cov(X,Y))2 =E((X-E(X))(Y-E(Y)))2
E((X-E(X))2)E((Y-E(Y))2)=V(X)V(Y).
 
Exercice 89  5339  Correction  

Pour XL2(Ω), on note σ(X)=V(X) l’écart-type de la variable X.

Pour X,YL2(Ω), comparer σ(X+Y) et σ(X)+σ(Y).

Solution

Soient X,YL2(Ω). On sait X+YL2(Ω) et

V(X+Y)=V(X)+2Cov(X,Y)+V(Y).

Or, par l’inégalité de Cauchy-Schwarz,

|Cov(X,Y)|V(X)V(Y)

et donc

V(X+Y)V(X)+2V(X)V(Y)+V(Y)=(V(X)+V(Y))2.

On en déduit

σ(X+Y)σ(X)+σ(Y).
 
Exercice 90  5862  Correction  

Soit (Xn)n1 une suite de variables aléatoires indépendantes et identiquement distribuées selon une loi de Bernoulli de paramètre p]0;1[.

Pour n1, on pose Yn=XnXn+1 et Sn=Y1++Yn.

  • (a)

    Identifier la loi de Yn.

  • (b)

    Calculer l’espérance et la variance de Sn.

  • (c)

    Soit ε>0. Justifier

    P(|Snnp2|ε)n+0.

Solution

  • (a)

    La variable Yn prend ses valeurs dans {0,1} et, par indépendance,

    P(Yn=1)=P(Xn=1,Xn+1=1)=P(Xn=1)P(Xn+1=1)=p2.

    La variable Yn suit une loi de Bernoulli de paramètre p2.

  • (b)

    Notons que les variables Yn ne sont pas indépendantes: on ne peut pas affirmer que Sn suit une loi binomiale de paramètres n et p2. Cependant, par linéarité,

    E(Sn)=E(Y1)++E(Yn)=np2.

    Aussi,

    Cov(Yn,Yn+1) =E(YnYn+1)E(Yn)E(Yn+1)
    =P(YnYn+1=1)p2×p2
    =P(Xn=1)P(Xn+1=1)P(Xn+2=1)p4=p3p4

    alors que, par indépendance par paquets,

    k2,Cov(Yn,Yn+k)=0.

    On en déduit

    V(Sn) =i=1nV(Yi)+21i<jnCov(Yi,Yj)
    =i=1nV(Yi)+2i=1n1Cov(Yi,Yi+1)
    =i=1np2(1p2)+2(n1)(p3p4)
    =np2+2(n1)p3(3n2)p4.
  • (c)

    Par l’inégalité de Bienaymé-Tchebychev,

    P(|Snnp2|ε)=P(|SnE(Sn)|nε)V(Sn)n2ε2n+0.
 
Exercice 91  5001   

Soient X1 et X2 deux variables aléatoires réelles suivant toutes les deux la loi d’une variable aléatoire réelle X bornée.

On suppose que X1+X2 suit la loi de la variable 2X. Montrer que X1=X2 presque sûrement11 1 Cela signifie P(X1=X2)=1..

 
Exercice 92  5320   Correction  

L’univers Ω est l’ensemble des permutations de 1;n (avec n*) que l’on munit de la tribu discrète et de la probabilité uniforme. Pour k1;n, on définit une variable aléatoire Xk sur Ω en posant, pour tout σ élément de Ω,

Xk(σ)={1 si σ(k)=k0 sinon.
  • (a)

    Identifier la loi de la variable Xk.

  • (b)

    Soient i,j1;n distincts. Calculer Cov(Xi,Xj).

  • (c)

    En déduire l’espérance et la variance de la variable N donnant le nombre de points fixes d’une permutation σ élément de Ω.

Solution

  • (a)

    La variable Xk prend ses valeurs dans {0,1}, elle suit donc une loi de Bernoulli. Pour déterminer son paramètre, il suffit d’évaluer P(Xk=1).

    Il y a n! éléments dans Ω et, parmi ceux-ci, il y a exactement (n-1)! permutations fixant k car ces dernières s’identifient par restriction aux permutations de 1;n{k}. La probabilité étant uniforme,

    P(Xk=1)=(n-1)!n!=1n.

    La variable Xk suit une loi de Bernoulli de paramètre p=1n.

  • (b)

    Méthode: Par la formule de Huygens,

    Cov(Xi,Xj)=E(XiXj)-E(Xi)E(Xj).

    La variable XiXj prend ses valeurs dans {0,1}, elle suit aussi une loi de Bernoulli. La variable XiXj prend la valeur 1 uniquement lorsque i et j sont des points fixes de la permutation étudiée. Les permutations fixant i,j s’identifient par restriction aux permutations de 1;n{i,j}, il y en a exactement (n-2)! et

    P(XiXj=1)=(n-2)!n!=1n(n-1).

    La variable XiXj suit une loi de Bernoulli de paramètre p=1n(n-1).

    L’espérance d’une loi de Bernoulli étant égale à son paramètre, on obtient11 1 La covariance obtenue est positive et cela peut être attendu car, si une permutation admet i pour point fixe, cela réduit les valeurs possibles pour j et accroît la probabilité que j soit point fixe.

    Cov(Xi,Xj)=E(XiXj)-E(Xi)E(Xj)=1n(n-1)-1n1n=1(n-1)n2.
  • (c)

    La variable N correspond à la somme X1++Xn. Par linéarité de l’espérance,

    E(N)=k=1nE(Xk)=k=1n1n=1.

    Méthode: La variance d’une somme se développe par bilinéarité de la covariance.

    Par développement,

    V(N) =Cov(N,N)=Cov(i=1nXi,j=1nXj)=i=1nj=1nCov(Xi,Xj)
    =i=1nV(Xi)+21i<jnCov(Xi,Xj).

    La première somme comporte n termes égaux à la variance d’une loi de Bernoulli de paramètre 1n et la seconde somme comporte n(n-1)2 égaux à la covariance précédemment calculée. On peut alors terminer le calcul

    V(N)=n1n(1-1n)+2n(n-1)21n2(n-1)=1.
 
Exercice 93  5400   Correction  

(Processus de comptage)

Un dispositif de comptage dénombre les visiteurs qui entrent dans un musée. On note X0=0 et, pour tout n*, on introduit la variable aléatoire Xn qui donne le nombre de visiteurs ayant passé le portail entre les instants 0 et n. On admet que la variable Xn+1Xn suit une loi de Poisson de paramètre α et que les différentes variables Xn+1Xn pour n0 sont indépendantes.

Soient (n,m)2 avec 0mn.

  • (a)

    Déterminer la loi de XnXm.

  • (b)

    Calculer E(Xm(XnXm)) puis la covariance des variables aléatoires Xm et Xn

  • (c)

    Quelle est la loi du couple (Xm,Xn)?

  • (d)

    Pour n0, on pose p=m/n. Pour k, calculer la loi de probabilité de Xm sachant que Xn=k puis identifier cette loi.

On note N la variable aléatoire qui prend pour valeur le plus petit entier n>0 tel qu’il soit entré au moins un visiteur entre les instants 0 et n.

  • (e)

    Pour n*, exprimer l’évènement (N=n) en fonction de Xn1 et Xn, puis déterminer la loi de N et donner son espérance.

Solution

  • (a)

    Par somme de variables aléatoires de Poisson indépendantes, XnXm suit une loi de Poisson de paramètre α(nm).

  • (b)

    La variable Xm=XmX0 suit une loi de Poisson de paramètre αm. En vertu du lemme des coalitions, les variables

    Xm=XmX0=k=0m1(Xk+1Xk)etXnXm=XnXm=k=mn1(Xk+1Xk)

    sont indépendantes.

    E(Xm(XnXm))=E(Xm)E((XnXm))=α2m(nm).

    On en déduit la covariance de Xm et Xn

    Cov(Xm,Xn) =E(XmXn)E(Xm)E(Xn)
    =E(Xm(XnXm))+E(Xm2)E(Xm)E(Xn)
    =E(Xm(XnXm))+V(Xm)+E(Xm)2E(Xm)E(Xn)
    =α2m(nm)+αm+α2m2α2mn=αm.

    La formule proposée n’est pas symétrique en m et n mais cela s’explique par la condition mn.

  • (c)

    Le couple (Xm,Xn) prend ses valeurs dans {(j,k)2|jk} car Xm et XnXm prennent leurs valeurs dans .

    Soit (j,k)2 tel que jk. On a

    P((Xm,Xn)=(j,k))=P(Xm=j,Xn=k)=P(Xm=j,XnXm=kj).

    Par indépendance,

    P((Xm,Xn)=(j,k)) =P(Xm=j)P(XnXm=kj)
    =eαm(αm)jj!×eα(nm)(α(nm)kj)(kj)!
    =eαnαkmj(nm)kjj!(kj)!.
  • (d)

    Sous la condition (Xn=k), la variable aléatoire Xm prend ses valeurs dans 0;k. Pour j0;k,

    P(Xm=jXn=k)=P(Xm=j,Xn=k)P(Xn=k)=(kj)pj(1p)kj.

    On reconnaît une loi binomiale de paramètres k et p.

  • (e)

    Immédiatement,

    (N=n)=(Xn1=0)(Xn>0)=(Xn1=0)(XnXn1>0).

    La variable N prend ses valeurs dans * et, par indépendance,

    P(N=n) =P(Xn1=0)P(XnXn1>0)
    =P(Xn1=0)(1P(XnXn1=0))
    =eα(n1)(1eα).

    On reconnaît une loi géométrique de paramètre 1eα et l’on peut alors donner son espérance et sa variance

    E(N)=11eα.
 
Exercice 94  4086   Correction  

Soient X et Y deux variables aléatoires réelles dont les carrés sont d’espérances finies.

On suppose V(X)>0. Déterminer a,b minimisant la quantité

E((Y-(aX+b))2).

Solution

On a

E((Y-(aX+b))2)=V(Y-(aX+b))+E(Y-(aX+b))2.

D’une part

V(Y-(aX+b))=V(Y-aX)=a2V(X)-2aCov(X,Y)+V(Y)

et donc

V(Y-(aX+b)) =V(Y-aX)
=(a-Cov(X,Y)V(X))2V(X)+V(X)V(Y)-(Cov(X,Y))2V(X).

D’autre part

E(Y-(aX+b))2=0 pour b=E(Y)-aE(X).

On en déduit que

E((Y-(aX+b))2)

est minimale pour

a=Cov(X,Y)V(X)etb=V(X)E(Y)-Cov(X,Y)E(X)V(X).

Ces valeurs de a et b réalisent une régression linéaire: elles donnent la meilleure expression linéaire de Y en fonction de X.

 
Exercice 95  4048   Correction  

Un signal est diffusé via un canal et un bruit vient malheureusement s’ajouter à la transmission. Le signal est modélisé par une variable aléatoire discrète réelle S d’espérance mS et de variance σS2 connues. Le bruit est modélisé par une variable B indépendante de S d’espérance nulle et de variance σB2>0. Après diffusion, le signal reçu est X=S+B.

Déterminer a,b pour que Y=aX+b soit au plus proche de S c’est-à-dire telle que l’espérance E((Y-S)2) soit minimale.

Solution

Par la formule de Huygens

E((Y-S)2)=V(Y-S)+(E(Y-S))2

avec

E(Y-S)=(a-1)mS+b

et

V(Y-S)=V((a-1)S+aB+b)=(a-1)2σs2+a2σB2

car la covariance de S et B est nulle.
La quantité V(Y-S) est minimale pour

a=σS2σS2+σB2

et l’on peut alors rendre le terme (E(Y-S))2 nul pour

b=(1-a)mS.

Au final

Y=σS2σS2+σB2X+σB2σS2+σB2mS.
 
Exercice 96  4047   Correction  

Soient X1,,Xn des variables aléatoires discrètes réelles L2. On appelle matrice de covariance de la famille (X1,,Xn) la matrice

Σ=(Cov(Xi,Xj))1i,jn.
  • (a)

    Soit X=a1X1++anXn avec ai.

    Exprimer la variance de X en fonction de la matrice Σ.

  • (b)

    En déduire que les valeurs propres de la matrice Σ sont toutes positives.

Solution

  • (a)

    On a

    V(X)=Cov(X,X).

    Par bilinéarité

    V(a1X1++anXn)=i=1nj=1naiajV(Xi,Xj).

    Ce calcul est aussi le résultat du produit matriciel

    CΣC avec C=(a1an).
  • (b)

    Soit C=(a1an) un vecteur propre de Σ associé à une valeur propre λ.
    On a CΣC=λCC=λC2 et, pour X=a1X1++anXn, V(X)0 donc

    λ=V(X)C20.
 
Exercice 97  4378   

Soient X1,,Xn des variables aléatoires discrètes réelles L2. On appelle matrice de covariance de la famille (X1,,Xn), la matrice

M=(Cov(Xi,Xj))1i,jnn().

Montrer que cette matrice est diagonalisable et à valeurs propres positives.

 
Exercice 98  5273     ENSTIM (MP)Correction  

Soient X,Y des variables aléatoires indépendantes suivant une loi de Poisson de paramètre λ+*.

  • (a)

    Déterminer les fonctions génératrices de X et 3Y.

  • (b)

    En déduire la fonction génératrice de Z=X+3Y.

  • (c)

    Calculer E(Z) et V(Z).

  • (d)

    Les variables X et Z sont-elles indépendantes?

  • (e)

    Trouver le minimum de la fonction tV(X+tY).

Solution

  • (a)

    Pour tout t réel,

    GX(t)=n=0+P(X=n)tn=n=0+e-λ(λt)nn!=eλ(t-1)

    et

    G3Y(t)=E(t3Y)=E((t3)Y)=GY(t3)=eλ(t3-1).
  • (b)

    Par indépendance des variables X et 3Y,

    GZ(t)=GX(t)G3Y(t)=eλ(t-1)(t2+t+2).
  • (c)

    Par linéarité,

    E(Z)=E(X)+3E(Y)=4λ.

    Par indépendance,

    V(Z)=V(X)+9V(Y)=10λ.
  • (d)

    Les variables X et Z ne sont pas indépendantes car

    P(X=1,Z=0)=0etP(X=1)P(Z=0)0.
  • (e)

    Par indépendance,

    V(Z)=V(X+tY)=V(X)+t2V(Y).

    Cette expression est minimale pour t=0.

[<] Covariances[>] Inégalités de concentration

 
Exercice 99  4025  

On dit qu’une variable aléatoire X admet un moment d’ordre p lorsque Xp admet une espérance finie.

Soit X une variable aléatoire réelle discrète admettant un moment d’ordre n.

Montrer que X admet un moment d’ordre k pour tout k0;n.

 
Exercice 100  5578  Correction  

Soient X et Y deux variables aléatoires réelles dont les carrés sont d’espérances finies.

On suppose que la variable X n’est pas presque sûrement nulle et que l’on a

E(XY)2=E(X2)E(Y2).

Montrer qu’il existe λ tels que Y=λX presque sûrement.

Solution

Pour λ, on introduit la variable aléatoire Zλ=(λX-Y)2. La variable Zλ admet une espérance et, par linéarité,

E(Zλ)=E(λ2X2-2λXY+Y2)=λ2E(X2)-2λE(XY)+E(Y2).

Cette expression est un trinôme11 1 En effet E(X2)>0 car X n’est pas presque sûrement nulle. en λ de discriminant

Δ=4E(XY)2-4E(X2)E(Y2)=0.

Il existe donc λ tel que E(Zλ)=0. Or la variable Zλ est à valeurs positives et donc Zλ=0 presque sûrement, c’est-à-dire Y=λX presque sûrement.

 
Exercice 101  5377  Correction  

Soient X et Y deux variables aléatoires discrètes réelles bornées. On suppose

E(Xk)=E(Yk)pour tout k*.

A-t-on nécessairement P(X=Y)=1?

Solution

La réponse est négative. Si X suit une loi de Bernoulli de paramètre 1/2 et si Y=1-X, on vérifie

E(Xk)=12=E(Yk)pour tout k*

alors que P(XY)=1!

 
Exercice 102  5376   Correction  

Soient X et Y deux variables aléatoires discrètes réelles prenant chacune leurs valeurs dans [a;b]. On suppose

E(Xk)=E(Yk)pour tout k.

Montrer que, pour toute fonction f:[a;b] continue,

E(f(X))=E(f(Y)).

Solution

Par linéarité, on vérifie

E(P(X))=E(P(Y))pour tout P[X].

Soit f:[a;b] une fonction continue. Pour tout ε>0, le théorème de Weierstrass assure l’existence d’un polynôme P[X] tel que

supt[a;b]|f(t)-P(t)|ε.

On a alors

|E(f(X))-E(P(X))|=|E(f(X)-P(X))|E(|f(X)-P(X)|)ε

et de même

|E(f(Y))-E(P(Y))|ε avec E(P(X))=E(P(Y)).

On en déduit

|E(f(X))-E(f(Y))|2ε.

Cela étant vrai pour tout ε>0, on peut conclure.

 
Exercice 103  4084   

(Fonction génératrice des moments)

Soit X une variable aléatoire discrète réelle. On note IX l’ensemble des t pour lesquels la variable etX admet une espérance finie et l’on pose

MX(t)=E(etX)pour tout tIX.
  • (a)

    Montrer que IX est un intervalle contenant 0.

  • (b)

    On suppose que 0 est intérieur à l’intervalle IX. Montrer que la variable X admet des moments à tout ordre et que, sur un intervalle centré en 0,

    MX(t)=n=0+E(Xn)n!tn.
 
Exercice 104  4023     MINES (MP)Correction  

Soit X une variable aléatoire discrète réelle. Sous réserve d’existence, on appelle fonction génératrice des moments de X l’application

MX(t)=E(etX).
  • (a)

    On suppose que X suit une loi de Poisson de paramètre λ. Déterminer MX(t).

  • (b)

    On suppose que la fonction MX est définie sur un intervalle ]-a;a[.
    Montrer qu’elle y est de classe 𝒞 et que l’on a

    E(Xn)=MX(n)(0).

Solution

  • (a)

    Soit t, on a, avec convergence absolue

    MX(t)=k=0+e-λλkk!ekt=eλ(et-1).
  • (b)

    Si X ne prend qu’un nombre fini de valeurs {x1,,xn}, l’affaire est entendue: la fonction génératrice des moments de X est développable en série entière sur avec

    MX(t)=k=1netxkP(X=xk)

    et après permutation des sommes

    MX(t)==0+1!k=1n(xk)P(X=xk)t==0+1!E(X)t.

    Si X prend une infinité de valeurs, c’est plus technique…
    Notons (xn)n une énumération des valeurs de X. Pour t]-a;a[

    MX(t)=n=0+P(X=xn)etxn=n=0+un(t)

    avec

    un(t)=P(X=xn)etxn.

    Par hypothèse, la série de fonctions convergence simplement sur ]-a;a[.
    Les fonctions un sont toutes de classe 𝒞 avec

    un(k)(t)=P(X=xn)xnketxn.

    Soit α>0 tel que [-α;α]]-a;a[.
    Pour t[-α;α], on peut écrire

    |un(k)(t)|P(X=xn)|xnk|eα|xn|.

    Introduisons ρ]α;a[. On peut écrire

    P(X=xn)|xn|keα|xn|=|xn|ke(α-ρ)|xn|×P(X=xn)eρ|xn|.

    D’une part, la fonction ttke(α-ρ)t est définie et continue sur [0;+[ et de limite nulle en +, elle est donc bornée ce qui permet d’introduire une constante Mk vérifiant

    n,|xn|ke(α-ρ)|xn|Mk.

    D’autre part,

    P(X=xn)eρ|xn|P(X=xn)eρxn+P(X=xn)e-ρxn.

    En vertu de la convergence en ±ρ de la série définissant MX(t), on peut assurer la convergence de la série positive

    P(X=xn)eρ|xn|.

    La majoration uniforme

    |un(k)(t)|MkP(X=xn)eρ|xn|

    donne la convergence normale de un(k) sur [-α;α].
    Via convergence uniforme sur tout segment, on peut conclure que MX est de classe 𝒞 sur ]-a;a[.
    De plus, on a pour tout ordre de dérivation k et avec sommabilité la relation

    MX(k)(0)=n=0+un(k)(0)=n=0+xnkP(X=xn)=E(Xk).

[<] Moments[>] Fonctions génératrices

 
Exercice 105  5504  Correction  

Soit X une variable aléatoire discrète à valeurs dans [a;b].

Montrer que pour tout c[a;b],

E(X)-cb-cP(Xc)E(X)-ac-a.

Solution

Les événements (Xc) et (X-ac-a) sont identiques. La variable X-a étant à valeurs positives, l’inégalité de Markov donne

P(Xc)=P(X-ac-a)E(X-a)c-a=E(X)-ac-a.

Les événements (X<c) et (b-X>b-c) sont identiques. La variable b-X étant à valeurs positives, l’inégalité de Markov donne

P(X<c)=P(b-X>b-c)E(b-X)b-c=b-E(X)b-c.

Par passage à l’événement contraire,

P(Xc)=1-P(X<c)1-b-E(X)b-c=E(X)-cb-c.
 
Exercice 106  5365  Correction  
  • (a)

    Énoncer et démontrer l’inégalité de Markov.

  • (b)

    Application : Soit X une variable aléatoire à valeurs réelles.

    Montrer que pour tout réel a

    P(Xa)E(eX-a).

Solution

  • (a)

    Soient X une variable aléatoire à valeurs dans + et a0. Posons A=(Xa). On remarque Xa1A et par croissance et linéarité de l’espérance

    E(X)aE(1A)=aP(A)=aP(Xa)

    ce qui constitue l’inégalité de Markov.

  • (b)

    Par stricte croissance de l’exponentielle, on remarque

    (Xa)=(eXea).

    La variable aléatoire Y=eX est positive et, pour a, l’inégalité de Markov donne

    E(Y)eaP(Yea).

    On en déduit

    P(Xa)e-aE(Y)=E(eX-a).
 
Exercice 107  5861  Correction  

Soient X une variable aléatoire réelle et f:++ une fonction strictement croissante. Montrer

a>0,P(|X|a)E(f(|X|))f(a).

Solution

Soit a>0. Par stricte croissance de f, on remarque l’égalité d’événements

(|X|a)=(f(|X|)f(a)).

On applique l’inégalité de Markov à la variable aléatoire positive Y=f(|X|) et l’on a

b>0,P(Yb)E(Y)b.

Pour b=f(a)>0, on obtient l’inégalité voulue.

 
Exercice 108  5630  Correction  

Soit X une variable aléatoire discrète telle que E(X)=V(X)=λ avec λ>0.

  • (a)

    Montrer

    P(X2λ)P((X-λ+1)2(λ+1)2).
  • (b)

    En déduire

    P(X2λ)1λ+1.

Solution

  • (a)

    On remarque la comparaison d’événements

    (X2λ)=(X-λ+1λ+1)((X-λ+1)2(λ+1)2).

    Par croissance des probabilités,

    P(X2λ)P((X-λ+1)2(λ+1)2).
  • (b)

    La variable (X-λ+1)2 est à valeurs positives. Par l’inégalité de Markov,

    P((X-λ+1)2(λ+1)2)1(λ+1)2E((X-λ+1)2).

    Or, par linéarité,

    E((X-λ+1)2)=E((X-λ)2)+2(E(X)-λ=0)+1=V(X)+1=λ+1

    et donc

    P(X2λ)1λ+1.
 
Exercice 109  4113  Correction  

Soit (Xn)n1 une suite de variables aléatoires deux à deux indépendantes avec Xn suivant une loi de Bernoulli de paramètre pn. Montrer que pour tout ε>0

limn+P(|X1++Xnn-1ni=1npi|<ε)=1.

Solution

Posons

X=X1++Xnn.

Par linéarité de l’espérance,

E(X)=1ni=1nE(Xi)=1ni=1npi.

Les variables étant deux à deux indépendantes,

V(X)=1n2i=1nV(Xi)=1n2i=1npi(1-pi)14n

car x(1-x)1/4 pour tout x[0;1].

En appliquant l’inégalité de Bienaymé-Tchebychev, on écrit

P(|X-E(X)|ε)V(X)ε2.

En passant au complémentaire, on obtient

P(|X1++Xnn-1ni=1npi|<ε)1-14nε2n+1

ce qui permet de conclure.

 
Exercice 110  4122   Correction  

Soit f:[0;1] une fonction continue et n*.

  • (a)

    Soit Sn une variable aléatoire suivant une loi binomiale de paramètres n et x[0;1] et Xn=Sn/n
    Donner les valeurs de l’espérance et de la variance de Xn. Justifier

    α>0,P(|Xn-x|>α)14nα2.
  • (b)

    On introduit la variable aléatoire Yn=f(Xn) et l’on pose Bn(f)(x)=E(Yn).
    Vérifier que Bn(f)(x) est une fonction polynôme de la variable x.
    Soit ε>0. La fonction f étant continue sur le segment [0;1], elle y est uniformément continue (théorème de Heine). Ceci assure l’existence d’un réel α>0 vérifiant

    (x,y)[0;1]2,|y-x|α|f(y)-f(x)|ε.

    Au surplus, la fonction f étant continue sur un segment, elle y est bornée (théorème de la borne atteinte). Ceci permet d’introduire un réel M vérifiant

    x[0;1],|f(x)|M.
  • (c)

    Avec les notations ci-dessus, établir

    ||kn-x|>α(f(kn)-f(x))P(Xn=k/n)|M2nα2

    et

    ||kn-x|α(f(kn)-f(x))P(Xn=k/n)|ε.
  • (d)

    Conclure qu’à partir d’un certain rang, on a

    x[0;1],|Bn(f)(x)-f(x)|2ε.

    Ce résultat constitue une démonstration «  probabiliste  » du théorème de Stone-Weierstrass assurant que toute fonction réelle continue sur un segment peut être uniformément approchée par une fonction polynôme.

Solution

  • (a)

    On sait E(Sn)=nx et V(Sn)=nx(1-x). On en déduit

    E(Xn)=x et V(Xn)=x(1-x)n.

    Par l’inégalité de Bienaymé-Tchebychev, on peut affirmer

    P(|Xn-E(Xn)|>α)V(Xn)α2.

    On en déduit

    P(|Xn-x|>α)x(1-x)nα214nα2

    car x(1-x)1/4 pour tout x[0;1].

  • (b)

    Sachant que les valeurs prises par Xn figurent parmi les k/n avec k0;n, la formule de transfert donne

    E(Yn)=k=0nf(kn)P(Xn=kn) avec P(Xn=kn)=P(Sn=k)=(nk)xk(1-x)n-k.

    Ainsi,

    Bn(f)(x)=k=0n(nk)f(kn)xk(1-x)n-k.

    La fonction xBn(f)(x) est bien une fonction polynôme.

  • (c)

    Sachant

    |f(kn)-f(x)||f(kn)|+|f(x)|2M

    on obtient

    ||kn-x|>α(f(kn)-f(x))P(Xn=k/n)|2M|kn-x|>αP(Xn=k/n)=2MP(|Xn-x|>α)

    et donc

    ||kn-x|>α(f(kn)-f(x))P(Xn=k/n)|M2nα2.

    Aussi, lorsque |k/n-x|α, on a

    |f(kn)-f(x)|ε

    et donc

    ||kn-x|α(f(kn)-f(x))P(Xn=k/n)|ε|kn-x|αP(Xn=k/n)ε.
  • (d)

    Pour n assez grand, on a M/2nα2ε et alors

    |Bn(f)(x)-f(x)|||kn-x|α(f(kn)-f(x))P(Xn=k/n)|+||kn-x|>α(f(kn)-f(x))P(Xn=k/n)|2ε.
 
Exercice 111  4183     CENTRALE (MP)Correction  
  • (a)

    Avec Python, écrire une fonction S(n,p) qui simule une variable aléatoire Sn=Y/n, où Y suit une loi binomiale (n,p).

    En déduire une fonction test(n,p) qui affiche les courbes interpolant les points (k,Sk), puis

    (k,pln(k)k) et (k,p+ln(k)k).

    Que remarque-t-on?

  • (b)

    Soit t et x[1;1]. Montrer que etx12(1x)et+12(1+x)et.

  • (c)

    On considère une variable aléatoire X telle que |X|1 et E(X)=0. Montrer que exp(tX) est d’espérance finie et

    E(exp(tX))ch(t)exp(t2/2).
  • (d)

    Soit X1,,Xn des variables aléatoires centrées indépendantes telles que, pour tout i, |Xi|ai. On pose Sn=i=1nXi. Montrer

    E(exp(tS))exp(t22i=1nai2).

    Soit ε>0. Montrer

    P(Sn>ε)exp(tε+t22i=1nai2).
  • (e)

    En choisissant une bonne valeur de t, montrer

    P(Sn>ε)exp(ε22i=1nai2).
  • (f)

    Commenter le résultat observé à la première question.

Solution

  • (a)
    import random as rnd
    import math
    
    def S(n,p):
        R = 0
        for k in range(n+1):
            if rnd.random() < p: R = R + 1
        return R/n
    
    import matplotlib.pyplot as plt
    
    def test(n,p):
        Lk = range(1,n)
        LS = [S(k,p) for k in Lk]
        Linf = [p - math.sqrt(math.log(k)/k) for k in Lk]
        Lsup = [p + math.sqrt(math.log(k)/k) for k in Lk]
        plt.clf()
        plt.plot(Lk,LS)
        plt.plot(Lk,Linf)
        plt.plot(Lk,Lsup)
    

    On remarque que la courbe expérimentale est plutôt bien encadrée.

  • (b)

    On a

    tx=(1λ)×(t)+λt avec λ=12(1+x)[0;1].

    La convexité de la fonction exponentielle produit alors le résultat voulu.

  • (c)

    La variable aléatoire X est bornée donc aussi exp(tX) qui est alors d’espérence finie. L’inégalité au-dessus permet d’écrire la comparaison

    exp(tX)12(1X)et+12(1+X)et.

    Par croissance et linéarité de l’espérance, il vient

    E(exp(tX))12(1E(X))et+12(1+E(X))et.

    Enfin, la nullité de l’espérance de X permet de conclure

    E(exp(tX))ch(t).

    En développant en série entière ch(t) et exp(t2/2), on remarque ch(t)exp(t2/2) car on peut comparer les termes sommés respectifs.

  • (d)

    On écrit Xi=aiYi avec E(Yi)=0 et |Yi|1 et alors

    E(exp(tS))=E(i=1nexp(taiYi)).

    Par indépendance et l’inégalité précédente

    E(exp(tS))=i=1nE(exp(taiYi))i=1nexp(12t2ai2)=exp(t22i=1nai2).

    Par l’inégalité de Markov,

    P(Sn>ε)=P(exp(tSn)>exp(tε))exp(tε)E(exp(tSn))

    ce qui donne l’inégalité voulue.

  • (e)

    On prend

    t=εi=1nai2.
  • (f)

    Sn est la somme de n variables de Bernoulli indépendantes. En centrant celle-ci, on peut (avec largesse) prendre ai=1 et alors

    P(Snp>ε)exp(ε22n).

    Avec ε=(ln(n))/n, on obtient

    P(Sn>p+ln(n)n)exp(ln(n)2)=1n.

    Par passage à l’opposé de Sn, on obtient l’autre inégalité.

 
Exercice 112  4948     MINES (MP)Correction  

Soient (Ω,𝒜,P) un espace probabilisé et X une variable aléatoire centrée prenant ses valeurs dans [1;1].

  • (a)

    Par un argument de convexité, montrer que, pour tout x[1;1] et tout t,

    etx12(1x)et+12(1+x)et.
  • (b)

    Soit t. Montrer que E(etX) existe et

    E(etX)et2/2.
  • (c)

    Soit r>0. Établir

    P(|X|>r)2er2/2.

Solution

  • (a)

    On pose λ=(1+x)/2[0;1] et la convexité de l’exponentielle donne

    e(1λ)(t)+λt(1λ)et+λet

    ce qui produit la comparaison voulue.

  • (b)

    La variable X est bornée et donc Y=etx l’est aussi et par conséquent admet une espérance. Par ce qui précède, on a la comparaison

    Y12(1X)et+12(1+X)et.

    Par croissance de l’espérance et nullité de l’espérance de X

    E(Y)12et+12et=ch(t).

    Par développement en série entière et en employant (2n)!2nn!, on obtient

    ch(t)=n=0+t2n(2n)!n=0+t2n2nn!=et2/2.
  • (c)

    Par l’inégalité de Markov, on a pour tout t>0,

    P(X>r)=P(etX>etr)etrE(etX)etr+t2/2.

    Pour t=r, il vient

    P(X>r)er2/2.

    En considérant X=X, on obtient

    P(X<r)er2/2

    et l’on conclut

    P(|X|>r)2er2/2.
 
Exercice 113  4087  Correction  

Soit X une variable aléatoires réelle discrète admettant une variance σ2 (avec σ>0). Montrer

α>0,P(|X-E(X)|<ασ)1-1α2.

Solution

Par l’inégalité de Bienaymé-Tchebychev,

P(|X-E(X)|ασ)<σ2(ασ2)=1α2.

On conclut par considération d’évènement complémentaire.

 
Exercice 114  5007      X (PSI)

(Inégalité de Chernoff)

Soit Y une variable aléatoire discrète prenant ses valeurs dans [α;β] avec α<β. On suppose que la variable Y est d’espérance nulle.

  • (a)

    Soit Φ:[α;β] une fonction de classe 𝒞2 vérifiant

    Φ(α)=Φ(β)=0etΦ′′0.

    Montrer que Φ(y)0 pour tout y[α;β].

  • (b)

    Soit s un réel. Montrer

    (β-α)esy(β-y)esα+(y-α)esβpour tout y[α;β].

    En déduire

    (β-α)E(esY)βesα-αesβ.
  • (c)

    Soit s un réel. Montrer

    ln(βesα-αesβ)18(β-α)2s2+ln(β-α).

    En déduire

    E(esY)exp((β-α)28s2).

Soient n* et X1,,Xn des variables aléatoires indépendantes prenant leurs valeurs dans [a;b] avec a<b. On pose S la somme de ces variables et l’on introduit t un réel strictement positif.

  • (d)

    Montrer que pour tout s>0,

    P(S-E(S)t) e-sti=1nE(es(Xi-E(Xi)))
    exp(-st+n(b-a)28s2).
  • (e)

    En déduire l’inégalité de Chernoff

    P(S-E(S)t)exp(-2t2n(b-a)2).
 
Exercice 115  5367   Correction  

Soient X1,,Xn des variables aléatoires indépendantes de loi uniforme sur {-1,1}. On pose Sn=X1++Xn.

  • (a)

    Soient α et λ des réels strictement positifs. Établir

    P(Snn>α)=P(eλSn>eλnα).
  • (b)

    En déduire que pour tout α>0,

    P(Snn>α)e-nα2/2.

    On admettra l’inégalité ch(λ)eλ2/2 pour tout λR.

Solution

  • (a)

    Soient α et λ des réels strictement positifs. Par stricte croissance de la fonction teλt, on a l’égalité d’événements

    (Snn>α)=(Sn>nα)=(eλSn>eλnα).
  • (b)

    Par l’inégalité de Markov11 1 L’inégalité de Markov propose une majoration de P(Xa). Sachant (X>a)(Xa), elle peut aussi être employée pour majorer P(X>a). appliquée à la variable Y=eλSn, il vient

    P(Snn>α)=P(eλSn>eλnα)e-λnαE(eλSn).

    On peut calculer l’espérance figurant en second membre par l’indépendance des variables X1,,Xn qui entraîne22 2 Cette affirmation se justifie aisément par le théorème d’indépendance. celle des variables eλX1,,eλXn:

    E(eλSn) =E(eλX1××eλXn)
    =E(eλX1)××E(eλXn)
    =(eλ+e-λ2)n=(ch(λ))n.

    En exploitant l’inégalité de la question précédente, on poursuit

    P(Snn>α)e-λnα(ch(λ))ne-λnαenλ2/2.

    Il reste à choisir convenablement la valeur de λ. Pour33 3 Le polynôme du second degré λn2λ2-nαλ est minimal en α. λ=α, on conclut44 4 Ce résultat est un cas particulier de l’inégalité de Chernoff. Voir le sujet 5007.

    P(Snn>α)e-nα2enα2/2=e-nα2/2.
 
Exercice 116  5008   

Soient X1,,Xn des variables aléatoires indépendantes de loi uniforme11 1 On dit que les variables X1,,Xn suivent une loi de Rademacher. sur {-1,1}. On pose Sn=X1++Xn.

  • (a)

    Soit λ. Montrer

    ch(λ)eλ2/2.
  • (b)

    Établir que pour tout α>0,

    P(Snn>α)e-nα2/2.
 
Exercice 117  5957   Correction  

(Inégalité de Paley-Zygmund)

Soient X une variable aléatoire discrète réelle admettant une variance finie non nulle et a un réel vérifiant 0aE(X).

  • (a)

    Établir

    Xa+X1(Xa).
  • (b)

    En déduire

    P(Xa)(E(X)-a)2E(X2).

Solution

  • (a)

    On a 1=1Xa+1X<a et X1X<aa1X<aa donc

    X=X1X<a+X1Xaa+X1Xa.
  • (b)

    Par croissance de l’espérance,

    E(X)a+E(X1Xa).

    Par l’inégalité de Cauchy-Schwarz,

    E(X1Xa)E(X2)E(1Xa)=E(X2)P(Xa).

    On en déduit

    E(X2)P(Xa)E(X)-a0.

    En élevant au carré, on obtient

    E(X2)P(Xa)(E(X)-a)2

    puis l’inégalité voulue.

 
Exercice 118  5467     MINES (PSI)Correction  

(Inégalité de Paley-Zygmund)

Soit X une variable aléatoire positive, non constante et admettant un moment d’ordre 2.

Établir

λ]0;1[,P(XλE(X))(1-λ)2E(X)2E(X2).

Solution

Soit λ]0;1[. En réorganisant les membres, il s’agit d’établir

(1-λ)2E(X)2E(X2)P(XλE(X))

ce qui fait penser à l’inégalité de Cauchy-Schwarz. Introduisons la variable aléatoire Y=1XλE(X). Celle-ci vérifie Y2=Y et l’inégalité de Cauchy-Schwarz donne

E(XY)2E(X2)E(Y2)=E(X2)E(Y)=E(X2)P(XλE(X)).

Pour conclure, il suffit alors de vérifier

(1-λ)E(X)E(XY)

(car les membres sont positifs ce qui permet de conserver l’inégalité après élévation au carré). On remarque

X=X1X<λE(X)+X1XλE(X)λE(X)1X<λE(X)+X1XλE(X)λE(X)+XY.

Par croissance de l’espérance,

E(X)λE(X)+E(XY)

et l’on conclut en réorganisant les membres.

 
Exercice 119  5275     ENSTIM (MP)Correction  

On suppose qu’une variable aléatoire X suit une loi binomiale de paramètres n* et p]0;1[. Soit ε>0. Montrer

P(Xn-pε)p(1-p)εn.

Solution

Par croissance des probabilités,

P(Xn-pε)P(|Xn-p|ε)

et par l’inégalité de Markov (la variable aléatoire considérée est à valeurs positives)

P(|Xn-p|ε)1εE(|Xn-p|).

Or, pour toute variable aléatoire Y admettant un moment d’ordre 2, l’inégalité de Cauchy-Schwarz donne

E(Y)=E(1×Y)E(1)E(Y2)=E(Y2).

Ainsi,

E(|Xn-p|)(E(|Xn-p|2))1/2=(V(Xn))1/2=1nV(X)=p(1-p)n.

Au final, on conclut

P(Xn-pε)p(1-p)εn.

Notons que cette inégalité est meilleure que celle de Bienaymé-Tchebychev seulement lorsque le majorant est supérieur à 1 (autrement dit, elle n’est pas très utile).

 
Exercice 120  5460     MINES (MP)Correction  

(Inégalité de Kolmogorov)

Soient X1,,Xn des variables aléatoires indépendantes centrées et d’écarts-type respectifs σ1,,σn. Pour k=1,,n, on pose Sk=X1++Xk et

Akε=(|Sk|ε)(i=1k-1(|Si|<ε)) avec ε>0.
  • (a)

    Exprimer l’événement (max1kn|Sk|ε) en fonction des Akε pour k=1,,n.

  • (b)

    Vérifier

    E(Sn21Akε)-E((Sn-Sk)21Akε)=E(Sk21Akε).

    On pourra considérer E((Sn-Sk)Sk1Akε).

  • (c)

    En déduire

    P(max1kn|Sk|ε)σ2ε2 avec σ2=σ12++σn2.
  • (d)

    Comparer cette inégalité avec celle de Bienaymé-Tchebychev.

Solution

  • (a)

    Immédiatement,

    (max1kn|Sk|ε)=k=1nAkε.
  • (b)

    Les variables Sn-Sk=Xk+1++Xn et Sk1Akε sont indépendantes et donc

    E((Sn-Sk)Sk1Akε)=E(Sn-Sk)E(Sk1Akε).

    Les variables Xk+1,,Xn étant centrées, E(Sn-Sk)=E(Xk+1)++E(Xn)=0. Ainsi,

    E((Sn-Sk)Sk1Akε)=0.

    Par linéarité, il vient

    E(SnSk1Akε)=E(Sk21Akε)

    puis, par développement,

    E((Sn-Sk)21Akε) =E(Sn1Akε)-2E(SnSk1Akε)+E(Sk21Akε)
    =E(Sn1Akε)-E(Sk21Akε).

    On obtient ensuite la relation voulue en réorganisant les membres.

  • (c)

    Les événements Akε étant deux à deux incompatibles,

    P(max1kn|Sk|ε)=k=1nP(Akε).

    Pour k1;n,

    ε2P(Akε)=ε2E(1Akε)=E(ε21Akε)E(Sk21Akε)E(Sn21Akε).

    En sommant,

    ε2P(max1kn|Sk|ε)k=1nE(Sn21Akε)=E(Sn2k=1n1Akε).

    Les événements Akε étant deux à deux incompatibles

    k=1n1Akε1

    puis

    ε2P(max1kn|Sk|ε)k=1nE(Sn21Akε)=E(Sn2).

    Enfin, la variable Sn est centrée et les variables Xn sont indépendantes donc

    E(Sn2)=V(Sn)=V(X1)++V(Xn)=σ12++σn2=σ2.

    On conclut

    ε2P(max1kn|Sk|ε)σ2.
  • (d)

    L’inégalité de Bienaymé-Tchebychev pour une variable centrée X s’exprime

    P(|X|ε)σ2ε2 avec σ2=V(X).

    Cette inégalité permet d’écrire

    P(|Sn|ε)σ2ε2.

    L’inégalité acquise précédemment est donc meilleure.

 
Exercice 121  4375    

(Inégalité de Kolmogorov)

Sur un espace probabilisé (Ω,𝒜,P), on considère X1,,Xn des variables aléatoires discrètes réelles indépendantes, d’espérances nulles et admettant chacune un moment d’ordre 2. Pour tout k1;n, on note Sk la somme des variables X1,,Xk et l’on introduit t un réel strictement positif.

Pour k1;n, on introduit l’événement

Ak=j=1k1{|Sj|<t}{|Sk|t}.
  • (a)

    Justifier l’indépendance des variables 1AkSk2 et SnSk pour tout k1;n.

  • (b)

    Montrer

    E(Sn2)k=1nE(Sk21Ak).
  • (c)

    En déduire

    P(max1kn|Sk|t)1t2i=1nV(Xi).
 
Exercice 122  4377   

(Inégalité de Chernoff)

Soit Y une variable aléatoire centrée prenant ses valeurs dans [α;β] avec α<β.

  • (a)

    Soit s un réel. Montrer

    (β-α)esy(β-y)esα+(y-α)esβpour tout y[α;β].

    En déduire (β-α)E(esY)βesα-αesβ.

  • (b)

    Montrer à l’aide d’une étude de fonction

    ln(βesα-αesβ)18(β-α)2s2+ln(β-α)pour tout s réel.

    En déduire

    E(esY)exp((β-α)28s2).

Soient n* et X1,,Xn des variables aléatoires indépendantes prenant leurs valeurs dans [a;b] avec a<b. On pose S la somme de ces variables et l’on introduit t un réel strictement positif.

  • (c)

    Montrer que pour tout s>0

    P(S-E(S)t)e-sti=1nE(es(Xi-E(Xi)))exp(-st+n(b-a)28s2).
  • (d)

    En déduire l’inégalité de Chernoff

    P(S-E(S)t)exp(-2t2n(b-a)2).

[<] Inégalités de concentration[>] Calcul d'espérance par les fonctions génératrices

 
Exercice 123  4114  Correction  

Une urne contient 4 boules rapportant 0,1,1,2 points. On y effectue n tirages avec remise et l’on note S le score total obtenu.
Déterminer la fonction génératrice de S et en déduire la loi de S.

Solution

Notons X1,,Xn les variables aléatoires fournissant les points obtenus lors des tirages.
Les variables Xi suivent la même loi de fonction génératrice

GX(t)=14+24t+14t2=(1+t2)2.

Puisque S=X1++Xn avec X1,,Xn indépendantes on a

GS(t)=GX1(t)GXn(t)=(GX(t))n=(1+t2)2n.

En développant la somme

GS(t)=122nk=02n(2nk)tk.

Ceci détermine la loi de S:

k0;2n,P(S=k)=122n(2nk)

S suit une loi binomiale de paramètre 2n et 1/2: cela s’explique aisément car l’expérience de chaque tirage peut être modélisée par deux tirages successifs d’une pièce équilibrée.

 
Exercice 124  4371  
  • (a)

    Calculer la fonction génératrice d’une variable aléatoire X suivant une loi de Poisson de paramètre λ>0.

  • (b)

    À l’aide de leurs fonctions génératrices, déterminer la loi suivie par la somme de deux variables aléatoires indépendantes suivant des lois de Poisson de paramètres λ et μ strictement positifs.

 
Exercice 125  5413    MINES (MP)Correction  

Soient X et Y deux variables aléatoires à valeurs dans indépendantes. On suppose que X suit une loi de Poisson de paramètre λ>0.

Montrer que Y suit une loi de Poisson de paramètre μ>0 si, et seulement si, X+Y suit une loi de Poisson de paramètre λ+μ.

Solution

Rappellons que la fonction génératrice d’une variable aléatoire X suivant une loi de Poisson de paramètre λ>0 est

GX(t)=eλ(t-1).

Si X et Y suivent des lois de Poisson de paramètres λ et μ alors, par indépendance,

GX+Y(t)=GX(t)GY(t)=eλ(t-1)eμ(t-1)=e(λ+μ)(t-1).

Ainsi, X+Y suit une loi de Poisson de paramètre λ+μ.

Inversement, supposons que X+Y suive un loi de Poisson de paramètre λ+μ. On a

GX+Y(t)=GX(t)GY(t)=eλ(t-1)GY(t)=e(λ+μ)(t-1)

donc

GY(t)=eμ(t-1).

Ainsi, Y suit une loi de Poisson de paramètre μ.

 
Exercice 126  5347  Correction  
  • (a)

    Soient X et Y deux variables aléatoires à valeurs dans .

    On suppose que les fonctions génératrices de X et Y sont égales sur [-1;1]. Justifier que X et Y suivent la même loi.

  • (b)

    Application : Soient n* et p]0;1[.

    Par les fonctions génératrices, déterminer la loi de la somme de n* variables indépendantes suivant chacune une même loi de Bernoulli de paramètre p[0;1].

Solution

  • (a)

    L’unicité des coefficients d’un développement en série entière donne

    P(X=n)=P(Y=n)pour tout nN.
  • (b)

    Si X suit une loi de Bernoulli de paramètre p alors GX(t)=(1-p)+pt pour tout t.

    Si X1,,Xn sont indépendantes de même loi que X alors

    GX1++Xn(t)=(GX(t))n=((1-p)+pt)npour tout t.

    On reconnaît la fonction génératrice d’une loi binomiale de paramètres n et p (et la fonction génératrice suffit à caractériser la loi).

 
Exercice 127  5366  Correction  

Soit X une variable aléatoire à valeurs dans .

Pour t réel convenable, on pose

GX(t)=n=0+P(X=n)tn.
  • (a)

    Montrer que la fonction GX est définie et continue sur [-1;1].

  • (b)

    Justifier que la fonction GX est croissante et convexe sur [0;1].

Solution

  • (a)

    Posons un(t)=P(X=n)tn pour t[-1;1]. On remarque

    |un(t)|=P(X=n)|t|nP(X=n)pour tout t[-1;1].

    Puisque la série P(X=n) converge (et est de somme 1), la série de fonctions un converge normalement sur [-1;1]. De plus, les fonctions un sont continues et l’on peut donc affirmer que la fonction somme GX est définie et continue sur [-1;1].

  • (b)

    Les fonctions un sont croissantes et convexes sur [0;1] donc la somme GX l’est aussi (par convergence simple).

 
Exercice 128  5111  

Soit X une variable aléatoire prenant ses valeurs dans de fonction génératrice GX. On étudie l’événement A=« X est un entier pair  ».

  • (a)

    Identifier la loi de la variable Y=12(1+(-1)X).

  • (b)

    Exprimer P(A) en fonction de GX(-1).

  • (c)

    Application : Calculer P(A) lorsque X suit une loi de Poisson de paramètre λ>0.

 
Exercice 129  5854  Correction  

Soit X une variable aléatoire à valeurs dans dont la fonction génératrice est

GX(t)=t2-t2pour tout t]-2;2[.
  • (a)

    Calculer la loi de X.

  • (b)

    Reconnaître la loi de Y=12(X+1). En déduire l’espérance et la variance de X.

Solution

  • (a)

    Pour |t|<2, on a par sommation géométrique

    GX(t)=t2n=0+(t22)n=n=0+t2n+12n+1.

    On en déduit la loi de X: X prend presque sûrement ces valeurs dans 2+1 avec

    n,,P(X=2n+1)=12n+1.
  • (b)

    Presque sûrement, Y prend ses valeurs dans * avec

    n*,P(Y=n)=P(X=2n-1)=12n=(1-12)n-112.

    La variable Y suit une loi géométrique de paramètre 1/2. On sait alors E(Y)=2 et V(Y)=2.

    L’égalité X=2Y-1 donne E(X)=2E(Y)-1 et V(X)=4V(Y) donc E(X)=3 et V(X)=8.

 
Exercice 130  4044   

Deux joueurs lancent chacun deux dés équilibrés et l’on veut calculer la probabilité que les sommes des deux jets soient égales. On note X1 et X2 les variables aléatoires déterminant les valeurs des dés lancés par le premier joueur et Y1 et Y2 celles associées au deuxième joueur.

  • (a)

    Montrer que P(X1+X2=Y1+Y2)=P(14+X1+X2-Y1-Y2=14).

  • (b)

    Déterminer la fonction génératrice de la variable Z=14+X1+X2-Y1-Y2.

  • (c)

    En déduire la valeur de P(X1+X2=Y1+Y2).

 
Exercice 131  4194   Correction  

Montrer par les fonctions génératrices qu’il est impossible de «  truquer  » deux dés cubiques et indépendants pour que la somme d’un lancer suive une loi uniforme sur 2;12

Solution

La fonction génératrice d’une variable Y suivant une loi uniforme sur 2;12 est la fonction polynomiale

GY(t)=112(t2+t3++t12).

Notons GX1 et GX2 les fonctions génératices de chacun des dés.

GX1(t)=(p1t+p2t2++p6t6) et GX2(t)=(q1t+q2t2++q6t6).

La fonction génératrice de la somme X1+X2 est donnée par

GX1+X2(t)=GX1(t)×GX2(t)=t2(p1+p2t++p6t5)(q1+q2t++q6t5).

Pour que GY=GX1GX2, il faut p1q1>0 et p6q6>0 auquel cas les facteurs de degré 5 possèdent chacune une racine réelle non nulle. Cependant

GY(t)=112t21-t111-t

n’en possède pas!

 
Exercice 132  4051   

Soit (Xn)n* une suite de variables aléatoires indépendantes et identiquement distribuées selon une loi de Bernoulli de paramètre p]0;1[. Aussi, soit N une variable aléatoire à valeurs dans indépendante des précédentes. On considère les variables aléatoires

X=k=1NXketY=k=1N(1-Xk).
  • (a)

    Pour t et u dans [-1;1], exprimer à l’aide de la fonction génératrice de N l’expression

    G(t,u)=E(tXuY).
  • (b)

    On suppose que N suit une loi de Poisson. Montrer que les variables X et Y sont indépendantes.

  • (c)

    Inversement, on suppose que les variables X et Y sont indépendantes. Montrer que N suit une loi de Poisson.

 
Exercice 133  4206    

Soient A et B deux événements indépendants d’un espace probabilisé (Ω,𝒜,P) et la variable aléatoire Z=1A+1B.

Montrer que, parmi les événements (Z=0), (Z=1) et (Z=2), il y en a au moins un de probabilité supérieure à 4/9.

 
Exercice 134  4376    

(Loi de Pascal)

Soit (Xn)n1 une suite de variables aléatoires indépendantes et identiquement distribuées selon une loi de Bernoulli de paramètre p]0;1[.

Pour r*, on définit une variable aléatoire Tr à valeurs dans *{+} en posant

Tr=min({n*|X1++Xn=r}{+}).

La variable Tr se comprend comme le temps d’attente du r-ième succès11 1 Cette variable est directement liée à la variable X du sujet 4085: Tr=X+r..

  • (a)

    Pour n*, calculer P(Tr=n).

  • (b)

    Montrer que l’événement (Tr=+) est négligeable.

  • (c)

    Soient Y1,,Yr des variables aléatoires indépendantes suivant chacune une loi géométrique de paramètre p. Montrer que Y1++Yr et Tr suivent la même loi.

  • (d)

    En déduire l’espérance et la variance de Tr.

 
Exercice 135  5472   Correction  

On considère un espace probabilisé (Ω,𝒜,P).

  • (a)

    Soient A et B deux événements. Montrer

    P(A)-P(B)P(AB¯).
  • (b)

    Soient X et Y deux variables aléatoires à valeurs dans . Montrer

    |GX(t)-GY(t)|P(XY)pour tout t[0;1].

Solution

  • (a)

    L’événement A est la réunion des événements incompatibles AB et AB¯. On en déduit

    P(A)=P(AB)+P(AB¯).

    Or ABB et donc

    P(A)P(B)+P(AB¯)

    ce qui produit l’inégalité voulue.

  • (b)

    Soit t[0;1]. Si GX(t)GY(t),

    |GX(t)-GY(t)| =GX(t)-GY(t)=n=0+(P(X=n)-P(Y=n))tn
    n=0+P((X=n)(Yn))tnn=0+P((X=n)(Yn)).

    Par incompatibilité,

    n=0+P((X=n)(Yn))=P(XY)

    et donc

    |GX(t)-GY(t)|P(XY).

    De même, on obtient encore cette inégalité si GX(t)<GY(t).

 
Exercice 136  5371    Correction  

Soit (Ω,𝒜,P) un espace probabilisé.

  • (a)

    Montrer que si A et B sont deux événements Ω alors

    |P(A)P(B)|P(AB¯)+P(A¯B).
  • (b)

    Soient X et Y deux variables aléatoires à valeurs dans . Établir

    |GX(t)GY(t)|2P(XY)pour tout t[1;1].

Soient (Xn)n une suites variables aléatoires à valeurs dans et définies sur Ω. On suppose que pour tout ωΩ, la suite (Xn(ω)) est constante à partir d’un certain rang et l’on note X(ω) la valeur de cette constante.

  • (c)

    Vérifier que X définit une variable alétoire sur Ω à valeurs dans .

  • (d)

    Montrer que la suite des fonctions GXn converge uniformément vers GX sur [1;1].

Solution

  • (a)

    Quitte à échanger, on peut supposer P(A)P(B). On écrit

    A=AΩ=A(BB¯)=(AB)(AB¯).

    Par incompatibilité puis croissance,

    P(A)=P(AB)+P(AB¯)P(B)+P(AB¯).

    Ainsi,

    |P(A)P(B)|=P(A)P(B)P(AB¯)P(AB¯)+P(A¯B).
  • (b)

    Soit t[1;1].

    |GX(t)GY(t)|=|n=0+(P(X=n)P(Y=n))tn|n=0+|P(X=n)P(Y=n)|.

    Par le résultat qui précède,

    |P(X=n)P(Y=n)|P(X=nYn)+P(Y=n,Xn).

    Or

    P(XY)=n=0+P(X=n,XY)=n=0+P(X=n,Yn)=n=0+P(Y=n,Xn).

    Ainsi,

    |GX(t)GY(t)|2P(XY).
  • (c)

    Méthode: X définit une application de Ω vers l’ensemble dénombrable . Pour vérifier qu’il s’agit d’une variable aléatoire discrète, il reste à observer que, pour tout k, (X=k) désigne un événement.

    Soit k. Pour ωΩ,

    X(ω)=kN,nN,Xn(ω)=k.

    On en déduit

    (X=k)=NnN(Xn=k).

    Par opérations dans la tribu 𝒜 (rappelons que les (Xn=k) sont des événements), on peut affirmer que (X=k)𝒜.

  • (d)

    Soit t[1;1]. Pour n,

    |GXn(t)GX(t)|2P(XnX)

    et donc

    supt[1;1]|GXn(t)GX(t)|2P(XnX).

    Or

    Ω=NAN avec AN=nN(Xn=X)

    car, pour chaque ωΩ, la suite (Xn(ω)) est constante égale à X(ω) à partir d’un certain rang. Puisque les événements An forment une suite croissante, on a par continuité monotone

    P(An)n+P(Ω)=1.

    Or

    (XnX)An¯

    et donc

    0P(XnX)1P(An)n+0.

    On peut alors conclure à la convergence uniforme sur [1;1] de la suite de fonctions GXn vers GX.

[<] Fonctions génératrices[>] Marches aléatoires

 
Exercice 137  4943    CCINP (MP)Correction  
  • (a)

    Donner le rayon de convergence de la série entière

    n0n2+n+1n!tn.

    On note S la somme de cette série entière.

  • (b)

    Rappeler le développement en série entière de la fonction exponentielle et calculer S(t) pour tout réel t convenable.

Une variable aléatoire X à valeurs dans vérifie GX(t)=λS(t) avec λ>0.

  • (c)

    Déterminer λ puis P(X=n) pour n.

  • (d)

    Rappeler les expressions de l’espérance et de la variance à l’aide de la fonction génératrice et en déduire E(X) et V(X).

Solution

  • (a)

    Par application de la règle de d’Alembert, R=+.

  • (b)

    Pour tout t

    et=n=0+1n!tn

    et donc

    S(t) =n=0+n(n1)+2n+1n!tn
    =n=2+1(n2)!tn+2n=1+1(n1)!tn+n=0+1n!tn
    =(t2+2t+1)et=(t+1)2et.
  • (c)

    GX(1)=1 détermine λ=e1/4. On en déduit

    P(X=n)=n2+n+14en!.
  • (d)

    Si GX est deux fois dérivable en 1,

    E(X)=GX(1)etV(X)=GX′′(1)+GX(1)(GX(1))2.

    Ici, on obtient E(X)=2 et V(X)=3/2.

 
Exercice 138  4369  

(Loi binomiale négative11 1 Cette loi étudie le nombre d’échecs précédant le r-ième succès lors de la répétition d’épreuves de Bernoulli indépendantes de même paramètre p.)

Soient r*, p]0;1[ et X une variable aléatoire à valeurs dans telle qu’il existe un réel a pour lequel

P(X=n)=a(n+r-1n)(1-p)npour tout n.
  • (a)

    Calculer la fonction génératrice de X.

    On rappelle l’identité binomiale22 2 Voir le sujet 3931. Cette identité est souvent utilisée en calcul des probabilités.:

    n=0+(n+mn)xn=1(1-x)m+1pour tous m et x]-1;1[.
  • (b)

    Déterminer la valeur de a.

  • (c)

    Calculer espérance et variance de la variable X.

 
Exercice 139  1740    MINES (MP)Correction  

Soient p]0;1[ et X une variable aléatoire à valeurs naturelles dont la loi est donnée par

P(X=k)=a(k+1)pkpour tout k.

En employant la fonction génératrice de X, déterminer a et calculer l’espérance et la variance de X.

Solution

On introduit la fonction génératrice de X:

GX(t)=ak=0+(k+1)(pt)k.

Puisque

k=0+(k+1)xk=ddx(11-x)=1(1-x)2

on obtient

GX(t)=a(1-pt)2.

Sachant GX(1)=1, on en tire la valeur de a

a=(1-p)2.

On peut ensuite calculer espérance et variance

E(X)=GX(1)=2p1-petV(X)=GX′′(1)+GX(1)-GX(1)2=2p(1-p)2.
 
Exercice 140  4117   Correction  

Soient n, p]0;1[ et X une variable aléatoire à valeurs naturelles dont la loi est donnée par

P(X=k)=a(n+kk)pkpour tout k.

En employant la fonction génératrice de X, déterminer a et calculer l’espérance et la variance de X.

Solution

On introduit la fonction génératrice de X:

GX(t)=an!k=0+(n+k)(k+1)(pt)k.

Puisque

k=0+(n+k)(k+1)xk=dndxn(11-x)=n!(1-x)n+1

on obtient

GX(t)=a(1-pt)n+1.

Sachant GX(1)=1, on en tire la valeur de a

a=(1-p)n+1.

On peut ensuite calculer espérance et variance

E(X)=GX(1)=(n+1)p1-p et V(X)=GX′′(1)+GX(1)-GX(1)2=(n+1)p(1-p)2.
 
Exercice 141  4024  Correction  

Soit X une variable aléatoire suivant une loi de Poisson de paramètre λ>0.

  • (a)

    Rappeler la fonction génératrice de la variable X.

  • (b)

    Exploiter celle-ci pour calculer le moment centré d’ordre 3 de la variable X.

Solution

  • (a)

    On a

    GX(t)=E(tX)=n=0+P(X=k)tk=eλ(t-1).
  • (b)

    GX(1)=E(X)=λ, GX′′(1)=E(X(X-1))=λ2 et GX(3)(1)=E(X(X-1)(X-2))=λ3.
    On en déduit

    E(X2)=λ2+λ et E(X3)=λ3+3λ2+λ

    puis

    E((X-λ)3)=E(X3)-3λE(X2)+3λ2E(X)-E(X)3=λ.
 
Exercice 142  4039  Correction  

Soit X une variable aléatoire suivant une loi de Poisson de paramètre λ>0.

  • (a)

    Calculer

    E(X(X-1)(X-r+1)).
  • (b)

    Retrouver ce résultat par les fonctions génératrices.

Solution

  • (a)

    Par la formule de transfert

    E(X(X-1)(X-r+1))=k=r+k!(k-r)!e-λλkk!=λr.
  • (b)

    La fonction génératrice de X est

    GX(t)=E(tX)=eλ(t-1).

    Celle-ci est indéfiniment dérivable sur et

    GX(r)(t)=E(X(X-1)(X-r+1)tX)=λreλ(t-1).

    En particulier

    GX(r)(1)=E(X(X-1)(X-r+1))=λr.
 
Exercice 143  4040  Correction  

Soit X une variable aléatoire suivant une loi géométrique de paramètre p]0;1[.

  • (a)

    Calculer

    E(X(X-1)(X-r+1)).
  • (b)

    Retrouver ce résultat par les fonctions génératrices.

Solution

  • (a)

    Par la formule de transfert

    E(X(X-1)(X-r+1))=k=r+k(k-1)(k-r+1)(1-p)k-1p.

    Or

    k=r+k(k-1)(k-r+1)xk-r=drdxr(11-x)=r!(1-x)r+1

    donc

    E(X(X-1)(X-r+1))=(1-p)r-1r!pr.
  • (b)

    La fonction génératrice de X est

    GX(t)=E(tX)=pt1-(1-p)t=pp-1+p1-p1-(1-p)t.

    Celle-ci est indéfiniment dérivable sur et

    GX(r)(t)=E(X(X-1)(X-r+1)tX)=p1-pr!(1-p)r(1-(1-p)t)r+1.

    En particulier

    GX(r)(1)=E(X(X-1)(X-r+1))=r!(1-p)r-1pr.
 
Exercice 144  4027   Correction  

On considère une expérience aléatoire ayant la probabilité p>0 de réussir et 1-p d’échouer.
On répète l’expérience indépendamment jusqu’à obtention de m succès et l’on note Tm le nombre d’essais nécessaires à l’obtention de ces m succès.

  • (a)

    Reconnaître la loi de T1.

  • (b)

    Déterminer la loi de Tm dans le cas général m*.

  • (c)

    Exprimer le développement en série entière de

    1(1-t)m.
  • (d)

    Déterminer la fonction génératrice de Tm et en déduire son espérance.

Solution

  • (a)

    T1 suit une loi géométrique de paramètre p.

  • (b)

    Notons (Xn)n* la suite des variables de Bernoulli testant la réussite de chaque expérience.
    L’évènement (Tm=n) est la réunion correspond à l’évènement X1++Xn=m et Xn=1 soit encore
    X1++Xn-1=m-1 et Xn=1. Par indépendance

    P(Tm=n)=P(X1++Xn-1=m-1)P(Xn=1).

    Puisque X1++Xn-1(n-1,p) et Xn(p), on obtient

    P(Tm=n)=(n-1m-1)pm(1-p)n-m

    et écriture vaut aussi quand nm car le coefficient binomial est alors nul.

  • (c)

    En exploitant le développement connu de (1+u)α, on obtient

    1(1-t)m=n=0+(n+m-1m-1)tn pour t]-1;1[.
  • (d)

    Par définition

    GTm(t)=n=0+(n-1m-1)pm(1-p)n-mtn.

    En isolant les premiers termes nuls et en décalant l’indexation

    GTm(t)=n=0+(n+m-1m-1)(pt)m((1-p)t)n=(pt)m(1-(1-p)t)m.

    On en déduit

    E(X)=GTm(1)=mp.
 
Exercice 145  5857   Correction  

(Urnes d’Ehrenfest)

On considère deux urnes A et B ainsi que N boules numérotées de 1 à N. Initialement, toutes les boules sont dans l’urne B. À chaque pas de temps, on tire un numéro i entre 1 et N selon une loi uniforme et l’on transfère la boule i dans l’urne où elle n’est pas. On note Xn le nombre de boules dans l’urne A au bout de n étapes. En particulier, X0 vaut 0.

  • (a)

    Déterminer la loi de X1 et X2.

  • (b)

    Pour n, exprimer la loi de Xn+1 en fonction de celle de Xn.

  • (c)

    On note Gn la fonction génératrice de la variable Xn. Établir

    t,Gn+1(t)=tGn(t)+1-t2NGn(t).
  • (d)

    Déterminer la limite de E(Xn) lorsque n tend vers l’infini.

Solution

  • (a)

    La variable X1 est constante égale à 1.

    La variable X2 prend les valeurs 0 ou 2 selon que la boule tirée est la première étape est la même ou non que celle tirée à la deuxième étape. En introduisant l’événement

    A=« Aux deux premières étapes on choisit la même boule »

    on obtient

    P(X2=0)=P(A)=1NetP(X2=2)=P(A¯)=N-1N.
  • (b)

    Soit n. Selon que la boule choisie lors de l’étape n+1 figure ou non dans l’urne A, on a Xn+1=Xn±1. Puisqu’il y a Xn boules dans l’urne A et que le tirage est uniforme

    P(Xn+1=k-1Xn=k)=kN,P(Xn+1=k+1Xn=k)=N-kN

    et

    P(Xn+1k±1Xn=k)=0.

    Par la formule des probabilités totales, on obtient

    P(Xn+1=k)=N-k+1NP(Xn=k-1)+k+1NP(Xn=k+1)

    pour k1;N-1 mais aussi pour k=0 et k=N.

  • (c)

    La variable Xn prend ses valeurs dans 0;N et donc

    t,Gn(t)=k=0NP(Xn=k)tk.

    Alors

    Gn+1(t)=k=1NN-k+1NP(Xn=k-1)tk+k=0N-1k+1NP(Xn=k+1)tk.

    Par glissement d’indice puis réorganisation du calcul,

    Gn+1(t) =k=0N-1N-kNP(Xn=k)tk+1+k=1NkNP(Xn=k)tk-1
    =k=0NN-kNP(Xn=k)tk+1+k=1NkNP(Xn=k)tk-1
    =tk=0NP(Xn=k)tk-t2Nk=1NkP(Xn=k)tk-1+1Nk=1NkP(Xn=k)tk-1
    =tGn(t)-t2NGn(t)+1NGn(t).
  • (d)

    On sait E(Xn)=Gn(1). Par dérivation, la relation précédente donne

    Gn+1(t)=Gn(t)+tGn(t)-2tNGn(t)+1-t2NGn′′(t)

    et donc

    E(Xn+1)=1+(1-2N)E(Xn).

    La suite (E(Xn))n est arithmético-géométrique. On sait exprimer son terme général

    n,E(Xn)=N2-N2(1-2N)n.

    On en déduit

    limn+E(Xn)=N2

    ce qui est conforme à l’intuition.

 
Exercice 146  4046   

(Processus de Galton-Watson11 1 Si la variable N détermine le nombre d’individus d’une population et X le nombre de descendants que chaque individu peut engendrer, la variable S correspond à la population à la génération suivante.)

Soit (Xn)n* une suite de variables aléatoires indépendantes et identiquement distribuées selon la loi d’une variable X à valeurs dans . Soit aussi N une variable aléatoire à valeurs dans indépendantes des précédentes. On étudie S=X1++XN.

  • (a)

    Justifier que S est une variable aléatoire prenant ses valeurs dans .

  • (b)

    Établir GS(t)=GN(GX(t)) pour tout t de [1;1].

  • (c)

    On suppose que les variables N et X admettent chacune une espérance finie. Établir l’identité de Wald: E(S)=E(N)E(X).

 
Exercice 147  4180     CENTRALE (MP)Correction  

Soient (Ω,𝒜,P) un espace probabilisé, X une variable aléatoire à valeurs dans , (Xn)n1 une suite de variables aléatoires i.i.d suivant la loi de X et N une variable aléatoire indépendante des Xi et à valeurs dans . Pour ωΩ, on pose

S(ω)=k=1N(ω)Xk(ω).
  • (a)

    Soient GX, GS et GN les séries génératrices de X, S et N. Montrer

    t[0;1],GS(t)=GNGX(t).
  • (b)

    On suppose que X et N possèdent une espérance. Montrer que S possède une espérance et la calculer.

  • (c)

    On suppose que X et N ont un moment d’ordre 2. Montrer que S possède un moment d’ordre 2 et calculer la variance de S.

On étudie la transmission du nom de famille au cours des générations dans une société patriarcale. On suppose que le nombre de descendants masculins d’un individu suit une loi de Poisson de paramètre λ]0;+[. On note Z0 le nombre d’individus masculins au début de l’étude, Zn le nombre de descendants à la n-ième génération. On suppose que Z0=1.

  • (d)

    Écrire une fonction Python renvoyant le nombre de descendants masculins à la n-ième génération.

  • (e)

    Fixer λ et n. Calculer une moyenne, sur un grand nombre de mesures, du nombre de descendants masculins. Comparer à E(Zn).

Solution

  • (a)

    Pour t[1;1]

    GS(t) =m=0+P(S=m)tm
    =m=0+n=0+P(N=n,X1++Xn=m)tm

    car l’événement (S=m) est la réunion disjointe des événements (N=n,X1++Xn=m). Par indépendance puis réoganisation du calcul de la somme d’une famille sommable, il vient

    GS(t) =m=0+n=0+P(N=n)P(X1++Xn=m)tm
    =n=0+P(N=n)m=0+P(X1++Xn=m)tm
    =n=0+P(N=n)GX1++Xn(t).

    Enfin, par indépendance, GX1++Xn(t)=GX1(t)××GXn(t)=(GX(t))n et l’on conclut GS=GN(GX(t)).

  • (b)

    GN et GX sont dérivables en 1 donc aussi GNGX et alors S admet une espérance:

    E(S)=GS(1)=GX(1)×GN(GX(1))=E(X)E(N).
  • (c)

    GN et GX sont deux fois dérivables en 1 donc aussi GNGX et alors S admet un moment d’ordre 2.

    V(S) =E(S2)E(S)2=E(S(S1))+E(S)E(S)2
    =GS′′(1)+GS(1)(GS(1))2.

    Au terme des calculs,

    V(S)=E(N)V(X)+E(X)2V(N).
  • (d)

    On évite d’écrire lambda qui est un mot clé Python.

    import random as rnd
    import math
    
    def poisson(l):
        x = rnd.random()
        n = 0
        p = math.exp(-l)
        while x > p:
            x = x - p
            n = n + 1
            p = p * l/n
        return n
    
    def generation(n,l):
        Z = 1
        for k in range(n):
            S = 0
            for z in range(Z):
                S = S + poisson(l)
            Z = S
        return Z
    
  • (e)
    def esperance(N):
        n = 10
        l = 1.8
        E = 0
        for i in range(N):
            E = E + generation(n,l)
        E = E / N
        return E, l**n
    

    car E(Zn+1)=E(X)E(Zn) (car N correspond à Zn) et donc E(Zn)=λn.

 
Exercice 148  6046     CENTRALE (MP)Correction  

Soient (Xk)k* une suite de variables aléatoires i.i.d. à valeurs dans et N une variable aléatoire à valeurs dans , indépendante des Xk. On suppose que ces variables aléatoires admettent une espérance finie. On pose

SN=k=1NXk.
  • (a)

    Avec Python:

    1. (i)

      Pour ab, λ>0, X1𝒰(a;b) et N𝒫(λ), écrire une fonction qui simule SN.

    2. (ii)

      Vérifier que E(SN)=E(N)E(X1).

    3. (iii)

      Pour α<0<β, on pose T=min{k*|Skα ou Skβ} en convenant que T=0 si Sk]α;β[ pour tout k*.

      Dans le cas où X1𝒰({1,0,1}), écrire une fonction simulant la variable T et l’utiliser pour vérifier que

      E(T)=3|αβ|2.
  • (b)

    Montrer que pour tout t[1;1], GSN(t)=GN(GX1(t)).

  • (c)

    Montrer que E(SN)=E(N)E(X1).

  • (d)

    On suppose X1 bornée mais plus nécessairement à valeurs entières.

    On considère à nouveau la variable T précédemment introduite, on admet que T est d’espérance finie et on pose

    ST=k=1TXk.

    Justifier que ST est d’espérance finie et que E(ST)=E(T)E(X1).

    On montrera que

    E(ST)=E(j=1+Xj(11T<j))

Solution

  • (a)
    1. (i)
      import numpy.random as rd
      
      a = -1
      b = 2
      lamb = 4
      
      def S():
          N = rd.poisson(lamb)
          res = 0
          for _ in range(N):
              res += rd.uniform(a, b)
          return res
      
    2. (ii)
      def Esp_S(n = 10_000):
          E = 0
          for _ in range(n):
              E += S()
          return E/10_000
      
      print(Esp_S(), (a+b)*lamb/2)
      
    3. (iii)
      def T(alpha, beta, n = 100_000):
          S = 0
          for k in range(1, n+1):
              S += rd.randint(-1, 2)
              if S <= alpha or S >= beta:
                  return k
          return 0
      
      
      def Esp_T(alpha, beta, n = 10_000):
          E = 0
          for _ in range(n):
              E += T(alpha, beta)
          return E/10_000
      
      alpha = -2
      beta = 3
      print(Esp_T(alpha, beta), 3*abs(alpha*beta)/2)
      
  • (b)

    Soit t]1;1[.

    GSN(t)=E(tSN)=k=0+P(SN=k)tk.

    Par la formule des probabilités totales,

    GSN(t)=k=0+n=0+P(SN=kN=n)P(N=n)tk.

    La famille considérée est sommable et cela permet de réorganiser la sommation

    GSN(t) =n=0+k=0+P(SN=kN=n)P(N=n)tk
    =n=0+k=0+P(Sn=kN=n)P(N=n)tk.

    La variable Sn=X1++Xn étant indépendante de N,

    GSN(t)=n=0+k=0+P(Sn=k)tkP(N=n)=n=0+GSn(t)P(N=n).

    Or les variables Xi sont indépendantes et donc

    GSn(t)=GX1(t)××GXn(t)=(GX1(t))n.

    On conclut

    GSN(t)=n=0+(GX1(t))nP(N=n)=GN(GX1(t)).
  • (c)

    L’existence des espérances assurent la dérivabilité de GX1 et GN en 1. Par composition (et parce que GX1(1)=1 ), on peut affirmer que GSN est dérivable en 1. Ainsi, SN admet une espérance finie et

    E(SN)=GSN(1)=GX1(1)GN(1)=E(X1)E(N).
  • (d)

    On a

    ST=j=1TXk=j=1+Xj1Tj=j=1+Xj(11T<j).

    Les variables Xj sont bornées. On peut donc introduire m tel que Xj=Xj+m soit positive pour tout j*. En établissant la propriété demandée pour les variables positives Xj, on peut aisément l’étendre aux variables Xj initiales puisque

    ST=k=1TXk=k=1T(Xk+m)=ST+mT.

    Sans perte de généralité, on suppose désormais les variables Xj à valeurs positives. Cela permet de manipuler des espérances définies dans [0;+]. On introduit aussi M+ tel que XjM pour tout j*. On va établir

    E(j=1NXj(11T<j))N+E(j=1+Xj(11T<j)).

    Cela revient à démontrer

    E(j=N+1+Xj(11T<j))N+0.

    Par croissance,

    E(j=N+1+Xj(11T<j))E(j=N+1+M(11T<j))=j=N+1+MP(Tj).

    Or la variable T est à valeurs dans et d’espérance finie donc

    E(T)=j=1+P(Tj).

    On en déduit

    j=N+1+P(Tj)N+0.

    On a donc acquis

    E(j=1NXj(11T<j))N+E(j=1+Xj(11T<j)).

    Cela se relit par linéarité

    j=1N(E(Xj)E(Xj1T<j))N+E(j=1+Xj(11T<j)).

    L’événement (T<j) est fonction de X1,,Xj1 donc indépendant de Xj. On a alors

    j=1N(E(Xj)E(Xj1T<j)) =j=1N(E(Xj)E(Xj)P(T<j))
    =j=1NE(X1)P(Tj)N+E(X1)E(T).

    Par unicité des limites,

    E(ST)=E(X1)E(T).

[<] Calcul d'espérance par les fonctions génératrices[>] Convergences

 
Exercice 149  2620  Correction  

Soit (Xn)n une suite de variables aléatoires suivant chacune une loi de Bernoulli de paramètre pn[0;1]. On suppose qu’il existe deux réels a,b]0;1[ tels que

P(Xn+1=1Xn=1)=aetP(Xn+1=1Xn=0)=b.

Déterminer la limite de (pn).

Solution

Par la formule des probabilités totales,

pn+1 =P(Xn+1=1)
=P(Xn+1=1Xn=1)P(Xn=1)+P(Xn+1=1Xn=0)P(Xn=0)
=apn+b(1-pn).

Si la suite (pn) admet une limite finie , celle-ci doit vérifier

=a+b(1-)

et donc

=b1+b-a.

Considérons cette valeur. On remarque

pn+1-=(a-b)(pn-)

et donc, par récurrence,

n,|pn-||a-b|n|p0-|.

Puisque |a-b|<1, on obtient que (pn) tend vers .

 
Exercice 150  5996   Correction  

Un individu se déplace sur l’axe . À l’instant k=0, il se positionne en 0 et à chaque instant k, il progresse d’une ou deux unités selon le résultat du lancer d’une pièce non équilibrée: s’il obtient pile (avec probabilité p[0;1]), il se déplace d’une unité et, s’il obtient face, il se déplace de deux unités.

On note pn la probabilité que l’individu passe par l’abscisse n lors de son périple.

  • (a)

    Calculer p0, p1 et p2.

  • (b)

    Établir

    n,pn+2=ppn+1+(1-p)pn

    puis exprimer pn en fonction de n.

Solution

Pour k* et n, introduisons les événements

Ak=« L’individu obtient pile lors du k-ème lancer »

et

Bn=« L’individu passe par l’abscisse n lors de son parcours ».
  • (a)

    Par lecture de l’expérience, on a immédiatement B0=Ω et donc p0=1. Aussi, B1=A1 et donc p1=P(A1)=p.

    Il y a deux scénarios qui conduisent l’individu à passer par l’abscisse 2: B2=(A1A2)A1¯. Par incompatibilité puis indépendance,

    p2=P(A1A2)+P(A2¯)=P(A1)P(A2)+P(A2¯)=p2+(1-p).
  • (b)

    La famille (A1,A1¯) est un système complet d’événements. Par la formule des probabilités totales,

    P(Bn+2)=P(A1)P(Bn+2A1)+P(A1¯)P(Bn+2A1¯).

    Or P(Bn+2A1)=pn+1 et P(Bn+2A1¯)=pn donc

    pn+2=P(Bn)=ppn+1+(1-p)pn.

    La suite (pn)n est une suite récurrente linéaire d’ordre 2 d’équation caractéristique r2-pr-(1-p)=0. Cette équation admet deux racines distinctes 1 et p-1. Le terme général de (pn)n s’exprime

    n,pn=λ1n+μ(p-1)n avec (λ,μ)2.

    Les valeurs p0 et p1 déterminent λ et μ:

    {λ+μ=1λ+(p-1)μ=p{λ=12-pμ=1-p2-p.

    On obtient donc

    n,pn=1-(p-1)n+12-p.
 
Exercice 151  5468     MINES (PSI)Correction  

Soit (Xn)n1 une suite de variables aléatoires indépendantes et identiquement distribuées selon la loi d’une variable X telle que

P(X=1)=P(X=-1)=12.

Pour tout n*, on pose Sn=X1++Xn et S0=0.

  • (a)

    Déterminer P(Sn=0).

Pour k, on introduit l’événement

Ek=n(Snk)etqk=P(Ek).
  • (b)

    Pour k*. Déterminer la probabilité conditionnelle P(EkX1=1).

  • (c)

    Justifier

    qk=12(qk-1+qk+1)pour tout k*.
  • (d)

    En déduire que qk=1 pour tout k.

  • (e)

    Soit k. Que vaut

    P(n(Snk))?
  • (f)

    Soit k. Montrer que, presque sûrement, la suite (Sn) prend une infinité de fois la valeur k.

Solution

  • (a)

    La variable Y=(X+1)/2 suit une loi de Bernoulli de paramètre p=1/2, la variable Tn=(Sn+n)/2 suit alors une loi binomiale de paramètres n et p=1/2. On obtient alors

    P(Sn=0)=P(Tn=n/2)={(nn/2)12n si n est pair0 sinon.
  • (b)

    Pour k*,

    (EkX1=1) =n((Snk)(X1=1))
    =n*((X2++Xnk-1)(X1=1))
    =(n*(X2++Xnk-1))(X1=1).

    Par indépendance,

    P(EkX1=1)=P(EkX1=1)P(X1=1)=P(n*(X2++Xnk-1)).

    Par symétrie de l’expérience,

    P(EkX1=1)=P(n*(X1++Xn-1k-1))=qk-1.
  • (c)

    De la même façon,

    P(EkX1=1)=P(n*(X1++Xn-1k+1))=qk+1.

    En considérant le système complet d’événements constitué de (X1=1) et (X1=-1), la formule des probabilités totales donne

    P(n(Snk))=12(qk-1+qk).
  • (d)

    La suite (qk)k est une suite récurrente linéaire d’ordre 2 d’équation caractéristique r2-2r+1=0 de racine double 1. Le terme général de la suite (qk)k est donc de la forme

    qk=λk+μ avec (λ,μ)2.

    La suite (qk)k est une suite de probabilités, elle est donc bornée et l’on en déduit λ=0. De plus, on a évidemment q0=1 et donc qk=1 pour tout k.

  • (e)

    Pour k0, on a immédiatement

    P(n(Snk))=1.

    Pour k<0, on observe que Sn et -Sn suivent la même loi pour employer le résultat qui précède

    P(n(Snk))=P(n(-Sn-k))=1.
  • (f)

    Pour k, on introduit

    rk=P(NnN(Sn=k))

    qui mesure la probabilité que la suite (Sn) prend une infinité de fois la valeur k. Comme au-dessus, on établit rk=12(rk-1+rk+1) ce qui montre que la suite (rk)k est constante. Il reste à déterminer r0 ce que l’on résout en étudiant l’événement contraire

    NnN(Sn0).

    Pour N, on remarque

    nN(Sn0)(nN(Sn>0))(nN(Sn<0))

    et

    nN(Sn>0)n0(Sn-N)

    avec

    P(n0(Sn-N))=1-P(n0(Sn=-N))=0.

    Ainsi,

    P(nN(Sn>0))=0

    et de même

    P(nN(Sn<0))=0.

    Par réunion dénombrable d’événements négligeables et passage à l’événement contraire, on conclut que la suite (rk)k est constante égale à 1.

 
Exercice 152  5097   

(Marche aléatoire sur Z2 )

Soit (Zn)n1 une suite de variables aléatoires indépendantes et identiquement distribuées selon une loi uniforme sur {(1,0),(-1,0),(0,1),(0,-1)}.

Pour n*, on pose11 1 La suite (Sn) s’interprète comme une marche aléatoire sur la grille 2 amorcée en (0,0) et qui, à chaque étape, passe aléatoirement d’une case à une case voisine. Sn=Z1++Zn ainsi que S0=(0,0).

On note Xn et Yn les variables aléatoires déterminées par Zn=(Xn,Yn) et l’on introduit

Un=Xn+YnetVn=Xn-Yn.
  • (a)

    Les variables Xn et Yn sont-elles indépendantes?

  • (b)

    Les variables Un et Vn sont-elles indépendantes?

  • (c)

    Plus généralement, établir que les variables U1,,Un,V1,,Vn sont indépendantes.

  • (d)

    Calculer P(Sn=(0,0)).

On note Nn le nombre de k1;n pour lesquels Sk=(0,0).

  • (e)

    Montrer que E(Nn) tend22 2 Autrement dit, la marche aléatoire passe en moyenne une infinité de fois par (0,0). On peut aussi montrer, et cela est plus fort, qu’il est presque sûr que la marche passe une infinité de fois par (0,0). vers + lorsque n tend vers +.

 
Exercice 153  4169      CENTRALE (MP)Correction  

Un pion se déplace sur des cases numérotées par les entiers naturels. Initialement, il se trouve sur la case 0 et à chaque instant, il se déplace d’un nombre strictement positif de cases. On note Yi la variable aléatoire donnant le nombre de cases parcourues lors de la i-ème étape. On suppose que les Yi sont indépendantes et suivent la même loi. On pose

Sn=i=1nYi

qui donne la position du pion à l’instant n,

fi=P(Y1=i)etf(t)=i=1+fiti.

Enfin, on introduit k*.

  • (a)

    On suppose que Y1-1 suit la loi de Bernoulli de paramètre p]0;1[.

    Écrire en Python une fonction qui prend un paramètre entier k et qui renvoie 1 si le pion atteint la case k et 0 sinon.

    Écrire une fonction qui, sur une trentaine d’essais, renvoie la proportion de fois où le pion atteint la case k. Comparer à 1/E(Y1).

On note Ek l’événement: «  le pion atteint la case k   » et uk=P(Ek).

  • (b)

    Décrire l’événement Ek à l’aide des variable aléatoires Sn.

  • (c)

    Calculer P(Ek{Y1=j}) pour 1jk.

  • (d)

    En déduire

    k*,uk=j=1kuk-jfj.
  • (e)

    Justifier la définition de

    u(t)=k=0+uktkpour t[0;1]

    et montrer que u(t)=11-f(t).

  • (f)

    Calculer u dans le cas où Y1-1 suit une loi de Bernoulli de paramètre p]0;1[ et en déduire les uk.

  • (g)

    On suppose que Y1 prend un nombre fini de valeurs et que les entiers k tels que P(Y1=k)0 sont premiers entre eux dans leur ensemble. Montrer que (uk) tend vers 1/E(Y1).

Solution

  • (a)
    import random as rnd
    
    def atteint(k,p):
        Y = 0
        while Y < k:
            x = rnd.random()
            if x < p:
                Y = Y + 2
            else:
                Y = Y + 1
        if Y == k:
            return 1
        else:
            return 0
    
    def repete(k,p,N):
        x = 0
        for i in range(N):
            x = x + atteint(k,p)
        return x/N,1/(1+p)
    
  • (b)
    Ek=n(Sn=k).
  • (c)

    Si j=k,

    P(Ek(Y1=j))=P(Y1=k).

    Si j<k, par incompatibilité des événements (Sn=k) (car les Yi prennent des valeurs strictement positives)

    P(Ek(Y1=j)) =n=1+P(Sn=k,Y1=j)
    =n=1+P(Sn=kY1=j)P(Y1=j)
    =n=2+P(Sn=kY1=j)P(Y1=j)
    =n=2+PSn-1=k-jP(Y1=j)
    =P(Ek-j)P(Y1=j).
  • (d)

    La famille des (Y1=j) avec j* est un système complet d’événements et donc

    P(Ek) =j=1+P(Ek(Y1=j))
    =j=1kP(Ek(Y1=j))+0
    =j=1kP(Ek-j)P(Y1=j)+P(Y1=k)=j=1kuk-jfj

    en posant u0=1.

  • (e)

    La suite uk est une suite de probabilité: elle est bornée et la série entière uktk est de rayon de convergence au moins égale à 1.

    Par produit de Cauchy de série absolument convergentes

    f(t)u(t)=i=1+fitik=0+uktk=n=1+i+k=nfiuktn=n=1+untn=u(t)-1.

    On en déduit la relation proposée.

  • (f)

    Si Y1 suit une loi de Bernoulli

    f(t)=(1-p)t+pt2etu(t)=11-(1-p)t-pt2=1(1-t)(1+pt).

    Par décomposition en éléments simples

    u(t)=11+p11-t+p1+p11+pt

    et donc

    uk=1+(-1)kpk+1(1+p).
  • (g)

    La fonction f est un polynôme qui prend la valeur 1 en 1:

    f(t)=i=1nfiti.

    Vérifions que f(t)-1 ne possède pas d’autres racines que 1 de module inférieur à 1.

    Supposons |t|1. Si f(t)=1, on a par inégalité triangulaire

    1=|i=1nfiti|i=1nfi|t|ii=1nfi=1.

    On en déduit fi|t|i=fi pour tout i compris entre 1 et n. Les indices i tels que les fi sont non nuls étant premiers dans leur ensemble, il vient11 1 Si i1,,ip sont les indices pour lesquels fi0, il suffit d’écrire |t|=|t|i1u1++ipup avec u1,,up entiers tels que i1u1++ipup=1. |t|=1. De plus, par égalité dans l’inégalité triangulaire complexe, les fiti ont le même argument lorsqu’ils sont non nuls. Aussi, leur somme est égale à 1 et l’on en tire que les ti sont tous égaux à 1. Par le même argument qu’au-dessus, il vient t=1.

    1 est racine simple de la fraction u et ses autres racines complexes sont de modules strictement supérieurs à 1. La décomposition en éléments simples de u donne l’écriture

    u(t)=a1-t+v(t)

    avec a=f(1)=E(Y1) et v(t) dont la décomposition en série entière est de rayon de convergence >1 et dont les coefficients sont donc de limite nulle. On en déduit que uk tend vers E(Y1) quand k tend vers l’infini.

 
Exercice 154  5688   Correction  

Une matrice M=(mi,j)1i,jnn() est dite strictement stochastique si tous les mi,j sont strictement positifs et

i1;n,mi,1++mi,n=1.
  • (a)

    Écrire une fonction stocha(n) qui renvoie une matrice strictement stochastique aléatoire de taille n.

On fixe B = stoch(3).

  • (b)

    Trouver des colonnes x et y de coordonnées strictement positifs telles que Bx=x et By=y.

  • (c)

    On pose L=xyxy. Observer que (Bk) converge vers L.

Une particule se déplace aléatoire sur d points numérotés de 1 à d. À l’instant n, la particule reste à la place qu’elle occupe avec une probabilité p]0;1[ ou se déplace sur les autres points avec une probabilité uniforme. On note Xn la variable aléatoire qui donne la position de la particule à l’instant n et

Pn=(P(Xn=1)P(Xn=d)).
  • (d)

    Montrer qu’il existe une matrice strictement stochastique Q telle que P1=QP0 et expliciter celle-ci.

  • (e)

    En déduire une expression de Pn en fonction de n, Q et P0.

  • (f)

    Sans calculs, justifier que Q est diagonalisable. Expliciter ses valeurs propres et ses sous-espaces propres.

  • (g)

    Déterminer la limite de (Pn).

Solution

  • (a)

    On forme un tableau aléatoire de valeurs strictement positives puis on divise les coefficients par la somme de la ligne qui les contient:

    import numpy as np
    import numpy.random as rd
    import numpy.linalg as alg
    
    def stocha(n):
        M = rd.random((n, n))
        for i in range(n):
            S = sum(M[i, :])
            M[i, :] = M[i, :] / S
        return M
    
  • (b)

    On peut récupérer les valeurs de x et y à la main ou bien de façon plus programmée comme ci-dessous.

    B = stocha(3)
    vp, P = alg.eig(B)
    x = P[:,np.where(np.isclose(vp,1.))[0]]
    C = B.T
    vp, P = alg.eig(C)
    y = P[:,np.where(np.isclose(vp,1.))[0]]
    
  • (c)

    On vérifie l’affirmation avec une valeur de k suffisante.

    L = np.dot(x, y.T) / np.dot(x.T, y)
    print(L - alg.matrix_power(B,100))
    

    On pourrait aussi calculer la norme euclidienne de la matrice différence puis tracer son évolution lorsque k varie.

    import matplotlib.pyplot as plt
    
    plt.plot([alg.norm(L - alg.matrix_power(B,k)) for k in range(100)])
    plt.show()
    
  • (d)

    En vertu de l’expérience

    Q=(pqqqpqqqp)

    avec q déterminé par p+(n-1)q=1.

  • (e)

    On remarque Pn+1=QPn et par récurrence Pn=QnP0.

  • (f)

    La matrice Q est symétrique réelle donc diagonalisable.

    Après calculs, son polynôme caractéristique est

    χQ=(X-1)(X-(p-q))n-1.

    Les sous-espaces propres de Q sont

    E1(Q)=Vect((1,,1))etEp-q(Q)=(E1(Q))={(x1,,xq)|x1++xd=0}.
  • (g)

    Par orthodiagonalisation et sachant |p-q|<1, on montre

    Qnn+PDP avec P=(1/d**1/d**1/d**)etD=(100000000).

    Donc

    Qnn+(1/d1/d1/d1/d).

    Puisque la somme des coefficients de P0 vaut 1,

    Pnn+(1/d1/d).

[<] Marches aléatoires

 
Exercice 155  5470   Correction  

Soit (Xn)n1 une suite de variables aléatoires indépendantes telle que, pour tout n*, Xn suit une loi de Poisson de paramètre λn>0. On suppose que la série λn converge.

  • (a)

    Montrer la convergence de la série P(Xn0).

  • (b)

    Montrer

    P(N*nN(Xn0))=0.
  • (c)

    En déduire que, presque sûrement, la série Xn converge.

  • (d)

    Établir que X=n=1+Xn suit une loi de Poisson de paramètre λ=n=1+λn.

Solution

  • (a)

    La suite (λn)n1 est nécessairement de limite nulle car la série associée converge. Pour n1,

    P(Xn0)=1-P(Xn=0)=1-e-λnn+λn0.

    Par équivalence de séries à termes positifs, la série P(Xn0) converge.

  • (b)

    Soit N*. Par l’inégalité de Boole,

    P(nN(Xn0))n=N+P(Xn0)

    Or

    n=N+P(Xn0)N+0

    car le reste d’une série convergente est de limite nulle. Par continuité monotone,

    P(N*nN(Xn0))=limN+P(nN(Xn0))=0.
  • (c)

    Par passage à l’événement contraire,

    P(N*nN(Xn=0))=1

    Cela signifie qu’il est presque sûr que la suite (Xn) est nulle à partir d’un certain rang et la série Xn est alors convergente.

  • (d)

    Soit k. L’événement (X=k) est la réunion croissante des événements

    (X1++XN=k)(nN+1(Xn=0)).

    Par continuité monotone,

    P(X=k)=limN+P((X1++XN=k)(nN+1(Xn=0))).

    Par indépendance,

    P((X1++XN=k)(nN+1(Xn=0)))=P(X1++XN=k)P(nN+1(Xn=0)).

    Puisque X1++XN suit une loi de Poisson de paramètre λ1++λN, il vient

    P(X1++XN=k)=e-(λ1++λN)(λ1++λN)kk!N+e-λλkk!.

    Aussi, par passage à l’événement contraire,

    P(nN+1(Xn=0))=1-P(nN+1(Xn0))N+1.

    On conclut

    P(X=k)=e-λλnn!.
 
Exercice 156  4381    

(Convergences probabilistes)

Soient X une variable aléatoire réelle sur un espace probabilisé (Ω,𝒜,P) et (Xn)n une suite de variables aléatoires réelles sur ce même espace.

  • (a)

    Montrer que l’ensemble des ωΩ tels que (Xn(ω)) tend vers X(ω) constitue un événement.

On dit que la suite (Xn)n converge presque sûrement vers la variable X lorsque

P(Xnn+X)=1.

On dit que la suite (Xn)n converge en probabilité11 1 On définit encore d’autres types de convergence. Par exemple, dans l’espace L1(Ω), on introduit la convergence L1 par E(|XnX|)0. Il s’agit presque d’une convergence dans un espace normé, l’application XX1=E(|X1|) étant une semi-norme sur L1(Ω): elle vérifie les axiomes définissant une norme sauf celui de séparation. Par l’inégalité de Markov, la convergence L1 entraîne la convergence en probabilité. vers22 2 Il n’y a pas exactement unicité de la variable X vers laquelle la convergence a lieu. Plus précisément, s’il y a convergence en probabilité vers deux variables X et X celles-ci ne sont que presque sûrement égales. la variable X si, pour tout ε>0,

P(|XnX|>ε)n+0.
  • (b)

    Montrer que la convergence presque sûre entraîne la convergence en probabilité.

  • (c)

    On suppose que pour tout ε>0, il y a convergence de la série de terme général P(|XnX|>ε). Montrer à l’aide du résultat du sujet 4000 que la suite (Xn)n converge presque sûrement vers la variable X.

  • (d)

    Montrer que la convergence en probabilité de (Xn)n vers X entraîne la convergence presque sûre d’une suite extraite (Xφ(n))n vers X.

 
Exercice 157  4382    

(Loi forte des grands nombres)

Soit (Xn)n* une suite de variables aléatoires deux à deux indépendantes et identiquement distribuées selon une loi admettant une espérance μ et une variance σ2. On pose

Sn=1n(X1++Xn)pour n*

et l’on souhaite établir

P(Snn+μ)=1.
  • (a)

    Montrer que l’on peut supposer μ=0.

On conservera cette hypothèse dans la suite de l’étude.

  • (b)

    Soit ε>0. Montrer

    P(|Sn|>ε)σ2nε2.
  • (c)

    À l’aide du sujet 4381, établir que la suite extraite (Sm2)m* converge presque sûrement vers 0.

Pour n*, on pose m égal à la partie entière de la racine carrée de n et l’on introduit

Tn=1n(Xm2+1++Xn).
  • (d)

    Soit ε>0. Montrer

    P(|Tn|>ε)2σ2n3/2ε2.
  • (e)

    Conclure.



Édité le 09-06-2025

Bootstrap Bootstrap 3 - LaTeXML [LOGO] - Powered by MathJax Powered by MathJax