lesmath-logo-mathematiques

Loi géométrique

La loi géométrique est un type de loi de probabilité discrète qui représente la probabilité du nombre d’échecs successifs avant qu’un succès ne soit obtenu dans un essai de Bernoulli. Rappelons que un essai de Bernoulli est une expérience qui ne peut avoir que deux résultats possibles, à savoir le succès ou l’échec. En d’autres termes, dans une distribution géométrique, un essai de Bernoulli est répété jusqu’à ce qu’un succès soit atteint, puis arrêté.

Généralités sur la loi géométrique

Définition: On dit qu’une variable aléatoire $X$ suit la loi géométrique de paramètre $p\in [0,1]$ (on écrit $X\sim \mathcal{G}(p)$) si

  • $X(\Omega)=\mathbb{N}^\ast,$
  • $\mathbb{P}(X=k)=p(1-p)^{k-1}$.

La distribution géométrique est un type de distribution de probabilité qui repose sur les trois hypothèses importantes suivantes:

  • Les essais menés sont indépendants;
  • Il ne peut y avoir que deux résultats à chaque essai – succès ou échec;
  • La probabilité de succès, notée p, est la même pour chaque essai.

La moyenne de la loi géométrique est $$\mathbb{E}(X)=\frac{1}{p}.$$ La variance selon cette loi est $$V(X)=\frac{1-p}{p^2}.$$

Loi binomiale vs géométrique

Dans la distribution géométrique et la loi binomiale, il ne peut y avoir que deux résultats d’un essai, soit le succès ou l’échec. De plus, la probabilité de réussite sera la même pour chaque essai. La différence entre la distribution binomiale et la distribution géométrique est donnée dans le tableau ci-dessous.

  • Une distribution géométrique ne concerne que le premier succès. La variable aléatoire, X, compte le nombre d’essais nécessaires pour obtenir ce premier succès.
  • Dans une loi binomiale, il y a un nombre fixe d’essais et la variable aléatoire, X, compte le nombre de succès dans ces essais

Exercices d’applications

Exercice ***: Soient $X$ et $X$ deux variables aléatoires indépendantes suivant des lois géométriques de paramètres respectifs $p$ et $q$ dans $]0,1[$. Quelle est la probabilité que la matrice réelle suivante soit diagonalisable $$ A=\begin{pmatrix}X&-Y\\ Y&-X\end{pmatrix}.$$

Solution: : L’idée principale est de traduite « $A$ diagonalisable » en un « évènement » en fonction des variables aléatoires $X$ et $Y$. Le polynôme caractéristique de la matrice $A$ est $$\chi_A(\lambda)=\lambda^2-(X^2-Y^2).$$ Nous allons discuter trois cas:

  • Cas 1: ($X<Y$). Dans ce cas le polynome $\chi_A$ n’est pas scindé sur $\mathbb{R}$ et la matrice $A$ n’est pas diagonalisable dans $\mathscr{M}_2(\mathbb{R})$.
  • Cas 2: ($X=Y$). On a alors $\chi_A(\lambda)=\lambda^2$. Par suite $\chi_A$ possède une seule racine double $\lambda=0$. Alors la matrice $A$ est diagonalisable si et seulement si elle est semblable à la matrice nulle, donc égale à la matrice nulle. Cela est exclu car les variables $X$ et $Y$ prennent des valeurs dans $\mathbb{N}^\ast$.
  • Cas 3: ($X>Y$). Le polynôme possède deux racines réelles distincts et la matrice est de taille $2$ est donc $A$ est diagonalisable. Ainsi l’évènement « $A$ diagonalisable » correspond
  • Cas 1: ($X<Y$). Dans ce cas le polynome $\chi_A$ n’est pas scindé sur $\mathbb{R}$ et la matrice $A$ n’est pas diagonalisable dans $\mathscr{M}_2(\mathbb{R})$.
  • Cas 2: ($X=Y$). On a alors $\chi_A(\lambda)=\lambda^2$. Par suite $\chi_A$ possède une seule racine double $\lambda=0$. Alors la matrice $A$ est diagonalisable si et seulement si elle est semblable à la matrice nulle, donc égale à la matrice nulle. Cela est exclu car les variables $X$ et $Y$ prennent des valeurs dans $\mathbb{N}^\ast$.
  • Cas 3: ($X>Y$). Le polynôme possède deux racines réelles distincts et la matrice est de taille $2$ est donc $A$ est diagonalisable. Ainsi l’évènement « $A$ diagonalisable » correspond à « ($X>Y$) ».

Pour répondre à la question de l’exercice, nous allons décomposer l’événement ($X>Y$) en une réunion d’événement dont on sait calculer les probabilités. En effet, on a $$ (X>Y)=\bigcup_{n=1}^\infty (X>n,Y=n).$$ Par additivité dénombrable et par indépendance des variables $X$ et $Y$, on a \begin{align*} \mathbb{P}(X>Y)&=\sum_{n=1}^\infty \mathbb{P}(X>n,Y=n)\cr &=\sum_{n=1}^\infty \mathbb{P}(X>n)\mathbb{P}(Y=n).\end{align*} Puisque $Y$ suit une loi géométrique de paramètre $q,$ alors $\mathbb{P}(Y=n)=(1-q)^{n-1}q$. D’autre par l’événement ($X>n$) correspond à une succession de $n$ échecs (voir un exercice 1 dans variables aléatoires discrètes). Donc on a $\mathbb{P}(X>n)=(1-p)^n$. On a alors \begin{align*} \mathbb{P}(X>Y)&=\sum_{n=1}^\infty (1-p)^n(1-q)^{n-1}q\cr &=(1-p)q \sum_{n=1}^\infty \left((1-p)(1-q)\right)^{n-1}\cr &= \frac{(1-p)q}{1-(1-p)(1-q)}=\frac{q-pq}{p+q-pq}.\end{align*}

Subscribe our newsletter

  • Unlimited access to all
  • Paper Magazine delivery
  • Priority Support
Thank You, we'll be in touch soon.
lesmath-black-blog

LesMath est un blog spécialisé dans les mathématiques destiné aux élèves du secondaire et du supérieur, notamment aux classes préparatoires.

Navigation
Catégories