Accueil Blog

Théorème de Weierstrass démonstration

Une démonstration probabiliste du Théorème de Weierstrass qui dit que toute fonction continue sur un intervalle compact est limite uniforme d’une suite de polynomes de Bernstein est rappeler ici avec détails.

Rappelons qu’une preuve analytique du théorème de Weierstrass utilisant une convolution avec une gaussienne a déjà été faite par Weierstrass. Par contre, la preuve probabiliste de ce théorème est due à Bernstein.

Polynômes de Bernstein

Nous allons définir une famille de polynômes qui va aider a démontrer le théorème de Weierstrass.

Soit $n\in \mathbb{N}$ et pour tout $k\in \{o,1,\cdots,n\},$ on pose \begin{align*} B^n_k(x)=(\begin{smallmatrix}n\\k\end{smallmatrix})x^k (1-x)^{n-k},\quad x\in [0,1].\end{align*} Alors $B_k^n$ est appele polynome de Bernstein et il satisfait les propriétés suivantes:

  • le degré du polynôme de Berntein $B^n_k$ est exatement $n$. De plus, pour tout $x\in [0,1],$ on a \begin{align*}\sum_{k=0}^n B^n_k(x)=1.\end{align*}
  • $B^0_0(t)=1$ et pour tout $n\in\mathbb{N}^\ast,$ on a $B^n_k(0)=B^n_k(1)=0$ et \begin{align*} B_k^n(x)>0,\quad \forall x\in ]0,1[.\end{align*}
  • La fonction $x\in [0,1]\mapsto B^n_k(x)$ atteint son maximum en $\frac{k}{n}$.
  • Pour tout $x\in [0,1],$ on a\begin{align*}\frac{d}{dx}(B^n_k(x))=nl\left(B^{n-1}_{k-1}-B^{n-1}_k \right).\end{align*}
  • Finalement, on a la relation suivante \begin{align*} B^{n+1}_{k+1}(x)=(1-x)B^{n}_{k+1}(x)+x B^n_k (x),\quad x\in [0,1].\end{align*}

On rappelle aussi que la famille $(B^n_k)_{0\le k\le n}$ est une base de l’espace vectoriel des polynômes a coefficient réels et de degré inferieur ou égale a $n,$ $\mathbb{R}_n[X]$.

Maintenant si $f:[0,1]\to \mathbb{R}$ est une fonction continue, alors on peut lui associe les polynômes suivants \begin{align*} \mathscr{B}_n(f,x)=\sum_{k=0}^nf\left(\frac{k}{n}\right)B^n_k(x).\end{align*}

Démonstration probabiliste des théorème de Weierstrass

Voici l’énonce du théorème Weierstrass:

Théorème: Foit $f:[0,1]\to\mathbb{R}$ une fonction continue sur $[0,1]$. Alors $\mathscr{B}_n(f,\cdot)$ converge uniformément vers $f$ sur $[0,1]$. Autrement dit \begin{align*}\|\mathscr{B}_n(f,\cdot)-f\|_\infty:=\sup_{x\in [0,1]}|B_n(f,x)-f(x)|\underset{n\to\infty} {\to}0.\end{align*}

Preuve: On constate, de manière formelle, que les éléments $B_n^k(x)$ ressemblent à la loi binomiale de paramètres $n$ et $x\in [0,1]$, d’une variable aléatoire $X$ et que les éléments $\mathscr{B}_n(f,x)$ correspondent, par le théorème de transfert, a l’espérance $\mathbb{E}(f(X))$.

Dans la suite, nous justifierons rigoureusement cette remarque. On se place dans un espace probabilisé $(\Omega,\mathscr{A},\mathbb{P})$ dans lequel on considère des variables aléatoires $\{X_1,\cdots,X_n\}$ qui suivent la loi de Bernoulli de paramètre $x\in [0,1]$. Alors la variable $S_n=X_1+\cdots+X_n$ suit une loi Binomiale de paramètre $x$ $x$. Alors $\mathbb{P}(S_n=k)=B^n_k(x)$. De plus on a \begin{align*} \mathbb{E}\left(f(\frac{S_n}{n})\right)=\sum_{k=0}^n (\begin{smallmatrix}n\\k\end{smallmatrix})x^k (1-x)^{n-k} f(\frac{k}{n})=\mathscr{B}_n(f,x).\end{align*} D’autre part, on sait que la variable aléatoire $\frac{S_n}{n}$ converge en probabilité vers $x$. D’autre part, comme $f$ est continue les image aussi, et donc $f(\frac{S_n}{n})$ converge en probabilité vers $f(x)$.

Plus précisément, puisque $\mathbb{E}(f(x))=f(x)$ (car $f(x)$ ne dépend pas de l’aléatoire), alors on a \begin{align*} f(x)-\mathscr{B}_n(f,x)=\mathbb{E}\left(f(x)-f(\frac{S_n}{n})\right).\end{align*} On passe al la valeur absolu, on trouve pour tout $x\in [0,1],$ \begin{align*} \left|f(x)-\mathscr{B}_n(f,x)\right|\le \mathbb{E}\left(\left|f(x)-f(\frac{S_n}{n})\right|\right).\end{align*} Soit le module de continuité de $f$ defini par \begin{align*} \varpi(\delta):=\sup_{|t-s|\le \delta}|f(t)-f(s)|.\end{align*} On a alors \begin{align*}\left|f(x)-f(\frac{S_n}{n})\right|\le \begin{cases}\varpi(\delta),& \left|x-\frac{S_n}{n}\right|\le \delta,\cr 2 \|f\|_\infty,& \left|x-\frac{S_n}{n}\right|\ge \delta.\end{cases}\end{align*} On utise la croissante de l’intégral pour les fonctions positives on a \begin{align*}\mathbb{E}\left(\left|f(x)-f(\frac{S_n}{n})\right|\right)&\le \varpi(\delta)+2 \|f\|_\infty \mathbb{E}\left(1_{ \left( \left|x-\frac{S_n}{n}\right|\right) }\right) \cr & \le \varpi(\delta)+2 \|f\|_\infty \mathbb{P}\left( \left|x-\frac{S_n}{n}\right|\ge \delta \right).\end{align*} Maintenanant par application du théorème de la loi faible des grands nombres on a \begin{align*} \mathbb{P}\left( \left|x-\frac{S_n}{n}\right|\ge \delta\right)\le \frac{1}{4n\delta^2}.\end{align*} En déduit, donc \begin{align*}\mathbb{E}\left(\left|f(x)-f(\frac{S_n}{n})\right|\right) \le \varpi(\delta)+\frac{\|f\|_\infty}{2n\delta^2}.\end{align*} Ainsi \begin{align*} \|f-\mathscr{B}_n(f,\cdot)\|_\infty\le \varpi(\delta)+\frac{\|f\|_\infty}{2n\delta^2}.\end{align*}Cela implique que la limite supérieure on a \begin{align*} \overline{\lim}\|f-\mathscr{B}_n(f,\cdot)\|_\infty\le \varpi(\delta).\end{align*} Mais on sait que $\varpi(\delta)\to 0$ quand $\delta\to 0,$ alors \begin{align*}\lim_{n\to\infty}\|f-\mathscr{B}_n(f,\cdot)\|_\infty=0.\end{align*}

Démonstration du théorème centrale limite

On propose la démonstration du théorème centrale limite. Il est utiliser pour démontrer le théorème de Weierstrass pour la densité des polynomes dans les espace de fonctions continues. Quel est le théorème central limite ? Le théorème dit que dans des circonstances plutôt générales, si vous additionnez des variables aléatoires indépendantes et normalisez

Théorème centrale limite

Formellement, te théorème central limite dit que la distribution des moyennes d’échantillon se rapproche d’une loi normale quand la taille de l’échantillon augmente, quelle que soit la distribution de la population.

Voici maintenant la version mathématique de ce théorème important et classique de la théorie des probabilités.

Théorème: On se donne une suite $(X_n)_n$ de variables aléatoires indépendantes identiquement distribuées tel que chaque moment d’ordre $2$, $\mathbb{E}(X_n^2)$ existe, pour tout $n$. Si on pose \begin{align*} & \mathbb{E}(X)=m,\quad \sigma^2=V(X)=E(X^2)-(E(X))^2,\cr & S_n=X_1+\cdots+X_n,\cr & Y_n=\frac{S_n-nm}{\sigma^2\sqrt{n}},\end{align*} alors la loi de $Y_n$ converge vers la loi normale centrée réduite. Autrement dit \begin{align*} \mathbb{P}(Y_n\le x) \underset{n\to\infty}{\longrightarrow} \frac{1}{\sqrt{2\pi}}\int^x_{-\infty} e^{-\frac{t^2}{2}}dt.\end{align*}

Importance du théorème

Avant de présenter la démonstration du théorème centrale limite nous signalons l’utilité du théorème. Le théorème central limite est utile lors de l’analyse de grands ensembles de données car il permet de supposer que la distribution d’échantillonnage de la moyenne sera distribuée normalement dans la plupart des cas. Cela permet une analyse statistique et une inférence plus faciles. Par exemple, les investisseurs peuvent utiliser le théorème central limite pour agréger les données de performance de titres individuels et générer une distribution de moyennes d’échantillons qui représentent une distribution de population plus large pour les rendements des titres sur une période de temps.

Démonstration du théorème centrale limite

Pour la démonstration du théorème centrale limite nous allons utilises la notion de fonctions caractéristiques des variables aléatoires. Pour chaque $n,$ la fonction caractéristique de la variable aléatoire $X_n$ est $\varphi_{X_n}(t)=\mathbb{E}(e^{it X})$ (l’intégral existe toujours et la transformation de Fourier de $X_n$.) On peut réécrire montrer que \begin{align*} Y_n= \frac{\overline{X}_n-m}{\frac{\sigma}{\sqrt{n}}},\end{align*} avec \begin{align*} \overline{X}_n=\frac{X_1+\cdots+X_n}{n}.\end{align*} Si on pose $Z_k=\frac{X_k-m}{\sigma}$, alors \begin{align*} Y_n= \sum_{k=1}^{n} \frac{Z_k}{\sqrt{n}}.\end{align*} Comme les $X_k$ sont indépendantes identiquement distribuées, alors aussi pour les variables $Z_k$. Et donc par les propriétés des fonctions caractéristiques on a \begin{align*} \varphi_{Y_n}(t)&=\prod_{k=1}^n \varphi_{\frac{Z_k}{\sqrt{n}}}(t) \cr &= \prod_{k=1}^n \varphi_{Z_k}\left(\frac{t}{\sqrt{n}}\right)=\left(\varphi_{Z_1}\left(\frac{t}{\sqrt{n}}\right)\right)^n\cr &= \left( 1-\frac{t^2}{n}+o\left(\frac{t^2}{n}\right)\right)^n.\end{align*} Ainsi \begin{align*} \varphi_{Y_n}(t) \underset{n\to\infty}{\longrightarrow} e^{-\frac{t^2}{2}}.\end{align*} Cette limite est la fonction caractéristique d’une variable aléatoire qui suit la loi normale $\mathscr{N}(0,1)$. Pour conclure il suffit d’applique le théorème de convergence de Lévy qui caractérise la convergence en loi d’une suite de variables aléatoires par la convergence de la suite de fonctions caractéristiques associées.

Loi Gamma

L’une des lois les plus pratiques est la loi gamma. Il est utilisé pour surveiller la durée de vie des équipements et des machines. Ainsi, pour les dispositifs médicaux, son utilisation est cruciale. La distribution gamma est plus fine que la loi exponentielle. Cette dernière est utilisé dans les modèles mathématiques de longue durée de vie (sans vieillissement).

Définition mathématique du loi gamma

Dans toute la suite, on travail dans une espace probabilisé $(\Omega,\mathscr{A},\mathbb{P})$.

Définition: Une variable aléatoire $X$ suit la loi Gamma de paramètres $p>0$ et $\lambda>0$ (on écrit $X\sim \Gamma(p,\lambda)$) si elle admet comme densité la fonction suivante \begin{align*} f_X(x)=\frac{\lambda^p}{\Gamma(p)}e^{-\lambda x} x^{p-1}1_{\mathbb{R}^+}(x).\end{align*}

Ici $\Gamma$ est la fonction gamma très connue. Notez que la distribution gamma est une autre distribution largement utilisée. Son importance est largement due à sa relation avec les distributions exponentielles et normales.

Remarque: Si $X\sim \Gamma(1,\lambda)$, on a \begin{align*} f_X(x)=\begin{cases} \lambda e^{-\lambda x},& x\ge 0,\cr 0,& \text{sinon}.\end{cases}\end{align*} C’est exactement densité associe a la loi exponentielle $\mathscr{E}(\lambda)$. Ainsi $\Gamma(1,\lambda)=\mathscr{E}(\lambda)$. Plus généralement, si vous ajoutez $n$ variables aléatoires indépendantes $\{X_1,\cdots,X_n\}$ telles que $X_i\in\mathscr{E}(\lambda)$ pour tout $i$, alors vous obtiendra une variable aléatoire $$X=X_1+\cdots+X_n\in \Gamma(n,\lambda).$$ La loi ainsi obtenue est appelée la loi d’Erland. En lait, la loi d’Erland est actuellement utilisée en biomathématique et dans les processus stochastiques. De plus la loi d’Erlang est relativement fréquent dans les énoncé de certaines concours de grandes écoles d’ingénieurs en France.

Espérance de la loi Gamma

Soit $X\in\Gamma(p,\lambda)$. Alors on a \begin{align*}\mathbb{E}(X)&=\frac{\lambda^p}{\Gamma(p)}\int^{+\infty}_{0} e^{-\lambda x} x^p dx\cr &\underset{y=\lambda x}{=}\frac{\lambda^{p-1}}{\Gamma(p) }\int^{+\infty}_{0} e^{-y} \left(\frac{y}{\lambda}\right)^p dy\cr & = \frac{\Gamma(p+1)}{\lambda \Gamma(p)}.\end{align*} Ainsi, puisque $\Gamma(p)=p\Gamma(p),$ alors l’espérance du variable aléatoire $X$ qui suit la loi gamma est donné par \begin{align*} \mathbb{E}(X)=\frac{p}{\lambda}.\end{align*} Plus généralement, on peut faire exactement le même calcul et les propriétés de la fonction Gamma d’Euler, pour démontrer que le moment d’ordre $r\in\mathbb{N}^\ast$ de $X$ est \begin{align*} \mathbb{E}(X^r)=\frac{p(p+1)\cdots(p+r-1)}{\lambda^r}.\end{align*}

Variance de la loi gamma

On se donne une variable aléatoire $X\in \Gamma(p,\lambda)$. La variance de cette variable est par définition $\sigma^2=V(x)=\mathbb{E}(X^2)-(\mathbb{E}(X))^2$. Pour le changement de variable $y=\lambda x,$ on a \begin{align*}\mathbb{E}(X^2)& =\frac{1}{\lambda ^2\Gamma(p)}\int^{+\infty}_0 e^{-y} y^{p+1}dy\cr &= \frac{\Gamma(p+2)}{\lambda^2 \Gamma(p)}=\frac{p(p+1)}{\lambda^2}.\end{align*} Cela implique que \begin{align*} V(X)=\frac{p(p+1)}{\lambda^2}-\frac{p^2}{\lambda^2}=\frac{p}{\lambda^2}.\end{align*} Ainsi la variance d’une variable aléatoire qui suit la loi gamma est \begin{align*}V(X)=\frac{p}{\lambda^2}.\end{align*}

La fonction caractéristique

Par définition la fonction caractéristique d’une variable aléatoire $X:\Omega\to \mathbb{R}$ est $\varphi_X(t)=\mathbb{E}(e^{it X})$. De plus si cette variable admet une densite $f_X$, alors on a \begin{align*}\varphi_X(t)=\int^{+\infty}_{-\infty} e^{ixt}f_X(x)dx.\end{align*} Maintenant on suppose que $X$ suit la loi gamma de paramètres $p>0$ et $\lambda>0,$ alors on a \begin{align*} \varphi_X(t)= \left(\frac{\lambda}{\lambda-it}\right)^p.\end{align*}

Étude de la fonction Gamma

Nous donnons une étude de la fonction Gamma d’Euler dans le cas de variables réelles et complexes. Cette fonction a une relation étroite avec le nombre factoriel. En fait, elle est introduite pour étendre la notation de la factorielle aux nombres arbitraires.

Étude de la fonction gamma dans le cas réels

La fonctions gamma réelle est définie par l’intégrale généralisée suivante \begin{align*} \Gamma(x)=\int^{+\infty}_0 t^{x-1}e^{-t}dt.\end{align*}

  1. La fonction $\Gamma$ est bien définie sur $]0,+\infty[$. En effet, il suffit de montrer que l’intégrale est convergente pour $x>0$. D’une part, on a \begin{align*} t^{x-1}e^{-t}\underset{t\to 0}{\sim} \frac{1}{t^{1-x}}.\end{align*} Donc, par comparaison avec l’intégral généralisé de Riemann, l’intégrale définissant $\Gamma$ est converge en $0$ si et seulement si $1-x<1$, ce qui donne $x>0$. D’autre part, pour $x>0$, on a $ t^{x-1}e^{-t}=o(\frac{1}{t^2})$ au voisinage de $+\infty,$ donc on a convergence en $+\infty$ pour les réels $x>0$. Conclusion $\Gamma:]0,+\infty[\to \mathbb{R}$ est bien définie.
  2. La fonction gamma est continue sur $]0,+\infty[$. Nous allons applique un théorème de continuité sous le signe somme (voir le chapitre intégrales dépendant d’un paramètre). En effet, soit la fonction \begin{align*} \varphi(x,t)= t^{x-1}e^{-t},\quad (x,t)\in \mathbb{R}_+^\ast\times \mathbb{R}_+.\end{align*} Soit $\alpha,\beta\in ]0,+\infty[$ tel que $\alpha<\beta$. Soit $t\in ]0,1]$. Puisque la fonction $x\mapsto t^{x-1}$ est décroissante, alors $0<\varphi(x,t)\le t^{\alpha-1}$, pour tout $x\in [\alpha,\beta]$. D’autre part, si $t\ge 0,$ alors la fonction $x\mapsto t^{x-1}$ est croissante et donc $0<\varphi(x,t)\le t^{\beta-1}$ pour tout $x\in [\alpha,\beta]$. Maintenant on pose \begin{align*} g(t)=\begin{cases} t^{\alpha-1},& t\in ]0,1],\cr t^{\beta-1},& t\ge 1.\end{cases}\end{align*} Cette fonction est positive, continue par morceau et intégrable sur $]0,+\infty[$. De plus on a $0<\varphi(x,t)\le g(t)$ pour tout $(x,t)\in [\alpha,\beta]\times ]0,+\infty[$. Ce sont les conditions qui conduisent à la conclusion que $\Gamma(x)=\int_{]0,+\infty[} \varphi(x,t)dt$ est continue sur $]0,+\infty[$.
  3. $\Gamma$ est une fonction de classe $\mathscr{C}^\infty$ sur $]0,+\infty[$, et pour tout $k\in\mathbb{N}^\ast$ et $x>0$ on a \begin{align*} \tag{$P(k)$}\Gamma^{(k)}(x)=\int^{+\infty}_0 (\ln(t))^k e^{-t}t^{x-1}dt.\end{align*} En fait, la fonction $\varphi$ est de classe $\mathscr{C}^\infty$ sur $(\mathbb{R}_+^\ast)^2$ et que pour tout $k\in\mathbb{N}^\ast$ et $(x,t)\in (\mathbb{R}_+^\ast)^2,$ on a \begin{align*} \frac{\partial^k \varphi}{\partial x^k}(x,t)=(\ln(t))^k e^{-t}t^{x-1}.\end{align*} D’autre part, soit la fonction \begin{align*} g_k(t)= |\ln(t)|^k g(t),\quad \forall t>0.\end{align*} On a alors \begin{align*} \left |\frac{\partial^k \varphi}{\partial x^k}(x,t)\right|\le g_k(t),\quad \forall (x,t)\in [\alpha,\beta]\times ]0,+\infty[.\end{align*} Remaquons qu’au voisinage de $0$ la fonction $g_k(t)$ est dominée par la fonction $t\mapsto \frac{1}{t^{1-\frac{a}{2}}}$, donc intégrable au voisinage de $0$. De plus au voisinage de $+\infty$, la fonction $t\mapsto g_k(t)$ est dominée par la fonction $t\mapsto \frac{1}{t^2},$ donc intégrable au voisinage de $+\infty$. Ainsi $g_k$ continue par morceaux et intégrable sur $]0,+\infty[$. Pour $k=1,$ tout les condition du théorème de dérivation sous le signe intégrale sont vérifies surtout pour chaque intervalle $[\alpha,\beta]$ on a une fontion $g_1\ge 0$, continue par morceaux, intégrable sur $]0,+\infty[$ et qui domine la la fonction $\frac{\partial \varphi}{\partial x}(x,t)$ sur $[\alpha,\beta]\times ]0,+\infty[$. Ainsi $\Gamma$ est de classe $\mathscr{C}^1$ sur $]0,+\infty[$ et que la propriété $(P(1))$ est vérifiée. En suite, on suppose que $(P(k))$ est vraie et montrons $(P(k+1))$. En effet, si on pose $\varphi_k =\frac{\partial^k \varphi}{\partial x^k},$ alors $$\left| \frac{\partial \varphi_k}{\partial x}(x,t)\right|\le g_{k+1}(t),\quad \forall (x,t)\in [\alpha,\beta]\times ]0,+\infty[.$$ Alors par la même conclusion que précédemment, on a $\Gamma^{(k)}$ est de classe $\mathscr{C}^1$ sur $]0,+\infty[$ et on a \begin{align*} \frac{d}{dx}(\Gamma^{(x)})&=\int^{+\infty}_0 \frac{\partial \varphi_k}{\partial x}(x,t) dt\cr &= \int^{+\infty}_0 (\ln(t))^{k+1} e^{-t}t^{x-1}dt.\end{align*} Ainsi $(P(k+1))$ est vraie.

Exercices sur la loi normale

On propose des exercices sur la loi normale. C’est une loi de probabilité symétrique, sa moyenne (moyenne), sa médiane (point médian) et son mode (observation la plus fréquente) sont tous égaux les uns aux autres. De plus, ces valeurs représentent toutes le pic, ou le point le plus élevé, de la distribution.

La loi normale est aussi appelé loi gaussienne. Dans la suite de cet article nous donnons quelques propriétés ainsi que des exercices sur la loi normale.

Généralités sur la loi normale

On se place dans un espace probabilisé $(\Omega,\mathscr{A},\mathbb{P})$.

Définition: Une variable aléatoire $X$ suit un loi normale de paramètres $m\in\mathbb{R}$ et $\sigma\ge 0$ et on écrit $X\sim \mathscr{N}(m,\sigma^2)$ si elle admet la densité suivante \begin{align*}f(x)=\frac{1}{\sqrt{2\pi\sigma}} e^{-\frac{(x-m)^2}{2\sigma^2}}\end{align*} dans le cas ou $\sigma>0$.

Si $X\sim \mathscr{N}(m,\sigma^2)$ alors on a les quantités suivantes:

  • Espérance: \begin{align*} \mathbb{E}(X)=m.\end{align*}
  • Variance: \begin{align*} V(X)=\sigma^2.\end{align*}
  • fonction caractéristique: \begin{align*} \varphi_X(t)=e^{imt-\frac{\sigma^2t^2}{2}}.\end{align*}

Un cas particulier important: Lorsque $m=0$ et $\sigma=1,$ alors on dit que $X\sim \mathscr{N}(0,1)$ suit la loi normale réduite. Dans ce cas $X$ est une gaussienne standard.

Lorsque suit une loi normale alors elle sera appelé une variable gaussienne. Il convient également de noter que la classe des variables gaussiennes est remarquable et mérite une attention particulière. C’est une classe très régulière par rapport aux autres variables aléatoires à densité.

Un sélection d’exercice sur la loi normale

Exercice 1: Soit $X\in\mathscr{N}(0,1)$. Montrer que pour tout $t>0$ on a \begin{align*} \mathbb{P}(X>t)\le \frac{1}{2}e^{-\frac{t^2}{2}}\quad\text{et} \quad\mathbb{P}(X>t)\underset{t\to\infty}{\sim} \frac{1}{\sqrt{2\pi}}\frac{e^{-\frac{t^2}{2}}}{t}.\end{align*}

Solution: On a \begin{align*} \mathbb{P}(X>t)&=\frac{1}{\sqrt{2\pi}}\int^{+\infty}_t e^{\frac{-x^2}{2}}dx\cr &= \frac{1}{\sqrt{2\pi}}\int^{+\infty}_0 e^{\frac{-(x+t)^2}{2}}dx\cr & =\frac{e^{\frac{-t^2}{2}}}{\sqrt{2\pi}} \int^{+\infty}_0 e^{-xt} e^{\frac{-x^2}{2}}dx\cr & \le e^{\frac{-t^2}{2}} \int^{+\infty}_0 \frac{1}{\sqrt{2\pi}} e^{-\frac{x^2}{2}}dx=\frac{1}{2}e^{-\frac{t^2}{2}}.\end{align*} D’après le calcul précèdent, on a \begin{align*} \mathbb{P}(X>t)&= \frac{e^{\frac{-t^2}{2}}}{\sqrt{2\pi}} \int^{+\infty}_0 e^{-xt} e^{\frac{-x^2}{2}}dx\cr & \underset{y=xt}{=} \frac{1}{\sqrt{2\pi}}\frac{e^{-\frac{t^2}{2}}}{t} \int^{+\infty}_0 e^{-y} e^{-\frac{y^2}{2t^2}}dy.\end{align*} On a $e^{-y} e^{-\frac{y^2}{2t^2}}\to e^{-y}$ quand $t\to+\infty,$ $0<e^{-y} e^{-\frac{y^2}{2t^2}}\le e^{-y},$ et que la fonction $y\mapsto e^{-y}$ est intégrable sur $[0,+\infty[$. Donc par le théorème de convergence dominée on a \begin{align*} \int^{+\infty}_0 e^{-y} e^{-\frac{y^2}{2t^2}}dy\to \int^{+\infty}_0 e^{-y}dy=1\quad (t\to\infty).\end{align*} D’où le résultat.

Loi de Cauchy

La loi de Cauchy est bien connue pour le fait que sa moyenne et d’autres moments n’existent pas. Cette loi est aussi appelé loi de Lorentz et elle décrit également la distribution des distances horizontales auxquelles un segment de ligne incliné à un angle aléatoire coupe l’axe des x.

Généralités sur la loi de Cauchy

On considère un espace probabilisé $(\Omega,\mathscr{A},\mathbb{P})$.

Définition (loi standard de Cauchy): Une variable aléatoire $X$ suit une loi de Cauchy standard si elle est absolument continue et admet pour densité : \begin{align*} f(x)=\frac{1}{\pi}\frac{1}{1+x^2}.\end{align*}

D’une façon plus général la loi de Cauchy est définie avec deux autres paramètre positifs $\theta$ et $\mu$. Dans ce la la densité de cette loi est \begin{align*} f(x)=\frac{1}{\pi}\frac{\theta}{\theta^2+(x-\mu)^2}.\end{align*} La fonction de répartition de $X$ est \begin{align*} F_X(x)= \frac{1}{2}+\frac{1}{\pi}\arctan\left( \frac{x-\mu}{\theta} \right),\end{align*} où $\theta$ est la demi-largeur à mi-hauteur et $\mu$ est la médiane statistique.

Vous pouvez utiliser la distribution de Cauchy pour représenter l’occurrence des pannes lors du développement de grands systèmes.

On rappelle aussi que la fonction caractéristique d’une variable aléatoire qui suit une loi de Cauchy-Lorentz de paramètres $\theta$ et $\mu$ est donnée \begin{align*} \varphi_X(t)=\frac{1}{\pi}\int^{+\infty}_{-\infty} e^{ixt} \frac{\theta}{\theta^2+(x-\mu)^2} dx=e^{i\mu t-\theta |t|}.\end{align*} D’autre part, les moment $\mathbb{E}(X^n)$ ne sont pas définis vu que l’intégrale \begin{align*} \mathbb{E}(X^n)=\frac{1}{\pi}\int^{+\infty}_{-\infty} \frac{\theta x^n}{\theta^2+(x-\mu)^2} dx\end{align*} est divergente pour tout $n\ge 1$.

Une autre remarque importante est que si l’on se donne deux variables aléatoires $X$ et $Y$ qui suivent des distributions normales, alors la variable aleatoire $Z=\frac{X}{Y}$ suit une loi de Cauchy de paramètres $\theta=\frac{\sigma_x}{\sigma_y}$ et $\mu=0$.

Loi uniforme continue

La loi uniforme continue est l’une des lois de probabilité les plus simples en statistique. Elle est continu dans le sens où il prend des valeurs dans un segment spécifié, par exemple entre zéro et un.

Généralités sur la loi uniforme continue

Dans toute les suite les variable aléatoires sont définies sur un espace probabilisé $(\Omega,\mathscr{A},\mathbb{P})$.

Définition: Une variable aléatoire $X$ suit une loi uniforme continue sur $[a,b]$ avec $a<b$ (on écrit $X\sim\mathscr{U}([a,b])$) si $X$ admet une densité $f$ définie par $f=\frac{1}{b-a}1_{[a,b]}$.

D’apres le chapitre sur le variables aléatoires à densité on a \begin{align*} \mathbb{P}(c\le X\le b)=\int^{b\wedge d}_{a\vee c} f(x)dx=\frac{(b\wedge d)-(a\vee c)}{b-a}.\end{align*}

L’Esperance

Pour une variable aléatoire $X\sim\mathscr{U}([a,b]),$ l’espérance de $X$ est donné par \begin{align*}\mathbb{E}(X)=\int^b_a \frac{x}{b-a}dx=\frac{a+b}{2}.\end{align*} D’une manière plus générale un moment d’ordre $n$ de $X$ est \begin{align*} \mathbb{E}(X^n)&=\int^b_a \frac{x^n}{b-a}dx\cr &= \frac{b^n+b^{n-1}a+\cdots+b a^{n-1}+a^n}{n+1}.\end{align*}

La variance

Si $X\sim \mathscr{U}([a,b]),$ alors la variance de $X$ est \begin{align*}V(X)&=E(X^2)-E(X)\cr&= \frac{(b-a)^2}{12}.\end{align*}

Fonction de répartition pour la loi uniforme continue

La fonction de répartition d’une variable aléatoire $X$ qui suit une loi unforme continue sur $[a,b]$ est calculer comme suit \begin{align*} F_X(x)&=\int^x_{-\infty} f(u)du=\int^x_{-\infty} \frac{1}{b-a}1_{[a,b]}(u)du\cr &=\begin{cases} 0,& x\le a,\cr \frac{x-a}{b-a},& x\in [a,b],\cr 1,& x\ge b.\end{cases}\end{align*}

Exercices d’application

Exercice: Soit $(X_n)_n$ une famille de variables aléatoires indépendantes telle que $X_n\sim \mathscr{U}([0,1])$ pour tout $n$. On pose $Y_n=\max\{X_1,\cdots,X_n\}$ et $Z_n=n(1-Y_n)$. Montrer que $Z_n$ converge en loi vers la loi exponentielle de paramètre $1$.

Solution: Pour répondre à la question, vous devez d’abord calculer la fonction de répartition de chaque $Z_n$. En effet, on sait que $Z_n$ converge en loi si $F_{Z_n}$ est convergente. Notez que $Y_n(\Omega)\subset [0,1]$. Soit $y\in\mathbb{R}$. On a donc $\mathbb{P}(Y_n\le y)=0$ si $y\le 0$ et $\mathbb{P}(Y_n\le y)=1$ si $y\ge 1$. D’autre part, si $y\in ]0,1[$, on a \begin{align*} Y_n\le y \Longleftrightarrow X_i\le y,\quad \forall i\in\{1,\cdots,n\}.\end{align*} Comme les variable $X_i$ sont indépendantes et que $\mathbb{P}(X_i\le y)=y^n$ pour tout $i,$ alors on a \begin{align*} \mathbb{P}(Y_n\le y)=\prod_{i=1}^n \mathbb{P}(X_i\le y)=y^n.\end{align*} Maintenanant calculons $F_{Z_n}$, la fonction de répartition de chaque $Z_n$. Soit $x\in \mathbb{R},$ il est facile de voir que $Z_n\le x$ si et seulement si $Y_n\ge 1-\frac{x}{n}$. Donc $\mathbb{P}(Z_n\le x)=1-\mathbb{P}\left( Y_n\le 1-\frac{x}{n}\right)$. D’autre part, puisque $1-\frac{x}{n}\in ]0,1[$ si et seulement si $x\in [0,n],$ alors d’après le calcul en haut, on a \begin{align*} F_{Z_n}(x)=\begin{cases}0,& x\le 0,\cr 1-\left(1-\frac{x}{n} \right)^n,& x\in [0,n],\cr 1,& x\ge n.\end{cases}\end{align*} Pour $x\le 0$ on a $F_{Z_n}(x)=0\to 0$ quand $n\to\infty$. Maintenant si $x\ge 0,$ alors dès que $n$ est assez grand on a nécessairement $0\le x\le n$, et donc $F_{Z_n}(x)=1-\left(1-\frac{x}{n} \right)^n\to 1-e^{-x}$ quand $n\to\infty$. Ainsi pour tout $x\in \mathbb{R}$ fixer, $F_{Z_n}(x)\to F(x)$ avec $F=1_{\mathbb{R}^+}(\cdot)\;(1-e^{-\cdot})$. Comme $F$ est la fonction de répartition d’une variable aléatoire qui suit une loi exponentielle, alors nous avons répondu à la question.

Fonction génératrice des moments

Nous donnons quelques propriétés de la fonction génératrice des moments. cette fonction est utile pour plusieurs raisons, dont l’une est son application à l’analyse de sommes de variables aléatoires. Découvrons ensemble cette fonction. La fonction génératrice de moment joue presque le même rôle que la fonction caractéristique d’une variable aléatoire. Cependant le champs d’application des fonctions génératrices des moments est restreint comparant a celui de des fonctions caractéristiques. parfois la fonctions caractéristique. En fait la la fonction génératrice des moments n’est définie pour la variable aléatoire qui suit la loi de Cauchy.

Généralités sur la fonction génératrice des moments

Dans ce qui suit, toutes les variables aléatoires sont définies sur un espace probabilisée $(\Omega,\mathscr{A},\mathbb{P})$.

Définition: Soit $k\in\mathbb{N}^\ast$. Le moment d’ordre $k$ d’une variable aléatoire $X$, s’il existe, est le nombre reel $\mathbb{E}(X^k),$ (i.e. c’est l’espérance de la variable aleatore $X^k$). On définit le moment centré d’ordre $k$ par $$\mu_k=\mathbb{E}\left((X-E(X))^k\right).$$

Donc le moment d’ordre $1$ est tout simplement l’espérance de $X,$ i.e. $\mathbb{E}(X)$. D’autre part, le moment d’ordre $2$ de $X$ est exactement la variance $V(X)$.

Définition: La fonction génératrice des moments d’une variable aleatoire $X$ est la fonction \begin{align*} M_X(s)=\mathbb{E}(e^{sX}).\end{align*} On dit que fonction génératrice des moments de $X$ existe s’il existe un réel $R>0$ tel que $\mathbb{E}(e^{sX})<\infty$ pour tout $s\in [-R,R]$.

Méthode de calcul des moments

Une des propriétés fondamentales de la fonction génératrice des moments c’est qu’elle permet de calculer les moments d’une variable aléatoire. En effet, on suppose qu’il existe $a>0$ tel que $M_X(s)<+\infty$ pour tout $t\in ]-a,a[$. Alors on a $$ M_X(s)=\sum_{k=0}^{+\infty} \mathbb{E}(X^k)\frac{s^k}{k!}.$$ En deduit que \begin{align*} \mathbb{E}(X^k)=M^{(k)}_X(0).\end{align*} (pour bien comprendre ce calcul pense a la série exponentielle et ses coefficients).

Exercice: On suppose que la variable aléatoire $X$ suit la loi uniforme $\mathscr{U}(0,1)$. Montrer que les moments de $X$ sont donnés par $\mathbb{E}(X^k)=\frac{1}{1+k}$ pour tout $k\in \mathbb{N}^\ast$.

Solution: Tout d’abord nous allons calculer la fonction $M_X$. Par hypothèse, la variable admet la fonction $f=1_{[0,1]}$ comme densité. Donc d’après le théorème de transfert on a \begin{align*} M_X(s)=\int^1_0 e^{sx}dx=\frac{e^s-1}{s},\quad s\in\mathbb{R}^\ast.\end{align*} D’autre part, on sais que $\mathbb{E}(e^{0 X})=1,$ donc $M_X(0)=1$. Ainsi $M_X$ est définie sur $\mathbb{R}$. On a alors \begin{align*} M_x(s)&=\frac{1}{s}\left( \sum_{k=0}^{\infty} \frac{s^k}{k!}-1\right)=\frac{1}{s} \sum_{k=1}^{\infty} \frac{s^{k-1}}{k!}\cr & = \sum_{k=0}^{\infty} \frac{1}{k+1} \frac{s^{k}}{k!}.\end{align*} Ainsi $\mathbb{E}(X^k)=\frac{1}{k+1}$.

Le cas d’une somme de variables aléatoires

Soit $X_1,\cdots,X_n$ des variables aléatoires indépendantes. Alors on a \begin{align*} M_{X_1+\cdots+X_n}(s)=M_{X_1}(s)\cdots M_{X_n}(s)=\prod_{i=1}^n M_{X_i}(s).\end{align*}

Exercice: On suppose qu’une variable aleatoire $X$ suit la binomiale de parametres $n\in \mathbb{N}^\ast$ et $p\in [0,1]$ ($X\sim\mathcal{B}(n,p)$). Calculer $M_X(\cdot)$.

Solution: Nous pouvons résoudre cette question directement en utilisant la définition. Cependant, une façon plus simple de la résoudre consiste à utiliser le fait qu’une variable aléatoire binomiale peut être considérée comme la somme de n variables aléatoires de Bernoulli indépendantes et identiquement distribuées (i.i.d.). Alors on peut écrire \begin{align*} X=X_1+\cdots+X_n,\end{align*} avec $X_i\sim \mathcal{B}(p)$ (loi de Bernoulli de paramètre $p$). On a alors \begin{align*} M_X(s)=\prod_{i=1}^n M_{X_i}(s)=\left(M_{X_1}(s)\right)^n.\end{align*} Mais il est facile de voir que $M_X(s)=pe^s+1-p$. Donc $M_X(s)=(pe^s+1-p)^n$.

Fonction caractéristique d’une variable aléatoire

En théorie des probabilités, la fonction caractéristique d’une variable aléatoire permet de calculer plus simplement les moments de la variable; en utilisant simplement les dérivées successives de cette fonction au point $0$. La force des fonctions caractéristiques est que deux variables aléatoires ont la même loi si et seulement si leurs fonctions caractéristiques coïncident.

Définition de la fonction caractéristique d’une variable aléatoire

Toutes les variables aléatoires de cette page sont définies sur un espace probabilisée $(\Omega,\mathscr{A},\mathbb{B})$. De plus $i$ est le nombre complexe qui vérifie $i^2=-1$.

Définition: La fonction caractéristique d’une variable aléatoire est une fonction $\varphi_X:\mathbb{R}\to\mathbb{R}$ définie par $$\varphi_X(t)=\mathbb{E}(e^{itX})=\int_\Omega e^{itX(\omega)}d\mathbb{P}(\omega).$$

On peut aussi utiliser les fonctions trigonométriques pour définir la fonction caractéristique de $X$. On a alors $$\varphi_X(t)=\mathbb{E}(\cos(tX))+i\mathbb{E}(\sin(tX)).$$ En utilisant le théorème de transfert on a aussi $$\varphi_X(t)=\int_{\mathbb{R}} e^{itx}d\mathbb{P}_X(x),$$ où $\mathbb{P}_X$ est la loi de la variable aléatoire $X$. Si $X$ est une variable aléatoire à densité $f,$ alors $d\mathbb{P}_X(x)=f(x)dx,$ et donc $$\varphi_X(x)=\int_{\mathbb{R}}e^{itx}f(x)dx=\left(\mathscr{F}(f)\right)(t),$$ avec $\mathscr{F}$ est l’operateur transformation de Fourier.

Pour une variable aléatoire discrète $X:\Omega\to\mathbb{N},$ la fonction caractéristique est donnée par \begin{align*} \varphi_X(t)=\sum_{k=0}^\infty \mathbb{P}(X=k)e^{ikt}=G_X(e^{it}),\end{align*} où $G_X$ est la fonction génératrice de la variable aléatoire $X$.

Comment utiliser la fonction $\varphi_X$

$\spadesuit$ Pour montrer que deux variable aléatoire $X$ et $Y$ on même loi il suffit de montrer que $\varphi_X=\varphi_Y$ (dans le cas ou les variables $X$ et $Y$ ont des densité $f$ et $g$, alors par injectivité de la transformation de Fourier on a $f=g$).

$\spadesuit$ Si $(X_k)_{1\le k\le n}$ est une famille de variables aléatoires indépendantes alors on a $$\varphi_{X_1+\cdots+X_n}(t)=\prod_{k=1}^n \varphi_{X_k}(t).$$

Définition: Le moment d’ordre $k$ ($k\in\mathbb{N}^\ast$) d’une variable aléatoire $X,$ lorsqu’il existe est le nombre réel $\mathbb{E}(X^k)$.

On a le résultat important suivant entre la fonction caractéristique et les moments d’une variable aléatoire: Si le moment d’order $k$, $\mathbb{E}(X^k)$, existe alors $\varphi_X$ est $k$-fois dérivable et on a $$ \mathbb{E}(X^k)=\frac{\varphi^{(k)}_X(0)}{i^k}.$$ En particiiler pour $k=1$ et $k=2$ on a $$ \mathbb{E}(X)=-i\varphi’_X(0)\quad \text{et}\quad \mathbb{E}(X^2)=- \ddot{\varphi}_X(0).$$ Cela implique que la variance de la variable $X$ est donnée par: $$V(X)=- \ddot{\varphi}_X(0)+\left( \varphi’_X(0)\right)^2.$$

Exercices sur les fonctions caractéristiques

Exercices: Soient $X$ et $Y$ deux variables aléatoires indépendantes de densité $f$ et $g$ respectivement. Calculer la densité de la variable aléatoire somme $X+Y$.

Solution: Par le rappel vu au paragraphe précédent, pour tout $t\in\mathbb{R},$ nous avons \begin{align*} \varphi_{X+Y}(t)&=\varphi_X(t)\varphi_Y(t)\cr &= \int^{+\infty}_{-\infty} e^{ixt}f(x)dx \; \int^{+\infty}_{-\infty} e^{iyt}g(y)dy\cr &=\int^{+\infty}_{-\infty} g(y)\left( \int^{+\infty}_{-\infty} e^{i(x+y)t}f(x)dx\right)dy\cr &=\int^{+\infty}_{-\infty} g(y)\left( \int^{+\infty}_{-\infty} e^{iut}f(u-y)dy\right)dy\cr &= \int^{+\infty}_{-\infty}e^{iut}\left(\int^{+\infty}_{-\infty}g(y)f(u-y)dy\right)du,\end{align*} grâce au théorème de Fubini. Ainsi la densite de la variable aleaoire $X+Y$ est \begin{align*} h(u)=\int^{+\infty}_{-\infty}g(y)f(u-y)dy.\end{align*}

Fonction génératrice d’une variable aléatoire

La fonction génératrice d’une variable aléatoire discrète donne un calcul simple de la loi de cette variable, et donc un calcul pratique de l’espérance, de la variance et de la covariance. Les fonctions génératrices sont souvent utilisées en probabilité pour relier les lois des variables aléatoires et la théorie bien développée des séries de puissance avec des coefficients non négatifs.

Dans cette page nous allons découvrir ensemble cette fonction magique et extraire quelques propriétés de cette fonction puis donner des exercices d’application. Les variable aléatoires introduites ici sont toutes supposées définies sur un même espace probabilisé $(\Omega,\mathscr{A},\mathbb{P})$.

Série génératrice et fonction génératrice d’une variable aléatoire

Définition: On appelle série génératrice de la variable aléatoire $X,$ la série entière \begin{align*} \sum_{n}\mathbb{P}(X=n)t^n.\end{align*}

Notez que la série entière est de rayon de convergence au moins égal à $1$ et converge normalement sur le segment $[-1,1]$.

Définition: On appelle fonction génératrice d’une variable aléatoire discrète $X,$ la somme de sa série génératrice \begin{align*} G_X(t)=\sum_{n=0}^{+\infty} \mathbb{P}(X=n)t^n=\mathbb{E}(t^X).\end{align*}

Selon les propriétés de sommes des séries entière, la fonction génératrice $G_X$ est continue sur $]-R,R[$ ou $R\ge 1$ et le rayon de convergence de la séries génératrice de $X$. Donc il est au moins continue sur $[-1,1]$. En fait en probabilités la continuité de $G_X$ sur l’intervalle $[0,1]$ est souvent suffisante.

De la définition on voit que la fonction génératrice est entièrement déterminée par la loi de la variable $X$. A l’inverse, la loi de la variable aléatoire discrète $X$ est caractérisée par la fonction $G_X$ comme suit : $$\mathbb{P}(X=n)=\frac{G_X^{(n}(0)}{n!},\qquad \forall n\in\mathbb{N}.$$

Les fonctions génératrices des lois usuelles

Les expressions des fonctions génératrices des lois usuelles sont regroupées comme suit:

  • Pour la loi Bernoulli $\mathcal{B}(p)$, on a $G_X(t)=(1-p)+pt$ pour $p\in [0,1]$.
  • Si $X$ suit une loi Binomiale $\mathcal{B}(n,p),$ alors sa fonction génératrice est $G_X(t)=((1-p)+pt)^n$ pour tout $n\in \mathbb{N}$ et $p\in [0,1]$.
  • La fonction génératrice d’une variable aléatoire $X$ qui suit une loi de Poisson $\mathcal{P}(\lambda)$ est donnée par $G_X(t)=e^{\lambda (t-1)}$ pour tout réel $\lambda>0$
  • Pour une variable aléatoire qui suit une loi géométrique $\mathcal{G},$ on a $G_X(t)=\frac{pt}{1-(1-p)t}$ pour $p\in ]0,1[$.

Calcul de l’espérance, de variance de de somme en utilisant la fonction génératrice

Une variable aléatoire discrète $X$ admet une espérance si, et seulement si, sa fonction génératrice $G_X$ est dérivable en $1$. Dans ce cas, on a $$ \mathbb{E}(X)=G’_X(1).$$ La variable aléatoire $X$ admet une variance si, et seulement si, $G_x$ est deux fois dérivable en $1$, auquel cas on a $$V(X)=\ddot{G}_X(1)+\dot{G}_X(1)-(\dot{G}_X(1))^2.$$ Ce résultat reste encore vrais lorsque la série génératrice de $X$ est de rayon de convergence strictement plus grand que $1$.

Soit $X$ et $Y$ deux variables aleatoires independantes a valeurs dans $\mathbb{N}$. Alors on a $$ G_{X+Y}(t)=G_X(t)G_Y(t),\qquad \forall t\in [-1,1].$$

Popular Posts

My Favorites

theoreme-de-transfert

Théorème de transfert

0
L'un des théorèmes clés en probabilité pour le calcul des moyennes des variables aléatoires est le théorème de transfert. En particulier ce théorème est...