Accueil Blog Page 13

Espaces vectoriels pour bac s

0
espaces-vectoriels-pour-bac

Nous proposons des exercices corrigés sur les espaces vectoriels pour bac s, terminal S. En fait, ce chapitre est transversal pour le programme, mais il arrive que dans l’examen du baccalauréat on trouve un exercice. Nous vous proposons donc ici un aperçu des modèles d’exercices que vous pouvez rencontrer lors de l’examen.

Exercices corrigés sur les espaces vectoriels pour bac s

Exercice: Est que les sous-ensembles suivantes sont des sous-espaces vectoriels:

  1. $\mathscr{E}=\{(x,y)\in\mathbb{R}^2:2x+y=0\}$.
  2. $\mathscr{F}=\{(x,y)\in\mathbb{R}^2:x+y=5\}$.
  3. $\mathscr{G}=\{f:[a,b]\to \mathbb{R}\;\text{continue}:\; f(a)=f(b)\}.$
  4. $\mathscr{H}=\{f:[-1,1]\to \mathbb{R}\;\text{continue}:\; f(-1)=f(1)+1\}$.

Solution:

  1. On rappelle que $(\mathbb{R}^2,+,\times)$ est un $\mathbb{R}$ espace vectoriel. De plus on bien évidement $\mathscr{E}\subset \mathbb{R}^2$ et $\mathscr{E}$ non vide car il contient l’élément neutre $0_{\mathbb{R}^2}=(0,0)$. Il suffit donc de montrer que $\mathscr{E}$ est un sous-espace vectoriel de $\mathbb{R}^2$. pour ceci, soient  $\lambda\in \mathbb{R}$ et $u_1,u_2\in \mathscr{E}$ tels que $u_1=(x_1,y_1)$ et $u_2=(x_2,y_2)$. Il faut montrer que $$ \lambda u_1=(\lambda x_1,\lambda x_2)\in \mathscr{E}\quad\text{et}\quad u_1+u_2=(x_1+x_2,y_1+y_2)\in \mathscr{E}. $$ En effet, déjà on a $$ 2x_1+y_1=0\quad\text{et}\quad 2x_2+y_2=0. $$ D’autre part on a $$2\lambda x_1+\lambda y_1=\lambda (2x_1+y_1)= \lambda\times 0=0.$$Donc $\lambda (x_1,x_2)\in \mathscr{E}$. De plus on a aussi\begin{align*}2(x_1+x_1)+(y_1+y_2)&=(2x_1+y_1)+(2x_2+y_2)\cr &=0+0=0.\end{align*}Donc $u_1+u_2\in \mathscr{E}$. Par suite, $\mathscr{E}$ est un sous-espace vectoriel de $\mathbb{R}^2$.
  2. On a $\mathscr{F}\subset \mathbb{R}^2$ et que $\mathscr{F}$ est non vide car $(0,5)\in \mathscr{F}$. Mais l’élément neutre $0_{\mathbb{R}^2}=(0,0)\not\in \mathscr{F}$. Donc $\mathscr{F}$ ne peut jamais être un sous-espace vectoriel.
  3. On note par $\mathscr{C}([a,b],\mathbb{R})$ le $\mathbb{R}$-espace vectoriel des fonctions continues de $[a,b]$ dans $\mathbb{R},$ muni de lois suivantes\begin{align*}(f+g)(x)&=f(x)+g(x),\cr (\lambda f)(x)&=\lambda f(x)\end{align*}pour tous $f,g\in \mathscr{C}([a,b],\mathbb{R})$ et $\lambda\in\mathbb{R}$. On a $\mathscr{G}\subset \mathscr{C}([a,b],\mathbb{R})$ et la fonction nulle $\Theta(x)=0$ pour tout $x\in [a,b]$ est un élément de $\mathscr{G}$ puisque cette fonction est continue sur $[a,b]$ et que $\Theta(a)=0=\Theta(b)$. Soient $f,g\in \mathscr{G}$ et $\lambda\in \mathbb{R}$. On a $f+g$ est continue et que\begin{align*}(f+g)(a)&= f(a)+g(a)\cr &=f(b)+g(b)\cr &=(f+g)(b),\end{align*}d’où $f+g\in \mathscr{G}$. De plus $(\lambda f)(a)=\lambda f(a)=\lambda f(b)=(\lambda f)(b),$ d’où $\lambda f\in \mathscr{G}$. Ainsi $\mathscr{G}$ est un sous-espace de $\mathscr{C}([a,b],\mathbb{R})$.
  4. $\mathscr{H}$ n’est pas un sous-espace de $\mathscr{C}([-1,1],\mathbb{R})$ car il ne contient pas la fonction nulle qui l’élément neutre de $\mathscr{C}([-1,1],\mathbb{R})$.

Exercice: Soit $\mathscr{S}$ l’espace vectoriel des suites de nombres réels. Soit les trois suites suivantes $$ u_n=2^n,\quad v_n=3^n,\quad w_n=4^n,\qquad \forall n\in \mathbb{N}. $$ Montrer que la famille $\{(u_n),(v_n),(w_n)\}$ est une famille libre dans $\mathscr{S}$.

Solution: On note par $(0)_n$ la suite nulle dont les termes sont tous nuls. Soient $\alpha_1,\alpha_2,\alpha_3\in \mathbb{R}$ tel que $$ \alpha_1(u_n)_n+\alpha_2(v_n)_n+\alpha_3(w_n)_n=(0)_n. $$ Donc $$ \forall n\in\mathbb{N},\qquad \alpha_1 2^n + \alpha_2 3^n+\alpha_3 4^n=0. $$ Dans un premier temps, on divise par $4^n$, on trouve\begin{align*}\tag{P}\forall n\in\mathbb{N},\qquad\alpha_1 \left(\frac{1}{2}\right)^n + \alpha_2 \left(\frac{3}{4}\right)^n +\alpha_3=0.\end{align*}D’après la notion de suites géométriques on a\begin{align*}\lim_{n\to +\infty} \left(\frac{1}{2}\right)^n=0,\qquad \lim_{n\to +\infty} \left(\frac{3}{4}\right)^n=0.\end{align*}En faisant tendre $n\to +\infty$ dans l’équation (P) on obtient $\alpha_3=0$. Et donc pour tout $n\in\mathbb{N}$ on a $$\alpha_1 2^n + \alpha_2 3^n=0.$$ Par la même technique en divise pas $3^n$ et en fait tendre $n$ vers $\infty$ on trouve $\alpha_2=0$. Ce qui donne aussi $\alpha_1 2^n=0$ pour tout $n,$ donc en particulier $\alpha_1=0$. Donc la famille de ces trois suites est libre dans $\mathscr{S}$.

Équations différentielles non linéaires

0
equations-differentielles-non-lineaires

Dans cet article, nous plongerons dans le monde des équations différentielles non linéaires à travers une série d’exercices stimulants, explorant leurs propriétés et méthodes de résolution.

Nous proposons des exercices corrigés sur les équations différentielles non linéaires; en particulier les problèmes de Cauchy non linéaires. Nous montrons l’existence et l’unicité de la solution maximale pour certaines équations différentielles. Nous appliquons le théorème d’explosion pour voir qu’une solution maximale est globale.

Rappelons que dans le cas des équations différentielles linéaires la solution globale existe toujours et peut être représentée par l’exponentielle d’une matrice. De plus, la solution s’annule à l’infini, concept de stabilite, si toutes les valeurs propres de la matrice ont une partie réelle strictement négative (c’est le premier théorème de Liapunov).

Exercices sur les équations différentielles non linéaires

Comparaison de deux solution globales

Exercice: Soient $F$ et $G$ deux fonctions continues sur $[a,b]\times \mathbb{R}$ dans $\mathbb{R}$ telles que$$F(t,x) < G(t,x),\qquad \forall (t,x)\in [a,b]\times \mathbb{R}.$$Soient $u$ et $v$ deux fonctions $C^1$ de $[a,b]$ dans $\mathbb{R}$ solutions des équations$$u'(t)=F(t,u(t)),\qquad v'(t)=G(t,v(t)),\qquad t\in [a,b].$$Supposons qu’il existe $t_0\in [a,b[$ tel que $u(t_0)=v(t_0)$.

  1. Montrer qu’il existe $\delta>0$ tel que $u(t)\le v(t)$ pour tout $t\in ]t_0,t_0+\delta]$.
  2. En déduire que $u(t)\le v(t)$, pour tout $t\in [t_0,b]$. (Indication: Considèrer l’intervalle $A=\{c\in [t_0,b]:u(t)\le v(t),\;\forall t\in [t_0,c]\}$ et $c^\ast=\sup A$.)

  1. Comme $u$ et $v$ sont deux solution globale, alors ils sont aussi des équations intégrales suivantes \begin{align*}u(t)&=x_0+\int^t_{t_0}F(s,u(s))ds,\qquad t\ge t_0\cr v(t)&=x_0+\int^t_{t_0}G(s,v(s))ds,\qquad t\ge t_0.\end{align*} Alors on a pour tout $t\ge t_0$ on a\begin{align*}u(t)-v(t)&=\int^t_{t_0} \left(F(s,u(s))-G(s,v(s))\right)ds\cr &=\Theta_1+\Theta_2,\end{align*}avec \begin{align*}\Theta_1&:=\int^t_{t_0} \left(F(s,u(s))-G(s,u(s))\right)ds\cr \Theta_2&:=\int^t_{t_0} \left(G(s,u(s))-G(s,v(s))\right)ds.\end{align*}Dans un premier temps nous allons montrer qu’il existe $\gamma_0>0$ tel que $\Theta_1\le -\gamma_0 (t-t_0)$ pour tout $t\ge t_0$. En effet, soit le compact $K_1=u([a,b])$. On a la fonction $F-G$ est continue sur le compact $[t_0,b]\times K_1,$ donc il existe $(c_0,\kappa_0)\in [t_0,b]\times K_1$ tel que\begin{align*}(F-G)(t,x)\le (F-G)(c_0,\kappa_0),\qquad \forall (t,x)\in [t_0,b]\times K_1.\end{align*} D’autre par comme $F < G$ sur $[t_0,b]\times K_1$, alors il existe $\gamma_0>0$ tel que $$(F-G)((c_0,\kappa_0))\le -\gamma_0.$$ On a alors pour tout $s\in [t_0,t],$\begin{align*}F(s,u(s))-G(s,u(s))\le -\gamma_0.\end{align*}D’où $\Theta_1\le -\gamma_0 (t-t_0)$ pour tout $t\ge t_0$. L’estimation de $\Theta_2:$ Soit le compact $K_2:=u([a,b])\cup v([a,b])$. Comme $G$ est continue sur le compact $[a,b]\times K_2$, alors elle est uniformément continue sur ce compact. Pour $\varepsilon=\frac{\gamma_0}{2},$ il existe $\beta>0$ tel que pour tout $(s,x),(s,y)\in [a,b]\times K_2:$\begin{align*}|x-y|\le \beta\;\Longrightarrow\;|G(s,x)-G(s,y)|\le \frac{\gamma_0}{2}.\end{align*}D’autre part, la fonction $\psi=u-v$ est continue à droit de $t_0$ et $\psi(t_0)$, donc il existe $\delta>0$ tel que\begin{align*}t_0\le s\le t_0+\delta\;\Longrightarrow\; |u(s)-v(s)|=|\psi(t)|\le \beta.\end{align*}En déduit donc que pour tout $t\in [t_0,t_0+\delta$ on a $\Theta_2\le \frac{\gamma_0}{2}(t-t_0)$. Ce qui montre que\begin{align*}u(t)-v(t)\le- \frac{\gamma_0}{2}(t-t_0),\quad \forall t\in [t_0,t_0+\delta].\end{align*}Ainsi $u(t) < v(t)$ pour tout $t\in ]t_0,t_0+\delta]$.
  2. Soit $$ A:=\{c\in [t_0,b]: u(t)\le v(t),\quad \forall t\in [t_0,c]\}. $$ On a $A$ est non vide car $t_0\in A$. De plus $A$ est majorée par $b$. Donc $c^\ast=\sup(A)$ existe dans $\mathbb{R}$. D’autre part, $A$ est un intervalle. En effet, soit $c\in A$ et $t_0\le c’\le c$. Comme $u(t)\le v(t)$ pour tout $t\in [t_0,c],$ alors aussi c’est vraie pour tout $t\in [t_0,c’]$. Donc $c’\in A$. Donc $A$ est un intervalle, et par suite on a $A=[t_0,c^\ast[$. Montrons que $c^\ast\in A$. On sait qu’il existe $(c_n)\subset A$ tel que $c_n\to c^\ast$ quand $n\to\infty$. Comme pour tout $n$ on a $u(c_n)\le v(c_n)$ alors par continuité on a aussi $u(c^\ast)\le v(c^\ast)$. On obtien $A=[t_0,c^\ast]$. Comme $c^\ast\le b$ alors on a deux cas. Si $c^\ast=b,$ alors on a rien à montrer. si non $c^\ast < b$. Supposons $u(c^\ast) < v(c^\ast)$. Comme la fonction $u-v$ est continue a droit de $c^\ast$ alors pour $\varepsilon= \frac{v(c^\ast)-u(c^\ast)}{2},$ il existe $\sigma>0$ tel que\begin{align*}(u(t)-v(t))- (u(c^\ast)-v(c^\ast))\le \frac{v(c^\ast)-u(c^\ast)}{2},\qquad \forall t\in [c^\ast,c^\ast+\sigma].\end{align*}Ce qui iplique que $u(t) < v(t)$ pout tout $t\in [c^\ast,c^\ast+\sigma]$. Ceci est une contraduction avec le fait que $c^\ast=\sup(A)$. Maintenant si $u(c^\ast)=v(c^\ast)$ alors d’après la question 1, il existe $\delta>0$ tel que $u(t)\le v(t)$ pout tout $t\in [c^\ast,c^\ast+\delta]$. C’est absurd. D’où $b=c^\ast$.

Champ de vecteurs quadratique

Exercice: Soit le problème de Cauchy $$(PC)_{0,x_0}\qquad \begin{cases} \dot{u}(t)=-u(t)+\sin(u(t)) (u(t))^2,& t\ge 0,\cr u(0)=x_0\in ]-1,1[. \end{cases} $$

  1. Montrer que le problème de Cauchy $(PC)_{0,x_0}$ admet une unique solution maximale $u:[0,\tau^\ast[\to \mathbb{R}$ telle que $$ u(t)=e^{-t}x_0+\int^t_0 e^{-(t-s)}\sin(u(s))(u(s))^2ds,\quad \forall t\in [0,\tau^\ast[. $$
  2. Le but maintenant est de démontrer qu’on a en fait une solution globale du problème $(PC)_{0,x_0}$, autrement dit nous allons montrer que $\tau^\ast=+\infty$. Pour cela soit $\delta\in ]0,1[$ tel que $|x_0|=1-\delta$. Soit $\delta_0\in ]0,\delta[$ et on pose $$ A=\left\{\tau\in [0,\tau^\ast[: |u(t)|\le 1-\delta_0,\quad \forall t\in [0,\tau]\right\}. $$ 2-1) Montrer que $A$ est un intervalle. On pose alors $A=[0,\alpha[$ avec $\alpha\le \tau^\ast$. Le but est de montrer que $\alpha=\tau^\ast$. Par l’absurd, supposons que $\alpha<\tau^\ast$. 2-2) Montrer que $$ \forall \tau\in A, \qquad |u(t)|\le |x_0|e^{-\delta_0 t},\quad\forall t\in [0,\tau]. $$ 2-3) Montrer que $|u(t)|\le 1-\delta$ pour tout $t\in [0,\alpha]$. En déduire qu’il existe $\gamma>0$ tel que $\alpha+\gamma\in A$. Conclure.
  3. Montrer que $\tau^\ast=+\infty$.
  4. Montrer que $$ |u(t)|\le |x_0|e^{-\delta_0 t},\qquad \forall t\in [0,+\infty[. $$

  1. Le problème de Cauchy $(PC)_{0,x_0}$ s’écrit comme $\dot{u}(t)=F(t,u(t))$ et $u(0)=x_0$ avec $$ F:[0,+\infty[\times \mathbb{R}\to \mathbb{R},\quad F(t,x)=-x+\sin(x)x^2. $$ Cette fonction est continue sur de classe $C^1$ sur $[0,+\infty[\times \mathbb{R}$. De plus il est de classe $C^1,$ donc localement Lipschitzienne par rapport a sa deuxième variable. Ce qui implique, d’après le théorème de Cauchy-Lipschitz que la solution maximale existe et est unique. On note cette solution maximale par $u:[0,\tau^\ast[\to \mathbb{R}$. Soit $t\in [0,\tau^\ast[$. Comme $u$ est solution de $(PC)_{0,x_0}$, alors pour tout $s\in [0,t]$ on a $$ \dot{u}(s)+u(s)=\sin(u(s))(u(s))^2. $$ Multipliant les deux cotés par $e^s$, on trouve alors $$ \frac{d}{ds}\left( e^s u(s)\right)=e^s \sin(u(s))(u(s))^2. $$ Et par intégration entre $0$ et $t$ on obtient $$ u(t)=e^{-t}x_0+\int^t_0 e^{-(t-s)}\sin(u(s))(u(s))^2ds,\quad \forall t\in [0,\tau^\ast[. $$
  2. On suppose par $\tau^\ast < +\infty$. On a $A$ est non vide, car $|x_0|=1-\delta<1-\delta_0$ car $\delta_0\in ]0,\delta_0[$. De plus $A$ est majorée par $\tau^\ast,$ donc $\alpha=\sup(A)$ existe et $\alpha\le \tau^\ast$. De plus $A$ est un intervalle, car si $\tau\in A$ et si $\tau’\in ]0,\tau,[$ alors en particulier on a $|u(t)|\le 1-\delta_0$ pour tout $t\in [0,\tau’]$, ce qui donne $\tau’\in A$. D’où $A=[0,\alpha[$. Maintenant nous allons montrer que $u$ est bornée sur $[0,\alpha]$. Soit $\tau\in A$ et $t\in [0,\tau]$. Alors on a $|u(s)|\le 1-\delta_0$ pour tout $s\in [0,t]$. Comme la fonction sinus est bornée par $1,$ alors \begin{align*} |e^t u(t)|&\le |x_0|+\int^t_0 |u(s)| (e^s |u(s)|) ds \cr & \le |x_0|+(1-\delta_0)\int^t_0 e^s |u(s)| ds. \end{align*} En appliquant le lemme de Gronwall on obtient $$ |e^t u(t)|\le |x_0| e^{(1-\delta_0)t}. $$ Donc $$ |u(t)|\le |x_0| e^{-\delta_0 t},\qquad \forall t\in [0,\alpha[. $$ Comme $e^{-\delta_0 t}\le 1$ et $|x_0|=1-\delta,$ alors $|u(t)|\le 1-\delta$ pour tout $t\in [0,\alpha[$. Comme $\alpha=\sup(A)$ alors il existe $(\alpha_n)_n\subset A$ tel que $\alpha_n\to\alpha$ quand $n\to\infty$. Comme $|\alpha_n|\le 1-\delta$ alors par continuité on a $|u(\alpha)|\le 1-\delta$. D’où $|u(t)|\le 1-\delta$ pour tout $t\in [0,\alpha]$. Montrons que $\alpha=\tau^\ast$. Supposons par l’absurd que $\alpha<\tau^\ast$. Par continuité de la solution $u$ à droite de $\alpha$ on a pour tout $\varepsilon>0$ il existe $\gamma>0$, tel que pour tout $t\in [\alpha,\alpha+\gamma]$ on a $|u(t)-u(\alpha)|\le \varepsilon.$ Donc l’inégalité triangulaire implique que pour tout $t\in [\alpha,\alpha+\gamma]$ on a $$ |u(t)|\le \varepsilon+ |u(\alpha)|\le \varepsilon+1-\delta. $$ Donc si on choisit $\varepsilon=\delta-\delta_0>0,$ on trouve que $|u(t)|\le 1-\delta_0$ pour tout $t\in [\alpha,\alpha+\gamma]$. Ce qui implique que $\alpha+\gamma\in A,$ c’est absurde. Ainsi $\alpha=\tau^\ast$.
  3. Si $\tau^\ast < +\infty$, alors on a vue dans la question 2 que $|u(t)|\le 1-\delta$ for tout $t\in [0,\tau^\ast]$. Donc la solution est borné dans à gauche de $\tau^\ast,$ ce qui n’est contredit le fait que si $\tau^\ast < +\infty$ alors $|u(t)|\to +\infty$ quand $t\to +\infty$. Donc forcément on a $\tau^\ast=+\infty$.
  4. Il suffit de refaire les mêmes démarches que dans la question 2.

Existence de solution périodique (Théorème de Massera)

Dans l’exercice suivant, nous introduisons un cas très important dans la théorie des équations différentielles non linéaires. C’est le cas des solutions périodiques, c’est une régularité importante pour les problèmes de Cauchy non linéaires.

Exercice: Soit $F:\mathbb{R}\times\mathbb{R}\to\mathbb{R}$ une fonction continue sur $\mathbb{R}\times\mathbb{R}$ et $T$-périodique ($T>0$) par rapport à sa première variable, c’est à dire que $$ \forall (t,x)\in \mathbb{R}^2,\qquad F(t+T,x)=F(t,x). $$ On suppose que l’equation différentielle\begin{align*}\tag{Eq} \dot{u}(t)=F(t,u(t)),\qquad t\in\mathbb{R},\end{align*}admet une solution $u:\mathbb{R}\to \mathbb{R}$ bornée sur $\mathbb{R}$. Le but de cet exercice est de montrer que (Eq) admet une solution $T$-périodique. Pour cela on définie une suite de fonctions par $$ u_n(t)=u(t+nT),\qquad \forall, n\in\mathbb{N},\;t\in\mathbb{R}. $$

  1. Montrer que pour chaque $n\in \mathbb{N},$ la fonction $u_n$ est une solution de équation différentielle non linéaire (Eq).
  2. Montrer que si $u_1-u_0$ s’annule en un point de $\mathbb{R}$, alors $u$ est $T$-périodique.
  3. Montrer que si $u_1-u_0$ s’annule en un point de $\mathbb{R}$, alors $u$ est $T$-périodique.

  1. Par récurrence on peut montrer facilement que $F(t,x)=F(t+nT,x)$ pour tout $n\in \mathbb{N}$ et $(t,x)\in\mathbb{R}^2$. Let $u:\mathbb{R}\to \mathbb{R}$ une solution bornée de (Eq). Remarquons que $u_n$ est le composé de deux fonctions dérivable sur $\mathbb{R}$, donc $u_n$ est dérivable sur $\mathbb{R}$. Pour tout $t\in\mathbb{R},$ et on a\begin{align*}\dot{u}_n(t)&=\left(u(t+nT)\right)’=\dot{u}(t+nT)\cr &= F(t+nT,u(t+nT))\cr &=F(t+nT,u_n(t))\cr &= F(t,u_n(t)).\end{align*}Ce qui implique que $u_n$ est une solution de l’équation différentielle (Eq).
  2. Supposons qu’il existe $t_0\in \mathbb{R}$ tel que $u_1(t_0)=u_0(t_0)$. Comme $u_1$ et $u_0$ sont deux solutions de (Eq) qui coïncident en un point, alors par le théorème d’unicité globale on a $u_1(t)=u_0(t)$ pour tout $t\in \mathbb{R},$ ce qui signifie que $u(t+T)=u(t)$ pour tout $t\in\mathbb{R}$. Ainsi $u$ est $T$-périodique.
  3. Montrer que la suite de fonction converge simplement vers une fonction sur $\mathbb{R}$. pour chaque $t\in\mathbb{R}$ on a $(u_n(t))_n\subset \mathbb{R}$ est une suite croissante. En effet, soit $t\in\mathbb{R}$. Comme $u_1(t)>u_0(t)$, alors\begin{align*}u_{n+1}(t)&=u(t+(n+1)T)=u((t+nT)+T)\cr &=u_1(t+nT)>u_0(t+nT)=u(t+nT)=u_n(t).\end{align*}D’autre part, on sait que $u$ est bornée sur $\mathbb{R}$. Donc il existe $M>0$ tel que $|u(t)|\le M$ pour tout $t\in \mathbb{R}$. Alors $|u_n(t)|=|u(t+nT)|\le M$ pour tout $t\in\mathbb{R}$. Donc la suite $(u_n(t))$ est bornée. Ainsi cette suite est convergente vers un réel noté $u_\infty(t)$ pour chqaue $t\in \mathbb{R}$. Donc $u_n\to u_\infty$ simplement quand $n\to \infty$ et $u_\infty:\mathbb{R}\to \mathbb{R}$. La fonction $u_\infty$ est $T$-périodique. En effet, On a $u_{n+1}(t)=u_n(t+T)$. En faisant $n\to \infty$ on trouve $u_\infty(t)=u_\infty(t+T)$. Montrons que $(u_n)$ converge uniformément vers $u_\infty$ (ceci va nous aider a montrer que $u_\infty$ est solution de (Eq)). Comme $F$ est est $T$-périodique par rapport à sa première variable est que $u(t)\in [-M,M]$ pour tout $t\in \mathbb{R},$ alors $$ \left\{F(t,u(t)):t\in \mathbb{R}\right\}\subset \left\{F(t,x):(t,x)\in [0,T]\times [-M,M]\right\}. $$ Comme $$ \kappa:=\sup_{[0,T]\times [-M,M]} |F|<\infty, $$ alors $|\dot{u}_n(t)|=|F(t,u(t+nT)|\le \kappa$ pout tout $t$. Alors par le théorème des accroissements finis, on a pour tout $n\in\mathbb{N}$ et tout $t,s\in\mathbb{R}$ on a $$|u_n(t)-u_n(s)|\le \kappa |t-s|.$$ Ceci montrer que $(u_n)$ est équicontinue. Et puis pour tout $n\in \mathbb{N}$ et tout $t\in\mathbb{R}$ on a $|u_n(t)|\le M,$ alors la suite $(u_n)$ est aussi équibornée. Donc d’après le théorème d’Ascoli, $(u_n)$ admet une sous-suite $(u_{n_k})$ qui converge uniformément vers $u_\infty$ sur les compacts de $\mathbb{R}$. D’autre part on sait comme pour chaque $k\in \mathbb{N},$ la fonction $u_{n_k}$ est solution de (Eq) alors il satisfait aussi l’équation intégrale\begin{align*}\tag{EI} u_{n_k}(t)=x_0+\int^t_0 F(s,u_{n_k}(s))ds,\qquad t\in\mathbb{R}.\end{align*}On utilisant le fait que $F$ est unformément continue sur le compact $[0,T]\times [-M,M]$ et le fait que $(u_{n_k})$ qui converge uniformément vers $u_\infty$, on peut montrer facilement que $F(\cdot,u_{n_k}(\cdot))$ converge uniformèment vers $F(\cdot,u_\infty(\cdot))$. Donc par passage à la limite dans (EI) on trouve $$ u_\infty(t)=x_0+\int^t_0 F(s,u_\infty(s))ds,\qquad t\in\mathbb{R}. $$ Ce qui est équivalent à dire que $u_\infty:\mathbb{R}\to \mathbb{R}$ est une solution de (Eq) qui est $T$-périodique.

Exercices de diagonalisation des matrices

0
exercices-de-diagonalisation-des-matrices

Nous proposons des exercices de diagonalisation des matrices. Une matrice est diagonalisable si le nombre de ces valeurs propres égale à la dimension de l’espace dans lequel est définie. D’autre part, on donne des applications de la diagonalisation pour résoudre les systèmes linéaires et calcul de l’exponentielle de matrices. La diagonalisation fait partie de la réduction des endomorphismes.

Sélection d’exercices de diagonalisation des matrices

Exercice:

  1. Soient $A$ et $B$ deux matrice carrées d’ordre $d$. De plus, soit $J$ une matrice carrée inversible d’ordre $d$ telle que \begin{align*}A=J B J^{-1}.\end{align*}Montrons que pour tout $ n\in \mathbb{N} $, on a:\begin{align*}A^{n}=JB^{n} J^{-1}.\end{align*}
  2. \begin{align*}A=\begin{pmatrix} 1 & 1 & 0 \\ 1 & 1 & 1 \\ 0 & 0 & -1 \end{pmatrix}\end{align*}Calculer $ A^{n} $.

Solution:

  1. Soient $ A,B $ et $ J $ trois matrices carrées avec $ J $ une matrice inversible, et telle que on a: $A=J B J^{-1}.$ Notons $ (P_n) $ la propriété à démontrer, et faisons un raisonnement par récurrence sur n. La propriété $ (P_1) $ est vraie par hypothèse. Supposons que, pour $ n $ entier naturel quelconque, $(P_n)$ soit vraie, et démontrons qu’alors $ (Pn+1) $ est vraie. On a:\begin{align*}A^{n+1}&= A^{n}A \cr &= (J B^{n}J^{-1})(JBJ^{-1})\cr &=J B^{n}B J^{-1} =J B^{n+1}J^{-1}.\end{align*}D’où par récurrence la propriété $(P_n)$ est donc démontrée pour tout entier naturel $n$.
  2. Tout d’abord on diagonaliser la matrice\begin{align*}A=\begin{pmatrix} 1 & 1 & 0 \\ 1 & 1 & 1 \\ 0 & 0 & -1 \end{pmatrix}\end{align*}-c’est à dire- déterminons une matrice inversible $ J$ telle que $ J^{-1}AJ $ soit diagonal. Pour se faire, on calcule premièrement le polynôme caractéristique de $ A $ comme suit\begin{align*}P_{A}(X)&=\begin{vmatrix} X-1 & -1 & 0 \\ -1 & X-1 & -1 \\ 0 & 0 & X+1 \end{vmatrix} \cr &= (X-1) \begin{vmatrix} X-1 & -1 \\ 0 & X+1 \end{vmatrix}+ \begin{vmatrix} -1 & 0 \\ 0 & X+1 \end{vmatrix}\cr &= X(X+1)(X-2).\end{align*}On constate que $ 0 ,-1$ et $ 2 $ sont trois racines simple du polynôme caractéristique $ P_{A} $. Il en résulte que la matrice $ A $ admet trois valeurs propres et qu’elle est diagonalisable. Après avoir compter les racines du polynôme caractéristique de la matrice $ A $, la deuxième étape est de déterminer les sous-espaces propres associées aux valeurs propres $ 0,-1 $ et $ 3 $. En effet, soit $ X= \begin{pmatrix} x_{1} & x_{2} & x_{3} \end{pmatrix}^{\top}$ on a le sous-espace propre associée à $ 0 $ est donnée par: $$ AX=0. $$ On obtient\begin{align*}\begin{cases} x_{1}+x_{2 }= 0\\ x_{1}+x_{2 } + x_{3} =0\\- x_{3} = 0\end{cases}\Leftrightarrow \begin{cases} x_{2}= – x_{1}\\x_{3} = 0 \end{cases}.\end{align*} On en déduit le sous-espace propre associée à la valeur propre $ 0 $:\begin{align*}E_{0}(A)=\text{Vect}\left\{ \begin{pmatrix} 1 \\ -1 \\0 \end{pmatrix}\right\}.\end{align*}De même par un calcule similaire on trouve les sous-espaces propres associées aux valeurs propres $ -1 $ et $ 2 $, respectivement: \begin{align*}&E_{-1}(A)=\text{Vect}\left\{\begin{pmatrix} 1 \\ -2 \\3 \end{pmatrix}\right\} \qquad \text{et } \cr & E_{2}(A)=\text{Vect}\left\{\begin{pmatrix} 1 \\ 1 \\0 \end{pmatrix}\right\}. \end{align*}
  3. Les colonnes ainsi obtenu déterminent une base de vecteurs propres de l’endomorphisme canonique associé à $ A $. Considérons la matrice constituée par ces colonnes: $$ J=\begin{pmatrix} 1 & 1 & 1 \\ -1 & -2 & 1 \\ 0 & 3 & 0 \end{pmatrix}. $$Observons que la matrice $ J $ est inversible car c’est la matrice de passage de la base canonique de $ \mathcal{M}_{3,1}(\mathbb{R}) $ à une base de vecteurs propres. Ainsi, la formule de changement de base donne: $$ A=J DJ^{-1}\qquad \text{avec} \qquad D=\begin{pmatrix} 0 & 0 & 0 \\ 0 & -1 & 0 \\ 0 & 0 & 2 \end{pmatrix} $$Maintenant en appliquant l’affirmation de la question (1) on obtient: $$ A^{n}=JD^{n} J^{-1} \qquad \text{avec} \qquad D^{n}=\begin{pmatrix} 0 & 0 & 0 \\ 0 & (-1)^{n} & 0 \\ 0 & 0 & 2^{n} \end{pmatrix}. $$ D’autre part, on a l’inverse de la matrice de passage $ J $ est donnée: $$ J=\frac{1}{6}\begin{pmatrix} 3 & -3 & -6 \\ 0 & 0 & 2 \\ 3 & 3 & 1 \end{pmatrix}. $$ On en déduit: $$ A^{n}=\frac{1}{6}\begin{pmatrix} 2^{n}.3 & 2^{n}.3 & (-1)^{n}.2+2^{n} \\ 2^{n}.3 & 2^{n}.3 & (-1)^{n}.(-4)+2^{n+1} \\ 0 & 0 & (-1)^{n}.6 \end{pmatrix}. $$

Voici un des exercices de diagonalisation des matrices qui utilise les suites récurrentes.

Exercice: Soit $ (u_{n}) $ une suite réelle vérifiant, pour tout $ n\in \mathbb{N} $, $$ u_{n+3}+3u_{n+2}-u_{n+1}-3u_{n}=0. $$ Pour tout $ n\in \mathbb{N} $, on pose \begin{align*}X_n=\begin{pmatrix}u_n\\u_{n+1}\\u_{n+2}\end{pmatrix}.\end{align*}

  1. Déterminer une matrice $A$ d’ordre $3$ tel que $ X_{n+1}=AX_{n}.$.
  2. Diagonaliser la matrice $ A $ et en déduire une expression de $ A^{n} $ valable pour $ n\in\mathbb{N}$.
  3. Exprimer $ u_{n} $ en fonction de $ u_{0},u_{1},u_{2} $ et de $ n\in \mathbb{N}$.

Solution:

Exercices corrigés sur les polynômes

0
exercices-corriges-sur-polynomes

Nous proposons des exercices corrigés sur les polynômes et fractions rationnelles. En particulier, la division de deux polynômes et les propriétés de l’anneau des polynômes.

Paquet d’exercices corrigés sur les polynômes

Exercice: Déterminer les entiers $n\in\mathbb{N}$ avec $n\ge 3$ tel que le polynômes\begin{align*}P_n=(X-1)^n-(X^n-1)\in \mathbb{C}[X]\end{align*}ait au moins un zéro d’ordre au moins $2$.

Solution: Pour avoir un zéro d’ordre au moins $2$ il faut que $P_n(z)=P’_n(z)=0$. Ce qui est équivalent à $(z-1)^n-z^n+1=0$ et $(z-1)^{n-1}=z^{n-1}$. La deuxième équation implique $z^n=z(z-1)^{n-1}$. En remplace $z^n$ dans la première équation on a alors $(z-1)^{n-1}=1$. Ainsi avoir un zéro d’ordre au moins $2$ il faut et il suffit que $z^{n-1}=(z-1)^{n-1}=1$. Pour résoudre cette équation complexe on pose\begin{align*}w=\frac{z}{z-1}.\end{align*}On a donc $w^{n-1}=1$. D’où il existe $k\in \{0,1,\cdots,n-1\}$ tel que $w=e^{\frac{2ik\pi}{n-1}}$. Il faut exclure $w=1$ car l’équation $\frac{z}{z-1}=1$ n’a pas de solution. Ainsi notre $k$ est dans l’ensemble $\{1,\cdots,n-1\}$. Par un calcul simple on a $|z|=1$ et\begin{align*}z=\frac{w}{w-1}&=\frac{e^{\frac{2ik\pi}{n-1}}}{e^{\frac{2ik\pi}{n-1}}-1}\cr & =\frac{e^{\frac{ik\pi}{n-1}}}{e^{\frac{ik\pi}{n-1}}-e^{\frac{-ik\pi}{n-1}}}\cr &= \frac{e^{\frac{ik\pi}{n-1}}}{2i s\in\left(\frac{k\pi}{n-1}\right)}.\end{align*}Pour que $|z|=1$ il faut choisir un $n$ tel que $s\in\left(\frac{k\pi}{n-1}\right)=\frac{1}{2}$, c’est à dire $\frac{k}{n-1}=\frac{1}{6},$ ou encore $n=6k+1$.

Exercice: Soit $\alpha\in\mathbb{R}^\ast,$ et $P\in\mathbb{R}[X]$ un polynôme scindé et à zéros tous simples. Montrer que les zéros dans $\mathbb{C}$ de $P^2+\alpha^2$ sont tous simples.

Solution: Raisonnement par l’absurde. Supposons que le polynôme $P^2+\alpha^2$ admet au moins un zéros double noté $z$. Donc la dérivée de $P^2+\alpha^2$ en $z$ est nulle, soit $P(z)P'(z)=0$. Par hypothèse $P(z)\neq 0$ car les zéros de $P$ sont tous simple. On a alors $P'(z)=0$. D’autre part, $P’$ est scindé sur $\mathbb{R}$ ( décomposable en facteurs de degré 1 sur $\mathbb{R}$), donc $z\in \mathbb{R}$. Contradiction car $P^2+\alpha^2$ n’admet de zéro réel.

Exercice: Soient $p,q\in \mathbb{N}^\ast$. On note $r$ le reste de la division euclidienne de $p$ et $q$ dans $\mathbb{Z}$. Démontrer que le reste de la division euclidienne dans $\mathbb{K}[X]$ de $X^p-1$ par $X^q-1$ est $X^r-1$.

Solution: La question est de chercher un polynôme $A\in \mathbb{K}[X]$ tel que $X^p-1=A(X^q-1)+X^r-1$. Ce qui est équivalent à $A (X^q-1)=X^p-X^r$. D’après la division euclidienne de $p$ par $q$, il existe $a$ entier tel que $p=aq+r$. On a donc \begin{align*}X^p-X^r=(X^a)^q X^r-X^r= X^r \left((X^p)^a-1\right).\end{align*}Comme \begin{align*}(X^p)^a-1= (X^q-1)\left((X^q)^{a-1}+\cdots+1\right).\end{align*}Alors Alors on prend $A=(X^q)^{a-1+r}+(X^q)^{a-2+r}+\cdots+X^r$.

D’autres exercices sur le polynôme scindé.

Théorème des valeurs intermédiaires

0
theoreme-des-valeurs-intermédiaires

Un résultat bien utilisé par les élèves depuis le lycée est le théorème des valeurs intermédiaires (IVT). Ce résultat est souvent utilisé pour résoudre certaines équations algébriques, notamment par la méthode dite de la dichotomie.

Énoncé du théorème des valeurs intermédiaires

Le théorème des valeurs intermédiaires (TVI) est un théorème très utile pour la résolution des équations algébriques. Ce théorème dit que si $f:[a,b]\to \mathbb{R}$ est continue sur $[a,b]$ et si un réel $\lambda$ est compris entre $f(a)$ et $f(b)$ alors il existe au moins un réel $c\in [a,b]$ tel que $f(c)=\lambda$.

Un cas très pratique de ce résultat lorsque les signes de $f(a)$ et $f(a)$ sont opposés, c’est-à-dire si $f(a)f(b)\le 0$ alors il existe au moins $cin [a,b]$ tel que $f(c)=0$.

Existence de points fixes pour les fonctions

Dans les exercices suivants, un réel $x$ est dit un point fixe d’une fonction $f$ si il est solution de l’équations algébrique $f(x)=x$.

Exercice: Soient $a,b\in mathbb{R}$ tels que $a < b$ et $f:[a,b]\to [a,b]$.

  1. Montrer que si $f$ est continue sur $[a,b],$ alors elle admet au moins un point fixe.
  2. Même question si $f$ est croissante.

Solution:

  1. On rappel qu’une fonction continue qui change de signe sur les bornes de son domaine de définition forcément s’annule en des points. Pour notre question Il suffit de considérer un fonction $g:[a,b]\to \mathbb{R}$ définie par $g(x)=f(x)-x$. On a $g(a)=f(a)-a\ge 0$ (car $f(a)\in [a,b]$) et $g(b)=f(b)-b\le 0$ (car $f(b)\in [a,b]$). Donc $g(a)g(b)\le 0$ et par suite il existe au moins $c\in [a,b]$ tel que $g(c)=0$. Ce qui signifie que $f(c)=c,$ ainsi $c$ est un point fixe de $f$.
  2. Par l’absurde on suppose que $f$ n’admet pas de point fixe. Soit l’ensemble\begin{align*}E=\{x\in [a,b]: f(x) < x\}.\end{align*}Comme $f(b)\neq b$ (can on a supposer que $f$ est sans point fixe) et $f(b)\le b$ alors on a $f(b) < b$. Ce qui donne $b\in E$, et donc $E\neq \emptyset$. D’autre part, $E$ est minoré par $a$, donc $c=\inf(E)$ existe. D’après la caractérisation de la borne inférieure, pour tout $\varepsilon > 0$, il existe $x\in [c,c+\varepsilon[$ et $x\in E$. Comme $f$ est croissante, alors $f(c)\le f(x) < x < c+\varepsilon.$ Ce qui donne que pour tout $\varepsilon > 0$, $f(c) < c+\varepsilon$. Ainsi $$f(c)\le c.$$D’autre part, pour tout $y\in [a,c[$ on a $y\notin E$ (car si non il sera plus grand que $c$). Ainsi $y\le f(y)$. Comme par croissance de $f$ on a $f(y)\le f(c)$ alors, pour tout $y\in [a,c[$ on a $y\le f(c)$. En faisant tendre $y$ vers $c$ on obtient $$ c\le f(c).$$ Donc $f(c)=c,$ ce qui est absurde avec le fait qu on a supposer que $f$ est sans point fixe.

Exercice: Soient $f,g:[0,1]\to [0,1]$ deux applications continues telles que $f(0)=g(1)=0$ et $f(1)=g(0)=1$. Montrer que pour tout $\lambda >0$ il existe $x\in [0,1]$ tel que $f(x)=\lambda g(x)$.

Solution: Il suffit de considérer la fonction $h_\lambda:[0,1]\to \mathbb{R}$ définie par $h_\lambda(x)=f(x)-\lambda g(x)$. cette fonction est continue sur $[0,1]$ et on a $h_\lambda (0)=-\lambda < 0$ et $h_\lambda(1)=1$. Donc d’après TVI appliquer a $h_\lambda$ sur $[0,1,]$ il existe $x\in [0,1]$ tel que $h_\lambda (x)=0$. Ce qui donne $f(x)=\lambda g(x)$.

Sous-suites de nombres réels

0
sous-suites-de-nombres-reels

En analyse mathématique, les sous-suites de nombres réels jouent un rôle important. En effet, le théorème de Bolzano-Weierstrass affirme que si une suite est seulement bornée, alors elle admet une sous-suite convergente.

Rappel sur les sous-suites

Une sous suite d’une suite réelle $(u_n)_n$ est une suite de la forme $(u_{\varphi(n)})$ avec $\varphi:\mathbb{N}\to \mathbb{N}$ une fonction strictement croissante. 

Examples: Si on pends $\varphi(n)=2n$ ou bien $\varphi(n)=2n+1$, alors on a deux sous-suites $(u_{2n})$ et $(u_{2n+1})$. Un autre exemple $\varphi(n)=n^3,$ alors $(u_{n^3})$ et aussi une sous-suite de $(u_n)$ (il faut noter que chaque suite admet un nombre infini de sous-suites). La sous-suite et parfois appelée une suite extraite.

On rappel que si la suite $(u_n)$ converge vers $\ell\in\mathbb{R}$ alors toutes les sous-suites convergent aussi vers $\ell$. Inversement, si toutes les sous-suites d’une suite converge vers un seule réel, alors la suite mère converge aussi vers cette valeur.

Et donc pour monter qu’une suite ne converge pas, il suffit de chercher deux sous-suites qui converges vers deux limites différentes. Par exemple la suite $u_n=(-1)^n$ ne converge pas car les sous-suites $u_{2n}=1\to 1$ et $u_{2n+1}=-1\to -1$ quand $n\to +\infty$

Exercices sur les sous suites de nombres réels

Exercice: Soit $(x_n)_n$ une suite de de nombres réels qui est croissante et admet une sous suite convergente. Montrer que la suite $(x_n)_n$ est convergente.
 

Solution: Normalement pour qu’une suite soit convergente vers un réel $\ell$ il faut et suffit que  toutes les sous-suites de la suite convergent vers le même $\ell$. Mais dans cet exercice nous allons voir que si la suite est monotone, par exemple croissante, il suffit qu’une sous-suite soit convergente pour que la suite mère converge aussi. En effet, il faut note tous d’abord qu’une suite croissante elle converge vers un réel $\ell$ ou bien vers $+\infty$. Par hypothèse, il existe $\varphi:\mathbb{N}\to\mathbb{N}$ et il existe $\ell\in\mathbb{R}$ tel que $x_{\varphi(n)}\to \ell$ quand $n\to+\infty$. Si $(x_n)_n$ converge vers $+\infty$ alors la sous suite $ (x_{\varphi(n)})_n$  convergente aussi vers $+\infty$, donc c’est absurde. Ainsi $(x_n)_n$ est convergente vers la même la suite que sa suite extraite.

 
Exercice: Soit $(\omega_n)_n$ une suite numérique telle que \begin{align*} 0\le \omega_{n+p}\le \frac{n+p}{np},\qquad \forall (n,p)\in(\mathbb{N}^ast)^2.\end{align*} Montrer que $(\omega_n)_n$ est convergente. 
 

Solution: Ici nous allons utiliser le résultat pratique suivant: pourque la suite  $(\omega_n)_n$ soit convergente il faut et il suffit que les deux sous-suites $(\omega_{2n})_n$ et $(\omega_{2n+})_n$ convergent vers une même limite. En effet, on a on prend $p=n$ dans l’inégalité en haut, on trouve \begin{align*} 0\le \omega_{2n}\le \frac{2n}{n^2}=\frac{2}{n}.\end{align*} Par le principe des gendarmes on a $\omega_{2n}\to 0$ quand $n\to+\infty$. De même si on prend $p=n+1$ on trouve $0\le \omega_{2n+1}\le \frac{2n+1}{n(n+1)}\le \frac{2}{n}$. Ainsi $\omega_{2n+1}\to 0$.

Exercice: Soit $(u_n)$ une suite reelle telle que la suite des valeurs absolues $(|u_n|)_n$ est décroissante. 
  1. Justifier que la suite $(v_n)_n$ definie par $v_n=|u_n|$, est convergente vers un reel $a\in [0,+\infty[$.
  2. Montrer que la suite $(u_n)_n$ admet une sous suite $(u_\varphi(n))_n$ qui converge vers un reel $\ell$ tel que $|\ell|=a$.

Solution:

1- On pose $v_n=|u_n|\ge 0$ pour tout $n$ (donc $(v_n)_n$ est minoreé) par $0$. Or par hypthese  $(v_n)_n$ est décroissante, donc elle est convergente. Ainsi il existe $a\in \mathbb{R}$ tel que $v_n\to a$ quand $n\to+\infty$.

2-  En particulier, $(v_n)_n$ est une suite bornée, ce qui implique que la suite $(u_n)_n$ est bornée. Donc le théorème de Bolzano-Weierstrass nous dit qu’il existe une fonction $\varphi:\mathbb{N}\to\mathbb{N}$ strictement croissante et $\ell\in\mathbb{R}$ tel que $u_{\varphi(n)}\to \ell$ quand $n\to+\infty$. Mais $(v_{\varphi(n)})_n$ est une sous-suite de $(v_n)_n$, donc $(v_{\varphi(n)})_n\to a$ quand $n\to+\infty$. ce qui montre que $|\ell|=a$.

 
Exercice: Soit $(x_n)_n$ une suite de nombres réels telle que la suite $(|x_n|)_n$ ne tende pas vers $+\infty$. Montrer que la suite $(x_n)_n$ admet au moins une valeur d’adhérence.

 

Solution: Ici il ne faut surtout pas tomber dans le piège et conclure que la suite est bornée!! Donc  $(|x_n|)_n$ ne tende pas vers $+\infty$ signifie que il existe un réel $A>0$ tel pour tout $N\in\mathbb{N}$ il existe $n\in \mathbb{N}$ tel que $n>N$ et $|x_{n}|\le A$. Comme $N$ est quelconque, on peut alors imposer a $N$ des valeurs. Par suite, pour $N=1,$ il existe $n_1\in \mathbb{N}$ tel que $n_1>1$ et $|x_{n_1}\le A$. Pour $N=n_1,$ il existe $n_2\in \mathbb{N}$ tel que $n_2>n_1$ et $|x_{n_2}|\le A$. Pour $N=n_2$ il existe $n_3\in\mathbb{N}$ tel que $n_3>n_2$ et $|x_{n_3}|\le A$, ainsi de suite, pour tout $k,$ on pose $N=n_k$, il existe $n_{k+1}\in\mathbb{N}$ tel que $n_{k+1}>n_k$ et $|x_{n_{k+1}}|\le A$. On a alors construit une application $\varphi:\mathbb{N}\to\mathbb{N}$ tel que $k\mapsto \varphi(k)=n_k$ tel que $|x_{\varphi(k)}|\le A$ pour tout $k$. On a donc montrer que la suite $(x_n)_n$ admet une sous-suite $w_k=x_{\varphi(k)}$ bornée. Comme la suite $(w_k)_k$ est bornée donc d’apres le théorème de Bolzano-Weierstrass il existe $\psi:\mathbb{N}\to\mathbb{N}$ strictement croissante et il existe $\ell\in\mathbb{R}$ tels que $w_{\psi(k)}\to \ell$ \quand $k\to+\infty$. Maintenant on a \begin{align*} w_{\psi(k)}=x_{\varphi(\psi(k))}=x_{(\varphi\circ\psi)(k)}.\end{align*}D’autre part, la fonction $\xi=\varphi\circ\psi:\mathbb{N}\to\mathbb{N}$ est strictement croissante et $x_{\xi(k)}\to \ell$. Donc $(x_n)_n$ admet une sous-suite convergente vers $\ell$. Ainsi $\ell$ est une valeur d’adhérence de la suite $(x_n)_n$.

Problème: Soit $f:\mathbb{R}^+\to \mathbb{R}$ une fonction uniformément continue sur $\mathbb{R}^+$. On suppose qu’il existe une suite $(x_n)$ strictement croissante de réels positifs telle que $x_n\to +\infty$ et $x_{n+1}-x_n\to 0$ quand $n\to +\infty$.

  1. Soit $(u_n)$ une suite de nombres réels telle que $u_n\to +\infty$ and $n\to +\infty,$ et que la suite $(f(u_n))$ admette une limite $b$. Montrer que $b$ est une valeur d’adhérence de la suite $(f(x_n))$ (c’est-à-dire $b$ est une limite d’une sous-suite de $(f(x_n))$).
  2. Un nombre réel $b$ est dit valeur d’adhérence de $f$ au point $+\infty$ si’il existe une suite de réels $(v_n)$ vérifiant $v_n\to +\infty$ et $f(v_n)\to b$ quand $n\to +\infty$. Montrer que les valeurs d’adhérence de la suite $(f(x_n)$ sont exactement valeurs d’adhérence de $f$ au point $+\infty$.
  3. Soit $f:\mathbb{R}\to \mathbb{R}$ une fonction continue $T$-périodique ($T>0$). Soit $(x_n)$ une suite strictement croissante de réels positifs telle que $x_n\to +\infty$ et $x_{n+1}-x_n\to 0$ quand $n\to +\infty$. Montrer que l’ensemble des valeurs d’adhérence de la suite $(f(x_n)$ est égale à l’ensemble $f(\mathbb{R})$.
  4. Applications: Déterminer l’ensemble des valeurs d’adhérence des suites terme général: $\cos(\sqrt{n}),\;\sin(\sqrt{n}),\;e^{i \sqrt{n}}$ et $n^{i\alpha}$ ($\alpha\in\mathbb{R}$).

Solution:

Analyse I pour SMA

0
analyse-1-pour-sma

Nous proposons une sélection d’exercices corrigés d’analyse 1 pour SMA, les étudiants de la première année sciences mathématiques. En fait, on donne des exercices corrigés sur les fonctions uniformément continues, et sur les théorèmes de Heine-Borel et des accroissements finis.

Sur les fonctions uniformément continues

Des exercices sur les fonctions uniformément continues. En général cette classe de fonction est mal compris pas les étudiants. Ici on donne des arguments simple pour rendre claire cette notion. Une fonction uniformément est continue. Mais la réciproque n’est pas vrai en général. Mais si une fonction est continue sur un compact alors elle est uniformément continue sur ce compact, et même elle atteint ces bornes supérieure et inferieure, c’est le théorème de Heine. Une autre classe des fonction uniformément continue c’est les fonctions Lipschitziennes. Par exemple les fonctions sinus et arc tangente sont Lipschtzennes donc uniformément continues sur l’ensemble des nombres réels. Bien sûr  il y a aussi d autre classe de fonctions uniformément continues comme les fonction Höldériennes.  On rappelle que $f:I\subset \mathbb{R}\to\mathbb{R}$ est dit $\gamma$-höldérienne ($\gamma>0$) si il existe une constante $M>0$ tel que pour tout $x,y\in I,$ on a \begin{align*} |f(x)-f(y)|\le M |x-y|^\gamma.\end{align*} Soit $\varepsilon>0$ et choisissons $\alpha:=\left(\frac{\varepsilon}{M}\right)^{\frac{1}{\gamma}}$, alors pour tout $x,y\in I$ tel que $|x-y|<\alpha$ implique $M |x-y|^\gamma<\varepsilon$ implique $|f(x)-f(y)|<\varepsilon$. Ainsi $f$ est uniformément continue sur $I$.

Suites de Cauchy

Les suites de Cauchy sont souvent utilisées pour prouver de grands théorèmes, par exemple le théorème du point fixe de Banach-Picard. Ce chapitre est hors programme des classes préparatoires mathématiques supérieures (Math Sup). Mais c’est le cours du programme de la première année d’université pour analyse 1 SMA. Juste un exemple d’application pour démontrer que toute fonction uniformément continue sur $]a,b[$ est prolongeable par continuité en $a$ et $b$, il faut d’abord montrer que l’image d’une suite de Cauchy par une fonction uniformément continue reste également une suite de Cauchy.

Analyse 1 pour SMA: les sous-suites

Exercices corrigés sur les sous-suites et valeurs d’adhérence. On sait que si la suite mère est convergente vers un réel, alors toutes les sous-suites convergent vers ce même réel. Le théorème de Bolzano-Weierstrass dit que toute suite bornée admet une sous-suite convergente.

Analyse SMA: le théorème des valeurs intermédiaires

Des exercices corrigé sur les applications du théorème des valeurs intermédiaires. C’est un résultat utile dans la résolution des équations algébriques.

Morphismes de groupe: exercices

0
morphismes-de-groupe-exercices

Dans cet article, nous allons explorer en profondeur les morphismes de groupe en présentant une série d’exercices conçus pour vous aider à maîtriser ce sujet essentiel.

Les morphismes de groupe constituent un concept central en mathématiques, en particulier dans la théorie des groupes. Ils permettent de comprendre comment les groupes sont reliés les uns aux autres et comment les structures algébriques interagissent.

Définition d’un morphisme de groupe

Avant de plonger dans les exercices, rappelons brièvement ce qu’est un morphisme de groupe. Un morphisme de groupe est une application entre deux groupes qui respecte la structure de groupe. Plus precisement:

Soient $(G,\cdot)$ et $(G’,\ast)$ deux groupes et $f: G\to G’$. Alors $f$ est un morphisme de groupe si pour tout $a,b\in G$ on a $$ f(a\cdot b)=f(a)\ast f(b).$$

Les morphismes de groupe occupent une grande part dans les exercices sur les groupes. De plus si $e$ et $e’$ sont les éléments neutres de $G$ et $G’$, respectivement, alors on a les résultats suivants sur un morphisme de groupe $f : G\to G’$:

  1. $f(e)=e’$.
  2. Pour tout sous groupe $H$ de $G$ l’image directe de $H$ par $f$, $$ f(H)=\{f(a): a\in H\},$$ est un sous groupe de $G’$.
  3. Si $H’$ est un sous groupe de $G’$, alors l’image inverse de $H’$, $$ f^{-1}(H’)=\{ a\in G: f(a)\in H’\},$$ est un sous groupe de $G$.

Isomorphismes de groupe

Soit $f:G\to G’$ un morphisme de groupe. L’ensemble suivante ${\rm Im}(f)=f(G)$ est appelé l’image du morphisme $f$, c’est un sous groupe de $G’$. De plus $f$ est surjective si et seulement si ${\rm Im}(f)=G’$.

D’autre part, l’ensemble $$ \ker(f)=\{a\in G: f(a)=e’\}$$ est appelé le noyau de $f$, c’est un sous groupe de $G$. De plus, $f$ est injective si et seulement si $\ker(f)=\{e\}$.

Un isomorphisme de groupe et un morphisme de groupe $f:G\to G’$ qui est bijective. Dans ce cas, on dit que les groupes $G$ et $G’$ sont isomorphe et on ecrit $G \simeq G’$. De plus si $G=G’$ alors tout ismorphisme de $G$ dans $G$ est appelé automorphisme.

Exercices sur les morphismes de groupe

Exercice: ⭐⭐☆☆☆ Montrer que $\mathbb{R}$ muni de la loi $\ast:(x,y)\mapsto x\ast y=(x^3+y^3)^{1/3}$ est un groupe.

Ici nous allons introduire une méthode simple (sans passer par les conditions de la définition du groupe) pour démontrer que $(\mathbb{R},\ast)$ est un groupe. En effet, il suffit de montrer que $(\mathbb{R},\ast)$ est en bijection avec un autre groupe classique. Soit l’application\begin{align*} f:\mathbb{R}\to \mathbb{R},\quad x\mapsto f(x)=x^{1/3}.\end{align*}Remarquons que $f$ est bijective et que $f(x+y)=(x+y)^{1/3}=x^{1/3}\ast y^{1/3}=f(x)\ast f(y)$. Ainsi $f$ est un isomorphisme de $(\mathbb{R},+)$ sur $(\mathbb{R},\ast)$. Il est connu que $(\mathbb{R},+)$ est un groupe, alors $(\mathbb{R},\ast)$ est aussi un groupe. Donc l’élément neutre de $(\mathbb{R},\ast)$ est $0$ et le symétrique de $x$ est $-x$.

Exercice: ⭐⭐☆☆☆ Soit $G$ un groupe. Pour tout $a\in G$, on associé une application $\varphi_a:G\to G$ définie par $\varphi_a(x)=axa^{-1}$. On note par $({\rm Aut}(G),\circ)$ le groupe des automorphismes de $G$. Montrer que l’application\begin{align*}\Phi: G\to {\rm Aut}(G),\quad \Phi(a)=\varphi_a\end{align*}est un morphisme de groupe. Quel est le noyau de $\Phi$.

Premièrement, montrons que l’application $\Phi$ est bien définie. En effet, il faut montrer que pour chaque $a\in G,$ $\varphi_a\in {\rm Aut}(G)$. Pour tout $x\in G,$\begin{align*}\varphi_a \circ \varphi_{a^{-1}} (x)&=a \left(\varphi_{a^{-1}} (x)\right) a^{-1}\cr &= a a^{-1}x \left(a^{-1}\right)^{-1}a^{-1}\cr &= x.\end{align*}Donc $\varphi_a \circ \varphi_{a^{-1}}=Id_G$. De même on montrer que $\varphi_{a^{-1}} \circ \varphi_{a}=Id_G$. Ainsi $\varphi_a$ est bijective et que sa bijection réciproque est $\varphi_{a^{-1}}$. D’autre part, pour tout $x,y\in G,$ on a\begin{align*}\varphi_a(xy)&=a(xy)a^{-1}=axa^{-1}a ya^{-1}\cr&=(axa^{-1})(a ya^{-1})\cr &= \varphi_a(x)\varphi_a(y).\end{align*}Ceci implique que $\varphi_a$ est un automorphisme de $G$.

Pour tout $a,b\in G$ et $x\in G$, on a \begin{align*}[\Phi(ab)](x)&=\varphi_{ab}(x)=(ab)x(ab)^{-1}\cr &= abx^{-1}b^{-1}a^{-1}\cr &= a(bx^{-1}b^{-1})a^{-1}=a(\varphi_b(x))a^{-1}\cr &= \varphi_a (\varphi_b(x)).\end{align*}Donc $\Phi(ab)=\Phi(a)\circ \Phi(b)$. Ainsi $\Phi$ est un morphisme de groupe.

Le noyau de $\Phi$ est par définition\begin{align*}\ker\Phi&=\{a\in G: \Phi(a)=Id_G\}\cr &= \{a\in G: \varphi_a=Id_G\}.\end{align*}Soit $a\in \ker\Phi,$ alors pour tout $x\in G$ on a $\varphi_a(x)=x,$ ce qui signifie que $ax=xa$. D’où le noyau de $\Phi$ est constitué des éléments de $G$ qui commutent avec tous les éléments de $G$.

Exercices sur le déterminant de Vandermonde

0
exercices-sur-le-determinant-de-vandermonde

Nous proposons une sélection d’exercices sur le déterminant de Vandermonde et ses application. En effet, ces exercices sont destinés aux étudiants de première année universitaire et classes préparatoires. Nous avons déjà dédié une page de ce site qui étudie tous les types de déterminants des matrices carrées.

Sélection d’exercices sur le déterminant de Vandermonde

Exercice (déterminant de Vandermonde): Soient $n\in\mathbb{N}^\ast$ et $a_1,a_2,\cdots,a_n\in\mathbb{C}$. Be but est de donner l’expression du déterminant suit appelé le déterminant de Vandermonde:\begin{align*} V_n(a_1,\cdots,a_n):=\begin{vmatrix} 1& a_1&a_1^2&\cdots&a_1^{n-1}\\ 1& a_2&a_2^2&\cdots&a_2^{n-1}\\ \vdots&\vdots&\vdots&&\vdots\\ 1& a_n&a_n^2&\cdots&a_n^{n-1}\end{vmatrix}\end{align*} On pose $P_n(x)=V_n(a_1,\cdots,a_{n-1},x)$ pour $n\ge 1$ et $x\in\mathbb{C}$.

  1.  Montrer que $P_n$ est une fonction polynomiale de degré inferieur à $n-1$ et préciser le coefficient de son terme de degré $n-1$.
  2. En déduire la relation \begin{align*}\tag{$\ast$} V_n(a_1,\cdots,a_n)=V_{n-1}(a_1,\cdots,a_{n-1})\prod_{i=1}^{n-1}(a_n-a_i).\end{align*}
  3.  Coclure que \begin{align*}\tag{$\ast\ast$} V_n(a_1,\cdots,a_n)=\prod_{1\le i<j\le n}(a_j-a_i).\end{align*}

Solution: Dans la suite $x\in \mathbb{C}$ et $n\ge 2$.

  1. $P_n(x)$ un déterminant qui dépond de $x$, on le développe selon la dernière line. Donc on a \begin{align*} P_n(x)=\sum_{j=1}^n (-1)^{n+j} \beta_{j-1}x^{j-1},\end{align*} avec $\beta_{j-1}$ est le déterminant de la matrice obtenu par suppression de la $j$-ième colonne et de la dernière ligne. Notez que $\beta_0,\cdots,\beta_{n-1}$ ne dépondent pas de $x$. Donc $P_n(x)$ une fonction polynomiale de degre inferieur à $n-1$. De plus le coefficient de $x^{n-1}$ correspond à $\beta_{n-1}$ est exactement  $V_{n-1}(a_1,\cdots,a_{n-1})$.
  2.  Notez que si $x\in \{a_1,a_2,\cdots,a_{n-1}\}$, alors $P_n(x)=0$ car matrice du déterminant var contenir deux lignes identiques. Deux cas doivent alors être distingués. Premier cas: $a_i\neq a_j$ pour tout $i,j\in\{1,2,\cdots,n-1\}$.  Donc d’apres la question precedente on a \begin{align*} P_n(x)=V_{n-1}(a_1,\cdots,a_{n-1})\prod_{i=1}^{n-1}(x-a_i).\end{align*} Ains la relation ($\ast$) est obtenu en prenant $x=a_n$. Deuxième cas: les $a_1,\cdots,a_{n-1}$ ne sont pas deux à deux distincts, donc le déterminant contiendra des lignes identiques et donc il est nulle. De même, le côté droit de ($\ast$) est également égal à zéro. Dans cette relation est bien vérifier.
  3.  Nous allons procéder par récurrence.  Pour $n=2,$ on a \begin{align*} V_2(a_1,a_2)=\begin{vmatrix}1&a_1\\ 1&a_2\end{vmatrix}=a_2-a_1.\end{align*} Donc la relation ($\ast\ast$) est varie dans ce cas. Maintenanant, supposons que ($\ast\ast$) est vraie pour le rang ($n-1$). D’après la relation ($\ast$) on a \begin{align*}V_{n}(a_1,\cdots,a_{n})&= V_{n-1}(a_1,\cdots,a_{n-1})\prod_{i=1}^{n-1}(a_n-a_i) \cr &= \prod_{1\le i<j\le n-1}(a_j-a_i)\;\underset{j=n}{\underbrace{\prod_{i=1}^{n-1}(a_n-a_i)}}\cr &=\prod_{1\le i<j\le n}(a_j-a_i).\end{align*}

Cette formule est due au mathématicien Français  Alexandre-Théophile Vandermonde.

Exercices corrigés sur le calcul matriciel

0
exercices-calcul-matriciel

On propose des exercices corrigés sur le calcul matriciel. En effet, les exercices corrigés sur les matrices sont à la fois pratiques et théoriques. 

Exercices corrigés sur le calcul matriciel

Il est important de savoir faire le produit de deux matrices, calculer l’exponentielle d’une matrice et montrer qu’une matrice est inversible. Cela vous aidera, par exemple, à résoudre des systèmes algébriques ainsi que des systèmes d’équations différentielles.  Aussi ce chapitre est important pour la reduction des matrices.
 
1. Sur les puissance de matrices
 
Exercice: Soit $xinmathbb{R}$ et on pose begin{align*}mathscr{A}_x=begin{pmatrix}cos(x)&-sin(x)\sin(x)&cos(x)end{pmatrix}.end{align*}
Calculer  $mathscr{A}_x^n$ pour tout $ninmathbb{Z}$.