lesmath-logo-mathematiques

Équations différentielles non linéaires

Dans cet article, nous plongerons dans le monde des équations différentielles non linéaires à travers une série d’exercices stimulants, explorant leurs propriétés et méthodes de résolution.

Nous proposons des exercices corrigés sur les équations différentielles non linéaires; en particulier les problèmes de Cauchy non linéaires. Nous montrons l’existence et l’unicité de la solution maximale pour certaines équations différentielles. Nous appliquons le théorème d’explosion pour voir qu’une solution maximale est globale.

Rappelons que dans le cas des équations différentielles linéaires la solution globale existe toujours et peut être représentée par l’exponentielle d’une matrice. De plus, la solution s’annule à l’infini, concept de stabilite, si toutes les valeurs propres de la matrice ont une partie réelle strictement négative (c’est le premier théorème de Liapunov).

Exercices sur les équations différentielles non linéaires

Comparaison de deux solution globales

Exercice: Soient $F$ et $G$ deux fonctions continues sur $[a,b]\times \mathbb{R}$ dans $\mathbb{R}$ telles que$$F(t,x) < G(t,x),\qquad \forall (t,x)\in [a,b]\times \mathbb{R}.$$Soient $u$ et $v$ deux fonctions $C^1$ de $[a,b]$ dans $\mathbb{R}$ solutions des équations$$u'(t)=F(t,u(t)),\qquad v'(t)=G(t,v(t)),\qquad t\in [a,b].$$Supposons qu’il existe $t_0\in [a,b[$ tel que $u(t_0)=v(t_0)$.

  1. Montrer qu’il existe $\delta>0$ tel que $u(t)\le v(t)$ pour tout $t\in ]t_0,t_0+\delta]$.
  2. En déduire que $u(t)\le v(t)$, pour tout $t\in [t_0,b]$. (Indication: Considèrer l’intervalle $A=\{c\in [t_0,b]:u(t)\le v(t),\;\forall t\in [t_0,c]\}$ et $c^\ast=\sup A$.)

  1. Comme $u$ et $v$ sont deux solution globale, alors ils sont aussi des équations intégrales suivantes \begin{align*}u(t)&=x_0+\int^t_{t_0}F(s,u(s))ds,\qquad t\ge t_0\cr v(t)&=x_0+\int^t_{t_0}G(s,v(s))ds,\qquad t\ge t_0.\end{align*} Alors on a pour tout $t\ge t_0$ on a\begin{align*}u(t)-v(t)&=\int^t_{t_0} \left(F(s,u(s))-G(s,v(s))\right)ds\cr &=\Theta_1+\Theta_2,\end{align*}avec \begin{align*}\Theta_1&:=\int^t_{t_0} \left(F(s,u(s))-G(s,u(s))\right)ds\cr \Theta_2&:=\int^t_{t_0} \left(G(s,u(s))-G(s,v(s))\right)ds.\end{align*}Dans un premier temps nous allons montrer qu’il existe $\gamma_0>0$ tel que $\Theta_1\le -\gamma_0 (t-t_0)$ pour tout $t\ge t_0$. En effet, soit le compact $K_1=u([a,b])$. On a la fonction $F-G$ est continue sur le compact $[t_0,b]\times K_1,$ donc il existe $(c_0,\kappa_0)\in [t_0,b]\times K_1$ tel que\begin{align*}(F-G)(t,x)\le (F-G)(c_0,\kappa_0),\qquad \forall (t,x)\in [t_0,b]\times K_1.\end{align*} D’autre par comme $F < G$ sur $[t_0,b]\times K_1$, alors il existe $\gamma_0>0$ tel que $$(F-G)((c_0,\kappa_0))\le -\gamma_0.$$ On a alors pour tout $s\in [t_0,t],$\begin{align*}F(s,u(s))-G(s,u(s))\le -\gamma_0.\end{align*}D’où $\Theta_1\le -\gamma_0 (t-t_0)$ pour tout $t\ge t_0$. L’estimation de $\Theta_2:$ Soit le compact $K_2:=u([a,b])\cup v([a,b])$. Comme $G$ est continue sur le compact $[a,b]\times K_2$, alors elle est uniformément continue sur ce compact. Pour $\varepsilon=\frac{\gamma_0}{2},$ il existe $\beta>0$ tel que pour tout $(s,x),(s,y)\in [a,b]\times K_2:$\begin{align*}|x-y|\le \beta\;\Longrightarrow\;|G(s,x)-G(s,y)|\le \frac{\gamma_0}{2}.\end{align*}D’autre part, la fonction $\psi=u-v$ est continue à droit de $t_0$ et $\psi(t_0)$, donc il existe $\delta>0$ tel que\begin{align*}t_0\le s\le t_0+\delta\;\Longrightarrow\; |u(s)-v(s)|=|\psi(t)|\le \beta.\end{align*}En déduit donc que pour tout $t\in [t_0,t_0+\delta$ on a $\Theta_2\le \frac{\gamma_0}{2}(t-t_0)$. Ce qui montre que\begin{align*}u(t)-v(t)\le- \frac{\gamma_0}{2}(t-t_0),\quad \forall t\in [t_0,t_0+\delta].\end{align*}Ainsi $u(t) < v(t)$ pour tout $t\in ]t_0,t_0+\delta]$.
  2. Soit $$ A:=\{c\in [t_0,b]: u(t)\le v(t),\quad \forall t\in [t_0,c]\}. $$ On a $A$ est non vide car $t_0\in A$. De plus $A$ est majorée par $b$. Donc $c^\ast=\sup(A)$ existe dans $\mathbb{R}$. D’autre part, $A$ est un intervalle. En effet, soit $c\in A$ et $t_0\le c’\le c$. Comme $u(t)\le v(t)$ pour tout $t\in [t_0,c],$ alors aussi c’est vraie pour tout $t\in [t_0,c’]$. Donc $c’\in A$. Donc $A$ est un intervalle, et par suite on a $A=[t_0,c^\ast[$. Montrons que $c^\ast\in A$. On sait qu’il existe $(c_n)\subset A$ tel que $c_n\to c^\ast$ quand $n\to\infty$. Comme pour tout $n$ on a $u(c_n)\le v(c_n)$ alors par continuité on a aussi $u(c^\ast)\le v(c^\ast)$. On obtien $A=[t_0,c^\ast]$. Comme $c^\ast\le b$ alors on a deux cas. Si $c^\ast=b,$ alors on a rien à montrer. si non $c^\ast < b$. Supposons $u(c^\ast) < v(c^\ast)$. Comme la fonction $u-v$ est continue a droit de $c^\ast$ alors pour $\varepsilon= \frac{v(c^\ast)-u(c^\ast)}{2},$ il existe $\sigma>0$ tel que\begin{align*}(u(t)-v(t))- (u(c^\ast)-v(c^\ast))\le \frac{v(c^\ast)-u(c^\ast)}{2},\qquad \forall t\in [c^\ast,c^\ast+\sigma].\end{align*}Ce qui iplique que $u(t) < v(t)$ pout tout $t\in [c^\ast,c^\ast+\sigma]$. Ceci est une contraduction avec le fait que $c^\ast=\sup(A)$. Maintenant si $u(c^\ast)=v(c^\ast)$ alors d’après la question 1, il existe $\delta>0$ tel que $u(t)\le v(t)$ pout tout $t\in [c^\ast,c^\ast+\delta]$. C’est absurd. D’où $b=c^\ast$.

Champ de vecteurs quadratique

Exercice: Soit le problème de Cauchy $$(PC)_{0,x_0}\qquad \begin{cases} \dot{u}(t)=-u(t)+\sin(u(t)) (u(t))^2,& t\ge 0,\cr u(0)=x_0\in ]-1,1[. \end{cases} $$

  1. Montrer que le problème de Cauchy $(PC)_{0,x_0}$ admet une unique solution maximale $u:[0,\tau^\ast[\to \mathbb{R}$ telle que $$ u(t)=e^{-t}x_0+\int^t_0 e^{-(t-s)}\sin(u(s))(u(s))^2ds,\quad \forall t\in [0,\tau^\ast[. $$
  2. Le but maintenant est de démontrer qu’on a en fait une solution globale du problème $(PC)_{0,x_0}$, autrement dit nous allons montrer que $\tau^\ast=+\infty$. Pour cela soit $\delta\in ]0,1[$ tel que $|x_0|=1-\delta$. Soit $\delta_0\in ]0,\delta[$ et on pose $$ A=\left\{\tau\in [0,\tau^\ast[: |u(t)|\le 1-\delta_0,\quad \forall t\in [0,\tau]\right\}. $$ 2-1) Montrer que $A$ est un intervalle. On pose alors $A=[0,\alpha[$ avec $\alpha\le \tau^\ast$. Le but est de montrer que $\alpha=\tau^\ast$. Par l’absurd, supposons que $\alpha<\tau^\ast$. 2-2) Montrer que $$ \forall \tau\in A, \qquad |u(t)|\le |x_0|e^{-\delta_0 t},\quad\forall t\in [0,\tau]. $$ 2-3) Montrer que $|u(t)|\le 1-\delta$ pour tout $t\in [0,\alpha]$. En déduire qu’il existe $\gamma>0$ tel que $\alpha+\gamma\in A$. Conclure.
  3. Montrer que $\tau^\ast=+\infty$.
  4. Montrer que $$ |u(t)|\le |x_0|e^{-\delta_0 t},\qquad \forall t\in [0,+\infty[. $$

  1. Le problème de Cauchy $(PC)_{0,x_0}$ s’écrit comme $\dot{u}(t)=F(t,u(t))$ et $u(0)=x_0$ avec $$ F:[0,+\infty[\times \mathbb{R}\to \mathbb{R},\quad F(t,x)=-x+\sin(x)x^2. $$ Cette fonction est continue sur de classe $C^1$ sur $[0,+\infty[\times \mathbb{R}$. De plus il est de classe $C^1,$ donc localement Lipschitzienne par rapport a sa deuxième variable. Ce qui implique, d’après le théorème de Cauchy-Lipschitz que la solution maximale existe et est unique. On note cette solution maximale par $u:[0,\tau^\ast[\to \mathbb{R}$. Soit $t\in [0,\tau^\ast[$. Comme $u$ est solution de $(PC)_{0,x_0}$, alors pour tout $s\in [0,t]$ on a $$ \dot{u}(s)+u(s)=\sin(u(s))(u(s))^2. $$ Multipliant les deux cotés par $e^s$, on trouve alors $$ \frac{d}{ds}\left( e^s u(s)\right)=e^s \sin(u(s))(u(s))^2. $$ Et par intégration entre $0$ et $t$ on obtient $$ u(t)=e^{-t}x_0+\int^t_0 e^{-(t-s)}\sin(u(s))(u(s))^2ds,\quad \forall t\in [0,\tau^\ast[. $$
  2. On suppose par $\tau^\ast < +\infty$. On a $A$ est non vide, car $|x_0|=1-\delta<1-\delta_0$ car $\delta_0\in ]0,\delta_0[$. De plus $A$ est majorée par $\tau^\ast,$ donc $\alpha=\sup(A)$ existe et $\alpha\le \tau^\ast$. De plus $A$ est un intervalle, car si $\tau\in A$ et si $\tau’\in ]0,\tau,[$ alors en particulier on a $|u(t)|\le 1-\delta_0$ pour tout $t\in [0,\tau’]$, ce qui donne $\tau’\in A$. D’où $A=[0,\alpha[$. Maintenant nous allons montrer que $u$ est bornée sur $[0,\alpha]$. Soit $\tau\in A$ et $t\in [0,\tau]$. Alors on a $|u(s)|\le 1-\delta_0$ pour tout $s\in [0,t]$. Comme la fonction sinus est bornée par $1,$ alors \begin{align*} |e^t u(t)|&\le |x_0|+\int^t_0 |u(s)| (e^s |u(s)|) ds \cr & \le |x_0|+(1-\delta_0)\int^t_0 e^s |u(s)| ds. \end{align*} En appliquant le lemme de Gronwall on obtient $$ |e^t u(t)|\le |x_0| e^{(1-\delta_0)t}. $$ Donc $$ |u(t)|\le |x_0| e^{-\delta_0 t},\qquad \forall t\in [0,\alpha[. $$ Comme $e^{-\delta_0 t}\le 1$ et $|x_0|=1-\delta,$ alors $|u(t)|\le 1-\delta$ pour tout $t\in [0,\alpha[$. Comme $\alpha=\sup(A)$ alors il existe $(\alpha_n)_n\subset A$ tel que $\alpha_n\to\alpha$ quand $n\to\infty$. Comme $|\alpha_n|\le 1-\delta$ alors par continuité on a $|u(\alpha)|\le 1-\delta$. D’où $|u(t)|\le 1-\delta$ pour tout $t\in [0,\alpha]$. Montrons que $\alpha=\tau^\ast$. Supposons par l’absurd que $\alpha<\tau^\ast$. Par continuité de la solution $u$ à droite de $\alpha$ on a pour tout $\varepsilon>0$ il existe $\gamma>0$, tel que pour tout $t\in [\alpha,\alpha+\gamma]$ on a $|u(t)-u(\alpha)|\le \varepsilon.$ Donc l’inégalité triangulaire implique que pour tout $t\in [\alpha,\alpha+\gamma]$ on a $$ |u(t)|\le \varepsilon+ |u(\alpha)|\le \varepsilon+1-\delta. $$ Donc si on choisit $\varepsilon=\delta-\delta_0>0,$ on trouve que $|u(t)|\le 1-\delta_0$ pour tout $t\in [\alpha,\alpha+\gamma]$. Ce qui implique que $\alpha+\gamma\in A,$ c’est absurde. Ainsi $\alpha=\tau^\ast$.
  3. Si $\tau^\ast < +\infty$, alors on a vue dans la question 2 que $|u(t)|\le 1-\delta$ for tout $t\in [0,\tau^\ast]$. Donc la solution est borné dans à gauche de $\tau^\ast,$ ce qui n’est contredit le fait que si $\tau^\ast < +\infty$ alors $|u(t)|\to +\infty$ quand $t\to +\infty$. Donc forcément on a $\tau^\ast=+\infty$.
  4. Il suffit de refaire les mêmes démarches que dans la question 2.

Existence de solution périodique (Théorème de Massera)

Dans l’exercice suivant, nous introduisons un cas très important dans la théorie des équations différentielles non linéaires. C’est le cas des solutions périodiques, c’est une régularité importante pour les problèmes de Cauchy non linéaires.

Exercice: Soit $F:\mathbb{R}\times\mathbb{R}\to\mathbb{R}$ une fonction continue sur $\mathbb{R}\times\mathbb{R}$ et $T$-périodique ($T>0$) par rapport à sa première variable, c’est à dire que $$ \forall (t,x)\in \mathbb{R}^2,\qquad F(t+T,x)=F(t,x). $$ On suppose que l’equation différentielle\begin{align*}\tag{Eq} \dot{u}(t)=F(t,u(t)),\qquad t\in\mathbb{R},\end{align*}admet une solution $u:\mathbb{R}\to \mathbb{R}$ bornée sur $\mathbb{R}$. Le but de cet exercice est de montrer que (Eq) admet une solution $T$-périodique. Pour cela on définie une suite de fonctions par $$ u_n(t)=u(t+nT),\qquad \forall, n\in\mathbb{N},\;t\in\mathbb{R}. $$

  1. Montrer que pour chaque $n\in \mathbb{N},$ la fonction $u_n$ est une solution de équation différentielle non linéaire (Eq).
  2. Montrer que si $u_1-u_0$ s’annule en un point de $\mathbb{R}$, alors $u$ est $T$-périodique.
  3. Montrer que si $u_1-u_0$ s’annule en un point de $\mathbb{R}$, alors $u$ est $T$-périodique.

  1. Par récurrence on peut montrer facilement que $F(t,x)=F(t+nT,x)$ pour tout $n\in \mathbb{N}$ et $(t,x)\in\mathbb{R}^2$. Let $u:\mathbb{R}\to \mathbb{R}$ une solution bornée de (Eq). Remarquons que $u_n$ est le composé de deux fonctions dérivable sur $\mathbb{R}$, donc $u_n$ est dérivable sur $\mathbb{R}$. Pour tout $t\in\mathbb{R},$ et on a\begin{align*}\dot{u}_n(t)&=\left(u(t+nT)\right)’=\dot{u}(t+nT)\cr &= F(t+nT,u(t+nT))\cr &=F(t+nT,u_n(t))\cr &= F(t,u_n(t)).\end{align*}Ce qui implique que $u_n$ est une solution de l’équation différentielle (Eq).
  2. Supposons qu’il existe $t_0\in \mathbb{R}$ tel que $u_1(t_0)=u_0(t_0)$. Comme $u_1$ et $u_0$ sont deux solutions de (Eq) qui coïncident en un point, alors par le théorème d’unicité globale on a $u_1(t)=u_0(t)$ pour tout $t\in \mathbb{R},$ ce qui signifie que $u(t+T)=u(t)$ pour tout $t\in\mathbb{R}$. Ainsi $u$ est $T$-périodique.
  3. Montrer que la suite de fonction converge simplement vers une fonction sur $\mathbb{R}$. pour chaque $t\in\mathbb{R}$ on a $(u_n(t))_n\subset \mathbb{R}$ est une suite croissante. En effet, soit $t\in\mathbb{R}$. Comme $u_1(t)>u_0(t)$, alors\begin{align*}u_{n+1}(t)&=u(t+(n+1)T)=u((t+nT)+T)\cr &=u_1(t+nT)>u_0(t+nT)=u(t+nT)=u_n(t).\end{align*}D’autre part, on sait que $u$ est bornée sur $\mathbb{R}$. Donc il existe $M>0$ tel que $|u(t)|\le M$ pour tout $t\in \mathbb{R}$. Alors $|u_n(t)|=|u(t+nT)|\le M$ pour tout $t\in\mathbb{R}$. Donc la suite $(u_n(t))$ est bornée. Ainsi cette suite est convergente vers un réel noté $u_\infty(t)$ pour chqaue $t\in \mathbb{R}$. Donc $u_n\to u_\infty$ simplement quand $n\to \infty$ et $u_\infty:\mathbb{R}\to \mathbb{R}$. La fonction $u_\infty$ est $T$-périodique. En effet, On a $u_{n+1}(t)=u_n(t+T)$. En faisant $n\to \infty$ on trouve $u_\infty(t)=u_\infty(t+T)$. Montrons que $(u_n)$ converge uniformément vers $u_\infty$ (ceci va nous aider a montrer que $u_\infty$ est solution de (Eq)). Comme $F$ est est $T$-périodique par rapport à sa première variable est que $u(t)\in [-M,M]$ pour tout $t\in \mathbb{R},$ alors $$ \left\{F(t,u(t)):t\in \mathbb{R}\right\}\subset \left\{F(t,x):(t,x)\in [0,T]\times [-M,M]\right\}. $$ Comme $$ \kappa:=\sup_{[0,T]\times [-M,M]} |F|<\infty, $$ alors $|\dot{u}_n(t)|=|F(t,u(t+nT)|\le \kappa$ pout tout $t$. Alors par le théorème des accroissements finis, on a pour tout $n\in\mathbb{N}$ et tout $t,s\in\mathbb{R}$ on a $$|u_n(t)-u_n(s)|\le \kappa |t-s|.$$ Ceci montrer que $(u_n)$ est équicontinue. Et puis pour tout $n\in \mathbb{N}$ et tout $t\in\mathbb{R}$ on a $|u_n(t)|\le M,$ alors la suite $(u_n)$ est aussi équibornée. Donc d’après le théorème d’Ascoli, $(u_n)$ admet une sous-suite $(u_{n_k})$ qui converge uniformément vers $u_\infty$ sur les compacts de $\mathbb{R}$. D’autre part on sait comme pour chaque $k\in \mathbb{N},$ la fonction $u_{n_k}$ est solution de (Eq) alors il satisfait aussi l’équation intégrale\begin{align*}\tag{EI} u_{n_k}(t)=x_0+\int^t_0 F(s,u_{n_k}(s))ds,\qquad t\in\mathbb{R}.\end{align*}On utilisant le fait que $F$ est unformément continue sur le compact $[0,T]\times [-M,M]$ et le fait que $(u_{n_k})$ qui converge uniformément vers $u_\infty$, on peut montrer facilement que $F(\cdot,u_{n_k}(\cdot))$ converge uniformèment vers $F(\cdot,u_\infty(\cdot))$. Donc par passage à la limite dans (EI) on trouve $$ u_\infty(t)=x_0+\int^t_0 F(s,u_\infty(s))ds,\qquad t\in\mathbb{R}. $$ Ce qui est équivalent à dire que $u_\infty:\mathbb{R}\to \mathbb{R}$ est une solution de (Eq) qui est $T$-périodique.

Subscribe our newsletter

  • Unlimited access to all
  • Paper Magazine delivery
  • Priority Support
Thank You, we'll be in touch soon.
lesmath-black-blog

LesMath est un blog spécialisé dans les mathématiques destiné aux élèves du secondaire et du supérieur, notamment aux classes préparatoires.

Navigation
Catégories