Chapitre 3 : solution des équations différentielles linéaires Philippe Chartier 20 octobre 2016 1 Systèmes différentiels linéaires Dans cette section, E désigne un K-espace vectoriel de dimension finie d avec K = R ou K = C, et I un intervalle ouvert de R. On étudie ici les équations différentielles linéaires du type : ẏ(t) = A(t)y(t) + b(t) (1.1) où A ∈ C(I; L(E)) et b ∈ C(I; E). D’après le théorème de Cauchy-Lipschitz (dans le cas d’une fonction globalement Lipschitzienne), on est assuré de l’existence d’une solution unique sur I au problème de Cauchy pour f (t, y) = A(t)y + b(t), et ce pour tout (t0 , y0 ) ∈ I × E. Remarque 1.1 On confondra souvent l’endomorphisme A de L(E) et sa représentation matricielle dans Md (K) Exemple 1.2 1. Le système de deux équations à deux inconnues y1 (t) et y2 (t) ẏ1 (t) = ty1 (t) + y2 (t) − 1 ẏ2 (t) = cos(t)y1 (t) + exp(t)y2 (t) est de la forme (1.1) avec y1 (t) y(t) = , y2 (t) A(t) = t 1 cos(t) exp(t) et b(t) = −1 0 . 2. L’équation différentielle du second ordre ÿ(t) + q(t)y(t) = 0 est également de la forme (1.1), avec y1 (y) = y(t), y2 (t) = ẏ(t), b(t) = (0, 0)T et 0 1 A(t) = . −q(t) 0 1 1.1 Formule intégrale et résolvante (i) Systèmes différentiels homogènes On suppose dans un premier temps que b ≡ 0. On dit alors que le système est homogène. Théorème 1.3 L’ensemble V des solutions de l’équation (1.1) avec b ≡ 0 est un sous-espace vectoriel de C 1 (I; E) de dimension finie d. Plus précisément, si y(t; t0 , y0 ) désigne la solution au temps t de l’équation (1.1) avec condition initale y(t0 ) = y0 , alors l’application ϕt0 : E → C 1 (I; E) y0 7→ y(t; t0 , y0 ) est un isomorphisme d’espaces vectoriels entre E et V . Preuve. Si y(t) et z(t) sont deux applications de C 1 (I; E) satisfaisant l’équation (1.1) pour tout t ∈ I, alors il est clair qu’il en est de même pour (λy + µz)(t) pour tout (λ, µ) ∈ K2 , de sorte que V est un sous-espace vectoriel de C 1 (I; E). L’unicité de la solution de (1.1) pour une condition intiale donnée assure par ailleurs que ϕt0 est linéaire, injective et comme V = ϕt0 (E), c’est finalement une isomorphisme de E and V . On a ainsi dim(V ) = dim(E) = d. Définition 1.4 On appelle système fondamental de solutions de l’équation (1.1) avec b ≡ 0 une base de l’espace vectoriel V . Notons que, en vertu du théorème précédent, (y1 , . . . , yd ) est un système fondamental de solutions si et seulement si il existe t ∈ I tel que (y1 (t), . . . , yd (t)) constitue une famille libre de E. La famille (y1 (s), . . . , yd (s)) est alors libre pour tout s ∈ I. Cette équivalence est également une conséquence de la proposition suivante : Proposition 1.5 Soient y1 , . . . yd , d solutions de (1.1) avec b ≡ 0 et w ∈ C 1 (I; R), leur Wronskien, défini par w(t) = det (y1 (t), . . . , yd (t)) . Alors, pour (s, t) ∈ I 2 , on a la formule suivante, dite de Liouville : Z t w(t) = w(s) exp Tr(A(σ))dσ . s d Preuve. On note Y (t) la matrice de M(K ) dont les colonnes sont constituées des vecteurs solutions de (1.1) avec b ≡ 0, notées y1 (t), ..., yd (t). La matrice Y (t) est alors solution du système différentiel matriciel Ẏ (t) = A(t)Y (t). Désignons alors par l1 (t), ..., ld (t) les lignes de Y (t) et par ai,j (t) les coeffiients de A(t) pour i et j compris entre 1 et d. Il est immédiat que ∀i ∈ {1, . . . , d}, l˙i (t) = d X j=1 2 ai,j (t)lj (t). En remarquant que w(t) peut aussi s’écrire l1 (t) w(t) = det ... , ld (t) on a par multi-linéarité du déterminant l1 (t) .. . l (t) d d d i−1 X ˙ XX ẇ(t) = det li (t) = ai,j (t) det i=1 li+1 (t) i=1 j=1 .. . ld (t) l1 (t) .. . d li−1 (t) X lj (t) = ai,i (t)w(t) = Tr(A(t))w(t). li+1 (t) i=1 .. . ld (t) On obtient finalement la formule de Liouville en résolvant cette équation différentielle entre s et t. Définition 1.6 On appelle matrice résolvante du système (1.1) avec b ≡ 0, l’unique solution du système différentiel matriciel Ẏ (t) = A(t)Y (t) (1.2) satisfaisant la condition initiale Y (t0 ) = Id , où Id désigne la matrice identité de Md (K), et on la note S(t; t0 ). Proposition 1.7 Pour tout (t, t0 , t1 ) ∈ I 3 , la matrice résolvante S vérifie l’égalité suivante S(t; t0 ) = S(t; t1 )S(t1 ; t0 ). En outre, pour tout (t1 , t0 ) ∈ I 2 , S(t1 ; t0 ) ∈ GLd (K) et (S(t1 ; t0 ))−1 = S(t0 ; t1 ). Par ailleurs, la solution du problème de Cauchy ẏ(t) = A(t)y(t) y(t0 ) = y0 est donnée par y(t) = S(t; t0 )x0 . Preuve. La première égalité est une conséquence immédiate de l’unicité de la solution de (1.2) avec condition initiale Y (t0 ) = Id et du fait que, pour toute matrice P ∈ Md (K) à coefficients constants, on a (Y ˙P )(t) = Ẏ (t)P = A(t)Y (t)P = A(t) (Y (t)P ) . L’inversibilité de S(t1 ; t0 ) et l’expression de l’inverse s’obtiennent alors en prenant t = t0 dans cette première égalité. Le dernier point est évident. 3 (ii) Systèmes différentiels non homogènes On s’intéresse désormais au cas non homogène, c’est-à-dire au système (1.1) pour b quelconque non nécessairement nul. Si z est une solution particulière de (1.1), alors l’ensemble des solutions est l’espace affine de dimension finie d, z + V où V est l’espace vectoriel des solutions du système homogène. Le solution générale du système (1.1) est donnée par la formule intégrale suivante, dite formule de Duhamel : Z t S(t; s)b(s)ds. ∀t ∈ I, y(t) = S(t; t0 )y0 + t0 Elle s’obtient par la technique de variation de la constante : étant donnée S(t; t0 )y0 la solution du système homogène, on cherche la solution de (1.1) sous la forme y(t) = S(t; t0 )z(t), de sorte que Ṡ(t; t0 )z(t) + S(t; t0 )ż(t) = A(t)S(t; t0 )z(t) + b(t), d’où l’on tire l’équation ż(t) = (S(t; t0 ))−1 b(t) = S(t0 ; t)b(t). L’intégration terme à terme entre t0 et t donne alors Z t z(t) = S(t0 ; s)b(s)ds + z0 t0 où z0 reste à déterminer. En reportant z(t) dans y(t), il vient Z t y(t) = S(t; t0 )z0 + S(t; t0 )S(t0 ; s)b(s)ds. t0 La condition initiale impose de prendre z0 = y0 et la formule de Duhamel en découle. 1.2 Systèmes à coefficients constants Dans le cas où les coefficients de la matrice A et du vecteur b ne dépendent pas du temps, le système devient autonome et il possible d’expliciter complètement les solutions de (1.1). Dans cette section, nous supposons donc que le système différentiel est de la forme ẏ(t) = Ay(t) + b avec A ∈ Md (K) et b ∈ Kd . (i) Exponentielle de matrices Définition 1.8 L’exponentielle d’une matrice A ∈ Md (K) est définie par la série (absolument) convergente suivante ∞ X 1 n A . e = n! n=0 A 4 Si k.k désigne la norme matricielle subordonnée à la norme notée identiquement k.k définie sur Kd , alors kAn k ≤ kAkn , de sorte que keA k ≤ ekAk . L’exponentielle de matrices possède un certain nombre de propriétés remarquables dont celles établies dans la proposition suivante : Proposition 1.9 Soient A et B deux matrices de Md (K) et 0 la matrice nulle de Md (K). On a : — Si A et B commutent, alors eA+B = eA eB . — e0 = Id et eA est inversible d’inverse e−A . −1 — Si B est inversible, alors eBAB = BeA B −1 . P 1 n — Si A est nilpotente d’indice de nilpotence m ≤ d, alors eA = m−1 n=0 n! A . Preuve. Le premier point s’obtient aisément par produit de Cauchy de séries absolument convergentes. Le second en est une conséquence immédiate, puisque eA e−A = e0 = Id . Le troisième repose n sur l’observation que (BAB −1 ) = BAn B −1 . Enfin, le dernier point est clair dès lors que An = 0 pour n ≥ m. Remarque 1.10 Lorsque A et B ne commutent pas comme la proposition précédente, alors eA eB est encore, sous certaines conditions que nous n’énoncerons pas ici, l’exponentielle d’une matrice C, qui s’obtient par la fomule de Baker-Campbell-Hausdorff. Les premiers termes de cette formule s’écrivent 1 1 C = A + B + [A, B] + [A, [A, B] + [B, [B, A] + . . . , 2 12 où [A, B] désigne le commutateur de A et B, à savoir [A, B] = AB − BA. (ii) Résolvante Dans la cas constant, la matrice résolvante devient S(t; t0 ) = e(t−t0 )A et les solutions du système différentiel (1.1) avec b ≡ 0 s’écrivent y(t) = e(t−t0 )A y0 . La résolvante ne dépend donc que de t − t0 , c’est-a-dire que S(t; t0 ) = Σ(t − t0 ) où Σ(t) = etA et la propriété multiplicative devient ∀(s, t) ∈ I 2 , Σ(s + t) = Σ(s)Σ(t). Ainsi, Σ(.) est un homomorphisme de groupes de (R, +) dans (GLd (K), ·). (iii) Calcul des solutions du système homogène Il est aisé de voir que si y0 est un vecteur propre de A associé à la valeur propre λ, alors t 7→ eλ(t−t0 ) y0 est solution du problème de Cauchy ẏ(t) = Ay(t) . y(t0 ) = y0 5 En effet, dtd eλ(t−t0 ) y0 = λeλ(t−t0 ) y0 = A(eλ(t−t0 ) y0 ) = Ay(t). Plus généralement, si A est diagonalisable, c’est-à-dire s’il existe P ∈ GLd (K) et D ∈ Md (K) diagonale, telles que A = P DP −1 , alors les solutions de (1.1) avec b ≡ 0 s’obtiennent par le changement de variable z(t) = P −1 y(t). Le vecteur z(t) vérifie en effet les équations ż(t) = P −1 AP z(t) = Dz(t) , z(t0 ) = z0 = P −1 y0 dont la solution est donnée par z(t) = etD z0 . Donc y(t) = P etD P −1 y0 . Lorsque A n’est pas diagonalisable, il faut recourir à sa forme de Jordan. On rappelle donc le résultat : Proposition 1.11 Soit A ∈ Md (K) une matrice dont le polynôme caractéristique PA (x) est scindé sur K, de la forme l Y PA (x) = (−1) (x − λj )mj d j=1 où les λj sont les l valeurs propres distinctes de A de multiplicités algébriques respectives mj (avec Pl j=1 mj = d) . La matrice A admet alors la décomposition de Jordan suivante : il existe P ∈ GLd (K) telle que P −1 AP = Jµ1 Jµ2 .. . .. . (1.3) Jµr où Jµ est un bloc de Jordan, c’est-à-dire une matrice de la forme µ 1 0 . . . .. 0 µ 1 . . ... ... .. 0 . .. µ 1 0 ... ... 0 µ et où les µj ∈ {λ1 , . . . , λl } ne sont pas forcément disctincs (à une valeur propre peuvent être associés plusieurs blocs de Jordan) et où pour tout j = 1, . . . , l, on a X dim(Jµq ) = mj . q=1,...,r/µq =λj 6 L’exponentielle d’un bloc de Jordan Jµ = µIm + Nm , où Nm = Jµ − µIm est nilpotente d’indice de nilpotence m, s’obtient par application du premier point de la proposition précédente ; puisque Im et Nm commutent, on a : ! m−1 X tn n . etJµ = etµ Nm n! n=0 Il devient ainsi aisé de calculer les solutions du système homogène dans le cas où K = C, puisque C étant un corps algébriquement clos, tout polynôme y est scindé. Proposition 1.12 Soit A ∈ Md (C) une matrice de polynôme caractéristique l Y PA (x) = (−1) (x − λj )mj d j=1 où les λj sont les l valeurs propres distinctes de A de multiplicités algébriques respectives mj (avec Pl j=1 mj = d) . Pour tout j ∈ {1, . . . , l}, il existe mj solutions indépendantes de l’équation ẏ(t) = Ay(t) de la forme yj,k (t) = etλj pj,k (t), k = 1, . . . , mj , d où tλpj,k (t) est un polynôme à coefficients dans C de degré au plus k − 1. L’ensemble de ces solutions e j pj,k (t); j = 1, . . . , l; k = 1, . . . , mj constitue un système fondamental de solutions. Preuve. En vertu de la proposition précédente, il existe une matrice P ∈ GLd (C) telle que P −1 AP soit de la forme (1.3). En effectuant le changement de variable z = P −1 y, le système (1.1) se “découple” en r systèmes indépendants żq (t) = Jµq zq (t), q = 1, . . . , r, avec (z1T , . . . , zrT )T = z. Si dq désigne la dimension de ce sous-système (dq = dim(Jµq )), alors il possède dq solutions indépendantes de la forme ! ! dq −k n dq −k n Xt Xt etµq Ndnq zq,k = etµq zq,k+n , k = 1, . . . , dq , n! n! n=0 n=0 où les zq,kPdésignent les vecteurs de la base canonique de Cdq . A une valeur propre λj sont donc associées q/µq =λj nq = mj solutions indépendantes de la forme etλj pj,k (t) avec pj,k (t) de degré au plus k − 1. Dans le cas où K = R, les solutions revêtent une forme plus complexe, en raison du fait que R n’est pas algébriquement clos. Il est cependant possible d’exhiber la forme générale des solutions : Proposition 1.13 Soit A ∈ Md (R) une matrice dont le polynôme caractéristique PA (x) est de la forme l Y PA (x) = (−1) (x − λj )mj d j=1 7 où les λj = αj + iβj sont les l valeurs propres distinctes de A de multiplicités algébriques respectives P mj (avec lj=1 mj = d) . Alors il existe une système fondamental de solutions de la forme t 7→ tr etαj cos(βj t)a et t 7→ ts etαj sin(βj t)b où a et b sont des vecteurs de Rd et r et s deux entiers plus petits ou égaux à mj − 1. 1.3 Groupe à un paramètre Définition 1.14 On appelle groupe à un paramètre une application différentiable, morphisme de groupes de (R, +) dans (GLd (K), ·). Si A est une matrice de Md (K), alors t 7→ etA est une groupe à un paramètre. Réciproquement, si t 7→ B(t) ∈ Md (K) est une groupe à un paramètre, on a, en posant A = B 0 (0) : B(t + h) − B(t) B(h) − B(0) 0 B (t) = lim = lim B(t) = AB(t), h→0 h→0 h h où l’on a utilisé les relations B(t + h) = B(h)B(t) et B(0) = Id . Ainsi, B(t) est solution du système 0 B (t) = AB(t) , B(0) = Id et s’écrit donc B(t) = etA . La matrice A est dite générateur du groupe. Exemple 1.15 1. Pour A = Id , on a {etA , t ∈ R} = {et Id , t ∈ R}. Le groupe à un paramètre de générateur A est donc le groupe des homothéties de rapport strictement positif. 2. Le groupe à un paramètre de générateur A= 0 −1 1 0 , est le groupe des matrices de rotations cos(t) − sin(t) tA e = . sin(t) cos(t) 1.4 Equations linéaires scalaires d’ordre supérieur On s’intéresse ici aux équations différentielles du type : z (n) (t) + an−1 (t)z (n−1) (t) + . . . + a1 (t)z (1) (t) + a0 (t)z(t) = g(t), (1.4) où les applications ak , pour k = 0, . . . , n − 1, et g, sont supposées continues de l’intervalle I dans R. On suppose par ailleurs que z ∈ C n (I; R). Une telle équation est dite d’ordre n en raison de l’occurence de la dérivée n-ième de z. 8 (i) Transformation en un système d’ordre 1 En posant y(t) = (z(t), z 0 (t), . . . , z (n−1) (t))T , b(t) = (0, . . . , 0, g(t))T matrice compagnon 0 1 0 ... 0 .. . .. 0 0 1 . . . . A(t) = .. .. .. 0 0 ... ... 0 1 −a0 (t) −a1 (t) . . . −an−2 (t) −an−1 (t) et en prenant pour A la , l’équation (1.4) se réécrit sous la forme d’un système différentiel linéaire (1.1) d’ordre 1 et y est solution de (1.1) si et seulement si z est solution de (1.4) . Ainsi, pour tout t0 ∈ I, et tout (z0 , . . . , zn−1 )T ∈ Rn , il existe une solution unique z(t; z0 , . . . , zn−1 ) de (1.4) satisfaisant les conditions intiales z(t0 ) = z0 , z 0 (t0 ) = z1 , ..., z (n−1) (t0 ) = zn−1 . La structure de l’espace des solutions est également une conséquence de cette réécriture : Théorème 1.16 Si g ≡ 0, l’ensemble V des solutions de (1.4) est une sous-espace vectoriel de dimension n de C n (I; R). De plus, l’application Rn → C n (I; R) (z0 , . . . , zn−1 )T 7→ z(t; z0 , . . . , zn−1 ), est un isomorphisme d’espaces vectoriels de Rn dans V . Si g n’est pas nulle, l’ensemble des solutions est un sous-espace affine z̃ + V de dimension n de C n (I; R), où z̃ désigne une solution particulière de (1.4). (ii) Wronskien Soient z1 , z2 , ..., zn , n solutions de l’équation (1.4) où l’on suppose que g ≡ 0. On appelle matrice wronskienne associée à (z1 , . . . , zn ) la matrice suivante : z1 (t) z2 (t) ... zn (t) (1) (1) z (1) (t) z2 (t) . . . zn (t) 1 W (t) = . .. .. .. . . . (n−1) z1 (n−1) (t) z2 (n−1) (t) . . . zn (t) On a alors, d’après la formule de Liouville, Z t ∀(s, t) ∈ I , w(t) = w(s) exp − an−1 (s)ds . 2 t0 En particulier, si an−1 ≡ 0, alors w est constant : cette propriété se traduit en termes géométriques (le flot d’une telle équation conserve le volume). 9 (iii) Calcul des solutions On obtient la solution générale de l’équation (1.4) en superposant une solution particulière à la solution générale de l’équation homogène. Cas des coefficients constants : Soient a0 , . . . , an−1 des coefficients réels et g(t) une fonction de C(I; R). On cherche les solutions de l’équation z (n) (t) + an−1 z (n−1) (t) + . . . + a1 z (1) (t) + a0 z(t) = g(t). On introduit le polynôme caractéristique de l’équation : P (X) = X n + an−1 X n−1 + . . . + a1 X + a0 . C’est le polynôme caractéristique de la matrice compagnon A(an−1 , . . . , a0 ). Proposition 1.17 Si λ est une racine de multiplicité m du polynôme caractéristique de A, alors les zr (t) = tr eλt , r = 0, . . . , m − 1 sont des solutions indépendantes de l’équation (1.4) à coefficients constants pour g ≡ 0. Preuve. Soit donc z(t) = Q(t)eλt où Q est un polynôme de degré inférieur ou égal à m − 1. Par la formule de Leibniz, on a k X j (k) z (t) = Q(j) (t)(eλt )(k−j) k j=0 = e λt k X j=0 k! Q(j) (t)λk−j . j!(k − j)! Il vient alors en posant an = 1 n X ak z (k) (t) = eλt k=0 = eλt n X k=0 n X j=0 ak k X j=0 (j) k! Q(j) (t)λk−j j!(k − j)! n n X Q(j) (t) Q (t) X k! ak λk−j = eλt P (j) (λ) j! k=j (k − j)! j! j=0 et l’annulation de P (j) (λ), pour j = 0, . . . , m − 1 et de Q(j) (t) pour j ≥ m permet de conclure. L’indépendance de ces solutions est assurée par l’indépendance de leurs valeurs initiales. Proposition 1.18 Soient λ1 , . . . , λl les racines du polynôme caractéristique, de multiplicités respectives m1 , . . . , ml . Pour j = 1, . . . , l, on note αj et βj les parties réelle et imaginaire de λj . Alors il existe un système fondamental de solutions de l’équation (1.4) à coefficients constants pour g ≡ 0 de la forme : t 7→ tr eαj t cos(βj t) et t 7→ ts eαj t sin(βj t), où r et s deux entiers inférieurs ou égaux à mj − 1. 10 Cas des coefficients variables : On utilise ici la méthode de variation de la constante. Soit (z1 , . . . , zn ) un système fondamental de solutions de l’équation homogène et soit W (·) la matrice Wronskienne. Alors, il existe une solution particulière de l’équation (1.4) avec second membre g(t) de la forme : z(t) = c1 (t)z1 (t) + . . . cn (t)zn (t) où les fonctions ci appartiennent à C 1 (I; R) pour i = 1, . . . , n et satisfont 0 ċ1 (t) .. .. −1 . = W (t) . . 0 ċn (t) g(t) En effet, si z(t) est une solution de (1.4), on a pour y(t) = (z(t), z 0 (t), . . . , z (n) (t))T et b(t) = (0, . . . , 0, g(t))T , le système différentiel : ẏ(t) = A(t)y(t) + b(t) où A(t) est la matrice compagnon associée à (an−1 (t), . . . , a0 (t)). La résolvante S(t; t0 ) s’écrit ici S(t; t0 ) = W (t)W −1 (t0 ) et on a plus généralement S(t; s) = W (t)W −1 (s). La formule de Duhamel devient alors : Z t y(t) = W (t)W −1 (t0 )y0 + W (t)W −1 (s)b(s)ds t0 et en posant c(t) = W −1 (t)y(t), on voit que ċ(t) = W −1 (t)b(t). 2 2.1 Comportement qualitatif des solutions Portraits de phase en dimension 2 On étudie ici en détail les portraits de phase des systèmes linéaires homogènes de dimension 2, c’est-à-dire de la forme ẏ(t) = Ay(t), t ∈ R+ , avec A= a b c d . Le changement de variable x = P −1 y est un isomorphisme (linéaire) qui envoie les trajectoires de ẏ(t) = Ay(t) sur les trajectoires de ẋ(t) = (P −1 AP )x(t). Il suffit donc d’étudier les trajectoires de x(t) pour les différentes classes de similitude de A. Pour déterminer ces dernières, on introduit donc le polynôme caractéristique de A : PA (X) = X 2 − Tr(A)X + det(A) = X 2 − (a + d)X + (ad − bc). On pose alors ∆ = (a + d)2 − 4(ad − bc) = (a − d)2 + 4bc ce qui conduit à distinguer les cas suivants : 11 1. Premier cas : ∆ < 0. On a √ alors deux valeurs propres de A complexes conjuguées α ± iβ, avec α = 21 (a + d) et β = 12 −∆. En prenant β −b 0 −1 P = a−d 1 2b 8 8 6 6 4 4 2 2 0.5 0.4 0.3 0.2 0 x2 x2 x2 0.1 0 0 −0.1 −2 −2 −4 −4 −0.2 −0.3 −0.4 −6 −10 −8 −6 −4 −2 0 2 4 6 8 −6 −10 −8 −6 −4 −2 x1 0 x1 2 4 6 8 −0.5 −0.5 −0.4 −0.3 −0.2 −0.1 0 x1 0.1 0.2 0.3 0.4 0.5 F IGURE 1 – Foyers stable (α < 0) et instable (α > 0) ; centre (α = 0). α −β −1 P AP = β α et le passage en coordonnées polaires x1 (t) = r(t) cos(θ(t)), x2 (t) = r(t) sin(θ(t)) conduit aux équations ṙ = αr . θ̇ = β Pour α 6= 0, les solutions correspondantes “spiralent” autour de leur point initial, soit vers l’extérieur (lorsque α > 0), soit vers l’intérieur (lorsque α < 0) et on a un foyer instable ou stable respectivement. Lorsque α = 0, la solution décrit un cercle (voir la figure 1). 2. Deuxième cas : ∆ > 0. On a deux valeurs propres de A réelles et distinctes, et A est alors semblable à la matrice diagonale λ 0 . 0 µ Si det(A) < 0, λ et µ sont de signes opposés, et on a alors un point selle (voir la figure 2). Si det A > 0, λ et µ sont de même signe, positif si Tr(A) > 0, et négatif dans le cas contraire (voir là-encore la figure 2). Si det(A) = 0, l’une des deux valeurs propres de A est nulle, par exemple µ. Suivant le signe de λ, on a alors les deux portraits de phase de la figure 3. 3. Troisième cas : ∆ = 0. Il y une valeur propre double. Si A est semblable à la matrice λI2 , avec λ 6= 0 (le cas λ = 0 conduit à une solution triviale stationnaire), on obtient un noeud, soit stable (si λ < 0), soit instable (si λ > 0). Les portraits de phase correspondants sont représentés sur la figure 4. Si A est semblable à la matrice λ 1 , 0 λ 12 3 2 2 2 1 1 1 0 x2 3 x2 x2 3 0 0 −1 −1 −1 −2 −2 −2 −3 −8 −6 −4 −2 0 x1 2 4 6 −3 −1.5 8 −1 −0.5 0 x1 0.5 1 −3 −1.5 1.5 −1 −0.5 0 x1 0.5 1 1.5 3 3 2 2 1 1 x2 x2 F IGURE 2 – Point selle, équilibre stable, équilibre instable. 0 0 −1 −1 −2 −2 −3 −3 −2 −1 0 x1 1 2 3 −3 −3 −2 −1 0 x1 1 2 3 3 3 2 2 1 1 x2 x2 F IGURE 3 – Une valeur propre nulle et une valeur propre positive, respectivement négative. 0 0 −1 −1 −2 −2 −3 −3 −2 −1 0 x 1 2 3 1 −3 −3 −2 −1 0 x 1 2 3 1 F IGURE 4 – Noeud stable, noeud instable. alors là-encore, trois cas se présentent suivant le signe de λ. Pour λ > 0, le portrait de phase contient un noeud dégénéré instable. Pour λ < 0, un noeud dégénéré stable. Enfin pour λ = 0, les trajectoires sont rectilignes. Les différents cas sont représentés sur la figure 5. 2.2 Stabilité asymptotique de l’origine Théorème 2.1 Soit A ∈ L(E) où E est un K-espace vectoriel de dimension finie d et soit σ(A) son spectre. Les propositions suivantes sont équivalentes : 1. Toute solution de ẏ(t) = Ay(t) tend vers 0 lorsque t tend vers +∞. 13 3 2 3 1.5 2 2 1 1 1 0 x2 x2 x2 0.5 0 0 −0.5 −1 −1 −1 −2 −2 −1.5 −3 −40 −30 −20 −10 0 x1 10 20 30 40 −2 −60 −40 −20 0 x1 20 40 60 −3 −3 −2 −1 0 x1 1 2 3 F IGURE 5 – Noeud dégénéré stable ou instable ; cas dégénéré rectiligne. 2. σ(A) ⊂ {z ∈ C; <(z) < 0}. Preuve. Les solutions de ẏ(t) = Ay(t) s’écrivent y(t) = etA y0 . Par ailleurs, il existe P ∈ GLd (C) telle que A = P (D + N )P −1 où D est une matrice diagonale et N une matrice nilpotente. En outre, σ(D) = σ(A) et D et N commutent. Ainsi, etA = P etD etN P −1 de sorte que : ketA k ≤ kP kkP −1 kketD kketN k. Si µ = maxλ∈σ(A) <(λ) < 0, alors il existe une constante C > 0 telle que ketD k ≤ Ceµt . Dans le même temps, il existe C 0 > 0 telle que ketN k ≤ C 0 td−1 pour t suffisamment grand. Ainsi, 2. implique 1. Réciproquement, si σ(A) contient une valeur propre λ de partie réelle positive ou nulle, alors il existe une solution de la forme eλt p(t) où p est un polynôme de degré plus petit que d, qui ne tend donc pas vers 0 quand t tend vers +∞. 2.3 Solutions bornées Théorème 2.2 Soit A ∈ L(E) où E est un K-espace vectoriel de dimension finie d et soit σ(A) son spectre. Les propositions suivantes sont équivalentes : 1. Toute solution de ẏ(t) = Ay(t) est bornée sur R+ . 2. σ(A) ⊂ {z ∈ C; <(z) ≤ 0} et la multiplicité géométrique des valeurs propres de A de partie réelle nulle est égale à la multiplicité algébrique (les sous-espaces propre et caractéristique sont identiques). Preuve. La preuve reprend les arguments de celle du théorème précédent. Si λ est une valeur propre de partie réelle strictement positive, alors les solutions correspondantes eλt p(t) ne sont pas bornées. Si λ est une valeur propre de partie réelle nulle et de multiplicité algébrique égale à la multiplicité géométrique, alors p(t) est constant et la solution correspondante est de module constant, donc bornée. La proposition suivante est de nature différente. Elle ne caractérise pas l’ensemble des solutions, mais affirme l’existence d’une solution bornée de l’équation avec second membre. 14 Proposition 2.3 Soit A ∈ L(E) où E est un C-espace vectoriel de dimension finie d et soit σ(A) son spectre. Les propositions suivantes sont équivalentes : 1. Pour toute donnée b(t) ∈ C(R+ ; Rd ) bornée, il existe une unique solution y(t) ∈ C 1 (R+ ; Rd ) bornée de l’équation ẏ(t) = Ay(t) + b(t). 2. σ(A) ⊂ {z ∈ C; <(z) > 0}. Preuve. Montrons que 1. implique 2. Soit donc λ ∈ σ(A) et y0 un vecteur propre associé. Alors y(t) = eλt y0 est solution de l’équation pour b ≡ 0. Si <(λ) ≤ 0, alors cette solution est bornée, ainsi que µeλt y0 pour tout µ ∈ C. L’unicité d’une solution bornée n’est alors pas assurée. Donc σ(A) ne peut contenir de valeurs propres de partie réelle négative ou nulle. Pour établir la réciproque, considérons tout d’abord deux solutions y1 et y2 , toutes deux bornées. Alors, y = y2 − y1 est solution de l’équation homogène et est encore bornée. Ce qui n’est possible, d’après le théorème précédent, que si y est constamment nulle. Donc, si il existe une solution bornée, elle est unique. Montrons l’existence d’une telle solution. D’après la formule de Duhamel, les solutions sont de la forme Z t tA y(t) = e y0 + e(t−s)A b(s)ds, 0 d avec y0 ∈ C . Considérons alors t Z e−sA b(s)ds. y0 = − lim t→+∞ 0 Cette limite existe, car σ(A) ⊂ {z ∈ C; <(z) > 0}, de sorte qu’il existe µ > 0 et C > 0, vérifiant : ∀s ≥ 0, ke−sA k ≤ Ce−µs , et Z t −sA e b(s)ds ≤ kbk∞ (1 − e−tµ ). 0 On a alors +∞ Z e(t−s)A b(s)ds y(t) = − t et Z ky(t)k ≤ kbk∞ +∞ e t 2.4 (t−s)A Ckbk∞ . ds ≤ µ Solutions périodiques On suppose ici que A(·) ∈ C(R; L(Cd )) et b(·) ∈ C(R; Cd ) sont des fonctions périodiques de même période T et on s’intéresse à la question de savoir s’il existe des solutions T -périodiques de l’équation ẏ(t) = A(t)y(t) + b(t). 15 On note, comme précédemment, y(·; t0 , y0 ) la solution satisfaisant la condition intiale y(t0 ) = y0 . Remarquons que cette question n’a pas de réponse triviale, comme en atteste l’exemple suivant : ẏ(t) = Ay(t) + b où b est un vecteur constant non nul, et A la matrice 0 1 A= . 0 0 Les solutions, de la forme y(t) = b2 t2 /2 + (y2 (0) + b1 )t + y1 (0) b2 t + y2 (0) ne sont en effet périodiques que pour y2 (0) = −b1 et b2 = 0, bien que A et b soient périodiques de période T pour tout T > 0. Théorème 2.4 (Existence de solutions périodiques) Supposons que A(·) ∈ C(R; L(Cd )) et b(·) ∈ C(R; Cd ) sont des fonctions périodiques de même période T . Alors les propositions suivantes sont équivalentes : 1. Il existe une solution périodique de ẏ(t) = A(t)y(t) + b(t) 2. Pour tout t0 ∈ R, l’application y0 7→ y(T + t0 ; t0 , y0 ) a un point fixe. 3. Il existe t0 ∈ R tel que l’application y0 7→ y(T + t0 ; t0 , y0 ) a un point fixe. Preuve. L’implication 1. ⇒ 2. est immédiate, de même que 2. ⇒ 3. Montrons la dernière, 3. ⇒ 1. Soit y0 ∈ Cd un point fixe de l’application y0 7→ y(T + t0 ; t0 , y0 ) et posons y∗ = y(·; t0 , y0 ). L’application z∗ (t) = y∗ (t + T ) est alors solution de l’équation différentielle. On a en effet, ż∗ (t) = ẏ∗ (t + T ) = A(t + T )y∗ (t + T ) + b(t + T ) = A(t)y∗ (t + T ) + b(t) = A(t)z∗ (t) + b(t), en utilisant la périodicité de A et b. En outre, z∗ (t0 ) = y∗ (t0 + T ) = y∗ (t0 ) puisque y0 est point fixe. Par unicité de la solution du problème de Cauchy, z∗ et y∗ coincident donc partout. Théorème 2.5 (Solution périodique et solution bornée) Supposons que A(·) ∈ C(R; L(Cd )) et b(·) ∈ C(R; Cd ) sont des fonctions périodiques de même période T . Alors il existe une solution périodique de ẏ(t) = A(t)y(t) + b(t), si et seulement si, il existe une solution bornée de ẏ(t) = A(t)y(t) + b(t) sur R+ . Preuve. Il est clair qu’une solution périodique est bornée. On suppose donc qu’il existe une solution bornée, mais aucune solution périodique. Alors, d’après le théorème précédent, l’équation Z T y0 = S(T ; 0)y0 + S(T ; s)b(s)ds 0 16 n’a pas de solution sur Cd . En posant U = S(T ; 0) et z = z∈ / Im(I − U ). Or, on a RT 0 S(T ; s)b(s)ds, ceci signifie que Ṡ(t + nT ; nT ) = A(t + nT )S(t + nT ; nT ) = A(t)S(t + nT ; nT ) avec S(nT ; nT ) = Id . Ainsi, S(t + nT ; nT ) et S(t; 0) satisfont la même équation différentielle, avec la même condition intiale et par le théorème de Cauchy Lipschitz, sont donc égales. On a donc en particulier S((n + 1)T ; nT ) = S(T ; 0) = U. En reportant cette égalité dans la formule de Duhamel, il vient alors Z (n+1)T y((n + 1)T ) = U y(nT ) + S((n + 1)T ; s)b(s)ds nT soit encore, en utilisant la périodicité de b et de S((n + 1)T ; s) 1 : Z T y((n + 1)T ) = U y(nT ) + S((n + 1)T ; s + nT )b(s + nT )ds = U y(nT ) + z. 0 ∗ Soit alors U l’adjoint de U pour le produit scalaire canonique < ·, · > sur Cd . Pour tout (x, x0 ) ∈ Im(I − U ) × Ker(I − U ∗ ), on a x = u − U u et < x, x0 >=< u − U u, x0 >=< u, x0 > − < u, U ∗ x0 >= 0, de sorte que Im(I − U ) = (Ker(I − U ∗ ))⊥ . Ainsi, il existe u ∈ Cd tel que U ∗ u = u et < u, z >6= 0. On en déduit que < y((n + 1)T ), u > = < U y(nT ), u > + < z, u > = < y(nT ), U ∗ u > + < z, u > = < y(nT ), u > + < z, u > et donc par récurrence < y((n + 1)T ), u >=< y(0), u > +(n + 1) < z, u > ce qui contredit le caractère borné de y(·). 1. On a en effet en utilisant les propriétés de la résolvante : S((n + 1)T ; s + nT ) = S((n + 1)T ; nT )S(nT ; s + nT ) = S(T ; 0)S −1 (s + nT ; nT ) = S(T ; 0)S −1 (s; 0) = S(T ; 0)S(0; s) = S(T ; s) 17