Formule de Liouville

Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.
Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.

Cet article ne cite pas suffisamment ses sources ().

Si vous disposez d'ouvrages ou d'articles de référence ou si vous connaissez des sites web de qualité traitant du thème abordé ici, merci de compléter l'article en donnant les références utiles à sa vérifiabilité et en les liant à la section « Notes et références ».

En pratique : Quelles sources sont attendues ? Comment ajouter mes sources ?

En mathématique, la formule de Liouville (parfois appelée théorème de Liouville ou bien formule/théorème de Jacobi-Liouville[1]ou encore identité d'Abel[2]) donne l'expression du wronskien d'un système d'équations différentielles linéaires du premier ordre Y = A Y {\displaystyle Y'=AY} , c'est-à-dire le déterminant d'une famille de solutions.

La formule est nommée d'après le mathématicien français Joseph Liouville.

Énoncé du théorème

Soit I {\displaystyle I} un intervalle réel et t A ( t )   M n ( R ) {\displaystyle t\longmapsto A(t)\ \in M_{n}(\mathbb {R} )} une fonction de I {\displaystyle I} vers les matrices carrées de dimension n. On considère le système d'équations différentielles homogènes du premier ordre

Y ( t ) = A ( t ) Y ( t ) ,   t I ( 1 ) {\displaystyle Y'(t)=A(t)\cdot Y(t),\qquad \forall \ t\in I\qquad (1)}

où l'inconnue est une fonction t Y ( t )   R n {\displaystyle t\longmapsto Y(t)\ \in \mathbb {R} ^{n}} de I {\displaystyle I} à valeurs vectorielles. Si l'on a n solutions ( Y 1 , , Y n ) {\displaystyle {\bigl (}Y_{1},\cdots ,Y_{n}{\bigr )}} de (1), on peut considérer la « solution matricielle » Φ dont la i {\displaystyle i} -ème colonne est Y i {\displaystyle Y_{i}} pour i = 1 , , n {\displaystyle i=1,\cdots ,n} . Elle satisfait naturellement la même équation

Φ ( t ) = A ( t ) Φ ( t ) ,   t I ( 2 ) {\displaystyle \Phi '(t)=A(t)\cdot \Phi (t),\qquad \forall \ t\in I\qquad (2)}

Le wronskien est le déterminant de cette matrice, c.-à-d. W ( t ) := det Φ ( t ) {\displaystyle W(t):=\det \Phi (t)} .

Si la trace t r ( A ) {\displaystyle \mathrm {tr} (A)} est une fonction continue de t alors

W ( t ) = W ( t 0 ) exp ( t 0 t t r A ( s ) d s ) ,   t , t 0 I ( 3 ) {\displaystyle W(t)=W(t_{0})\,\exp {\biggl (}\int _{t_{0}}^{t}\mathrm {tr} \,A(s)\,{\textrm {d}}s{\biggr )},\qquad \forall \ t,t_{0}\in I\qquad (3)}

De manière équivalente, si l'on introduit l'application résolvante R ( t , t 0 ) M n ( R ) {\displaystyle R(t,t_{0})\in M_{n}(\mathbb {R} )} qui envoie la valeur d'une solution au temps t0 à sa valeur au temps t, c.-à-d. Y ( t ) = R ( t , t 0 ) Y ( t 0 ) ,     Y {\displaystyle Y(t)=R(t,t_{0})\cdot Y(t_{0}),\ \forall \ Y} solution de (1), on obtient

det R ( t , t 0 ) = exp ( t 0 t t r A ( s ) d s ) ,   t , t 0 I {\displaystyle \det R(t,t_{0})=\exp {\biggl (}\int _{t_{0}}^{t}\mathrm {tr} \,A(s)\,{\textrm {d}}s{\biggr )},\qquad \forall \ t,t_{0}\in I}
Démonstration

L'idée est de calculer la dérivée du wronskien et de résoudre l'équation différentielle que l'on obtient.

Rappelons que le déterminant de Φ est une somme de produit de ces coefficients, det ( Φ ) := σ S n ε ( σ ) i = 1 n Φ σ ( i ) , i {\displaystyle \det(\Phi ):=\sum _{\sigma \in {\mathfrak {S}}_{n}}\varepsilon (\sigma )\prod _{i=1}^{n}\Phi _{\sigma (i),i}} . Chaque terme ε ( σ ) i = 1 n Φ σ ( i ) , i {\displaystyle \varepsilon (\sigma )\prod _{i=1}^{n}\Phi _{\sigma (i),i}} (c.-à-d. pour une permutation σ {\displaystyle \sigma } donnée) contient précisément un seul coefficient de toute ligne ou colonne[3]. En appliquant les règles de dérivation d'une somme et d'un produit de fonctions, on obtient une somme contenant beaucoup plus de termes, mais chacune avec seulement un seul facteur dérivé Φ i , j {\displaystyle \Phi _{i,j}'} . En regroupant tous ceux qui contient un coefficient Φ i , {\displaystyle \Phi _{i,*}'} d'une même ligne, on obtient

( det Φ ) = i = 1 n det ( Φ 1 , 1 Φ 1 , 2 Φ 1 , n Φ i , 1 Φ i , 2 Φ i , n Φ n , 1 Φ n , 2 Φ n , n ) ( a ) {\displaystyle (\det \Phi )'=\sum _{i=1}^{n}\det {\begin{pmatrix}\Phi _{1,1}&\Phi _{1,2}&\cdots &\Phi _{1,n}\\\vdots &\vdots &&\vdots \\\Phi '_{i,1}&\Phi '_{i,2}&\cdots &\Phi '_{i,n}\\\vdots &\vdots &&\vdots \\\Phi _{n,1}&\Phi _{n,2}&\cdots &\Phi _{n,n}\end{pmatrix}}\qquad (a)}

(C'est la formule de dérivation d'une application du type t m ( l 1 ( t ) , l 2 ( t ) , , l n ( t ) ) {\displaystyle t\mapsto m{\big (}l_{1}(t),l_{2}(t),\cdots ,l_{n}(t){\big )}} m est une fonction linéaire en chaque ligne li). En utilisant maintenant (2), ou simplement la ligne i de cette égalité de matrices

( Φ i , 1 , , Φ i , n ) = k = 1 n a i , k ( Φ k , 1 , , Φ k , n ) ( Φ i , 1 , , Φ i , n ) k = 1 k i n a i , k ( Φ k , 1 , , Φ k , n ) = a i , i ( Φ i , 1 , , Φ i , n ) {\displaystyle (\Phi '_{i,1},\dots ,\Phi '_{i,n})=\sum _{k=1}^{n}a_{i,k}(\Phi _{k,1},\ldots ,\Phi _{k,n})\quad \Longleftrightarrow \quad (\Phi '_{i,1},\dots ,\Phi '_{i,n})-\sum _{\scriptstyle k=1 \atop \scriptstyle k\neq i}^{n}a_{i,k}(\Phi _{k,1},\ldots ,\Phi _{k,n})=a_{i,i}(\Phi _{i,1},\ldots ,\Phi _{i,n})} .

Ainsi en soustrayant à la ligne i la combinaison linéaire k = 1 k i n a i , k ( Φ k , 1 , , Φ k , n ) {\displaystyle \sum _{\scriptstyle k=1 \atop \scriptstyle k\neq i}^{n}a_{i,k}(\Phi _{k,1},\ldots ,\Phi _{k,n})} de toutes les autres lignes, opération qui ne change pas le déterminant, on obtient

det ( Φ 1 , 1 Φ 1 , 2 Φ 1 , n Φ i , 1 Φ i , 2 Φ i , n Φ n , 1 Φ n , 2 Φ n , n ) = det ( Φ 1 , 1 Φ 1 , 2 Φ 1 , n a i , i Φ i , 1 a i , i Φ i , 2 a i , i Φ i , n Φ n , 1 Φ n , 2 Φ n , n ) = a i , i det Φ {\displaystyle \det {\begin{pmatrix}\Phi _{1,1}&\Phi _{1,2}&\cdots &\Phi _{1,n}\\\vdots &\vdots &&\vdots \\\Phi '_{i,1}&\Phi '_{i,2}&\cdots &\Phi '_{i,n}\\\vdots &\vdots &&\vdots \\\Phi _{n,1}&\Phi _{n,2}&\cdots &\Phi _{n,n}\end{pmatrix}}=\det {\begin{pmatrix}\Phi _{1,1}&\Phi _{1,2}&\cdots &\Phi _{1,n}\\\vdots &\vdots &&\vdots \\a_{i,i}\Phi _{i,1}&a_{i,i}\Phi _{i,2}&\cdots &a_{i,i}\Phi _{i,n}\\\vdots &\vdots &&\vdots \\\Phi _{n,1}&\Phi _{n,2}&\cdots &\Phi _{n,n}\end{pmatrix}}=a_{i,i}\det \Phi }

En insérant dans (a), on a

( det Φ ) = i = 1 n a i , i det Φ = t r A det Φ W ( t ) = t r A ( t ) W ( t ) ( b ) {\displaystyle (\det \Phi )'=\sum _{i=1}^{n}a_{i,i}\det \Phi =\mathrm {tr} \,A\,\det \Phi \quad \Longleftrightarrow \quad W'(t)=\mathrm {tr} \,A\,(t)\,W(t)\qquad (b)}

C'est une équation différentielle ordinaire linéaire homogène du premier ordre sur le wronskien dont (3) est la solution.

Une autre démonstration, qui utilise la différentielle du déterminant, est présentée dans l'article Wronskien.

Applications

Lorsqu'on a déjà n – 1 solutions linéairement indépendantes de (1), on peut utiliser le wronskien pour déterminer une n-ième solution linéairement indépendante des n – 1 premières.

Notes et références

  1. Robert Roussarie et Jean Roux, Des équations différentielles aux systèmes dynamiques I, Les Ulis, EDP Sciences, , 318 p. (ISBN 978-2-7598-0512-9), p. 97.
  2. Florent Berthelin, Équations différentielles, Paris, CASSINI, , 691 p. (ISBN 978-2-84225-229-8), p. 44.
  3. Par exemple, le seul coefficient de la colonne 3 dans un produit est Φ σ ( 3 ) , 3 {\displaystyle \Phi _{\sigma (3),3}} et le seul coefficient de la ligne 2 est Φ 2 , σ 1 ( 2 ) {\displaystyle \Phi _{2,\sigma ^{-1}(2)}} σ 1 ( 2 ) {\displaystyle \sigma ^{-1}(2)} est l'unique antécédent de 2 par la permutation σ {\displaystyle \sigma } .
  • icône décorative Portail de l'analyse