Matrice définie positive

En algèbre linéaire, une matrice définie positive est une matrice positive inversible.

Définitions

Notations

Soit A {\displaystyle A} une matrice à éléments réels ou complexes, par la suite on notera :

  • A T {\displaystyle A^{\mathsf {T}}} la matrice transposée de A {\displaystyle A}  ;
  • A {\displaystyle A^{*}} la matrice transconjuguée de A {\displaystyle A} (conjuguée de la transposée) ;
  • R {\displaystyle \mathbb {R} } le corps des nombres réels ;
  • C {\displaystyle \mathbb {C} } le corps des nombres complexes.

Matrice symétrique réelle définie positive

Soit M {\displaystyle M} une matrice symétrique réelle d'ordre n {\displaystyle n} . Elle est dite définie positive si elle est positive et inversible, autrement dit si elle vérifie l'une des quatre propriétés équivalentes suivantes :

  1. Pour toute matrice colonne non nulle x {\displaystyle {\textbf {x}}} à n {\displaystyle n} éléments réels, on a : x T M x > 0 {\displaystyle {\textbf {x}}^{\mathsf {T}}M{\textbf {x}}>0} . Autrement dit, la forme quadratique définie par M {\displaystyle M} est strictement positive pour x 0 {\displaystyle \mathbf {x} \neq 0} .
  2. Toutes les valeurs propres de M {\displaystyle M} (qui sont nécessairement réelles) sont strictement positives.
  3. La forme bilinéaire symétrique R n × R n R , ( x , y ) x T M y {\displaystyle \mathbb {R} ^{n}\times \mathbb {R} ^{n}\to \mathbb {R} ,\quad ({\textbf {x}},{\textbf {y}})\mapsto {\textbf {x}}^{\mathsf {T}}M{\textbf {y}}} est un produit scalaire sur R n {\displaystyle \mathbb {R} ^{n}} .
  4. Il existe une matrice N M n ( R ) {\displaystyle N\in {\mathcal {M}}_{n}(\mathbb {R} )} inversible telle que M = N T N {\displaystyle M=N^{\mathsf {T}}\,N} (autrement dit : M {\displaystyle M} est congruente à la matrice identité).

Une matrice symétrique réelle est dite définie négative si son opposée (symétrique elle aussi) est définie positive.

La caractérisation 4 ci-dessus peut se justifier ainsi :

  • pour toute matrice carrée réelle N {\displaystyle N} , telle que son noyau se réduit au singleton 0, la matrice symétrique N T N {\displaystyle N^{\mathsf {T}}\,N} est positive ;
  • réciproquement, toute matrice réelle symétrique positive est de cette forme (la matrice N {\displaystyle N} n'est pas unique ; elle l'est si l'on impose qu'elle soit elle-même positive) ;
  • or si M = N T N {\displaystyle M=N^{\mathsf {T}}\,N} (avec N {\displaystyle N} carrée) alors M {\displaystyle M} est inversible si et seulement si N {\displaystyle N} l'est.

Elle permet de montrer que la matrice de Gram d'une famille de n {\displaystyle n} vecteurs d'un espace préhilbertien (réel ou complexe) est définie positive si et seulement si la famille est libre. Par exemple, toute matrice de Hilbert est définie positive.

Matrice hermitienne définie positive

On étend les propriétés et définitions précédentes aux matrices complexes.

Soit M {\displaystyle M} une matrice carrée complexe d'ordre n {\displaystyle n} . Elle est dite définie positive si elle vérifie l'une des quatre propriétés équivalentes suivantes :

  1. Pour toute matrice colonne non nulle z {\displaystyle {\textbf {z}}} à n {\displaystyle n} éléments complexes, le nombre complexe z M z {\displaystyle {\textbf {z}}^{*}M{\textbf {z}}} est un réel strictement positif.
  2. M {\displaystyle M} est hermitienne et toutes ses valeurs propres sont strictement positives.
  3. La forme sesquilinéaire C n × C n C , ( x , y ) x M y {\displaystyle \mathbb {C} ^{n}\times \mathbb {C} ^{n}\to \mathbb {C} ,\quad ({\textbf {x}},{\textbf {y}})\mapsto {\textbf {x}}^{*}M{\textbf {y}}} est un produit scalaire sur C n {\displaystyle \mathbb {C} ^{n}} (au sens : forme hermitienne définie positive).
  4. Il existe une matrice N M n ( C ) {\displaystyle N\in {\mathcal {M}}_{n}(\mathbb {C} )} inversible telle que M = N N {\displaystyle M=N^{*}\,N} .

Une matrice M {\displaystyle M} est dite définie négative si son opposée est définie positive.

Intérêt des matrices définies positives

Beaucoup de problèmes de résolution de systèmes linéaires les plus faciles à traiter numériquement sont ceux dont les matrices sont symétriques définies positives[1] : on dispose d'algorithmes numériquement stables et rapides pour l'inversion[2] et la diagonalisation des matrices définies positives.

Toute matrice symétrique réelle positive est limite d'une suite de matrices symétriques réelles définies positives, ce qui est à la base de nombreux raisonnements par densité[3].

Propriétés et critères

Propriétés

  • La matrice inverse d'une matrice définie positive est définie positive.
  • Si M {\displaystyle M} est définie positive et si r {\displaystyle r} est un réel strictement positif, alors r M {\displaystyle rM} est définie positive.
  • Si M {\displaystyle M} et N {\displaystyle N} sont positives et si l'une des deux est inversible, alors M + N {\displaystyle M+N} est définie positive.
  • Une matrice positive est définie positive si et seulement si sa racine carrée positive est inversible. Cette propriété est utilisée pour la décomposition polaire (voir infra).
  • Inégalité de Hadamard : le déterminant d'une matrice définie positive est inférieur ou égal au produit de ses éléments diagonaux.

Critère de Sylvester

Pour qu'une matrice A = ( a i j ) 1 i , j n {\displaystyle A=\left(a_{ij}\right)_{1\leqslant i,j\leqslant n}} , réelle symétrique ou complexe hermitienne, soit définie positive, il faut et suffit que les n {\displaystyle n} matrices A p = ( a i j ) 1 i , j p {\displaystyle A_{p}=\left(a_{ij}\right)_{1\leqslant i,j\leqslant p}} pour p {\displaystyle p} de 1 à n {\displaystyle n} , aient leur déterminant strictement positif, autrement dit que les n {\displaystyle n} mineurs principaux dominants soient strictement positifs.

Remarques
  • Pour n = 2 {\displaystyle n=2} , le critère de Sylvester est essentiellement le critère de positivité du trinôme du second degré.
  • En fait, sur un corps (commutatif) quelconque, cette condition de non-nullité des mineurs principaux est une condition nécessaire et suffisante pour qu'il existe une matrice Q {\displaystyle Q} triangulaire supérieure telle que Q T A Q {\displaystyle Q^{\mathsf {T}}AQ} soit diagonale et de rang maximum (il suffit d'adapter la démonstration qui suit).
Démonstration


Notons q {\displaystyle q} la forme quadratique associée à A {\displaystyle A} , définie par q ( x ) = 1 i , j n a i j x i x j {\displaystyle q(\mathbf {x} )=\sum _{1\leqslant i,j\leqslant n}a_{ij}x_{i}x_{j}} .

La condition est nécessaire. On remarque d'abord que si q {\displaystyle q} est définie positive, alors det ( A ) > 0 {\displaystyle \det(A)>0} . En effet, par rapport à une base orthogonale pour cette forme quadratique (il en existe, d'après la réduction de Gauss), la matrice de q {\displaystyle q} s'écrit d i a g ( c 1 , , c n ) {\displaystyle \mathrm {diag} (c_{1},\cdots ,c_{n})} les c i {\displaystyle c_{i}} étant tous strictement positifs. Alors c 1 c n = ( det A ) ( det Q ) 2 {\displaystyle c_{1}\cdots c_{n}=(\det A)(\det Q)^{2}} ( Q {\displaystyle Q} étant la matrice de passage), donc det A > 0 {\displaystyle \det A>0} . Le résultat s'ensuit, en appliquant le même raisonnement à la restriction de q {\displaystyle q} aux sous-espaces R k × { 0 } n k {\displaystyle \mathbb {R} ^{k}\times \{0\}^{n-k}} , pour 1 k n 1 {\displaystyle 1\leqslant k\leqslant n-1} .

Montrons maintenant que la condition est suffisante. On procède par récurrence sur la dimension.

Pour n = 0 {\displaystyle n=0} c'est évident puisqu'en dimension 0 l'ensemble des vecteurs non nuls est vide. Supposons la propriété vraie pour n 1 {\displaystyle n-1} et notons E = R n 1 × { 0 } {\displaystyle E=\mathbb {R} ^{n-1}\times \{0\}} . Par hypothèse de récurrence, q | E {\displaystyle q_{\vert E}} est définie positive. De plus, q {\displaystyle q} est non dégénérée (parce que le déterminant de A {\displaystyle A} est non nul) donc :

R n = E E avec dim E = 1 {\displaystyle \,\mathbb {R} ^{n}=E\oplus E^{\perp }\quad {\textrm {avec}}\quad \dim E^{\perp }=1}

Soient e {\displaystyle e} un vecteur non nul de E {\displaystyle E^{\perp }} et a = q ( e ) {\displaystyle a=q(e)} . Alors det A {\displaystyle \det A} et a det A n 1 {\displaystyle a\det A_{n-1}} ont même signe d'après le même argument que dans la première partie (qui met implicitement en jeu le discriminant), or par hypothèse det A {\displaystyle \det A} et det A n 1 {\displaystyle \det A_{n-1}} sont strictement positifs. Donc a > 0 {\displaystyle a>0} , si bien que la restriction de q {\displaystyle q} à E {\displaystyle E^{\perp }} est, elle aussi, définie positive, ce qui montre que q {\displaystyle q} est définie positive.

Dans le cas complexe, plus général, la preuve est analogue, en considérant la forme hermitienne définie par la matrice.

Une autre méthode est d'utiliser le théorème d'entrelacement de Cauchy[4].

Décomposition polaire

Article détaillé : Décomposition polaire.
  • Toute matrice inversible réelle se décompose de façon unique en produit d'une matrice orthogonale et d'une matrice symétrique définie positive.
  • Toute matrice inversible complexe se décompose de façon unique en produit d'une matrice unitaire et d'une matrice hermitienne définie positive.

La notion de matrice définie positive est donc analogue à celle de nombre réel strictement positif dans la forme polaire d'un nombre complexe.

Notes et références

  1. Philippe Ciarlet, Introduction à l'analyse numérique matricielle et à l'optimisation, Paris, Dunod, , p. 26.
  2. Laboratoire bordelais de recherche en informatique (LaBRI), « Matrices symétriques définies positives et leur inversion » [PDF], sur labri.fr (consulté le ).
  3. Jean Voedts, Cours de mathématiques : MP-MP*, Paris, Ellipses, , 1119 p. (ISBN 2-7298-0666-0, OCLC 470114804, BNF 38853625, SUDOC 061031119), p. 634.
  4. (en) Roger A. Horn et Charles R. Johnson, Matrix Analysis, Cambridge University Press, , 2e éd. (1re éd. 1985), 643 p. (ISBN 978-0-521-83940-2, lire en ligne), p. 439.

Articles connexes

v · m
Matrices
Forme
Transformée
Relation
Propriété
Famille
Associée
Résultats
Décompositions
Articles liés
v · m
  • icône décorative Portail de l’algèbre