Théorème de Cayley-Hamilton

Page d’aide sur l’homonymie

Ne pas confondre avec le théorème de Cayley en théorie des groupes ni avec le théorème de Hamilton en géométrie.

Portrait d'Arthur Cayley

En algèbre linéaire, le théorème de Cayley-Hamilton affirme que tout endomorphisme d'un espace vectoriel de dimension finie sur un corps commutatif quelconque annule son propre polynôme caractéristique.

En termes de matrice, cela signifie que si A est une matrice carrée d'ordre n et si

p ( X ) = det ( X I n A ) = X n + p n 1 X n 1 + + p 1 X + p 0 {\displaystyle p(X)=\det(XI_{n}-A)=X^{n}+p_{n-1}X^{n-1}+\ldots +p_{1}X+p_{0}}

est son polynôme caractéristique (polynôme d'indéterminée X), alors en remplaçant formellement X par la matrice A dans le polynôme, le résultat est la matrice nulle[1] :

p ( A ) = A n + p n 1 A n 1 + + p 1 A + p 0 I n = 0 n . {\displaystyle p(A)=A^{n}+p_{n-1}A^{n-1}+\ldots +p_{1}A+p_{0}I_{n}=0_{n}.\;}

Le théorème de Cayley-Hamilton s'applique aussi à des matrices carrées à coefficients dans un anneau commutatif quelconque.

Un corollaire important du théorème de Cayley-Hamilton affirme que le polynôme minimal d'une matrice donnée est un diviseur de son polynôme caractéristique.

Bien qu'il porte les noms des mathématiciens Arthur Cayley et William Hamilton, la première démonstration du théorème est donnée par Ferdinand Georg Frobenius en 1878, Cayley l'ayant principalement utilisé dans ses travaux, et Hamilton l'ayant démontré en dimension 2.

Motivation

Ce théorème possède deux familles d'utilisation :

  • Il permet d'établir des résultats théoriques, par exemple pour calculer le polynôme caractéristique d'un endomorphisme nilpotent.
  • Il autorise aussi des simplifications puissantes[Quoi ?] dans les calculs de matrices. L'approche par les polynômes minimaux est en général moins coûteuse que celle par les déterminants.

On trouve ce théorème utilisé dans les articles sur les polynômes d'endomorphisme, endomorphismes nilpotents, et plus généralement dans la théorie générale des matrices.

Exemple

Considérons par exemple la matrice

A = ( 1 2 3 4 ) {\displaystyle A={\begin{pmatrix}1&2\\3&4\end{pmatrix}}} .

Le polynôme caractéristique s'écrit

p ( X ) = det ( X 1 2 3 X 4 ) = ( X 1 ) ( X 4 ) ( 2 ) ( 3 ) = X 2 5 X 2. {\displaystyle p(X)=\det {\begin{pmatrix}X-1&-2\\-3&X-4\end{pmatrix}}=(X-1)(X-4)-(-2)(-3)=X^{2}-5X-2.}

Le théorème de Cayley-Hamilton affirme que

A 2 5 A 2 I 2 = 0 {\displaystyle A^{2}-5A-2I_{2}=0}

et cette relation peut être rapidement vérifiée dans ce cas. De plus le théorème de Cayley-Hamilton permet de calculer les puissances d'une matrice plus simplement que par un calcul direct. Reprenons la relation précédente

A 2 5 A 2 I 2 = 0 {\displaystyle A^{2}-5A-2I_{2}=0}
A 2 = 5 A + 2 I 2 {\displaystyle A^{2}=5A+2I_{2}}

Ainsi, par exemple, pour calculer A4, nous pouvons écrire

A 3 = ( 5 A + 2 I 2 ) A = 5 A 2 + 2 A = 5 ( 5 A + 2 I 2 ) + 2 A = 27 A + 10 I 2 {\displaystyle A^{3}=(5A+2I_{2})A=5A^{2}+2A=5(5A+2I_{2})+2A=27A+10I_{2}}

et il vient

A 4 = A 3 A = ( 27 A + 10 I 2 ) A = 27 A 2 + 10 A = 27 ( 5 A + 2 I 2 ) + 10 A {\displaystyle A^{4}=A^{3}A=(27A+10I_{2})A=27A^{2}+10A=27(5A+2I_{2})+10A}
A 4 = 145 A + 54 I 2 {\displaystyle A^{4}=145A+54I_{2}} .

On peut également utiliser la relation polynomiale initiale A 2 5 A 2 I 2 = 0 {\displaystyle A^{2}-5A-2I_{2}=0} pour prouver l'inversibilité de A et calculer son inverse. Il suffit en effet de mettre en facteur une puissance de A là où c'est possible et

A ( A 5 I 2 ) = 2 I 2 {\displaystyle A(A-5I_{2})=2I_{2}}

ce qui montre que A admet pour inverse

A 1 = 1 2 ( A 5 I 2 ) {\displaystyle A^{-1}={\frac {1}{2}}(A-5I_{2})}

Démonstrations

Il existe de très nombreuses démonstrations de ce théorème[2]. La plus simple dans son principe consiste à remarquer que le résultat est presque évident pour une matrice diagonale, puis à le démontrer pour une matrice diagonalisable A (en remarquant qu'alors X I n A {\displaystyle XI_{n}-A} est semblable à X I n D {\displaystyle XI_{n}-D} , et que deux matrices semblables ont même déterminant) ; on conclut en exploitant le fait que sur les complexes, l'ensemble des matrices diagonalisables est dense[3]. Malheureusement, cette démonstration se généralise difficilement à d'autres ensembles de scalaires[Par exemple ?].

Une preuve purement algébrique

Quelle que soit la matrice S M n ( K ) {\displaystyle S\in {\mathcal {M}}_{n}(\mathbb {K} )} , il existe une matrice explicitement déterminée, Comp(S), la matrice complémentaire de S, qui vérifie S Comp ( S ) = Comp ( S ) S = det ( S ) I n {\displaystyle S{\textrm {Comp}}(S)={\textrm {Comp}}(S)S=\det(S)I_{n}} . La matrice Comp(S) est la transposée de la comatrice ou matrice des cofacteurs de S. Cette relation reste encore vraie si les coefficients de S appartiennent à un anneau, puisqu'on n'a pas fait de divisions. On peut donc poser S = X I n A {\displaystyle S=XI_{n}-A} , dont les coefficients sont dans K [ X ] {\displaystyle \mathbb {K} [X]} et on a alors la relation :

( X I n A ) Comp ( X I n A ) = det ( X I n A ) I n = p ( X ) I n .     ( 1 ) {\displaystyle (XI_{n}-A){\textrm {Comp}}(XI_{n}-A)=\det(XI_{n}-A)I_{n}=p(X)I_{n}.\ \ (1)}

À partir de (1), en écrivant

Comp ( X I n A ) = j = 0 n 1 B j X j {\displaystyle {\textrm {Comp}}(XI_{n}-A)=\sum _{j=0}^{n-1}B_{j}X^{j}}

avec B j M n ( K ) {\displaystyle B_{j}\in {\mathcal {M}}_{n}(\mathbb {K} )} , et

p ( X ) = j = 0 n p j X j . {\displaystyle p(X)=\sum _{j=0}^{n}p_{j}X^{j}.}

On peut développer le produit ( X I n A ) Comp ( X I n A ) {\displaystyle (XI_{n}-A){\textrm {Comp}}(XI_{n}-A)}  :

( X I n A ) Comp ( X I n A ) = X n B n 1 + i = 1 n 1 X i ( B i 1 A B i ) A B 0     ( 2 ) , {\displaystyle (XI_{n}-A){\textrm {Comp}}(XI_{n}-A)=X^{n}B_{n-1}+\sum _{i=1}^{n-1}X^{i}(B_{i-1}-AB_{i})-AB_{0}\ \ (2),}

qui est identique à

j = 0 n X j p j I n .     ( 3 ) {\displaystyle \sum _{j=0}^{n}X^{j}p_{j}I_{n}.\ \ (3)}

Les polynômes (2) et (3) sont égaux. Par conséquent,

p n I n = B n 1 , p i I n = B i 1 A B i , p 0 I n = A B 0 {\displaystyle p_{n}I_{n}=B_{n-1},\quad p_{i}I_{n}=B_{i-1}-AB_{i},\quad p_{0}I_{n}=-AB_{0}} .

Il vient alors un télescopage :

p ( A ) = j = 0 n A j ( p j I n ) = A n B n 1 + i = 1 n 1 A i ( B i 1 A B i ) A B 0 = i = 1 n A i B i 1 i = 0 n 1 A i + 1 B i = 0 {\displaystyle {\begin{aligned}p(A)&=\sum _{j=0}^{n}A^{j}(p_{j}I_{n})\\&=A^{n}B_{n-1}+\sum _{i=1}^{n-1}A^{i}(B_{i-1}-AB_{i})-AB_{0}\\&=\sum _{i=1}^{n}A^{i}B_{i-1}-\sum _{i=0}^{n-1}A^{i+1}B_{i}\\&=0\end{aligned}}} .

La preuve ne consiste pas en une substitution de X par A dans des égalités de polynômes (ce qui reviendrait à comparer un polynôme et un polynôme matriciel), mais en une identification de leurs coefficients.

Une variante

On peut également aligner des idées abstraites.

On commence par introduire un morphisme d'évaluation approprié à la résolution du problème. Tout d'abord, K [ A ] {\displaystyle \mathbb {K} [A]} étant une algèbre commutative sur K {\displaystyle \mathbb {K} } , on a un morphisme d'évaluation : K [ X ] K [ A ] {\displaystyle \mathbb {K} [X]\to \mathbb {K} [A]} (qui envoie X {\displaystyle X} sur A {\displaystyle A} et λ {\displaystyle \lambda } sur λ I n {\displaystyle \lambda I_{n}} pour tout scalaire λ). Ce morphisme d'anneaux commutatifs induit un morphisme d'évaluation sur les anneaux de matrices M n ( K [ X ] ) M n ( K [ A ] ) {\displaystyle {\mathcal {M}}_{n}(\mathbb {K} [X])\to {\mathcal {M}}_{n}(\mathbb {K} [A])} .

Une notation auxiliaire nous sera utile : pour deux matrices carrées (n,n) notées C = ( c i j ) {\displaystyle C=(c_{ij})} et D = ( d i j ) {\displaystyle D=(d_{ij})} , on notera C D {\displaystyle C\triangleright D} la matrice à coefficients matriciels de terme général c i j D {\displaystyle c_{ij}D} . Si le lecteur connaît le produit de Kronecker de deux matrices, il pourra remarquer que C D {\displaystyle C\triangleright D} est pratiquement identique à C D {\displaystyle C\otimes D} à ceci près que C D {\displaystyle C\triangleright D} est une matrice (n,n) dont les coefficients sont des matrices (n,n) tandis que C D {\displaystyle C\otimes D} est une matrice (n2,n2). Les formules ci-dessous ne contiennent de fait que deux cas particuliers de cette opération : des produits de la forme I n C {\displaystyle I_{n}\triangleright C} c'est-à-dire des matrices carrées avec des C sur la diagonale et des 0 ailleurs et un produit A I n {\displaystyle A\triangleright I_{n}} c'est-à-dire une variante de A où la matrice a i j I n {\displaystyle a_{ij}I_{n}} vient remplacer le coefficient a i j {\displaystyle a_{ij}} .

Cette notation posée, on applique le morphisme d'évaluation à la relation :

( X I n A ) Comp ( X I n A ) = p ( X ) I n . {\displaystyle (XI_{n}-A)\,{\textrm {Comp}}(XI_{n}-A)=p(X)I_{n}.}

On obtient une relation

( I n A A I n ) M = I n p ( A ) ( ) {\displaystyle (I_{n}\triangleright A-A\triangleright I_{n})\,M=I_{n}\triangleright p(A)\qquad (*)}

dans laquelle M est une certaine matrice à coefficients dans K [ A ] {\displaystyle \mathbb {K} [A]} dont on n'aura besoin de rien savoir.

Ainsi on a écrit une formule juste, et on en pâtit : on n'a du coup pas fini, l'évaluation de X I n A {\displaystyle XI_{n}-A} par une technique rigoureuse ne fournit pas 0 mais une bizarre matrice à coefficients matriciels.

Il faut une deuxième idée pour conclure. Elle consiste à remarquer que si A {\displaystyle \mathbb {A} } est un anneau et E un A {\displaystyle \mathbb {A} } -module à droite, pour tous entiers r, s, t on peut définir par les formules habituelles un produit matriciel :

M r s ( E ) × M s t ( A ) M r t ( E ) {\displaystyle {\mathcal {M}}_{rs}(E)\times {\mathcal {M}}_{st}(\mathbb {A} )\to {\mathcal {M}}_{rt}(E)}

pour laquelle on a associativité si on veut calculer des produits à trois termes :

M r s ( E ) × M s t ( A ) × M t u ( A ) M r u ( E ) . {\displaystyle {\mathcal {M}}_{rs}(E)\times {\mathcal {M}}_{st}(\mathbb {A} )\times {\mathcal {M}}_{tu}(\mathbb {A} )\to {\mathcal {M}}_{ru}(E).}

On applique cette notion à E = K n {\displaystyle E=\mathbb {K} ^{n}} (pour les puristes à E = M n 1 ( K ) {\displaystyle E={\mathcal {M}}_{n1}(\mathbb {K} )} ) qui est un module (dont la multiplication s'écrit spontanément à gauche mais peut l'être à droite si on préfère, l'anneau étant commutatif) sur l'anneau commutatif A = K ( A ) {\displaystyle \mathbb {A} =\mathbb {K} (A)} , la multiplication externe étant l'application : M n 1 ( K ) × K ( A ) {\displaystyle {\mathcal {M}}_{n1}(\mathbb {K} )\times \mathbb {K} (A)} définie par ( E , B ) B E {\displaystyle (E,B)\mapsto BE} (ce BE étant le produit matriciel ordinaire de la matrice carrée B par la matrice colonne E).

On multiplie à gauche la relation ( ) {\displaystyle (*)} par le vecteur ligne ( e 1 e n ) {\displaystyle {\begin{pmatrix}e_{1}&\cdots &e_{n}\end{pmatrix}}} ( e 1 , , e n ) {\displaystyle (e_{1},\ldots ,e_{n})} désigne la base canonique de K n {\displaystyle \mathbb {K} ^{n}}  : en utilisant l'expression de droite dans ( ) {\displaystyle (*)} on obtient le vecteur ligne ( p ( A ) e 1 p ( A ) e n ) {\displaystyle {\begin{pmatrix}p(A)e_{1}&\ldots &p(A)e_{n}\end{pmatrix}}} .

Si maintenant on utilise l'expression de gauche dans ( ) {\displaystyle (*)} et qu'on déplace les parenthèses par associativité de la multiplication matricielle un peu inhabituelle décrite ci-avant, on est amené à calculer le produit :

( e 1 e n ) ( I n A A I n ) . {\displaystyle {\begin{pmatrix}e_{1}&\ldots &e_{n}\end{pmatrix}}(I_{n}\triangleright A-A\triangleright I_{n}).}

Pour chaque indice j, on ne peut que constater que sa j-ème composante vaut :

A e j i = 1 n ( a i j I n ) e i = A e j i = 1 n a i j e i = 0 {\displaystyle Ae_{j}-\sum _{i=1}^{n}(a_{ij}I_{n})e_{i}=Ae_{j}-\sum _{i=1}^{n}a_{ij}e_{i}=0} .

En multipliant ceci à droite par l'inoffensive matrice M et en comparant les deux expressions du produit, on conclut que pour tout indice j, p(A)ej=0.

Et donc p(A)=0[4].

Remarques additionnelles sur la démonstration

La preuve qui a été donnée évite la substitution de X {\displaystyle X} par une matrice dans un contexte non commutatif, mais les manipulations effectuées sont quand même proches de cette idée : on a bien décomposé l'équation en composantes suivant les puissances de X {\displaystyle X} , on a multiplié à gauche par A j {\displaystyle A^{j}} la composante qui était en facteur de X j {\displaystyle X^{j}} , et on a additionné tout ensemble. En fait, on a utilisé l'opération Ev A {\displaystyle {\textrm {Ev}}_{A}} définie en (5), sans supposer qu'il s'agisse d'un homomorphisme d'anneaux, de M n ( K ) [ X ] {\displaystyle {\mathcal {M}}_{n}(\mathbb {K} )[X]} dans M n ( K ) {\displaystyle {M}_{n}(\mathbb {K} )} . L'opération Ev A {\displaystyle {\textrm {Ev}}_{A}} est une évaluation à gauche, parce que la multiplication par l'indéterminée scalaire X {\displaystyle X} est remplacée par la multiplication à gauche par A {\displaystyle A} .

Une autre observation est importante : la forme exacte du polynôme Comp ( X I n A ) {\displaystyle {\textrm {Comp}}(XI_{n}-A)} n'a aucune importance. Il y a donc quelque chose à exploiter ici, ce que n'ont pas manqué de faire les mathématiciens.

Soit M {\displaystyle M} un anneau non commutatif ; on peut définir une division euclidienne d'un polynôme P M [ X ] {\displaystyle P\in M[X]} par un polynôme B {\displaystyle B} unitaire. Plus précisément, il existe deux polynômes Q , R M [ X ] {\displaystyle Q,R\in M[X]} , avec R {\displaystyle R} de degré strictement inférieur au degré de B {\displaystyle B} , tels que

P = B Q + R . {\displaystyle P=BQ+R.}

La démonstration est entièrement analogue à celle du cas scalaire. Si B = X I n A {\displaystyle B=XI_{n}-A} , alors le reste R {\displaystyle R} est de degré 0 {\displaystyle 0} , et donc identique à une constante appartenant à M {\displaystyle M} . Mais dans ce cas, en raisonnant exactement comme dans la démonstration du théorème de Cayley-Hamilton, on arrive à la conclusion

Ev A ( P ) = R {\displaystyle {\textrm {Ev}}_{A}(P)=R} .

Il s'ensuit que Ev A ( P ) {\displaystyle {\textrm {Ev}}_{A}(P)} est nul si et seulement si P {\displaystyle P} est divisible à gauche par X I n A {\displaystyle XI_{n}-A} .

La démonstration du théorème de Cayley-Hamilton donne aussi une autre information : le polynôme Comp ( X I n A ) {\displaystyle {\textrm {Comp}}(XI_{n}-A)} est le quotient à gauche de p ( X ) I n {\displaystyle p(X)I_{n}} par X I n A {\displaystyle XI_{n}-A} . Comme p ( X ) I n {\displaystyle p(X)I_{n}} et X I n A {\displaystyle XI_{n}-A} appartiennent tous deux au sous-anneau commutatif K [ A ] [ X ] {\displaystyle \mathrm {K} [A][X]} , la division à gauche se passe entièrement dans ce sous-anneau, c'est donc une division ordinaire. En particulier, les coefficients matriciels de Comp ( X I n A ) {\displaystyle {\textrm {Comp}}(XI_{n}-A)} sont des combinaisons linéaires de puissances de A {\displaystyle A} . En d'autres termes, la matrice complémentaire d'une matrice A {\displaystyle A} est un polynôme en A {\displaystyle A} , ce qu'il n'est pas facile de déduire directement de la définition d'une matrice complémentaire. Mieux, on peut calculer explicitement ses coefficients à partir de ceux du polynôme caractéristique p ( X ) {\displaystyle p(X)} , puisqu'il s'agit de faire une division euclidienne ordinaire, et on trouve

Comp(-A) = j = 1 n p j A j 1 . {\displaystyle {\textrm {Comp(-A)}}=\sum _{j=1}^{n}p_{j}A^{j-1}.}

On aurait pu également obtenir cette relation directement à partir du théorème de Cayley-Hamilton, en vertu de l'identité

p 0 I n = det ( A ) I n = A Comp ( A ) = Comp ( A ) A {\displaystyle p_{0}I_{n}=\det(-A)I_{n}=-A\cdot {\textrm {Comp}}(-A)={\textrm {Comp}}(-A)\cdot -A} .

Abstraction et généralisations

La preuve donnée ci-dessus n'utilise que les propriétés d'anneau commutatif du corps K, puisqu'elle ne comporte pas de division par des éléments de cet anneau mais s'appuie juste sur la formule de Laplace, valide pour une matrice à coefficients dans n'importe quel anneau commutatif B. On peut donc généraliser le théorème de Cayley-Hamilton à ce cas, en utilisant la formule de Laplace pour des matrices à coefficients dans l'anneau B = R [X], R étant un anneau commutatif quelconque :

Pour toute matrice carrée A de taille nxn à coefficients dans un anneau commutatif R, si l'on note

p A ( X ) = det ( X I n A ) {\displaystyle p_{A}(X)=\det(XI_{n}-A)\,} ,

on a :

p A ( A ) = 0 {\displaystyle p_{A}(A)=0\,} .

Soit alors M un module de type fini sur cet anneau R (l'analogue de la notion d'espace vectoriel de dimension finie sur un corps, mais sans l'existence de bases : M a seulement des familles génératrices finies), et soit φ un endomorphisme de M, le théorème de Cayley-Hamilton permet de construire comme suit des polynômes en φ qui s'annulent sur M : soit (e1, e2, ... , en) une famille génératrice de M. On peut trouver des éléments a i j {\displaystyle a_{ij}} de R tels que

φ ( e j ) = i = 1 n a i j e i , {\displaystyle \varphi (e_{j})=\sum _{i=1}^{n}a_{ij}e_{i},}

et on note A la matrice nxn formée de ces coefficients. Cette matrice n'est pas unique, même pour une famille génératrice fixée, puisqu'on n'a pas supposé libre cette famille. Néanmoins, de la formule p A ( A ) = 0 {\displaystyle p_{A}(A)=0} on déduit que p A ( φ ) = 0 {\displaystyle p_{A}(\varphi )=0} .

Parmi les multiples démonstrations[2] du théorème de Cayley-Hamilton dans le contexte des anneaux commutatifs, soulignons l'élégance de la démonstration générique[5], dont le principe est abstrait mais courant en algèbre[6],[7] : elle repose sur la remarque que pour les matrices carrées A de taille n fixée, l'identité p A ( A ) = 0 {\displaystyle p_{A}(A)=0} est un système de n2 identités polynomiales universelles en les coefficients de A. C'est-à-dire que p A ( A ) = U ( a i , j ) {\displaystyle p_{A}(A)=U(a_{i,j})} pour toute matrice A de coefficients a i , j {\displaystyle a_{i,j}} dans n'importe quel anneau commutatif, où U ( Y i , j ) {\displaystyle U(Y_{i,j})} désigne une certaine matrice carrée de taille n à coefficients dans l'anneau de polynômes à n2 indéterminées R = Z [ ( Y i , j ) 1 i n , 1 j n ] {\displaystyle R=\mathbb {Z} [(Y_{i,j})_{1\leq i\leq n,1\leq j\leq n}]} (cette matrice universelle U est indépendante de A car elle résulte juste des formules de développement du déterminant et des puissances de matrices n×n). Pour démontrer le théorème pour n'importe quelle matrice A dans n'importe quel anneau commutatif, il suffit donc de vérifier que cette matrice U ( Y i , j ) {\displaystyle U(Y_{i,j})} est nulle, c'est-à-dire de démontrer le théorème pour une seule matrice : la matrice Y dont les coefficients sont les Y i , j {\displaystyle Y_{i,j}} , éléments de l'anneau R.

Démonstration générique
  • Soit V ( X ) = det ( X I n Y ) R [ X ] {\displaystyle V(X)=\det(XI_{n}-Y)\in R[X]} (ainsi, U ( Y i , j ) = V ( Y ) M n ( R ) {\displaystyle U(Y_{i,j})=V(Y)\in {\mathcal {M}}_{n}(R)} ), et soit K un corps algébriquement clos contenant R (par exemple le plus petit : la clôture algébrique de son corps des fractions).
  • Le polynôme V(X) est à racines simples dans K car son discriminant est non nul[8]. En effet, puisque le résultant de deux polynômes de degrés donnés s'écrit comme un polynôme universel en leurs coefficients, le discriminant de V(X) s'écrit lui aussi comme un polynôme universel W ( Y i , j ) R {\displaystyle W(Y_{i,j})\in R} tel que pour toute matrice A, le discriminant de det ( X I n A ) {\displaystyle \det(XI_{n}-A)} soit égal à W ( a i , j ) {\displaystyle W(a_{i,j})} . Or il existe des matrices A pour lesquelles W ( a i , j ) 0 {\displaystyle W(a_{i,j})\neq 0}  : par exemple la matrice diagonale à coefficients entiers, de diagonale 1, 2, ... , n.
  • La matrice Y est donc diagonalisable sur K : Y = P D P 1 {\displaystyle Y=PDP^{-1}} avec P inversible et D diagonale, donc pour D le théorème de Cayley-Hamilton est immédiat, ce qui permet de conclure :
V ( X ) = det ( X I n D ) V ( D ) = 0 U ( Y i , j ) = V ( Y ) = P V ( D ) P 1 = P 0 P 1 = 0. {\displaystyle V(X)=\det(XI_{n}-D)\Rightarrow V(D)=0\Rightarrow U(Y_{i,j})=V(Y)=PV(D)P^{-1}=P0P^{-1}=0.}

Notes et références

(en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Cayley-Hamilton Theorem » (voir la liste des auteurs).
  1. Une erreur naïve consiste à dire, pour une matrice A fixée : on remplace X par A dans la formule qui définit p(X), ce qui donne p(A) = det(AIn – A) = det(0) = 0. L’erreur réside dans l’ordre des étapes « évaluation du déterminant » et « substitution de A à X ». D'ailleurs, det(AIn – A) est un scalaire alors que la véritable valeur de p(A) est une matrice. Il est vrai qu'ici, la matrice est nulle (d'après le théorème) et le scalaire aussi (trivialement), mais on trouve facilement des exemples du même type où l'un est nul et pas l'autre, comme A = ( 1 0 0 0 ) {\displaystyle A={\begin{pmatrix}1&0\\0&0\end{pmatrix}}} et q(X) = det(A + XI2).
  2. a et b Michel Coste, « Présentation de 30 démonstrations », sur Université de Rennes 1.
  3. V. Beck, J. Malik et G. Peyré, Objectif agrégation, H&K, , p. 221
  4. Cette preuve est celle qui figure dans Introduction to commutative algebra, M. F. Atiyah et I. G. Macdonald, Addison-Wesley, (ISBN 0-201-00361-9), p. 21.
  5. Jean-Pierre Escofier, Toute l'algèbre de la Licence : Cours et exercices corrigés, Dunod, , 3e éd. (lire en ligne), p. 539, exercice 20.11.
  6. (en) Keith Conrad, « Universal identities, I », sur Université du Connecticut.
  7. Henri Lombardi et Claude Quitté, Algèbre commutative — Méthodes constructives — Modules projectifs de type fini, Calvage & Mounet, (1re éd. 2011) (arXiv 1611.02942, présentation en ligne), p. 96-97.
  8. Lombardi et Quitté 2016, p. 108-111.

Voir aussi

Sur les autres projets Wikimedia :

  • Une démonstration du théorème de Cayley-Hamilton, sur Wikiversity

Bibliographie

(en) Vasile Pop et Ovidiu Furdui, Square Matrices of Order 2, Springer Publishing, (DOI 10.1007/978-3-319-54939-2_3, lire en ligne), chap. 3 (« Applications of Cayley-Hamilton Theorem »), p. 107-181

Lien externe

« Théorème de Cayley-Hamilton », sur Unisciel,

v · m
Famille de vecteurs Mathématiques
Sous-espace
Morphisme et
notions relatives
Dimension finie
Enrichissements
de structure
Développements
  • icône décorative Portail de l’algèbre