Matrise

(n × m)-matrise med elementer a i j {\displaystyle a_{ij}}

En matrise i matematikk er et rektangulært sett av elementer, ordnet i rekker og kolonner.[1][2] Elementene er vanligvis reelle eller komplekse tall, men kan også være mer generelle objekter i en kropp eller en ring. Et eksempel på en matrise er vist i figuren til høyre.

En (n × m)-matrise har n rekker eller rader og m kolonner eller søyler, og dimensjonen til matrisen sies å være n × m. En matrise med like mange rader som kolonner kalles en kvadratisk matrise. Rangen til en matrise er det største antallet lineært uavhengige rader eller kolonner i matrisen.

Matriser har et stort anvendelsesområde i matematikk og også i andre fagfelt, som fysikk og kjemi. Viktige grunner for dette er nær sammenheng mellom matriser og lineære algebraiske ligninger samt matriser og lineære transformasjoner. Praktiske problemstillinger kan lede til svært store matriser, der millionvis av elementer ikke er uvanlig. På grunn av det store bruksområdet, er det lagt ned en stor innsats i å utvikle effektive beregningsmetoder for matriser.

I matematikk er grunnleggende teori for matriser en del av fagfeltet lineær algebra, men de studeres også i andre spesialområder, som i numerisk matematikk. Det er utviklet en rik terminologi for matrisetyper og matrise-egenskaper. Matriser som består av kun én kolonne eller én rekke svarer til vektorer, mens en tensor kan betraktes som en generalisering av en matrise fra to dimensjoner (rekker, kolonner) til tre eller flere dimensjoner.

Notasjon og terminologi for generelle matriser

Dimensjon

En matrise betegnes vanligvis med en stor bokstav A {\displaystyle A} , ofte også med fet skrift A {\displaystyle \mathbf {A} } . Dimensjonen eller ordenen til matrisen er (n × m), når n er antallet rekker og m er antallet kolonner. Dette kan markeres på flere måter:[2]

A n m A n , m A n × m A ( n × m ) {\displaystyle A_{nm}\qquad A_{n,m}\qquad A_{n\times m}\qquad A(n\times m)} .

Tilsvarende sier en også at n er rekke-dimensjonen og m er kolonne-dimensjonen. Matrisen karakteriseres som en (n × m)-matrise.

I en kvadratisk matrise er det like mange kolonner som rekker. Dersom det går klart fram at en matrise er kvadratisk, kan en oppgi dimensjonen som n.[3]

En matrise med bare én rekke eller én søyle kan betraktes som en vektor og kalles da henholdsvis en rekkematrise og en søylematrise, alternativ en rekkevektor og en søylevektor.[4] Dimensjonen til disse vil være henholdsvis (1 × m) og (n × 1).

Matrise-elementer

I en reell matrise er elementene reelle tall, og i en kompleks matrise er elementene komplekse. Mengden av alle reelle matriser skrives som R n × m {\displaystyle \mathbb {R} ^{n\times m}} , der R {\displaystyle \mathbb {R} } er mengden av reelle tall. Mengden av komplekse matriser skrives tilsvarende som C n × m {\displaystyle \mathbb {C} ^{n\times m}} .[5]

Flere alternative skrivemåter for å spesifisere matriser er i vanlig bruk. Dersom alle elementene skal skrives ut, bruker en som regel en form for parenteser til å omslutte elementene:

A = [ 1 3 2 1 0 0 ] A = ( 1 3 2 1 0 0 ) A = { 1 3 2 1 0 0 } {\displaystyle A={\begin{bmatrix}1&3&2\\1&0&0\end{bmatrix}}\qquad A={\begin{pmatrix}1&3&2\\1&0&0\end{pmatrix}}\qquad A={\begin{Bmatrix}1&3&2\\1&0&0\end{Bmatrix}}}

En generell (n × m)-matrise med n rekker og m kolonner kan skrives på formen

A = [ a 11 a 12 a 1 m a 21 a 22 a 2 m a n 1 a n 2 a n m ] {\displaystyle A={\begin{bmatrix}a_{11}&a_{12}&\cdots &a_{1m}\\a_{21}&a_{22}&\cdots &a_{2m}\\\vdots &\vdots &\ddots &\vdots \\a_{n1}&a_{n2}&\dots &a_{nm}\end{bmatrix}}}

Matrise-elementene skrives ofte med liten bokstav, og hvert element er definert ved to indekser: a i j {\displaystyle a_{ij}} er elementet i rekke nummer i {\displaystyle i} og kolonne nummer j {\displaystyle j} .

Matriser kan også skrives i kompakt form, uten å definere hvert enkelt element:

A = [ a i j ] n m A = [ a i j ] n , m A = [ a i j ] n × m {\displaystyle A={\begin{bmatrix}a_{ij}\end{bmatrix}}_{nm}\qquad A={\begin{bmatrix}a_{ij}\end{bmatrix}}_{n,m}\qquad A={\begin{bmatrix}a_{ij}\end{bmatrix}}_{n\times m}}

De enkelte elementene kan spesifiseres ved hjelp av en regel, som i det følgende eksempelet:

A = [ i j ] 3 , 3 = [ 0 1 2 1 0 1 2 1 0 ] {\displaystyle A={\begin{bmatrix}i-j\end{bmatrix}}_{3,3}={\begin{bmatrix}0&-1&-2\\1&0&-1\\2&1&0\end{bmatrix}}}

Diagonaler

I en kvadratisk matrise utgjør elementene a i j {\displaystyle a_{ij}} med i = j {\displaystyle i=j} prinsipaldiagonalen eller hoveddiagonalen, ofte omtalt bare som diagonalen.[2] Sekundærdialogen eller skjevdiagonalen går fra øvre høyre hjørne til nedre vestre hjørne, det vil si elementene a 1 + i , n i {\displaystyle a_{1+i,n-i}} .[6][7]

Sammen med hoveddiagonalen kan en definere sidediagonaler, der ( i j ) = k o n s t a n t {\displaystyle (i-j)=\mathrm {konstant} } eller ( j i ) = k o n s t a n t {\displaystyle (j-i)=\mathrm {konstant} } . Diagonalen med ( j i ) = 1 {\displaystyle (j-i)=1} , det vil si diagonalen rett over hoveddiagonalen, kalles superdiagonalen.[8] Tilsvarende kan en definere subdiagonalen som diagonalen rett under hoveddiagonalen.

Undermatriser

Fra en generell matrise kan en definere en undermatrise eller en submatrise ved å slette at antall rekker og/eller søyler.[9] Det følgende eksempelet viser hvordan en undermatrise er laget fra matrisen A {\displaystyle A} ved å slette en enkelt rad og en enkelt søyle, vist i rød farge;

A = [ 1 2 3 4 5 6 7 8 9 10 11 12 ] [ 1 3 4 5 7 8 ] . {\displaystyle \mathbf {A} ={\begin{bmatrix}1&\color {red}{2}&3&4\\5&\color {red}{6}&7&8\\\color {red}{9}&\color {red}{10}&\color {red}{11}&\color {red}{12}\end{bmatrix}}\rightarrow {\begin{bmatrix}1&3&4\\5&7&8\end{bmatrix}}.}

Blokkmatriser

En matrise definert ved et sett av undermatriser kalles en blokkmatrise eller en partisjonert matrise.[2] I det følgende eksempelet er en blokkmatrise A {\displaystyle A} definert ved fire undermatriser B , C , E , F {\displaystyle B,C,E,F} :

A = [ B C E F ] , B = [ 1 1 1 1 1 1 1 1 1 ] , C = [ 2 2 2 2 2 2 ] , E = [ 3 3 3 3 3 3 ] , F = [ 4 4 4 4 ] . {\displaystyle A={\begin{bmatrix}B&C\\E&F\\\end{bmatrix}},\qquad \qquad B={\begin{bmatrix}1&1&1\\1&1&1\\1&1&1\end{bmatrix}},\qquad C={\begin{bmatrix}2&2\\2&2\\2&2\end{bmatrix}},\qquad E={\begin{bmatrix}3&3&3\\3&3&3\end{bmatrix}},\qquad F={\begin{bmatrix}4&4\\4&4\end{bmatrix}}.}

Skrevet med alle elementene fullt ut, er matrisen gitt ved

A = [ 1 1 1 2 2 1 1 1 2 2 1 1 1 2 2 3 3 3 4 4 3 3 3 4 4 ] . {\displaystyle A={\begin{bmatrix}1&1&1&2&2\\1&1&1&2&2\\1&1&1&2&2\\3&3&3&4&4\\3&3&3&4&4\end{bmatrix}}.}

Matriseoperasjoner

Elementære operasjoner

De følgende rekkeoperasjonene er kalt de elementære rekkeoperasjonene:[10]

  • Ombytting av to rekker i matrisen.
  • Multiplikasjon av alle elementene i en rekke med et tall ulik null.
  • Addisjon av et multiplum av en rekke til en annen rekke.

De elementære søyleoperasjonene er definert tilsvarende. Sammen utgjør disse de elementære matriseoperasjonene.

Addisjon og subtraksjon

To matriser A {\displaystyle A} og B {\displaystyle B} med samme dimensjon kan adderes ved å summere de enkelte elementene:[11]

A = [ a i j ] n m B = [ b i j ] n m C = A + B = [ a i j + b i j ] n m {\displaystyle {\begin{alignedat}{2}A&={\begin{bmatrix}a_{ij}\end{bmatrix}}_{nm}\\B&={\begin{bmatrix}b_{ij}\end{bmatrix}}_{nm}\end{alignedat}}\qquad C=A+B={\begin{bmatrix}a_{ij}+b_{ij}\end{bmatrix}}_{nm}}

Subtraksjon defineres tilsvarende. Fra definisjonen følger det umiddelbart at matriseaddisjon er kommutativ, det vil si at A + B = B + A {\displaystyle A+B=B+A} .

Skalarmultiplikasjon

Multiplikasjon med en skalar k {\displaystyle k} er definert ved å multiplisere alle elementene i matrisen:[11]

k A = [ k a i j ] n m {\displaystyle kA={\begin{bmatrix}ka_{ij}\end{bmatrix}}_{nm}}

De to operasjonene matriseaddisjon og skalarmultiplikasjon gjør at mengden av (n×m)-matriser definerer et vektorrom.

Matrisemultiplikasjon

Dersom A {\displaystyle A} er en (n×m)-matrise og B {\displaystyle B} er en (m×p)-matrise, så kan produktmatrisen C = A B {\displaystyle C=AB} defineres ved at matrise-elementene til C {\displaystyle C} er gitt ved summen[11]

c i k = Σ j = 1 m a i j b j k {\displaystyle c_{ik}=\Sigma _{j=1}^{m}a_{ij}b_{jk}} .

Her er a i j {\displaystyle a_{ij}} og b j k {\displaystyle b_{jk}} matrise-elementene til A {\displaystyle A} og B {\displaystyle B} . Produktmatrisen C er en (n×p)-matrise.

Matrisemultiplikasjon er assosiativ, slik at ( A B ) C = A ( B C ) {\displaystyle (AB)C=A(BC)} , når matrisene A {\displaystyle A} , B {\displaystyle B} og C {\displaystyle C} er slik at multiplikasjonene er definert. Videre er multiplikasjon distributiv med hensyn på addisjon, slik at ( A + B ) C = A C + B C {\displaystyle (A+B)C=AC+BC} og A ( B + C ) = A B + A C {\displaystyle A(B+C)=AB+AC} . Derimot er multiplikasjonen ikke kommutativ, slik at A B {\displaystyle AB} generelt ikke er lik B A {\displaystyle BA} . Produktene A B {\displaystyle AB} og B A {\displaystyle BA} vil bare være definert samtidig dersom A {\displaystyle A} har dimensjonen (n × m) og B {\displaystyle B} har dimensjonen (m × n). Dette er tilfelle dersom begge matrisene er kvadratiske.

Et skalarprodukt mellom to vektorer kan betraktes som et produkt av en rekkematrise og en søylematrise. Matriseproduktet kan en dermed se på som en generalisering av skalarproduktet.[12]

Produkt av en matrise med seg selv kan skrives som en potens: A 3 = A A A {\displaystyle A^{3}=AAA} . Ved å addere slike potenser kan en også lage matrisepolynom. En kan også definere kvadratroten av en matrise A {\displaystyle A} som en matrise B {\displaystyle B} med egenskapen B 2 = A {\displaystyle B^{2}=A} .[13]

Med matrisemultiplikasjon er mengden av matriser en gruppe. Med både addisjon og multiplikasjon er mengden også en algebraisk struktur.

Kronecker-produkt

Dersom A {\displaystyle A} er en (n×m)-matrise og B {\displaystyle B} er en (p×q)-matrise, så er Kronecker-produktet definert ved[11]

A B = [ a 11 B a 12 B a 1 m B a 21 B a 22 B a 2 m B a n 1 B a n 2 B a n m B ] {\displaystyle A\otimes B={\begin{bmatrix}a_{11}B&a_{12}B&\cdots &a_{1m}B\\a_{21}B&a_{22}B&\cdots &a_{2m}B\\\vdots &\vdots &\ddots &\vdots \\a_{n1}B&a_{n2}B&\dots &a_{nm}B\end{bmatrix}}}

Resultatmatrisen har dimensjon (np)×(mq). Produktet kalles også tensorprodukt og direkte produkt.

Hadamard-produkt

Hadamard-produktet eller Schur-produktet for matriser er et elementvis produkt av to matriser med samme dimensjon (n×m):[11]

A B = [ a i j b i j ] n m {\displaystyle A\odot B={\begin{bmatrix}a_{ij}b_{ij}\end{bmatrix}}_{nm}}

Direkte sum

Den direkte summen av to kvadratiske matriser er definert ved[14]

A B = [ A 0 0 B ] {\displaystyle A\oplus B={\begin{bmatrix}A&0\\0&B\end{bmatrix}}}

Transponering

Den transponerte matrisen A T {\displaystyle A^{T}} er definert ved en ombytting av rekker og kolonner i den opprinnelige matrisen A {\displaystyle A} :[15]

A = [ a i j ] n m A T = [ a j i ] m n . {\displaystyle A={\begin{bmatrix}a_{ij}\end{bmatrix}}_{nm}\qquad A^{T}={\begin{bmatrix}a_{ji}\end{bmatrix}}_{mn}.}

For den transponerte matrisen brukes også notasjonen A t {\displaystyle A^{t}} , A t r {\displaystyle A^{tr}} , A {\displaystyle A'} og A {\displaystyle A^{*}} .[16][5][17]

Konjungert transponering

Den konjugert-transponerte matrisen A H {\displaystyle A^{H}} er definert ved en ombytting av rekker og kolonner i den opprinnelige matrisen A {\displaystyle A} samt kompleks konjugasjon av matrise-elementene:[15]

A = [ a i j ] n m A H = [ a ¯ j i ] m n {\displaystyle A={\begin{bmatrix}a_{ij}\end{bmatrix}}_{nm}\qquad A^{H}={\begin{bmatrix}{\overline {a}}_{ji}\end{bmatrix}}_{mn}}

A H {\displaystyle A^{H}} kalles også den hermitsk-adjungerte til matrisen. Notasjonen A {\displaystyle A^{\dagger }} er også brukt.[trenger referanse]

Invers

Inversen til en kvadratisk matrise A {\displaystyle A} er definert som den entydig bestemte matrisen A 1 {\displaystyle A^{-1}} som oppfyller ligningen[18]

A A 1 = A 1 A = I {\displaystyle AA^{-1}=A^{-1}A=I\,}

der I {\displaystyle I} er identitetsmatrisen.

Matrisen A {\displaystyle A} er invertibel hvis determinanten til A {\displaystyle A} er ulik null: det A 0 {\displaystyle \det A\neq 0} . I motsatt fall er matrisen singulær.

En (2×2)-matrise kan inverteres med formelen

A 1 = 1 det A [ a 22 a 12 a 21 a 11 ] = 1 a 11 a 22 a 12 a 21 [ a 22 a 12 a 21 a 11 ] {\displaystyle A^{-1}={1 \over \det A}{\begin{bmatrix}a_{22}&-a_{12}\\-a_{21}&a_{11}\end{bmatrix}}={\frac {1}{a_{11}a_{22}-a_{12}a_{21}}}{\begin{bmatrix}a_{22}&-a_{12}\\-a_{21}&a_{11}\end{bmatrix}}} .

Generalisert invers

For en generell matrise A {\displaystyle A} er en generalisert invers A {\displaystyle A^{-}} en matrise som oppfyller ligningen[18]

A A A = A {\displaystyle AA^{-}A=A\,} .

Dersom A {\displaystyle A} er en kvadratisk (n×n)-matrise med rang n, så er A = A 1 {\displaystyle A^{-}=A^{-1}} . Den generaliserte inversen er generelt ikke entydig.

Matrisetyper

Kvadratiske matriser

De følgende definisjonene gjelder for kvadratiske matriser.

  • En båndmatrise er en matrise der det eksisterer to positive heltall r {\displaystyle r} og s {\displaystyle s} slik at elementene er lik null for ( i j ) s {\displaystyle (i-j)\geq s} og for ( j i ) r {\displaystyle (j-i)\geq r} . Båndbredden til matrisen er ( r + s + 1 ) {\displaystyle (r+s+1)} .[19]
  • En diagonalmatrise er en matrise der alle elementene utenom diagonalen er lik null.[15] En diagonalmatrise kan skrives diag ( a 1 , a 2 , , a n ) {\displaystyle \operatorname {diag} (a_{1},a_{2},\dots ,a_{n})} , med elementene på diagonalen spesifisert.
  • En diagonaldominant matrise er en matrise der absoluttverdien av et diagonalelement er større eller lik summen av de andre elementene i en rekke.[20]
  • En hermitisk matrise er en matrise der A H = A {\displaystyle A^{H}=A} .[21][22]
  • En Hessenberg-matrise er en matrise der elementene i matrisen eller i den transponerte matrisen er lik null for i > j + 1 {\displaystyle i>j+1} .[23][24]
  • En Hilbert-matrise er en matrise der a i j = 1 / ( i + j 1 ) {\displaystyle a_{ij}=1/(i+j-1)} .[25]
  • En idempotent matrise er en matrise der A 2 = A {\displaystyle A^{2}=A} .[22]
  • En identitetsmatrise er en diagonalmatrise der alle diagonalelementene er lik 1. En vanlig notasjon for identitetsmatrisen er I {\displaystyle I} .[5]
  • En M-matrise eller en Minkowski-matrise er en ikke-singulær matrise der a i j 0 {\displaystyle a_{ij}\leq 0} for i j {\displaystyle i\neq j} og der også A 1 0 {\displaystyle A^{-1}\geq 0} .
  • En nilpotent matrise er en matrise der A k = 0 {\displaystyle A^{k}=0} for et heltall k {\displaystyle k} .[26]
  • En normalmatrise er en matrise der A H A = A A H {\displaystyle A^{H}A=AA^{H}} .[22]
  • En ortogonal matrise er en ikke-singulær matrise der A T = A 1 {\displaystyle A^{T}=A^{-1}} , det vil si A T A = I {\displaystyle A^{T}A=I} .[22][26]
  • En positiv-definit matrise er en matrise der produktet ( x H A x ) {\displaystyle (x^{H}Ax)} alltid er ikke-negativt. Tilsvarende er en negativt-definit matrise en matrise der produktet ( x H A x ) {\displaystyle (x^{H}Ax)} alltid er ikke-positivt.[22]
  • En singulær matrise er en matrise med determinant lik null. Tilsvarende er en regulær matrise eller ikke-singulær matrise en matrise med determinant ulik null.[27][28]
  • En skalarmatrise er en diagonalmatrise der alle diagonalelementene er samme tall c {\displaystyle c} , det vil si matrisen c I {\displaystyle cI} .[6]
  • En skjevsymmetrisk matrise er en matrise der A T = A {\displaystyle A^{T}=-A} .[29]
  • En Toeplitz-matrise er en matrise der elementene på en vilkårlig diagonal er reelle og like, det vil si at a i j = λ j i {\displaystyle a_{ij}=\lambda _{j-i}} og { λ j i } {\displaystyle \lbrace \lambda _{j-i}\rbrace } er reelle tall.[30]
  • En triangulærmatrise er en matrise der elementene over eller under diagonalen er lik null.[31]
  • En tridiagonal matrise er en matrise der elementene er lik null dersom | i j | > 1 {\displaystyle |i-j|>1} .[24]
  • En unitær matrise er en ikke-singulær matrise der A H = A 1 {\displaystyle A^{H}=A^{-1}} .[31]
  • En Vandermonde-matrise er en matrise der a i j = λ j i 1 {\displaystyle a_{ij}=\lambda _{j}^{i-1}} og { λ j } {\displaystyle \lbrace \lambda _{j}\,\rbrace } er reelle eller komplekse tall.[32]

Generelle matriser

  • En glissen matrise er en matrise der de fleste elementene er lik null.[24]
  • En nullmatrise er en matrise der alle elementene lik null. Nullmatrisen kan skrives som O {\displaystyle O} .[5]
  • En positiv matrise er en reell matrise der alle elementene er positive.[31]

Teori for kvadratiske matriser

Determinanter

Utdypende artikkel: Determinant

For en reell, kvadratisk matrise er determinanten et reelt tall, entydig bestemt av elementene i matrisen. Tilsvarende er determinanten til en kompleks matrise et komplekst tall. Presist kan en si at determinanten er en funksjon med definisjonsmengde lik mengden av reelle/komplekse, kvadratiske matriser og med verdimengde lik mengden av reelle/komplekse tall.

Dersom en uttrykker en matrise som en samling av rekker, A n n = ( A 1 , A 2 , , A n ) {\displaystyle A_{nn}=(A_{1},A_{2},\dots ,A_{n})} , så kan en definere determinanten som en funksjon f {\displaystyle f} med de følgende egenskapene:[33]

  • Funksjonen er homogen i hver rekke, det vil si at f ( , t A k , A n ) = t f ( , t A k , ) {\displaystyle f(\dots ,tA_{k},\dots A_{n})=tf(\dots ,tA_{k},\dots )} .
  • Funksjonen er additiv i hver rekke, det vil si at f ( , A k + C , A n ) = f ( , A k , ) + f ( , C , ) {\displaystyle f(\dots ,A_{k}+C,\dots A_{n})=f(\dots ,A_{k},\dots )+f(\dots ,C,\dots )} .
  • Funksjonen er lik null dersom to rekker er like.
  • Funksjonen er lik 1 for identitetsmatrisen.

Determinanten til matrisen A {\displaystyle A} betegnes som regel det A {\displaystyle \det A} eller det ( A ) {\displaystyle \det(A)} . Notasjonen | A | {\displaystyle |A|} brukes også, men det er lett å forveksle dette symbolet med absoluttverdien av matrisen. For absoluttverdien av en matrise brukes både | A | {\displaystyle |A|} og | A | a b s {\displaystyle |A|_{abs}} . Ønsker en å presisere elementene i matrisen, skrives determinanten vanligvis ved å omgi elementene med loddrette streker:

det A = | a 11 a 12 a 1 m a 21 a 22 a 2 m a n 1 a n 2 a n m | {\displaystyle {\text{det}}A={\begin{vmatrix}a_{11}&a_{12}&\cdots &a_{1m}\\a_{21}&a_{22}&\cdots &a_{2m}\\\vdots &\vdots &\ddots &\vdots \\a_{n1}&a_{n2}&\dots &a_{nm}\end{vmatrix}}}

Leibniz' formel uttrykket determinanten som en sum av n produkt.[trenger referanse] Hvert produkt inneholder n faktorer, der hver faktor er et matrise-element. I hvert produkt er hver rekke og hver søyle i matrisen representert med ett og kun ett element. For en (2×2)-matrise er determinanten gitt ved formelen

det [ a 11 a 12 a 21 a 22 ] = a 11 a 22 a 12 a 21 {\displaystyle \det {\begin{bmatrix}a_{11}&a_{12}\\a_{21}&a_{22}\end{bmatrix}}=a_{11}a_{22}-a_{12}a_{21}} .

Determinanter kan også beregnes ved hjelp av Laplace-ekspansjon.[34]

Determinanten kan brukes til å karakterisere egenskaper til matrisen og til den lineære transformasjonen som matrisen representerer. For eksempel vil en kvadratisk matrise med en determinant ulik null, ha definert en invers. Determinanten til en ortogonal matrise har alltid absoluttverdi lik 1.

Matrisespor

Sporet til en kvadratisk matrise A {\displaystyle A} skrives tr A {\displaystyle \operatorname {tr} A} og er lik summen av elementene på diagonalen:[14]

tr A = i = 1 n a i i {\displaystyle \operatorname {tr} A=\sum _{i=1}^{n}a_{ii}\,}

Notasjonen er avledet av det engelske begrepet «trace», som betyr spor.

Sporet er også lik summen av egenverdiene. En rekke generelle relasjoner gjelder for matrisespor:[35]

tr A = tr A T tr ( A n m B m n ) = tr ( B m n A n m ) {\displaystyle {\begin{alignedat}{2}\operatorname {tr} A&=\operatorname {tr} A^{T}\\\operatorname {tr} (A_{nm}B_{mn})&=\operatorname {tr} (B_{mn}A_{nm})\end{alignedat}}}

Egenverdier og egenvektorer

Utdypende artikkel: Egenvektor

Egenverdiene til en kvadratisk matrise er definert som nullpunktene til det karakteristiske polynomet, definert ved

p A ( λ ) = det ( λ I A ) {\displaystyle p_{A}(\lambda )={\text{det}}(\lambda I-A)\,} .

Her er I {\displaystyle I} enhetsmatrisen med samme dimensjon n som A {\displaystyle A} . Polynomet i λ {\displaystyle \lambda } har grad n, og tar en multiplisiteten med i betraktning vil matrisen ha n egenverdier.

Alternativt kan en definere en egenverdi som et tall λ {\displaystyle \lambda } som gjør at ligningen

A v = λ v {\displaystyle Av=\lambda v\,} .

har en løsning ulik nullvektoren. Løsningsvektoren v {\displaystyle v} kalles en egenvektor til A {\displaystyle A} .

Ifølge Caley-Hamiltons teorem tilfredsstiller matrisen A {\displaystyle A} sitt eget karakteristiske polynom, det vil si

p A ( A ) = 0 {\displaystyle p_{A}(A)=0\,} ,

der høyre side nå er nullmatrisen.

Teori for generelle matriser

Matriserang

Rangen til en matrise er det største antallet lineært uavhengige rekker eller kolonner i matrisen.[9]

Dersom rangen i en matrise er lik p {\displaystyle p} , så eksisterer det en kvadratisk, ikke-singulær undermatrise av dimensjon (p×p), mens eventuelle kvadratiske undermatriser av høyere dimensjon er singulære.

Rangen til en matrise endres ikke dersom det utføres en eller flere elementære operasjoner på matrisen.

Matrisenorm

Utdypende artikkel: Norm (matematikk)

Normen til en generell matrise A {\displaystyle A} er et ikke-negativ reelt tall A {\displaystyle \|A\|} definert med de følgende egenskapene[36]

  • A > 0 {\displaystyle \|A\|>0} hvis A 0 {\displaystyle A\neq 0} og A = 0 {\displaystyle \|A\|=0} hvis og bare hvis A = 0 {\displaystyle A=0\,} .
  • α A = | α | A {\displaystyle \|\alpha A\|=|\alpha |\|A\|} for alle skalarer α {\displaystyle \alpha \,} .
  • A + B A + B {\displaystyle \|A+B\|\leq \|A\|+\|B\|} for alle matriser A {\displaystyle A} og B {\displaystyle B} .

Det eksisterer en stort utvalg av matrisenormer, eksempelvis:

A 1 = max j i | a i j | A = max i j | a i j | A F = ( i j a i j 2 ) 1 / 2 = tr ( A T A ) 1 / 2 {\displaystyle {\begin{alignedat}{2}\|A\|_{1}&=\max _{j}\sum _{i}|a_{ij}|\\\|A\|_{\infty }&=\max _{i}\sum _{j}|a_{ij}|\\\|A\|_{F}&=\left(\sum _{i}\sum _{j}a_{ij}^{2}\right)^{1/2}=\operatorname {tr} (A^{T}A)^{1/2}\end{alignedat}}}

Den siste normen kalles Frobenius-normen og er mye brukt i numerisk analyse.

Lineære ligninger

Lineære algebraiske ligninger er ligninger på formen

A x = b , {\displaystyle Ax=b,\,}

der A {\displaystyle A} er en kjent koeffisientmatrise og b {\displaystyle b} en kjent vektor. Den ukjente x {\displaystyle x} er også en vektor. For et system med like mange ligninger som ukjente kan en formelt skrive en entydig løsning som

x = A 1 b . {\displaystyle x=A^{-1}b\,.}

Løsningen eksisterer dersom den inverse matrisen A 1 {\displaystyle A^{-1}} er definert, det vil si dersom matrisen er ikke-singulær. Lineære ligninger kan løses ved hjelp av Cramers regel eller ved Gauss-eliminasjon.

I det generelle tilfellet der A {\displaystyle A} er en ikke-kvadratisk matrise, så kan matriserang brukes til å studere om systemet har ingen, én eller mange løsninger.[37]

Lineære transformasjoner

Matriser er nært knyttet til lineære transformasjoner.[38] La f {\displaystyle f} være en lineær transformasjon mellom to endelig-dimensjonale vektorrom: f : V m V n {\displaystyle f:V_{m}\leftarrow V_{n}} . Anta at det er valgt basis for hver av de to vektorrommene. Da kan transformasjonen representeres på matriseform:

f ( x ) = A x . {\displaystyle f(x)=Ax\,.}

Matrisen A {\displaystyle A} har dimensjon (n×m). Hver kolonne i A {\displaystyle A} representerer transformasjonen av en basisvektor i V n {\displaystyle V_{n}} relativ til den valgte basisen i V m {\displaystyle V_{m}} . Elementene i A {\displaystyle A} kalles komponentene til transformasjonen, relativ til de to valgte basisene. Med valgte basiser for V n {\displaystyle V_{n}} og V m {\displaystyle V_{m}} er vektorrommet av matriser R n × m {\displaystyle \mathbb {R} ^{n\times m}} isomorft med vektorrommet av lineære transformasjoner fra V m {\displaystyle V_{m}} til V n {\displaystyle V_{n}} .[39]

Når matrisen A er ortogonal, sies også f {\displaystyle f} å være en ortogonal transformasjon. Slike transformasjoner har mange anvendelser, blant annet i geometri for å beskrive operasjoner som translasjon, rotasjon, speilvending, projeksjon og skalering av objekter i rommet.

To kvadratiske matriser A {\displaystyle A} og B {\displaystyle B} sies å være similære dersom det eksisterer en tredje invertibel matrise P {\displaystyle P} slik at[27]

A = P B P 1 {\displaystyle A=PBP^{-1}} .

Similære matriser er representasjoner av én og samme lineære transformasjon, men relativ til ulike basis-valg.[40]

Singulærverdier

Singulærverdiene til en matrise A {\displaystyle A} med dimensjon (n × m) er kvadratrøttene til egenverdiene til produktet A A H {\displaystyle AA^{H}} dersom n m {\displaystyle n\leq m} og til produktet A H A {\displaystyle A^{H}A} dersom m n {\displaystyle m\leq n} .

En matrise A {\displaystyle A} kan alltid skrives som et matriseprodukt

A = U D V H , {\displaystyle A=UDV^{H},\,}

der D {\displaystyle D} er en diagonalmatrise av singulærverdiene, og U {\displaystyle U} og V {\displaystyle V} er unitære matriser. Matriseproduktet U D V H {\displaystyle UDV^{H}} kalles singulærverdi-dekomponeringen til matrisen.

Numerisk matriseregning

Matriser inngår i svært mange praktiske problemstillinger, og det eksisterer derfor et rikt utvalg av metoder for matriser på datamaskiner. Slike metoder studeres i numerisk lineær algebra, et fagfelt i numerisk analyse. En rekke standard bibliotek med implementasjon av numeriske algoritmer for matriser er utviklet, slik som BLAS[41] og LAPACK[42].

Numeriske metoder for matriser omfatter både direkte metoder og iterative metoder. En vanlig direkte metode for å finne løsningen av mindre ligningssystem A x = b {\displaystyle Ax=b} , er Gauss-eliminasjon med pivotering. Dimensjonen til matriser som har opphav i løsning av differensialligninger kan bli svært stor, med mange millioner elementer. For ligningssystem med slike matriser brukes typisk iterative metoder, slik som konjugerte-gradient-metoden.

For å finne elementene i et produkt av to (n × n)-matriser numerisk, trenger en orden n 3 {\displaystyle n^{3}} operasjoner, dersom en bruker summasjonsformelen gitt over. Det har vært jaktet intenst på mer effektive metoder, og den gjeldede teoretiske hastighetsgrensen (mars 2021) for matrisemultiplikasjon er n 2.372873 {\displaystyle n^{2.372873}} .[43]

For å analyse egenskaper til en numeriske matrisemetode, brukes noen ganger kondisjonstallet til matrisen, definert ved[44]

κ ( A ) = A   A 1 {\displaystyle \kappa (A)=\|A\|\ \|A^{-1}\|}

Definisjonen avhenger av hvilken norm som brukes.

Generaliseringer

Tensorer

En matrise der elementene er tall kan representere en lineær transformasjon mellom to vektorrom, med valgte faste basiser i begge vektorrommene. Den lineære transformasjonen er i seg selv uavhengig av basisene. I mange problemstillinger i fysikk og geometri kan det være hensiktsmessig å la valgt basis endre seg i rommet, for eksempel i problemstillinger knyttet til en kuleflate. En tensor er en multilineær transformasjon som også har definert transformasjonsregler knyttet til endringer i basisvektorene.[45] Tilsvarende en lineær transformasjon kan en tensor representeres ved et multi-dimensjonal sett av komponenter, og tensoren kan i den forstand betraktes som en generalisering av en matrise. En matrise kan være en representasjon av en 2.ordens tensor.

Historie og etymologi

Bruk av matriser har en lang historie, med utgangspunkt i studiet av ligninger og determinanter. Arthur Caley er kalt «grunnleggeren av matriseteori»,[46] etter å ha publisert flere artikler i 1840-årene om emnet.[47] I disse artiklene brukte han både doble vertikale streker og forskjellige typer parenteser for å angi matriser.

Selve ordet «matrise» ble første gang bruk av James Joseph Sylvester i 1850.[48][46]

Stammen i det latinske ordet «matrix» er «mater» med betydning «mor». Ordet «matrix» ble i latin brukt som betegnelse på et avlsdyr av hunnkjønn, men gikk etter hvert over til å bety «livmor» og også «gravid kvinne». Gradvis fikk ordet også metaforisk betydning, brukt for å betegne «noe som er opphav til noe annet». En matrise i matematikk er opphav til geometriske og algebraiske transformasjoner.[49]

Se også

Litteratur

  • Helmut Lütkepohl (1996). Handbook of matrices. Chichester: John Wiley and Sons. ISBN 0-471-97015-8. 
  • Fr. Fabricius-Bjerre (1977). Lærebog i geometri. Analytisk geometri og lineær algebra. Lyngby, Danmark: Polyteknisk forlag. ISBN 87-502-0440-8. 
  • Gene Golub, Charles van Loan (1996). Matrix computations. Baltimore: Johns Hopkins University Press. ISBN 0-8018-5414-8. 
  • T.M. Apostol (1969). Calculus. II. New York: John Wiley & Sons. ISBN 0-471-00008-6. 
  • Ronald Douglas Milne (1980). Applied functional analysis, an introductory treatment. London: Pitman Publishing Limited. ISBN 0-273-08404-6. 

Referanser

  1. ^ E.J.Borowski, J.M.Borwein (1989). Dictionary of mathematics. Glasgow: Collins. s. 366-367. ISBN 0-00-434347-6. 
  2. ^ a b c d H. Lütkepohl: Handbook of matrices s.1
  3. ^ Fr. Fabricius-Bjerre: Lærebog i geometri.... s.4
  4. ^ Fr. Fabricius-Bjerre: Lærebog i geometri.... s.124
  5. ^ a b c d H. Lütkepohl: Handbook of matrices s.xiv
  6. ^ a b H. Lütkepohl: Handbook of matrices s.273
  7. ^ «Skew Diagonal». Wolfram MathWorld. Besøkt 8. februar 2022. 
  8. ^ «Superdiagonal». Wolfram MathWorld. Besøkt 8. februar 2022. 
  9. ^ a b Fr. Fabricius-Bjerre: Lærebog i geometri.... s.101ff
  10. ^ H. Lütkepohl: Handbook of matrices s.12
  11. ^ a b c d e H. Lütkepohl: Handbook of matrices s.3
  12. ^ T.M. Apostol: Calculus , Bind II s.54
  13. ^ H. Lütkepohl: Handbook of matrices s.8
  14. ^ a b H. Lütkepohl: Handbook of matrices s.4
  15. ^ a b c H. Lütkepohl: Handbook of matrices s.5
  16. ^ T.M. Apostol: Calculus , Bind II s.91
  17. ^ Fr. Fabricius-Bjerre: Lærebog i geometri.... s.2
  18. ^ a b H. Lütkepohl: Handbook of matrices s.7
  19. ^ H. Lütkepohl: Handbook of matrices s.227
  20. ^ H. Lütkepohl: Handbook of matrices s.238
  21. ^ Fr. Fabricius-Bjerre: Lærebog i geometri.... s.173
  22. ^ a b c d e H. Lütkepohl: Handbook of matrices s.10
  23. ^ H. Lütkepohl: Handbook of matrices s.250
  24. ^ a b c G.H.Golub, C.F.Van Loan: Matrix computations s.6
  25. ^ H. Lütkepohl: Handbook of matrices s.251
  26. ^ a b G.H.Golub, C.F.Van Loan: Matrix computations s.7
  27. ^ a b H. Lütkepohl: Handbook of matrices s.275
  28. ^ Fr. Fabricius-Bjerre: Lærebog i geometri.... s.7
  29. ^ a b H. Lütkepohl: Handbook of matrices s.156
  30. ^ G.H.Golub, C.F.Van Loan: Matrix computations s.125
  31. ^ a b c H. Lütkepohl: Handbook of matrices s.11
  32. ^ H. Lütkepohl: Handbook of matrices s.284
  33. ^ T.M. Apostol: Calculus , Bind II s.74
  34. ^ R. D. Milne: Applied functional analysis... s.79
  35. ^ H. Lütkepohl: Handbook of matrices s.41
  36. ^ G.H.Golub, C.F.Van Loan: Matrix computations s.14-15
  37. ^ Fr. Fabricius-Bjerre: Lærebog i geometri.... s.116ff
  38. ^ Fr. Fabricius-Bjerre: Lærebog i geometri.... s.159
  39. ^ T.M. Apostol: Calculus , Bind II s.52
  40. ^ R. D. Milne: Applied functional analysis... s.78
  41. ^ «BLAS (Basic Linear Algebra Subprograms)». netlib.org. Besøkt 11. februar 2022. 
  42. ^ «LAPACK - Linear Algebra PACKage». netlib.org. Besøkt 11. februar 2022. 
  43. ^ «Matrix Multiplication Inches Closer to Mythic Goal». Quanta Magazine. 23. mars 2021. Besøkt 11. februar 2022. 
  44. ^ G.H.Golub, C.F.Van Loan: Matrix computations s.25
  45. ^ Rutherford Aris (1989). Vectors, tensors and the basic equations of fluid mechanics. New York: Dover Publications. s. 28. ISBN 0-486-66110-5. 
  46. ^ a b Richard W. Feldmann Jr (1962). «Arthur Caley - founder of matrix theory». The Mathematical Teacher. 55 (6): 482–484. 
  47. ^ Florian Cajori (2007). A history of mathematical notations. II. Princeton, USA: Cosimo. s. 92-93. ISBN 978-1-60206-684-7. 
  48. ^ «Matrices and determinants». MacTutor. Besøkt 10. februar 2022. 
  49. ^ Steven Schwartzman (1994). The words of mathematics. An etymological dictionary of mathematical terms used in English. Washington, DC: The Mathematical Association of America. s. 132. ISBN 0-88385-511-9. 
  • v
  • d
  • r
Hovedområder i lineær algebra
Affin transformasjon · Basis · Determinant · Egenvektor · Lineært ligningssystem · Lineær transformasjon · Matrise · Norm · Skalar · Vektor · Vektorrom
Oppslagsverk/autoritetsdata
Store norske leksikon · Store Danske Encyklopædi · Encyclopædia Britannica · MathWorld · GND · LCCN · BNF · BNF (data) · NKC · BNE