Matrice di trasformazione

In matematica, e più precisamente in algebra lineare, la matrice di trasformazione, anche detta matrice associata ad una trasformazione o matrice rappresentativa dell'operatore rispetto alle sue basi, è la matrice che rappresenta una trasformazione lineare fra spazi vettoriali rispetto ad una base per ciascuno degli spazi.

Fissata una base per il dominio e una per il codominio, ogni trasformazione lineare è descrivibile tramite una matrice M {\displaystyle M} nel modo seguente:

y = M x {\displaystyle \mathbf {y} =M\mathbf {x} \,\!}

dove x {\displaystyle \mathbf {x} } è il vettore colonna delle coordinate di un punto del dominio rispetto alla base del dominio e y {\displaystyle \mathbf {y} } è il vettore colonna delle coordinate dell'immagine, mentre il prodotto M x {\displaystyle M\mathbf {x} } è il prodotto righe per colonne.

Definizione

Siano V {\displaystyle V} e W {\displaystyle W} due spazi vettoriali su un campo K {\displaystyle K} di dimensione finita, e T : V W {\displaystyle T:V\to W} una applicazione lineare. Siano:

B = ( v 1 , , v n ) C = ( w 1 , , w m ) {\displaystyle B=(\mathbf {v} _{1},\ldots ,\mathbf {v} _{n})\quad C=(\mathbf {w} _{1},\ldots ,\mathbf {w} _{m})}

due basi rispettivamente per V {\displaystyle V} e W {\displaystyle W} .

La matrice M {\displaystyle M} associata a T {\displaystyle T} nelle basi B {\displaystyle B} e C {\displaystyle C} è la matrice m × n {\displaystyle m\times n} avente nella i {\displaystyle i} -esima colonna le coordinate del vettore T ( v i ) {\displaystyle T(\mathbf {v} _{i})} rispetto alla base C {\displaystyle C} :[1]

M = ( M 1 | | M n ) {\displaystyle M={\Bigg (}M^{1}{\Bigg |}\cdots {\Bigg |}M^{n}{\Bigg )}}

dove la colonna M i {\displaystyle M^{i}} è l'immagine T ( v i ) {\displaystyle T(\mathbf {v} _{i})} dell' i {\displaystyle i} -esimo vettore della base di partenza B {\displaystyle B} scritta attraverso le coordinate rispetto alla base di arrivo C {\displaystyle C} .[2]

Gli elementi m i , j {\displaystyle m_{i,j}} di M {\displaystyle M} sono quindi tali che:

T ( v 1 ) = m 1 , 1 w 1 + + m m , 1 w m {\displaystyle T(\mathbf {v} _{1})=m_{1,1}\mathbf {w} _{1}+\dots +m_{m,1}\mathbf {w} _{m}}
T ( v 2 ) = m 1 , 2 w 1 + + m m , 2 w m {\displaystyle T(\mathbf {v} _{2})=m_{1,2}\mathbf {w} _{1}+\dots +m_{m,2}\mathbf {w} _{m}}
{\displaystyle \dots }
T ( v n ) = m 1 , n w 1 + + m m , n w m {\displaystyle T(\mathbf {v} _{n})=m_{1,n}\mathbf {w} _{1}+\dots +m_{m,n}\mathbf {w} _{m}}

e si ha:

( T ( v 1 ) | | T ( v n ) ) = ( w 1 | | w m ) ( M 1 | | M n ) {\displaystyle {\Bigg (}T(\mathbf {v} _{1}){\Bigg |}\cdots {\Bigg |}T(\mathbf {v} _{n}){\Bigg )}=(\mathbf {w} _{1}|\cdots |\mathbf {w} _{m}){\Bigg (}M^{1}{\Bigg |}\cdots {\Bigg |}M^{n}{\Bigg )}}

In modo equivalente si può scrivere:

[ T ( v ) ] C = M [ v ] B {\displaystyle [T(\mathbf {v} )]_{C}=M[\mathbf {v} ]_{B}}

Dove le parentesi quadre indicano le coordinate rispetto alla base relativa.

La corrispondenza biunivoca definita fra applicazioni lineari e matrici è un isomorfismo fra lo spazio vettoriale delle applicazioni lineari da V {\displaystyle V} in W {\displaystyle W} e lo spazio delle matrici m × n {\displaystyle m\times n} :[3]

Hom ( V , W ) M ( m , n ) {\displaystyle \operatorname {Hom} (V,W)\to M(m,n)}

Tale isomorfismo dipende dalle basi scelte per entrambi gli spazi.

Composizione di applicazioni lineari

Nella rappresentazione di applicazioni attraverso le matrici la composizione di funzioni si traduce nell'usuale prodotto fra matrici. Si considerino le applicazioni lineari:

T : V W U : W Z {\displaystyle T:V\to W\quad U:W\to Z}

Siano M U {\displaystyle M_{U}} e M T {\displaystyle M_{T}} le rispettive matrici rappresentative rispetto a tre basi dei relativi spazi. Si ha:

M U T = M U M T {\displaystyle M_{U\circ T}=M_{U}M_{T}}

ovvero la matrice associata alla composizione è il prodotto delle matrici associate a U {\displaystyle U} e a T {\displaystyle T} .[4]

Dette B {\displaystyle B} , C {\displaystyle C} basi rispettivamente di V {\displaystyle V} e Z {\displaystyle Z} si ha:

[ ( U T ) ( v ) ] C = M U M T [ v ] B {\displaystyle [({U\circ T})(\mathbf {v} )]_{C}=M_{U}M_{T}[\mathbf {v} ]_{B}}

Endomorfismi

Endomorfismo rappresentato da una matrice. Il determinante della matrice è -1: questo implica che l'endomorfismo è invertibile e inverte l'orientazione del piano. L'angolo orientato infatti viene mandato nell'angolo con orientazione opposta.

In presenza di un endomorfismo T : V V {\displaystyle T:V\to V} è naturale scegliere la stessa base B {\displaystyle B} in partenza ed in arrivo. Sia B = ( v 1 , , v n ) {\displaystyle B=(\mathbf {v} _{1},\ldots ,\mathbf {v} _{n})} tale base e sia M = ( m i j ) {\displaystyle M=(m_{ij})} la matrice associata a T {\displaystyle T} rispetto alla base B {\displaystyle B} . Si ha allora:[3]

T ( v j ) = i = 1 n m i j v i {\displaystyle T(\mathbf {v} _{j})=\sum _{i=1}^{n}m_{ij}\mathbf {v} _{i}}

In particolare, M {\displaystyle M} è una matrice quadrata n × n {\displaystyle n\times n} .

Molte proprietà dell'endomorfismo possono essere lette attraverso la matrice rappresentativa:

  • T {\displaystyle T} è l'identità se e solo se M {\displaystyle M} è la matrice identica.
  • T {\displaystyle T} è la funzione costantemente nulla se e solo se M {\displaystyle M} è la matrice nulla.
  • T {\displaystyle T} è biunivoca se e solo se M {\displaystyle M} è invertibile, ovvero se ha determinante det M {\displaystyle \det M} diverso da zero.
  • T {\displaystyle T} preserva l'orientazione dello spazio se det M > 0 {\displaystyle \det M>0} , mentre la inverte se det M < 0. {\displaystyle \det M<0.}

Altre proprietà più complesse delle applicazioni lineari, come la diagonalizzabilità, possono essere più facilmente studiate attraverso la rappresentazione matriciale.

Matrici simili

Lo stesso argomento in dettaglio: Similitudine fra matrici.

Due matrici quadrate A {\displaystyle A} e B {\displaystyle B} sono simili quando esiste una matrice invertibile M {\displaystyle M} tale che:[5][6]

  A = M 1 B M {\displaystyle \ A=M^{-1}BM}

In particolare, la matrice identità e la matrice nulla sono simili solo a se stesse.

Le matrici simili rivestono notevole importanza, dal momento che due matrici simili rappresentano lo stesso endomorfismo rispetto a due basi diverse.[7] Se B {\displaystyle B} e C {\displaystyle C} sono due basi dello spazio vettoriale V {\displaystyle V} , dato un endomorfismo T {\displaystyle T} su V {\displaystyle V} si ha:

[ T ] B = M 1 [ T ] C M   {\displaystyle [T]_{B}=M^{-1}[T]_{C}M\ }

La matrice M {\displaystyle M} è la matrice di cambiamento di base dalla base B {\displaystyle B} alla base C {\displaystyle C} .

Esempi

  • Nel piano cartesiano, indicando con ( x , y ) {\displaystyle (x,y)} un punto generico, la trasformazione lineare T ( x , y ) = ( x , y ) {\displaystyle T(x,y)=(x,y)} viene rappresentata rispetto ad una qualsiasi base dalla matrice identità di ordine 2. Una tale trasformazione è conosciuta anche come funzione identità.
  • Nel piano cartesiano, sia T {\displaystyle T} la riflessione rispetto alla bisettrice del I e III quadrante. Le matrici associate a T {\displaystyle T} usando rispettivamente la base canonica e la base B = ( ( 1 , 1 ) , ( 1 , 1 ) ) {\displaystyle B=((1,1),(1,-1))} sono:
( 0 1 1 0 ) ( 1 0 0 1 ) {\displaystyle {\begin{pmatrix}0&1\\1&0\end{pmatrix}}\qquad {\begin{pmatrix}1&0\\0&-1\end{pmatrix}}}
  • Nel piano la rotazione di un angolo θ in senso antiorario intorno all'origine è lineare e definita da x = x cos θ y sin θ {\displaystyle x'=x\cos \theta -y\sin \theta } e y = x sin θ + y cos θ {\displaystyle y'=x\sin \theta +y\cos \theta } . In forma matriciale si esprime con:
[ x y ] = [ cos θ sin θ sin θ cos θ ] [ x y ] {\displaystyle {\begin{bmatrix}x'\\y'\end{bmatrix}}={\begin{bmatrix}\cos \theta &-\sin \theta \\\sin \theta &\cos \theta \end{bmatrix}}{\begin{bmatrix}x\\y\end{bmatrix}}}
Analogamente per una rotazione in senso orario attorno all'origine la funzione è definita da x = x cos θ + y sin θ {\displaystyle x'=x\cos \theta +y\sin \theta } e y = x sin θ + y cos θ {\displaystyle y'=-x\sin \theta +y\cos \theta } ed in forma matriciale corrisponde alla trasposta della precedente matrice, ovvero:
[ x y ] = [ cos θ sin θ sin θ cos θ ] [ x y ] {\displaystyle {\begin{bmatrix}x'\\y'\end{bmatrix}}={\begin{bmatrix}\cos \theta &\sin \theta \\-\sin \theta &\cos \theta \end{bmatrix}}{\begin{bmatrix}x\\y\end{bmatrix}}}
  • La funzione T : R 2 [ x ] R 2 [ x ] {\displaystyle T:\mathbb {R} ^{2}[x]\to \mathbb {R} ^{2}[x]} dallo spazio dei polinomi di grado al più due in sé, che associa ad un polinomio p {\displaystyle p} la sua derivata T ( p ) = p {\displaystyle T(p)=p'} è lineare. La matrice associata rispetto alla base B = ( 1 , x , x 2 ) {\displaystyle B=(1,x,x^{2})} è:
( 0 1 0 0 0 2 0 0 0 ) {\displaystyle {\begin{pmatrix}0&1&0\\0&0&2\\0&0&0\end{pmatrix}}}

Note

  1. ^ S. Lang, Pag. 106.
  2. ^ Hoffman, Kunze, Pag. 87.
  3. ^ a b Hoffman, Kunze, Pag. 88.
  4. ^ Hoffman, Kunze, Pag. 90.
  5. ^ S. Lang, Pag. 115.
  6. ^ Hoffman, Kunze, Pag. 94.
  7. ^ Hoffman, Kunze, Pag. 92.

Bibliografia

  • Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992, ISBN 88-339-5035-2.
  • (EN) Kenneth Hoffman, Ray Kunze, Linear Algebra, 2ª ed., Englewood Cliffs, New Jersey, Prentice - Hall, inc., 1971, ISBN 0-13-536821-9.
  • F. Odetti, M. Raimondo, Elementi di Algebra Lineare e Geometria Analitica, ECIG, 1992, ISBN 88-7545-717-4.

Voci correlate

Altri progetti

Altri progetti

  • Wikimedia Commons
  • Collabora a Wikimedia Commons Wikimedia Commons contiene immagini o altri file sulla matrice di trasformazione

Collegamenti esterni

  • (EN) The Matrix Page Practical examples in POV-Ray
  • (EN) Reference page - Rotation of axes
  • (EN) Linear Transformation Calculator, su idomaths.com.
  • (EN) Transformation Applet - Generate matrices from 2D transformations and vice versa.
  Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica