Le matrici
Nel post sugli spazi vettoriali abbiamo citato un particolare spazio vettoriale: \(\mathbb{K}^{m \times n}\), lo spazio delle matrici \(m \times n\). Se hai seguito un corso di geometria analitica avrai sicuramente sentito parlare delle matrici, che sono fondamentali nello studio degli spazi vettoriali. Basti pensare al post sul cambiamento di base: esso viene attuato praticamente con una matrice. In generale a tutte le trasformazioni lineari viene associata una matrice e la loro struttura di spazio vettoriale garantisce loro importanti proprietà.
In questo post esploreremo la teoria sul calcolo matriciale. Se non l'hai ancora fatto, ti consiglio di dare una letta al post sui campi e sugli spazi vettoriali.
Sommario
- Cos'è una matrice?
- Operazioni con le matrici
- Somma
- Moltiplicazione per elemento
- Moltiplicazione tra matrici
- Somma diretta
- Spazio delle matrici
Cos'è una matrice?
Intuitivamente abbiamo tutti in mente cosa significhi "matrice". Al suono di questa parola pensiamo subito a un reticolo. Ebbene, in matematica la matrice è molto somigliante a una tabella in cui sono disposti oggetti matematici su \(m\) righe e \(n\) colonne.
Dato un insieme \(G\), una matrice \(A\) può essere vista come una funzione
$$ A: \{1,...,m\}\times \{1,...,n\} \longrightarrow G $$
Questa funzione associa a una coppia di numeri naturali \((i,j)\) un elemento dell'insieme \(G\). Spesso si indica con \(G^{m \times n}\) l'insieme delle matrici a elementi in \(G\) con \(m\) righe e \(n\) colonne.
La matrice \(A\) può essere rappresentata graficamente come una tabella ordinata dei suoi elementi, indicando con \([A]_{i,j}\) l'elemento \(A(i,j) \in G\) per brevità di notazione:
$$ A = \left[ \begin{array}{cccc} [A]_{1,1} & [A]_{1,2} & \dotsb & [A]_{1,n} \\ [A]_{2,1} & [A]_{2,2} & \dotsb & [A]_{2,n} \\ \vdots & \vdots & \ddots & \vdots \\ [A]_{m,1} & [A]_{m,2} & \dotsb & [A]_{m,n} \end{array} \right] \in G^{m \times n} $$
Alcune definizioni utili:
- Una matrice può essere considerata come un insieme di vettori colonna. La colonna \(i\)-esima si indica con \(\text{Col}_i (A)\) e la matrice si può scrivere come $$ A = \left[ \begin{array}{cccc} \text{Col}_1 (A) & \text{Col}_2 (A) & \dotsb & \text{Col}_n (A) \end{array} \right] $$Analogamente se ne può indicare l'\(i\)-esima riga con \(\text{Row}_i (A)\) e scrivere la matrice come $$ A = \left[ \begin{array}{c} \text{Row}_1 (A) \\ \text{Row}_2 (A) \\ \vdots \\ \text{Row}_n (A) \end{array} \right] $$
- Un vettore è considerabile come una matrice \(m \times 1\). Nel linguaggio delle matrici, una matrice \(m \times 1\) si chiama vettore colonna o matrice colonna mentre una matrice \(1 \times n\) si chiama vettore riga o matrice riga.
- Gli elementi \([A]_{i,i}\) formano la diagonale principale.
Per esempio, in questa matrice \(5 \times 4\) a valori complessi evidenzio in blu una colonna, in rosso una riga e in verde la diagonale principale:
\( \quad \left[ \begin{array}{cccc} 1 & \color{blue}{3} & 5 & \pi \\ e & \color{blue}{5} & 32 & 9 \\ \sqrt{2} & \color{blue}{33} & 21 & \dfrac 45 \\ 89 & \color{blue}{\pi^e} & 42 & 0 \\ 22 & \color{blue}{\sqrt[e]{4}} & 1+i & \cos 2 \end{array} \right], \)\( \quad \left[ \begin{array}{cccc} 1 & 3 & 5 & \pi \\ e & 5 & 32 & 9 \\ \color{red}{\sqrt{2}} & \color{red}{33} & \color{red}{21} & \color{red}{\dfrac 45} \\ 89 & \pi^e & 42 & 0 \\ 22 & \sqrt[e]{4} & 1+i & \cos 2 \end{array} \right], \)\( \quad \left[ \begin{array}{cccc} \color{green}{1} & 3 & 5 & \pi \\ e & \color{green}{5} & 32 & 9 \\ \sqrt{2} & 33 & \color{green}{21} & \dfrac 45 \\ 89 & \pi^e & 42 & \color{green}{0} \\ 22 & \sqrt[e]{4} & 1+i & \cos 2 \end{array} \right] \)
D'ora in avanti studieremo le matrici i cui elementi appartengono a un gruppo \(G\) o a un campo \(\mathbb{K}\).
Operazioni con le matrici
Vediamo subito le operazioni definite con le matrici.
Trasposizione
Dato l'insieme \(G^{m \times n}\) l'insieme delle matrici a elementi in \(G\) con \(m\) righe e \(n\) colonne, la trasposizione è un'operazione sulle matrici di questo insieme che può essere vista come una funzione
$$ \cdot^T : G^{m \times n} \longrightarrow G^{n \times m} $$
tale che, data la matrice \(A\) a elementi in \(G\),
$$ [A^T]_{i,j} = [A]_{j,i} $$
In parole povere, le posizioni di riga e colonna vengono invertite per ogni elemento.
Ad esempio:
\( \quad \left[ \begin{array}{cc} a_{11} & a_{12} \\ a_{21} & a_{22} \\ a_{31} & a_{32} \\ a_{41} & a_{42} \end{array} \right]^T = \left[ \begin{array}{cccc} a_{11} & a_{21} & a_{31} & a_{41} \\ a_{12} & a_{22} & a_{32} & a_{42} \end{array} \right] \)
Somma
Dato un gruppo additivo \((G,+)\) e due matrici \(A,B \in G^{m\times n}\), si definisce la somma come la matrice \(A+B \in \mathbb{K}^{m\times n}\) i cui elementi sono le somme degli elementi:
$$ \forall A,B \in G^{m\times n} \mspace{7mu} A+B \in G^{m\times n} : [A+B]_{i,j} := [A]_{i,j}+[B]_{i,j} $$
Attenzione! Perché la somma sia definita, le matrici \(A\) e \(B\) devono avere le stesse dimensioni, cioè lo stesso numero di righe e di colonne.
L'elemento neutro è la matrice nulla \(0 \in G^{m \times n} \):
\( \quad 0 = \left[ \begin{array}{cccc} 0 & 0 & \dotsb & 0 \\ 0 & 0 & \dotsb & 0 \\ \vdots & \vdots & \ddots & \vdots \\0 & 0 & \dotsb & 0 \end{array} \right] \)
Se il gruppo è abeliano, allora la somma è commutativa:
$$ \forall A,B \in G^{m\times n} \mspace{7mu} A+B=B+A $$
Se il gruppo è associativo, allora anche la somma delle matrici è associativa:
$$ \forall A,B,C \in G^{m\times n} \mspace{7mu} (A+B)+C=A+(B+C) $$
La differenza tra le matrici \(A\) e \(B\) si definisce tramite la somma e il prodotto per l'elemento \(-1\):
$$ A-B := A+(-1)B $$
Un esempio con matrici in \(\mathbb{Z}\):
\( \quad \left[ \begin{array}{ccc} 1 & 2 &5 \\ -3 & 6 & 1 \end{array} \right] + \left[ \begin{array}{ccc} 4 & 4 & 7 \\ 2 & 11 & -5 \end{array} \right] = \left[ \begin{array}{ccc} 1 + 4 & 2+4 &5+7 \\ -3+2 & 6+11 & 1-5 \end{array} \right] = \left[ \begin{array}{ccc} 5 & 6 & 12 \\ -1 & 17 & -4 \end{array} \right] \)
Moltiplicazione per elemento
Dati un gruppo moltiplicativo \((G,\cdot) \) una matrice \(A \in G^{m\times n}\) e un elemento \(g \in G\), si definisce la moltiplicazione della matrice \(A\) per \(g\) la matrice \(g A \in G^{m\times n}\) i cui elementi sono gli elementi di \(A\) moltiplicati per \(g\):
$$ \forall A \in G^{m\times n} \mspace{3mu} \forall g \in G \mspace{7mu} g A \in G^{m\times n} : [g A]_{i,j} := g[A]_{i,j} $$
Analogamente si può definire la matrice \(Ag \in G^{m\times n}\):
$$ \forall A \in G^{m\times n} \mspace{3mu} \forall g \in G \mspace{7mu} Ag \in G^{m\times n} : [Ag]_{i,j} := [A]_{i,j}g $$
L'elemento neutro è \( g = 1_G\).
Se il gruppo è abeliano, allora il prodotto è commutativo:
$$ \forall A \in G^{m\times n} \mspace{3mu} \forall g \in G \mspace{7mu} Ag=gA $$
Se il gruppo è associativo, allora il prodotto è pseudoassociativo:
$$ \forall A,B \in G^{m\times n} \mspace{3mu} \forall g \in G \mspace{7mu} (gA)B=A(gB) $$
Se il gruppo è distributivo, allora il prodotto è pseudodistributivo:
$$ \forall A,B \in G^{m\times n} \mspace{3mu} \forall g \in G \mspace{7mu} g(A+B)=gA+gB $$
Un esempio con matrici in \(\mathbb{Z}\):
\( \quad 3 \left[ \begin{array}{ccc} 1 & 2 &5 \\ -3 & 6 & 1 \end{array} \right] = \left[ \begin{array}{ccc} 3\cdot1 & 3\cdot2 &3\cdot5 \\ 3\cdot(-3) & 3\cdot6 & 3\cdot1 \end{array} \right] = \left[ \begin{array}{ccc} 3 & 6 &15 \\ -9 & 18 & 3 \end{array} \right] \)
Moltiplicazione tra matrici
Dati un anello \(K\) e due matrici \(A \in K^{m\times n}\) e \(B \in K^{n\times p}\), si definisce la moltiplicazione tra le due matrici come la matrice \(AB\) i cui elementi sono le somme degli elementi:
$$ \forall A \in \mathbb{K}^{m\times n}\mspace{3mu} \forall B \in \mathbb{K}^{n\times p} \mspace{7mu} AB \in \mathbb{K}^{m\times p} : [AB]_{i,j} = \text{Row}_i (A) \times \text{Col}_j (B) := \sum\limits_{k=1}^n [A]_{i,k}[B]_{k,j} $$
Attenzione! Perché il prodotto sia definito, \(A\) deve avere tante righe quante sono le colonne di \(B\).
L'operazione \(\text{Row}_i (A) \times \text{Col}_j (B) \) si chiama prodotto riga per colonna.
È possibile definire la potenza \(p\)-esima come la moltiplicazione della matrice per \(p\) volte:
$$ A^p = \prod\limits_{k=1}^p A $$
L'elemento neutro è la matrice identità \(I_n \in K^{n \times n}\), i cui elementi sulla diagonale principale sono \(1\) e i restanti \(0\):
\( \quad I_n = \left[ \begin{array}{cccc} 1 & 0 & \dotsb & 0 \\ 0 & 1 & \dotsb & 0 \\ \vdots & \vdots & \ddots & \vdots \\0 & 0 & \dotsb & 1 \end{array} \right] \)
La moltiplicazione per la matrice nulla restituisce la matrice nulla:
\( \forall A \in K^{n \times n} \mspace{7mu} 0A = A0 = 0\)
In generale la moltiplicazione tra matrici
- non è commutativa: $$ AB \neq BA $$
- è distributiva: $$ \forall A \in \mathbb{K}^{m\times n}\mspace{3mu} \forall B,C \in \mathbb{K}^{n\times p} \mspace{7mu} A(B+C) = AB+AC \wedge (B+C)A = BA+CA $$
- è associativa: $$ \forall A \in \mathbb{K}^{m\times n} \mspace{3mu} \forall B \in \mathbb{K}^{n\times p} \mspace{3mu} \forall C \in \mathbb{K}^{p \times k} \mspace{7mu} (AB)C = A(BC) $$
Un esempio con matrici in \(\mathbb{Z}\):
\( \quad \left[ \begin{array}{ccc} 1 & 2 &5 \\ -3 & 6 & 1 \end{array} \right] \left[ \begin{array}{cc} 1 & 2 \\ 5 & -3 \\ -4 & 3 \end{array} \right] \)\( \quad = \left[ \begin{array}{cc} 1\cdot1 + 2\cdot 5 + 5 \cdot (-4) & 1\cdot 2 + 2\cdot (-3) + 5 \cdot 3 \\ (-3) \cdot 1 + 6 \cdot 5 + 1 \cdot (-4) & (-3) \cdot 2 + 6 \cdot (-3) + 1 \cdot 3 \end{array} \right] = \left[ \begin{array}{cc} -9 & 11 \\ 23 & -21 \end{array} \right] \)
Somma diretta
Come esiste una somma diretta per gli spazi vettoriali, possiamo definire una somma diretta anche per le matrici. Sia \(G\) un gruppo con elemento neutro \(0\), sia \(A \in G^{m \times n}\) e sia \(B \in G^{p \times q}\).
\( A = \left[ \begin{array}{cccc} [A]_{1,1} & [A]_{1,2} & \dotsb & [A]_{1,n} \\ [A]_{2,1} & [A]_{2,2} & \dotsb & [A]_{2,n} \\ \vdots & \vdots & \ddots & \vdots \\ [A]_{m,1} & [A]_{m,2} & \dotsb & [A]_{m,n} \end{array} \right],\)\(B = \left[ \begin{array}{cccc} [B]_{1,1} & [B]_{1,2} & \dotsb & [B]_{1,q} \\ [B]_{2,1} & [B]_{2,2} & \dotsb & [B]_{2,q} \\ \vdots & \vdots & \ddots & \vdots \\ [B]_{p,1} & [B]_{p,2} & \dotsb & [B]_{p,q} \end{array} \right] \)
La somma diretta \(A \oplus B\) si definisce come la matrice
$$ A \oplus B = \left[ \begin{array}{cc} A & 0 \\ 0 & B \end{array} \right] = \left[ \begin{array}{cccccc} [A]_{1,1} & \dotsb & [A]_{1,n} & 0 & \dotsb & 0 \\ \vdots & \ddots & \vdots & \vdots & \ddots & \vdots \\ [A]_{m,1} & \dotsb & [A]_{m,n} & 0 & \dotsb & 0 \\ 0 & \dotsb & 0 & [B]_{1,1} & \dotsb & [B]_{1,q} \\ \vdots & \ddots & \vdots & \vdots & \ddots & \vdots \\ 0 & \dotsb & 0 & [B]_{p,1} & \dotsb & [B]_{p,q} \end{array} \right] $$
Attenzione! La matrice sopra può non essere quadrata. Le sue dimensioni sono \((m+p) \times (n+q)\).
In generale la somma diretta di \(k\) matrici \(A_1,...,A_k\) si scrive
$$ \bigoplus\limits_{j=1}^k A_j = \left[ \begin{array}{cccc} A_1 & & & \\ & A_2 & & \\ & & \ddots & \\ & & & A_k \end{array} \right] $$
Spazio delle matrici
Come già affermato nell'introduzione, le matrici di \(m\) righe e \(n\) colonne i cui elementi appartengono a un campo \(\mathbb{K}\) formano uno spazio vettoriale denotato con \(\mathbb{K}^{m\times n}\).
Esercizio 1: riesci a dimostrarlo?
Commenti
Posta un commento