Cos'è il determinante? Tutto ciò che devi sapere
"determinante", molte volte avrai sentito e visto questa parola nei corsi di geometria analitica, di meccanica razionale, di analisi, etc. Saresti in grado di spiegare di che si tratta? Se la risposta è "no", allora sei nel post giusto!
Il determinante è una parte molto importante della matematica e se ne fa largo uso nella maggior parte delle scienze matematiche. Conoscere la sua definizione e le sue proprietà deve far parte del bagaglio culturale di qualsiasi studente di ingegneria, matematica o fisica. Nonostante la lunghezza di questo post, che si prefigge l'obiettivo di essere un mega-riassunto, alcune dimostrazioni sono tralasciate e, se sei interessato a conoscerle, potrai trovarle nei prossimi post, in cui tratterò gli argomenti in dettaglio.
Sommario
- Definizione
- Significato geometrico
- Definizione per assiomi
- Determinante di una matrice \(2 \times 2\)
- Definizione costruttiva - la formula di Leibniz
- Determinante di una matrice \(3 \times 3\)
- Primo teorema di Laplace
- Determinante di matrice \(4 \times 4\)
- Proprietà
- Matrice trasposta
- Teorema di Binet
- Matrice triangolare
- Matrice diagonale o diagonalizzabile
- Immagini
Definizione
Significato geometrico
Sia \(\mathbb{K}\) un campo e sia \(\mathbb{K}^{n \times n}\) lo spazio vettoriale delle matrici quadrate di dimensione \(n\times n\). Una matrice \(A\) di questo spazio può essere vista come l' "unione" di \(n\) vettori riga o \(n\) vettori colonna e questi vettori possono essere visti a loro volta come gli spigoli di un parallelepipedo. Esistono diversi modi per definire e calcolare il determinante della matrice \(A\), ma il suo significato geometrico si individua nel volume orientato \(n\)-dimensionale del parallelepipedo di cui i vettori riga (o colonna) sono parte.
Ad esempio, la matrice
\( \quad A = \left[ \begin{array}{cc} 3 & 2 \\ 0 & 8 \end{array} \right] \)
avrà determinante
\( \det A = 3 \cdot 8 = 24 \)
Corrispondente all'area del parallelogramma i cui vertici sono i punti \((0,0),(3,0),(2,8)\) e \((3+2,0+8) = (5,8)\). Se stai pensando: "abbiamo parlato di parallelepipedi, ma il parallelogramma non è un parallelepipedo", in realtà il parallelogramma è un parallelepipedo \(2\)-dimensionale.
Se hai letto bene, ho parlato di volume orientato. Perché "orientato"? Cosa significa che un volume è "orientato"? Dalle scuole medie il professore ti ha detto che il volume è sempre positivo. Ebbene, questo non è del tutto vero. Infatti, possiamo assegnare un segno al volume che dipenda dalla base degli \(n\) vettori riga (o colonna) di \(A\). Due basi con la stessa orientazione avranno determinante (e, quindi, volume del parallelepipedo formato) con lo stesso segno, mentre due basi con orientazioni diverse daranno determinanti con segno opposto.
Attenzione! Dirò un'ovvietà, ma potresti non averci fatto caso: si può calcolare il determinante solo di una matrice quadrata!
Definizione per assiomi
Ora che abbiamo stabilito cosa sia il determinante, iniziamo a darne una definizione formale. In un primo momento possiamo redigere una definizione per assiomi.
Definizione 1: Il determinante \(\det : \mathbb{K}^{n \times n} \rightarrow \mathbb{K} \) è l'unica funzione tale che
- il determinante della matrice identità \(I_n\) è \(1\) $$ \det I_n = 1 $$
- date le matrici \(A,B \in \mathbb{K}^{n \times n}\) e lo scalare \(\alpha \in \mathbb{K}\),
- Se \(B\) si ottiene scambiando due righe o due colonne di \(A\), allora \(\det B = - \det A \).
- Se \(B\) si ottiene moltiplicando una riga o una colonna di \(A\) per \(\alpha\), allora \(\det B = \alpha \det A \).
- Se \(B\) si ottiene sommando una riga o una colonna di \(A\) per un'altra riga o colonna di \(A\) rispettivamente, allora \(\det B = \det A \).
Avrai subito riconosciuto che gli ultimi tre punti sono le mosse dell'algoritmo di Gauss.
Il primo assioma è intuitivo: le colonne della matrice identità, qualunque sia la sua dimensione, sono i versori della base canonica, pertanto il parallelepipedo \(n\)-dimensionale ha tutti gli spigoli di lunghezza unitaria. Conseguentemente, il suo volume è \(\det I_n = 1^n = 1 \).
Analizziamo ora i punti del secondo assioma. Uno scambio di colonne consiste sostanzialmente in una permutazione dispari dei vettori della base, ottenendo una base a diversa orientazione, il che significa che dovrò cambiare il segno al determinante, dato che l'orientamento del parallelepipedo \(n\)-dimensionale sarà diverso. Il ragionamento è analogo se si considerano i vettori riga.
La moltiplicazione di una colonna o di una riga per uno scalare \(\alpha\) produce un aumento (o un accorciamento se \(|\alpha| <1\) della norma del vettore e, di conseguenza, del volume del parallelepipedo.
L'ultimo punto del secondo assioma è meno intuitivo e per spiegarlo ti chiedo di tornare alla matrice
\( \quad A = \left[ \begin{array}{cc} 3 & 2 \\ 0 & 8 \end{array} \right] \)
Ora, scriviamo la matrice \(B\) sommando la prima riga con la seconda:
\( \quad B = \left[ \begin{array}{cc} 3 + 0 & 2 + 8 \\ 0 & 8 \end{array} \right] = \left[ \begin{array}{cc} 3 & 10 \\ 0 & 8 \end{array} \right] \)
Calcoliamone ora il determinante come area del parallelogramma :
\( \quad \det B = 3 \cdot 8 = 18 \)
\(18\) è anche il determinante di \(A\). è un caso? "Il caso non esiste" diceva Maestro Oogway e aveva ragione, almeno riguardo al determinante. Infatti, sommando una riga per l'altra abbiamo ottenuto un parallelogramma della stessa area. Vediamo perché nel prossimo paragrafo.
A volte il determinante di una matrice \(A\) viene indicato con la notazione \(|A|\).
Determinante di una matrice \(2 \times 2\)
Abbiamo detto che il determinante di una matrice \(2 \times 2\) è l'area \(S\) del parallelogramma formato dai vettori riga o colonna.
\( \quad \det \left[ \begin{array}{cc} a_{11} & a_{12} \\ a_{21} & a_{22} \end{array} \right] = S \)
Scriviamo qui i vettori colonna:
\( \quad \mathbf{v}_1 = \left[ \begin{array}{c} a_{11} \\ a_{21} \end{array} \right], \mathbf{v}_2 = \left[ \begin{array}{c} a_{12} \\ a_{22} \end{array} \right] \)
Usiamo la Figura 1 per chiarire la nostra situazione.
Figura 1 |
L'obiettivo è trovare l'area azzurra. Per farlo sottraiamo all'area del rettangolo con vertici opposti i vettori \(\mathbf{0}\) e \(\mathbf{v}_1+\mathbf{v}_2\) due volte le aree dei triangoli viola e arancione sommata all'area del rettangolo verde (vedi Figura 2).
Figura 2 |
\( \begin{array}{rl} S & = (a_{21}+a_{11})(a_{12}+a_{22}) - 2 \left(\color{purple}{\dfrac{a_{21} a_{22}}{2}} + \color{orange}{\dfrac{a_{11} a_{12}}{2}} + \color{green}{a_{21} a_{12}} \right) \\ & = a_{21}a_{12}+a_{11}a_{12} + a_{21}a_{22}+a_{11}a_{22} - a_{21} a_{22} - a_{11} a_{12} - 2 a_{21} a_{12} \\ & = a_{11}a_{22} - a_{21} a_{12} \end{array} \)
In conclusione:
$$ \det \left[ \begin{array}{cc} a_{11} & a_{12} \\ a_{21} & a_{22} \end{array} \right] = a_{11}a_{22} - a_{21} a_{12} $$
Cosa succede quando scambiamo le colonne \(\mathbf{v}_1\) e \(\mathbf{v}_2\)? Come capirai la superficie del parallelogramma rimane invariata, ma cambia l'orientazione della base \(\{\mathbf{v}_1,\mathbf{v}_2\}\), quindi cambia il segno del determinante. Essenzialmente diventa un'area "negativa":
\( \quad \begin{array}{rl} \det \left[ \begin{array}{cc} a_{12} & a_{11} \\ a_{22} & a_{21} \end{array} \right] & = a_{12}a_{21} - a_{22}a_{11} = - (a_{11}a_{22} - a_{21} a_{12}) \\ & = - \det \left[ \begin{array}{cc} a_{11} & a_{12} \\ a_{21} & a_{22} \end{array} \right] \end{array} \)
Cosa succede, invece, quando sommiamo una riga con un'altra? Vediamolo con un paio di calcoli. Sommiamo, ad esempio, la seconda colonna alla prima:
\( \quad \begin{array}{rl} \det \left[ \begin{array}{cc} a_{11} & a_{12} \\ a_{21} + a_{11} & a_{22} + a_{12} \end{array} \right] & = a_{11}(a_{22} + a_{12}) - (a_{21} + a_{11}) a_{12} \\ & = a_{11}a_{22} + a_{11}a_{12} - a_{12}a_{21} - a_{12}a_{11} \\ & = a_{11}a_{22} - a_{12}a_{21} \\ & = \det \left[ \begin{array}{cc} a_{11} & a_{12} \\ a_{21} & a_{22} \end{array} \right] \end{array} \)
Quando si sommano le righe, viene sommata e sottratta un'area \(a_{11}a_{12}\), corrispondente a due volte l'area del triangolo arancione in Figura 2, quindi l'area risultante resta invariata. Lo stesso accade per la somma di colonne.
Definizione costruttiva - la formula di Leibniz
Il determinante di una matrice quadrata \(A \in \mathbb{K}^{n \times n}\) può essere definito tramite la formula di Leibniz:
$$ \det A := \sum\limits_{\sigma \in S_n} \text{sgn}(\sigma) \prod\limits_{i=1}^n [A]_{i,\sigma (i)} $$
dove
- \(\sigma\) è una permutazione dell'insieme \(\{1,2,...,n\}\) dei primi \(n\) numeri naturali (escluso lo \(0\));
- \(S_n\) è l'insieme delle permutazioni \(\sigma\);
- \(\text{sgn}(\sigma)\) è il segno della permutazione \(\sigma\);
- \(\sigma(i)\) è l'\(i\)-esimo elemento della permutazione \(\sigma\).
Attenzione! La formula di Leibniz è una definizione: non ha bisogno di essere dimostrata.
È subito chiaro che la complessità computazionale del determinante con la formula di Leibniz cresce molto rapidamente al crescere di \(n\). Il numero di addendi nella sommatoria è pari alla cardinalità di \(S_n\), ovvero \(n!\).
Se non hai capito come si applica la formula, non preoccuparti: vediamo subito un esempio nel prossimo paragrafo.
Esercizio 1: prova a calcolare il determinante della matrice \(2 \times 2\) con la formula di Leibniz. Se hai difficoltà, dai un'occhiata al prossimo paragrafo.
Esercizio 2: la formula di Leibniz rispetta gli assiomi definiti nel paragrafo precedente?
Determinante di una matrice \(3 \times 3\)
Sia
\( \quad A = \left[ \begin{array}{ccc} [A]_{1,1} & [A]_{1,2} & [A]_{1,3} \\ [A]_{2,1} & [A]_{2,2} & [A]_{2,3} \\ [A]_{3,1} & [A]_{3,2} & [A]_{3,3} \end{array} \right] \in \mathbb{K}^{3 \times 3} \)
Calcoliamone il determinante con la formula di Leibniz:
\( \quad \det A := \sum\limits_{\sigma \in S_3} \text{sgn}(\sigma) \prod\limits_{i=1}^3 [A]_{i,\sigma (i)} \)
\( \quad \det A := \sum\limits_{\sigma \in S_3} \text{sgn}(\sigma) [A]_{1,\sigma (1)}[A]_{2,\sigma (2)}[A]_{3,\sigma (3)} \)
- \(\sigma = [1,2,3]\). La permutazione è ottenuta per \(0\) scambi, quindi è pari.
- \(\sigma = [2,1,3]\). La permutazione è ottenuta per \(1\) scambio, quindi è dispari.
- \(\sigma = [1,3,2]\). La permutazione è ottenuta per \(1\) scambio, quindi è dispari.
- \(\sigma = [2,3,1]\). La permutazione è ottenuta per \(2\) scambi, quindi è pari.
- \(\sigma = [3,1,2]\). La permutazione è ottenuta per \(2\) scambi, quindi è pari.
- \(\sigma = [3,2,1]\). La permutazione è ottenuta per \(1\) scambio, quindi è dispari.
Attenzione! Preferisco chiarirlo prima di proseguire: quelli che abbiamo appena trovato sono tutti e i soli elementi dell'insieme \(S_3\).
Ora possiamo esplicitare la sommatoria:
\( \quad \begin{array}{rl} \det A & := \text{sgn}([1,2,3]) [A]_{1,\sigma (1)}[A]_{2,\sigma (2)}[A]_{3,\sigma (3)} \\ & + \text{sgn}([2,1,3]) [A]_{1,\sigma (1)}[A]_{2,\sigma (2)}[A]_{3,\sigma (3)} \\ & + \text{sgn}([1,3,2]) [A]_{1,\sigma (1)}[A]_{2,\sigma (2)}[A]_{3,\sigma (3)} \\ & + \text{sgn}([2,3,1]) [A]_{1,\sigma (1)}[A]_{2,\sigma (2)}[A]_{3,\sigma (3)} \\ & + \text{sgn}([3,1,2]) [A]_{1,\sigma (1)}[A]_{2,\sigma (2)}[A]_{3,\sigma (3)} \\ & + \text{sgn}([3,2,1]) [A]_{1,\sigma (1)}[A]_{2,\sigma (2)}[A]_{3,\sigma (3)} \end{array} \)
Ottimo! Manca un ultimo passaggio. Esplicitiamo il segno della permutazione e sostituiamo quei \(\sigma(1)\), \(\sigma(2)\) e \(\sigma(3)\) con il primo, il secondo e il terzo elemento della permutazione rispettivamente.
In conclusione si ottiene:
$$ \begin{array}{rl} \det A & = [A]_{1,1}[A]_{2,2}[A]_{3,3} - [A]_{1,2}[A]_{2,1}[A]_{3,3} \\ & - [A]_{1,1}[A]_{2,3}[A]_{3,2} + [A]_{1,2}[A]_{2,3}[A]_{3,1} \\ & + [A]_{1,3}[A]_{2,1}[A]_{3,2} - [A]_{1,3}[A]_{2,2}[A]_{3,1} \end{array} \tag{1}\label{eq1} $$
Salta subito all'occhio la difficoltà computazionale per arrivare al risultato e la complessità di quest'ultimo, nonostante stiamo parlando di una matrice \(3 \times 3\). Insomma, una formula raccapricciante, è vero, ma tranquillo! Per le matrici \(3 \times 3\) esiste una scorciatoia, chiamata regola di Sarrus, che ti aiuta a ricordare questa formula.
Primo teorema di Laplace
Non si può parlare di determinante senza citare il primo teorema di Laplace (anche detto sviluppo di Laplace). La prima parte del teorema di Laplace garantisce una formula efficace per matrici piccole o contenenti molti zeri.
Data una matrice \(A \in \mathbb{K}^{n \times n}\), definiamo per ogni \(i,j \in \{1,...,n\}\)
- \(A_{ij}\) la matrice che si ottiene cancellando l'\(i\)-esima riga e la \(j\)-esima colonna dalla matrice \(A\);
- \(\det A_{ij}\) minore complementare dell'elemento \([A]_{i,j}\);
- \((-1)^{i+j} \det A_{ij}\) cofattore o complemento algebrico dell'elemento \([A]_{i,j}\).
Se è tutto chiaro, arriviamo ora alla formula vera e propria. Fissata una riga \(i\)-esima a scelta,
$$ \det A = \sum\limits_{j=1}^n (-1)^{i+j} [A]_{i,j} \det A_{ij} $$
oppure, equivalentemente, fissata una colonna \(j\)-esima,
$$ \det A = \sum\limits_{i=1}^n (-1)^{i+j} [A]_{i,j} \det A_{ij} $$
So che a prima vista sembra complicata. Analizziamo la prima formula e vediamo da cos'è composta.
\( \det A = \underbrace{\sum\limits_{j=1}^n}_{\begin{array}{c} \text{somma sulle} \\ \text{colonne} \end{array}} \mspace{3mu} \underbrace{[A]_{i,j}}_{\begin{array}{c} \text{elemento della} \\ \text{riga } i \text{-esima e} \\ \text{colonna } j \text{-esima} \end{array}} \mspace{3mu} \underbrace{(-1)^{i+j} \det A_{ij}}_{ \begin{array}{c} \text{cofattore dell'elemento} \\ \text{in posizione } (i,j) \end{array} } \)
Vediamone subito un'applicazione nel prossimo paragrafo
Determinante di matrice \(4 \times 4\)
Sia
\( \quad A = \left[ \begin{array}{cccc} [A]_{1,1} & [A]_{1,2} & [A]_{1,3} & [A]_{1,4} \\ [A]_{2,1} & [A]_{2,2} & [A]_{2,3} & [A]_{2,4} \\ [A]_{3,1} & [A]_{3,2} & [A]_{3,3} & [A]_{3,4} \\ [A]_{4,1} & [A]_{4,2} & [A]_{4,3} & [A]_{4,4} \end{array} \right] \in \mathbb{K}^{4 \times 4} \)
Innanzitutto, scegliamo una riga (prendiamo la prima, ad esempio, fissando \(i=1\)) e calcoliamo il determinante con lo sviluppo di Laplace:
\( \quad \det A = \sum\limits_{j=1}^4 (-1)^{1+j} [A]_{1,j} \det A_{1j} \)
Esplicitiamo la sommatoria:
\( \quad \begin{array}{rl} \det A & = (-1)^{1+1} [A]_{1,1} \det A_{11} + (-1)^{1+2} [A]_{1,2} \det A_{12} \\ & + (-1)^{1+3} [A]_{1,3} \det A_{13} + (-1)^{1+4} [A]_{1,4} \det A_{14} \end{array} \)
Vediamo come si calcolano i minori complementari. Per ottenere la matrice \(A_{11}\) bisogna eliminare la prima riga e la prima colonna dalla matrice \(A\):
\( \quad [A]_{1,1} = \left[ \begin{array}{ccc} [A]_{2,2} & [A]_{2,3} & [A]_{2,4} \\ [A]_{3,2} & [A]_{3,3} & [A]_{3,4} \\ [A]_{4,2} & [A]_{4,3} & [A]_{4,4} \end{array} \right] \)
Il determinante di questa matrice \(3 \times 3\) sappiamo quanto vale. L'abbiamo calcolato nella formula \(\eqref{eq1}\):
\( \quad \begin{array}{rl} \det A_{11} & = [A]_{2,2}[A]_{3,3} [A]_{4,4} - [A]_{2,3}[A]_{3,2}[A]_{4,4} \\ & - [A]_{2,2}[A]_{3,4}[A]_{4,3} + [A]_{2,3}[A]_{3,4}[A]_{4,2} \\ & + [A]_{2,4}[A]_{3,2}[A]_{4,3} - [A]_{2,4}[A]_{3,3}[A]_{4,2} \end{array} \)
Allo stesso modo si calcolano gli altri minori complementari, ottenendo:
$$ \begin{array}{rl} \det A & = [A]_{1,1} ([A]_{2,2}[A]_{3,3} [A]_{4,4} - [A]_{2,3}[A]_{3,2}[A]_{4,4} - [A]_{2,2}[A]_{3,4}[A]_{4,3} + [A]_{2,3}[A]_{3,4}[A]_{4,2} + [A]_{2,4}[A]_{3,2}[A]_{4,3} - [A]_{2,4}[A]_{3,3}[A]_{4,2}) \\ & - [A]_{1,2} ([A]_{2,1}[A]_{3,3} [A]_{4,4} - [A]_{2,3}[A]_{3,1}[A]_{4,4} - [A]_{2,1}[A]_{3,4}[A]_{4,3} + [A]_{2,3}[A]_{3,4}[A]_{4,1} + [A]_{2,4}[A]_{3,1}[A]_{4,3} - [A]_{2,4}[A]_{3,3}[A]_{4,1}) \\ & + [A]_{1,3} ([A]_{2,1}[A]_{3,2} [A]_{4,4} - [A]_{2,2}[A]_{3,1}[A]_{4,4} - [A]_{2,1}[A]_{3,4}[A]_{4,2} + [A]_{2,2}[A]_{3,4}[A]_{4,1} + [A]_{2,4}[A]_{3,1}[A]_{4,2} - [A]_{2,4}[A]_{3,2}[A]_{4,1}) \\ & - [A]_{1,4} ([A]_{2,1}[A]_{3,2} [A]_{4,3} - [A]_{2,2}[A]_{3,1}[A]_{4,3} - [A]_{2,1}[A]_{3,3}[A]_{4,2} + [A]_{2,2}[A]_{3,3}[A]_{4,1} + [A]_{2,3}[A]_{3,1}[A]_{4,2} - [A]_{2,3}[A]_{3,2}[A]_{4,1}) \end{array} $$
Si tratta di una formula molto lunga, ma, come si vede da una prima analisi, segue la forma che si raggiungerebbe con la formula di Leibniz. Guarda, ad esempio, il primo termine \([A]_{1,1} [A]_{2,2}[A]_{3,3} [A]_{4,4}\). Questo corrisponde alla prima permutazione \(\sigma=[1,2,3,4]\), ottenuta per \(0\) scambi, il che spiega il suo segno positivo. Il secondo termine \([A]_{1,1}[A]_{2,3}[A]_{3,2}[A]_{4,4}\), invece, è quello ottenuto con la permutazione dispari \(\sigma = [1,3,2,4]\), \(1\) scambio (di \(2\) e \(3\)), ed ecco spiegato il segno negativo.
Esercizio 3: gli altri termini corrispondono a quelli che si otterrebbero con Leibniz? Prova a calcolare il determinante della matrice \(A\) con la formula di Leibniz.
Proprietà
Matrice trasposta
Teorema 1: il determinante è invariante rispetto alla trasposizione: $$ \forall A \in \mathbb{K}^{n\times n} \mspace{10mu} \det A^T = \det A $$
Questo primo risultato importante ha un spiegazione piuttosto semplice. Supponiamo di calcolare il determinante con lo sviluppo di Laplace secondo fissando la prima riga. Dopo aver trasposto la matrice, basta calcolare il determinante fissando la prima colonna per ottenere gli stessi identici calcoli. In formule:
\( \quad \begin{array}{rl} \det A & = \sum\limits_{j=1}^n (-1)^{1+j} [A]_{1,j} \det A_{1j} \\ & = \sum\limits_{i=1}^n (-1)^{1+i} [A]_{i,1} \det A_{i1} \\ & = \sum\limits_{i=1}^n (-1)^{1+i} [A^T]_{1,i} \det A^T_{1i} = \det A^T \end{array} \)
Il teorema di Binet
Oltre alle proprietà che definiscono il determinante, la prima proprietà che segnalo è il teorema di Binet. Questo teorema si traduce nella seguente formula:
$$ \forall A,B \in \mathbb{K}^{n \times n} \mspace{10mu} \det(AB)=(\det A)(\det B) $$
e ci dice che il determinante della moltiplicazione di matrici è pari alla moltiplicazione dei determinanti delle matrici. Questo teorema è importantissimo e permette di dimostrare altre proprietà del determinante.
La prima tra queste è il determinante della matrice inversa, pari all'inverso del determinante della matrice. Infatti, se una matrice \(A \in \mathbb{K}^{n \times n}\) è invertibile, allora esiste per definizione una matrice \(A^{-1} \in \mathbb{K}^{n \times n} \) tale che \(AA^{-1} = I_n\). Pertanto:
\( \quad (\det A)(\det A^{-1}) = \det(AA^{-1}) = \det I_n = 1 \)
Ne si conclude che
Teorema 2: il determinante di una matrice invertibile è diverso da \(0\) e vale $$ \det A^{-1} = \dfrac{1}{\det A} $$
Quindi, se una matrice ha determinante nullo, sappiamo subito che non è invertibile.
Presentiamo qua altri due importanti corollari del teorema di Binet .
Teorema 3: il determinante è invariante per similitudine di matrici.
Questo perché, se \(A \in \mathbb{K}^{n \times n} \) e \(B \in \mathbb{K}^{n \times n} \) sono simili, allora per definizione esiste una matrice \(P \in \mathbb{K}^{n \times n}\) invertibile tale che \(A = PBP^{-1} \). Quindi:
\( \quad \det A = \det ( PBP^{-1} ) = (\det P)(\det B)(\det P^{-1}) = (\det P)(\det B)(\det P)^{-1} = \det B \)
Teorema 4: il determinante di una matrice \(A \in \mathbb{K}^{n \times n} \) moltiplicata per uno scalare \(\alpha \in \mathbb{K} \) vale $$ \det (\alpha A) = \alpha^n \det A $$
Questo fatto è una diretta conseguenza del secondo assioma che definisce il determinante. Moltiplicare per \(\alpha\) la matrice \(A\) corrisponde a moltiplicare per \(\alpha\) tutte le \(n\) righe (o le \(n\) colonne) di \(A\).
Teorema 5: il determinante di una matrice ortogonale \(Q \in \mathbb{K}^{n \times n} \) vale \(1\) o \(-1\).
Se una matrice \(Q\) è ortogonale, per definizione la sua trasposta \(Q^T\) coincide con l'inversa \(Q^{-1}\). Dunque:
\( \quad 1 = \det I_n = \det (QQ^{-1}) = \det (QQ^T) = (\det Q) \left( \det Q^T \right) = (\det Q)^2 \)
da cui segue che
\( \quad \det Q = \pm 1\)
Matrice triangolare
Teorema 6: il determinante di una matrice triangolare \(T \in \mathbb{K}^{n \times n} \) è pari al prodotto degli elementi sulla diagonale principale. $$ \det T = \prod\limits_{i=1}^n [T]_{i,i} $$
Dimostriamo il Teorema 6 per induzione su \(n\). Per \(n=1\) (passo zero) la matrice \(T\) è composta dal solo elemento \([T]_{1,1}\), quindi il suo determinante è pari quest'unico elemento di \(T\):
\(\det T = \det [[T]_{1,1}] = [T]_{1,1} \)
Quindi il teorema è verificato per \(n=1\).
Supponiamo che il teorema sia verificato per \(n\), ovvero che una matrice \(T\) nella forma
\( \quad T = \left[ \begin{array}{ccccc} [T]_{1,1} & [T]_{1,2} & \dotsb & [T]_{1,n-1} & [T]_{1,n} \\ 0 & [T]_{2,2} & \dotsb & [T]_{2,n-1} & [T]_{2,n} \\ \vdots & \vdots & \ddots & \vdots & \vdots \\ 0 & 0 & \dotsb & [T]_{n-1,n-1} & [T]_{n-1,n} \\ 0 & 0 & \dotsb & 0 & [T]_{n,n} \end{array} \right] \)
abbia determinante pari a
\( \quad \det T = \prod\limits_{i=1}^n [T]_{i,i} \)
e calcoliamo il determinante di una matrice triangolare \(T\) di dimensione \((n+1)\times (n+1)\). Con lo sviluppo di Laplace rispetto alla prima riga si ottiene
\( \quad \det T = \sum\limits_{j=1}^{n+1} (-1)^{1+j} [T]_{1,j} \det T_{1j} \)
Estraiamo dalla sommatoria il primo addendo:
\( \quad \det T = [T]_{1,1} \det T_{11} + \sum\limits_{j=2}^{n+1} (-1)^{1+j} [T]_{1,j} \det T_{1j} \)
Ora, poni attenzione al prossimo passaggio.
- \(\det T_{11}\) è il determinante della matrice \(T\) a cui sono state tolte la prima riga e la prima colonna. \(T_{11}\) è, dunque, una matrice \(n \times n\) e per l'ipotesi induttiva il suo determinante è $$ \det T_{11} = \prod\limits_{i=2}^{n+1} [T]_{i,i} $$
- \( \det T_{1j}\) è il determinante della matrice \(T\) a cui sono state tolte la prima riga e la \(j\)-esima colonna. \(T_{1j}\) è, dunque, una matrice \(n \times n\) con la prima colonna composta da soli \(0\) e il suo determinante è (per ipotesi induttiva) $$ \det T_{1j} = \prod\limits_{\begin{array}{cc} i=1 \\ i \neq j \end{array}}^{n+1} [T]_{i+1,i} = \underbrace{[T]_{2,1}}_{=0} \prod\limits_{\begin{array}{cc} i=2 \\ i \neq j \end{array}}^{n+1} [T]_{i+1,i} = 0 $$
In conclusione:
$$ \det T = [T]_{1,1} \prod\limits_{i=2}^{n+1} [T]_{i,i} + \sum\limits_{j=2}^{n+1} (-1)^{1+j} [T]_{1,j} 0 = \prod\limits_{i=1}^{n+1} [T]_{i,i} $$
QED
Matrice diagonale o diagonalizzabile
Dal Teorema 6 segue che il determinante di una matrice diagonale \(\text{diag}(\alpha_1 ,... ,\alpha_n) \in \mathbb{K}^{n\times n}\) sia pari al prodotto dei suoi elementi \(\alpha_1 ,... ,\alpha_n \in \mathbb{K}\):
$$ \det \text{diag}(\alpha_1 ,... ,\alpha_n) = \prod\limits_{i=1}^n \alpha_i $$
Nota che da questo teorema segue che il determinante della matrice identità \(I_n\) sia \(1\).
Combinando questo risultato col Teorema 3, possiamo scrivere il settimo teorema:
Teorema 7: il determinante di una matrice diagonalizzabile \(A \in \mathbb{K}^{n\times n}\) è pari al prodotto degli autovalori \(\lambda_1 ,... ,\lambda_n\). $$ \det A = \prod\limits_{i=1}^{n} \lambda_i $$
Ciò è vero perché se \(A\) è diagonalizzabile, allora è simile alla matrice diagonale \(D\) con gli autovalori \(\lambda_1 ,... ,\lambda_n\) sulla diagonale principale e per il Teorema 3 \(\det A = \det D\). Infine, per il Teorema 6 \(\det D = \prod_{i=1}^n \lambda_i\).
Immagini
Figure 1 e 2: generate con Microsoft OneNote e Paint.
Commenti
Posta un commento