Il teorema di Poisson
Il teorema di Poisson è un importante risultato della geometria analitica che trova molte applicazioni nella meccanica classica. Grazie a questo teorema si introduce formalmente il concetto di velocità angolare, ovvero la rapidità con la quale un sistema di riferimento tridimensionale ruota rispetto a un altro.
Prerequisiti:
- derivata
- prodotto vettoriale
- applicazione lineare
- matrice ortogonale
- operatore antisimmetrico
Sommario
Il teorema [ torna al menu ]
Teorema di Poisson: per ogni \(\vec{\mathbf{u}}(t) \in \mathbb{E}^3\) funzione del tempo \(t \in [t_0,t_1] \subseteq \mathbb{R}\) la cui norma euclidea sia costante esiste uno e un solo vettore \(\vec{\mathbf{\omega}}(t) \in \mathbb{E}^3 \) tale che
$$ \dfrac{d \vec{\mathbf{u}}}{dt} = \vec{\mathbf{\omega}} \times \vec{\mathbf{u}} $$
Figura 1: rappresentazione grafica del vettore \(\vec{\omega}\). |
Attenzione: il vettore \(\vec{\mathbf{\omega}}\) non dipende dal vettore \(\vec{\mathbf{u}}\).
Un corollario di questo teorema è che la velocità \(\vec{\mathbf{v}}_P\) di ogni punto \(P\) di un corpo rigido \(\mathcal{R} \subseteq \mathcal{E}_3\) (dove \(\mathcal{E}_3\) è lo spazio affine euclideo tridimensionale) può essere espressa in funzione della velocità \(\vec{\mathbf{v}}_O\) di un centro di riduzione \(O \in \mathcal{R}\):
\( \quad \vec{\mathbf{v}}_P = \vec{\mathbf{v}}_O + \vec{\mathbf{\omega}} \times (P-O) \)
dove \(P-O \in \mathbb{E}^3 \) è la posizione di \(P\) rispetto al polo di riduzione \(O\) nella notazione di Grassmann. Infatti, grazie all'ipotesi di rigidità del corpo, il vettore \(P-O\) ha norma costante e il teorema di Poisson è applicabile. In tal caso \(\vec{\omega}\) si chiama velocità angolare del rigido.
Dimostrazione [ torna al menu ]
Sia la norma del vettore \(\vec{\mathbf{u}} \in \mathbb{E}^3\) costante. Tale ipotesi si esprime con la condizione
\( \quad \dfrac{d \| \vec{\mathbf{u}} \|}{dt} = 0 \)
Se la norma \(\| \vec{\mathbf{u}} \|\) è costante, anche il suo quadrato lo è. In tal caso, si ha
\( \quad 0 = \dfrac{d \| \vec{\mathbf{u}} \|^2}{dt} = \dfrac{d \left( \vec{\mathbf{u}} \cdot \vec{\mathbf{u}} \right) }{dt} = 2 \dfrac{d \vec{\mathbf{u}} }{dt} \cdot \vec{\mathbf{u}} \)
da cui seguono due possibilità:
- \( \vec{\mathbf{u}} \) è costante nel tempo o nullo;
- \(\frac{d \vec{\mathbf{u}} }{dt}\) e \(\vec{\mathbf{u}}\) sono ortogonali.
Nel caso 1. il vettore \(\vec{\mathbf{\omega}}\) è il vettore nullo \(\vec{\mathbf{0}}\), che esiste ed è unico; quindi, il teorema è verificato.
Nel caso 2., dato che la norma del vettore \(\vec{\mathbf{u}}\) è costante, si ha
$$ \| \vec{\mathbf{u}}(t) \| = \| \vec{\mathbf{u}}(t_0) \| \mspace{7mu} \forall t \in [t_0,t_1] \tag{1} \label{eq1} $$
Definiamo l'applicazione \(\mathbf{A}: \mathbb{E}^3 \rightarrow \mathbb{E}^3\) come segue:
\( \quad \vec{\mathbf{u}}(t) = \mathbf{A} \left( \vec{\mathbf{u}}(t_0) \right) \)
L'applicazione \(\mathbf{A}\) rispetta il seguente lemma:
Lemma 1: \(\mathbf{A}\) è un'applicazione lineare, ovvero:
$$ \mathbf{A} \left( \lambda \vec{\mathbf{u}}(t_0) + \mu \vec{\mathbf{v}}(t_0) \right) = \lambda \mathbf{A} \left( \vec{\mathbf{u}}(t_0) \right) + \mu \mathbf{A} \left( \vec{\mathbf{v}}(t_0) \right) $$
Dimostrazione:
\( \quad \mathbf{A} \left( \lambda \vec{\mathbf{u}}(t_0) + \mu \vec{\mathbf{v}}(t_0) \right) = \lambda \vec{\mathbf{u}}(t) + \mu \vec{\mathbf{v}}(t) = \lambda \mathbf{A} \left( \vec{\mathbf{u}}(t_0) \right) + \mu \mathbf{A} \left( \vec{\mathbf{v}}(t_0) \right) \)
\( \quad \blacksquare \)
Ricapitolando, \(\mathbf{A}\) è un'applicazione
- lineare, per il Lemma 1;
- ortogonale, per la proprietà \( \eqref{eq1}\);
Dunque, esiste una matrice \(A \in \mathbb{E}^{3,3}\) tale che
\( \quad \mathbf{A} \left( \vec{\mathbf{u}}(t_0) \right) = A \vec{\mathbf{u}}(t_0) \)
Ora, introduciamo un secondo lemma, denotando con un pallino la derivata rispetto al tempo:
Lemma 2: la matrice \(\dot{A}A^T\) è antisimmetrica, ovvero
$$ \dot{A}A^T = - \left(\dot{A}A^T \right)^T $$
Dimostrazione: essendo \(A\) ortogonale, \(A\) è invertibile e la sua trasposta coincide con l'inversa:
\( \quad AA^T = I_3 \)
con \(I_3\) la matrice identità dello spazio euclideo tridimensionale \(\mathbb{E}_3\). Derivando da entrambe le parti rispetto al tempo l'ultima uguaglianza si ottiene l'identità
\( \quad \dot{A}A^T + A \dot{A}^T = 0_3\)
con \(0_3\) la matrice nulla \(3 \times 3\). Pertanto:
\( \quad \dot{A}A^T = - A \dot{A}^T = - \left(\dot{A}A^T \right)^T \)
\( \quad \blacksquare \)
Tornando alla dimostrazione del teorema, possiamo concludere che
\( \quad \dfrac{d \vec{\mathbf{u}} }{dt} = \dot{A} \vec{\mathbf{u}}(t_0) = \dot{A} A^T \vec{\mathbf{u}}(t) \)
Poiché la matrice \(\dot{A}A^T\) è antisimmetrica per il Lemma 2, esiste ed è unico [1] il vettore \(\vec{\mathbf{\omega}}\) tale che
\( \quad \vec{\mathbf{\omega}} \times \vec{\mathbf{u}}(t) = \dot{A} A^T \vec{\mathbf{u}}(t) = \dfrac{d \vec{\mathbf{u}} }{dt} \mspace{30mu} \forall \vec{\mathbf{u}} \in \mathbb{E}^3 \)
QED
Riferimenti [ torna al menu ]
[1] Skew-symmetric matrix - Wikipedia
https://it.wikipedia.org/wiki/Relazione_di_Poisson
Immagini [ torna al menu ]
Figura 1: generato con Microsoft Paint.
Commenti
Posta un commento