You are on page 1of 242

Appunti di Geometria e Algebra Lineare

Docente: Fulvio Zuanni

Università degli Studi dell’Aquila


Facoltà di Ingegneria
A.A. 2010/11
Indice

1. Relazioni 4
2. Funzioni 6
3. Relazioni di equivalenza e partizioni 9
4. Operazioni, gruppi e campi 11
5. Spazi vettoriali reali 13
6. Quattro esempi di spazi vettoriali reali 14
7. Dipendenza ed indipendenza lineare 34
8. Dipendenza ed indipendenza lineare: il caso dei vettori liberi 38
9. Sottospazi 42
10. Basi e dimensione di uno spazio vettoriale 49
11. Rango di una matrice 58
12. Rango di una matrice: il caso delle matrici quadrate 87
13. Determinante di una matrice quadrata 93
14. Matrici invertibili 107
15. Cambiamenti di base in uno spazio vettoriale 111
16. Teorema degli orati e sue applicazioni 125
17. Sistemi lineari 131
18. Sistemi lineari omogenei 141
19. Autovalori e autovettori di una matrice quadrata 151
20. Diagonalizzazione di una matrice quadrata 163
21. Geometria affine del piano 173
22. Geometria affine dello spazio 179
Esercizi 191
23. Geometria euclidea del piano 193
24. Geometria euclidea dello spazio 197
Esercizi 206
25. Classificazione delle coniche del piano euclideo 208
26. La sfera e la circonferenza nello spazio 234
1. Relazioni.

Dati due insiemi possiamo stabilire in modo del tutto arbitrario una “legge” che associ elementi di
un insieme ad elementi dell’altro insieme. Ovviamente, data la totale arbitrarietà di tale legge ad un
elemento di un insieme è possibile associare nessun elemento dell’altro insieme o un solo elemento
dell’altro insieme o più di un elemento dell’altro insieme (anche tutti).

1.1 Esempio. Siano A = {11, f, β, ♦, ♥, ♠} e B = {x, 11, ♠, ♣, ∇, α, γ} e le seguenti leggi:

Legge n.1
- agli elementi 11 e f di A non associo alcun elemento di B
- all’elemento β di A associo l’elemento x
- all’elemento ♦ associo gli elementi ∇, α, e γ
- all’elemento ♥ associo l’elemento x
- all’elemento ♠ associo tutti gli elementi di B

Legge n.2
- a ciascuno degli elementi x, ♣ e α di B non associo alcun elemento di A
- all’elemento 11 di B associo gli elementi 11 e ♠ di A
- all’elemento ♠ di B associo solo l’elemento 11 di A
- all’elemento ∇ di B associo gli elementi 11 e ♦ di A
- all’elemento γ di B associo gli elementi 11, f e β di A

Il problema che sorge spontaneo è come rappresentare in un modo più comodo tali leggi tra gli
elementi degli insiemi A e B.

Osserviamo che per ricordare una legge è importante ricordare “chi è associato a chi” mentre si può
dimenticare gli elementi che non sono associati tra loro. Per far ciò possiamo iniziare a scrivere solo
degli insiemi che contengono gli elementi tra loro associati.

Per la Legge n.1 scriviamo perciò i seguenti insiemi


{β, x}, {♦, ∇}, {♦, α}, {♦, γ}, {♥, x}, {♠, x,}, {♠, 11}, {♠, ♠}, {♠, ♣}, {♠, γ}, {♠, ∇}, {♠, α}
Mentre per la Legge n.2 gli insiemi seguenti
{11, 11}, {11, ♠}, {♠, 11}, {∇, 11}, {∇,♦}, {γ, 11}, {γ, f}, {γ, β}

4
Questo risolve completamente il problema? Per poter rispondere affermativamente dobbiamo esser
certi che non possano sorgere degli equivoci. Osserviamo che gli insiemi scritti sopra ci ricordano
solamente “chi è associato a chi” ma non ci ricordano a quale insieme appartengono gli elementi.
Per esempio, gli insiemi {11, ♠} e {♠, 11} della Legge n.2 sono UGUALI e, quindi, non ci sarebbe
bisogno di scriverli due volte. Ma attenzione: come insiemi sono uguali invece per quanto riguarda
la Legge n.2 ricordano due cosa diverse: l’insieme {11, ♠}, scritto proprio così, ci ricorda che
l’elemento 11 di B è associato all’elemento ♠ di A, mentre lo STESSO insieme ma scritto così
{♠, 11} ci ricorda che l’elemento ♠ di B è associato all’elemento 11 di A. E, comunque, in questo
caso, ciò non sarebbe ancora un problema perché nella Legge n.2 si è scelto che accadano entrambe
le cose. Ma ciò costituisce un problema nel caso della Legge n.1. Infatti, nella Legge n.1 abbiamo
solamente che l’elemento ♠ di A è associato all’elemento 11 di B mentre NON è vero il viceversa.
Quindi, per la Legge n.1 non è indifferente come viene scritto l’insieme che ci ricorda questo fatto:
la scrittura {♠, 11} va bene mentre la scrittura {11, ♠} non va bene pur rappresentando entrambe lo
STESSO insieme. Inoltre, si osservi che lo stesso insieme {11, ♠} scritto nello STESSO MODO ha
un significato diverso per le due leggi: infatti {11, ♠} per la Legge n.1 ricorda che 11 di A è
associato a ♠ di B mentre per la Legge n.2 ricorda che 11 di B è associato a ♠ di A.
Si vede che gli inconvenienti appena riscontrati sono dei problemi di “ordine”. Infatti, il primo
problema, quello della scrittura, è in realtà un problema di ordine in cui si susseguono gli elementi
nell’insieme che ricorda i due elementi associati tra loro. Mentre il secondo problema è un problema
legato all’ordine con cui consideriamo i due insiemi. Per ovviare ad entrambe questi inconvenienti è
sufficiente stabilire un ordine tra i due insiemi e, quindi, parlare di una legge tra A e B in
quest’ordine e distinguerla da una legge tra B e A ed utilizzare le coppie ordinate invece che gli
insiemi per ricordare “chi è associato a chi”. Per una legge tra A (primo insieme) e B (secondo
insieme) scriveremo (a, b) per ricordare che l’elemento a di A è associato con l’elemento b di B.

Per cui per la Legge n.1 tra A e B scriviamo le seguenti coppie ordinate
(β, x), (♦, ∇), (♦, α), (♦, γ), (♥, x), (♠, x,), (♠, 11), (♠, ♠), (♠, ♣), (♠, γ), (♠, ∇), (♠, α)

Mentre per la Legge n.2 tra B e A scriviamo le seguenti coppie ordinate


(11, 11), (11, ♠), (♠, 11), (∇, 11), (∇,♦), (γ, 11), (γ, f), (γ, β).

5
Tenendo conto dell’operazione di prodotto cartesiano tra due insiemi possiamo ora dare la seguente

1.2 Definizione. Una relazione tra un insieme A e un insieme B è un sottoinsieme R del prodotto
cartesiano A×B, cioè R ⊆ A×B. Per ogni coppia ordinata (a, b)∈A×B diremo che:
- l’elemento a∈A è in relazione con l’elemento b∈B (e scriveremo aRb ) se (a, b)∈R;
- l’elemento a∈A non è in relazione con l’elemento b∈B (e scriveremo aRb) se (a, b)∉R.

1.3 Osservazione. Data una relazione R tra un insieme A e un insieme B, un elemento a∈A può
essere in quella relazione con nessuno, esattamente uno o più elementi di B (anche tutti).

1.4 Esempio. A={1, 7, -3}, B={q, s, t}, R={(7, s), (-3, q), (-3, s), (-3, t)}
R è una relazione tra A e B in quanto R è un sottoinsieme di A×B.
L’elemento 1∈A non è in relazione R con alcun elemento b∈B. L’elemento 7∈A è in relazione R
solo con l’elemento s∈B. L’elemento (-3)∈A è in relazione con tutti gli elementi di B.

2. Funzioni.

2.1 Definizione. Diremo che una relazione f tra A e B è una funzione se ogni elemento di A è in
relazione f con esattamente un elemento di B. Una funzione f tra A e B verrà indicata nel modo
seguente f : A → B. Inoltre, per ogni elemento a∈A, se b∈B è l’unico elemento in relazione con a
allora invece che afb scriveremo f(a) = b e diremo che b è l’immagine di a tramite la funzione R.

2.2 Osservazione. Data una funzione f : A → B, la definizione precedente non esclude che
(1) elementi distinti di A possano avere come immagine uno stesso elemento di B;
(ATTENZIONE: il fatto che ogni elemento di A abbia una ed una sola immagine NON
è in contraddizione col fatto che elementi distinti di A abbiano la stessa immagine)
(2) possano esistere in B elementi che non siano immagine di alcun elemento di A.

2.3 Esempio. A={1, 7, -3}, B={q, s, t}, f={(1, q), (7, s), (-3, s)}
La relazione f tra A e B è una funzione in quanto ogni elemento di A è in relazione con esattamente
un elemento di B: 1fq, 7fs, (-3)fs. Quindi, scriveremo f(1) = q, f(7) = s e f(-3) = s. Si osservi che:
- gli elementi distinti 7 e (-3) di A hanno la stessa immagine s in B;
- l’elemento t di B non è immagine di alcun elemento di A.

6
Col simbolo f(A) indicheremo il sottoinsieme di B costituito dagli elementi di B che sono immagine
di qualche elemento di A. Cioè, f(A) := {b∈B | ∃a∈A : f(a) = b}.

Funzioni che escludano quanto osservato in (1) e/o in (2) saranno funzioni più “ricche” e ad esse
daremo dei nomi come segue.

2.4 Definizione. Data una funzione f : A → B, diremo che essa è:


(1) inettiva se elementi distinti di A hanno immagini distinte in B (ovvero, se due elementi di A
hanno la stessa immagine allora essi sono necessariamente lo stesso elemento);
(2) suriettiva se ogni elemento di B è immagine di qualche elemento di A (ovvero f(A) = B).

2.5 Osservazione. Si noti che le condizioni (1) e (2) sono “indipendenti”, cioè esistono funzioni che
sono iniettive ma non suriettive e funzioni che sono suriettive ma non iniettive.

2.6 Esempio. A={1, 7}, B={q, s, t}, f={(1, q), (7, s)}. Gli elementi distinti 1 e 7 di A hanno in B
immagini rispettivamente q e s distinte. L’elemento t di B non è immagine di alcun elemento di A.

2.7 Esempio. A={1, 7, -3}, B={q, s}, f={(1, q), (7, q), (-3, s)}. Gli elementi distinti 1 e 7 di A
hanno la stessa immagine q in B. Ogni elemento di B è immagine di qualche elemento di A.

Per l’osservazione precedente ha senso anche la seguente:

2.8 Definizione. Diremo che una funzione f : A → B è biettiva se essa è sia iniettiva che suriettiva.

2.9 Esempio. A={1, 7, -3}, B={q, s, t}, f={(1, q), (7, s), (-3, t)}. f è una funzione biettiva tra A e B.

7
2.10 Osservazione. Data una legge che ad elementi di un insieme A ne associa altri di un insieme
B, il fatto che questa relazione sia una funzione, una funzione iniettiva, una funzione suriettiva, una
funzione biettiva dipende anche dagli insiemi A e B.

Esempio. Siano A e B due sottoinsiemi dell’insieme R dei numeri reali. Sia f la legge seguente:
“all’elemento x di A associo l’elemento y di B se e solo se y = x2 ”
La relazione f = {(x, y)∈A×B | y = x2} è una funzione tra A e B?
In caso affermativo, la funzione f è iniettiva e/o suriettiva?
Pur avendo sempre la stessa legge f, le risposte a tali domande dipenderanno dalla scelta dagli
insiemi A e B come vediamo negli esempi seguenti:

1) A = R e B = R+ = {y∈R | y > 0}
- f non è una funzione in quanto per l’elemento 0∈A non esiste alcun elemento y∈B tale che y = x2.

2) A = R e B = R
- f è una funzione in quanto per ogni x∈A esiste y∈B tale che y = x2 cioè y=f(x);
- f non è iniettiva in quanto sia 2∈A che (-2)∈A hanno la stessa immagine 4∈B;
- f non è suriettiva in quanto l’elemento y=(-4)∈B non è immagine f(x)=x2 di alcun elemento x∈A.

3) A = R0+ = {x∈R | x ≥ 0} e B = R
- f è una funzione in quanto per ogni x∈A esiste y∈B tale che y = x2 cioè y=f(x);
- f è iniettiva in quanto elementi distinti x∈A e x’∈A hanno immagini distinte x2 e (x’)2 in B;
- f non è suriettiva in quanto l’elemento y=(-4)∈B non è immagine f(x)=x2 di alcun elemento x∈A.

4) A = R e B = R0+ = {y∈R | y ≥ 0}
- f è una funzione in quanto per ogni x∈A esiste y∈B tale che y = x2 cioè y=f(x);
- f non è iniettiva in quanto sia 2∈A che (-2)∈A hanno la stessa immagine 4∈B;
- f è suriettiva in quanto ogni elemento y∈B è immagine di x=√y∈A.

5) A = R0+ = {x∈R | x ≥ 0} e B = R0+ = {y∈R | y ≥ 0}


- f è una funzione in quanto per ogni x∈A esiste y∈B tale che y = x2 cioè y=f(x);
- f è iniettiva in quanto elementi distinti x∈A e x’∈A hanno immagini distinte x2 e (x’)2 in B;
- f è suriettiva in quanto ogni elemento y∈B è immagine di x=√y∈A.

8
3. Relazioni di equivalenza e partizioni.

3.1 Definizione. Una relazione R ⊆ A×A, tra un insieme A e se stesso, viene detta relazione in A.

3.2 Definizione. Una relazione in A si dice


- riflessiva se vale la condizione (RIFL) ∀a∈A aRa
- simmetrica se vale la condizione (SIMM) ∀a,b∈A (aRb ⇒ bRa)
- transitiva se vale la condizione (TRAN) ∀a,b,c∈A (aRb et bRc ⇒ aRc)

3.3 Osservazione. Negli esempi che seguono vedremo che le condizioni (RIFL), (SIMM) e
(TRAN) sono “indipendenti”, cioè esistono relazioni che ne soddisfano alcune e non altre.

3.4 Esempi. A={2, b, ♥} A×A={(2,2), (2,b), (2,♥), (b,2), (b,b), (b,♥), (♥,2),(♥,b), (♥,♥)}

1) R={(b,b), (♥,♥), (2,b), (b,♥)} è una relazione in A non riflessiva (poiché 2R2), non simmetrica
(poiché 2Rb ma bR2) e non transitiva (poiché 2Rb e bR♥ ma 2R♥).

2) R={(b,b), (♥,♥), (2,b), (b,2), (b,♥), (♥,b)} è una relazione in A simmetrica, non riflessiva
(poiché 2R2), simmetrica e non transitiva (poiché 2Rb e bR♥ ma 2R♥).

3) R={(b,b), (♥,♥), (2,b), (b,♥), (2,♥)} è una relazione in A transitiva, non riflessiva (2R2) e non
simmetrica (poiché 2Rb ma bR2).

4) R={(2,2), (b,b), (2,b), (b,2)} è una relazione in A simmetrica, transitiva e non riflessiva (♥R♥).

5) R={(2,2), (b,b), (♥,♥), (2,b), (b,♥)} è una relazione in A riflessiva, non simmetrica (poiché 2Rb
ma bR2) e non transitiva (poiché 2Rb e bR♥ ma 2R♥).

6) R={(2,2), (b,b), (♥,♥), (2,b), (b,2), (b,♥), (♥,b)} è una relazione in A riflessiva, simmetrica ma
non transitiva (poiché 2Rb e bR♥ ma 2R♥).

7) R={(2,2), (b,b), (♥,♥), (2,b), (b,♥), (2,♥)} è una relazione in A riflessiva, transitiva ma non
simmetrica (poiché 2Rb ma bR2).

8) R={(2,2), (b,b), (♥,♥), (2,b), (b,2)} è una relazione riflessiva, simmetrica e transitiva.

Per l’osservazione precedente ha senso dare la seguente:

3.5 Definizione. Una relazione in A si dice di equivalenza se è riflessiva, simmetrica e transitiva.

9
3.6 Definizione. Sia R una relazione di equivalenza in un insieme A. Per ogni elemento a∈A
definiamo classe di equivalenza di a rispetto a R, e la indichiamo con [a]R, il sottoinsieme
{b∈A | bRa} di A contenente tutti e soli gli elementi di A che sono in relazione R con a.

3.7 Lemma. Per le classi di equivalenza valgono le seguenti proprietà:


(CE1) ∀a∈A a∈[a]R
(CE2) ∀a,b∈A ([a]R = [b]R ⇔ aRb)
(CE3) ∀a,b∈A ([a]R ∩ [b]R ≠ ∅ ⇒ [a]R = [b]R) ovvero ([a]R ≠ [b]R ⇒ [a]R ∩ [b]R = ∅)
Dimostrazione.
(CE1) aRa ⇒ a∈[a]R
(CE2⇒) a∈[a]R et [a]R = [b]R ⇒ a∈[b]R ⇒ aRb
(CE2⇐)
(x∈[a]R et aRb ⇒ xRa et aRb ⇒ xRb ⇒ x∈[b]R ) ⇒ [a]R ⊆ [b]R |
| ⇒ [a]R = [b]R
(y∈[b]R et aRb ⇒ yRb et bRa ⇒ yRa ⇒ y∈[a]R ) ⇒ [b]R ⊆ [a]R |

(CE3) [a]R∩[b]R ≠ ∅ ⇒ ∃x∈A : x∈[a]R et x∈[b]R ⇒ [x]R = [a]R et [x]R = [b]R ⇒ [a]R = [b]R 

3.8 Definizione. Sia R una relazione di equivalenza in un insieme A. Definiamo insieme quoziente
dell’insieme A rispetto alla relazione di equivalenza R, e lo indichiamo col simbolo A/R , l’insieme
delle classi di equivalenza degli elementi di A rispetto a R.

3.9 Definizione. Dato un insieme A, diremo partizione di A un insieme ℑ di sottoinsiemi di A che


soddisfi le seguenti proprietà:
(P1) ∀X∈ℑ X ≠ ∅ ogni elemento di ℑ è un sottoinsieme non vuoto di A
(P2) ∀X,Y∈ℑ (X ≠ Y ⇒ X∩Y = ∅) elementi distinti di ℑ sono sottoinsiemi di A disgiunti
(P3) ∀a∈A ∃X∈ℑ : a∈X ogni elemento di A è contenuto in un elemento di ℑ

3.10 Teorema. Dare una relazione di equivalenza in un insieme equivale a darne una partizione.
Dimostrazione. Se R è una relazione di equivalenza in A, allora l’insieme quoziente A/R (visto
come famiglia di sottoinsiemi di A) è una partizione dell’insieme A. Infatti, (CE1) implica (P1) e
(P3) mentre (CE3) implica (P2). Viceversa, se ℑ è una partizione di A, allora è facile provare che la
relazione R:= {(a, b)∈A×A | ∃X∈ℑ : a,b∈X} è una relazione di equivalenza in A. 

10
4. Operazioni binarie, gruppi e campi.

4.1 Definizione. Diremo


- operazione binaria ovunque definita in A×B a valori in C ogni funzione f : A×B → C
- operazione binaria ovunque definita in A a valori in C ogni funzione f : A×A → C
- operazione binaria ovunque definita ed interna ad A ogni funzione f : A×A → A

4.2 Definizione. Sia ⊥ un’operazione binaria ovunque definita in A×B a valori in C. Dalla
definizione, si ha che ogni coppia ordinata (x, y) di A×B ha un’unica immagine z in C. Invece di
⊥(x, y) = z scriveremo x ⊥ y = z e diremo che z è il risultato dell’operazione ⊥ tra x e y (in
quest’ordine).

Tenendo conto dell’unicità del risultato si ha che:


(U1) ∀x,y∈A , ∀z∈B x=y ⇒ x⊥z=y⊥z
(U2) ∀z∈A , ∀x,y∈B x=y ⇒ z⊥x=z⊥y

4.3 Definizione. Diremo gruppo una coppia (G, ⊥) dove G è un insieme non vuoto e ⊥ è
un’operazione binaria ovunque definita ed interna ad G tale che valgano le proprietà seguenti:
(G1) ∀a,b,c∈G (a ⊥ b) ⊥ c = a ⊥ (b ⊥ c) (si dice che ⊥ è associativa)
(G2) ∃h∈G : ∀a∈G a ⊥ h = a = h ⊥ a (si dice che h è l’elemento neutro rispetto a ⊥)
(G3) ∀a∈G ∃a∈G : a ⊥ a = h = a ⊥ a (a si dice simmetrico di a rispetto a ⊥)

4.4 Definizione. Un gruppo (G, ⊥) si dice abeliano o commutativo se vale la proprietà seguente:
(G4) ∀a,b∈G a⊥b=b⊥a (si dice che ⊥ è commutativa)

4.5 Esempio. Sia R l’insieme dei numeri reali.


Le classiche operazioni + e • di somma e prodotto tra due numeri reali sono due operazioni binarie
ovunque definite ed interne a R. Inoltre, tali operazioni sono sia associative che commutative.
Rispetto a + esiste il numero reale zero 0 che si comporta da elemento neutro e per ogni numero
reale x esiste il suo simmetrico (opposto) -x. Quindi, la coppia (R, +) è un gruppo abeliano.
Rispetto a • esiste il numero reale uno 1 che si comporta da elemento neutro e per ogni numero
reale x ≠ 0 esiste il suo simmetrico (inverso) x-1. Quindi, la coppia (R-{0}, •) è un gruppo abeliano.

11
4.6 Teorema. Se (G, ⊥) è un gruppo allora valgono anche le proprietà seguenti:
(G5) l’elemento neutro h è unico
(G6) ∀a∈G il simmetrico a di a è unico
(G7) Se a è il simmetrico di a allora il simmetrico di a è a, cioè, a = a

(G8) ∀a,b,c∈G a⊥b=c ⇒ b=a⊥c (spostabilità attraverso = dalla sinistra di ⊥)


(G9) ∀a,b,c∈G a⊥b=c ⇒ a=c⊥b (spostabilità attraverso = dalla destra di ⊥)
(G10) ∀a,b,c∈G c⊥a=c⊥b ⇒ a=b (cancellabilità a sinistra rispetto a ⊥)
(G11) ∀a,b,c∈G a⊥c=b⊥c ⇒ a=b (cancellabilità a destra rispetto a ⊥)
(G12) ∀a∈G a⊥a=a ⇔ a=h
Dimostrazione.
(G5) Se k∈G è un altro elemento neutro, allora h ⊥ k = h. Ma, per (G2) è anche h ⊥ k = k. Essendo
unico il risultato dell’operazione h ⊥ k si ha che h = k.
(G6) Supponiamo che, oltre ad a, esista un altro simmetrico a’ di a; quindi a’⊥ a = h = a ⊥ a’
h = a ⊥ a’ ⇒ a ⊥ h = a ⊥ (a ⊥ a’) ⇒ a ⊥ h = (a ⊥ a) ⊥ a’ ⇒ a = h ⊥ a’ ⇒ a = a’
(G7) da (G3) si ha che a è il simmetrico di a; per (G6) il simmetrico è unico, quindi a = a

(G8) a⊥b = c ⇒(G3 e U2) a⊥(a⊥b) = a⊥c ⇒(G1) (a⊥a)⊥b = a⊥c ⇒(G3) h⊥b = a⊥c ⇒(G2) b = a⊥c
(G9) a⊥b = c ⇒(G3 e U1) (a⊥b)⊥b = c⊥b ⇒(G1) a⊥(b⊥b) = c⊥b ⇒(G3) a⊥h = c⊥b ⇒(G2) a = c⊥b
(G10) c⊥a = c⊥b ⇒(G8) a = c⊥(c⊥b) ⇒(G1) a = (c⊥c)⊥b ⇒(G3) ⇒ a = h⊥b ⇒(G2) a=b
(G11) a⊥c = b⊥c ⇒(G9) a = (b⊥c)⊥c ⇒(G1) a = b⊥(c⊥c) ⇒(G3) ⇒ a = b⊥h ⇒(G2) a=b
(G12) ovviamente h ⊥ h = h; a⊥a = a ⇒(G2) a⊥a = a⊥h ⇒(G10) a = h 

4.7 Definizione. Diremo che una terna (K, ⊥, ∇) è un campo se valgono le seguenti proprietà:
(C1) ⊥ e ∇ sono due operazioni binarie ovunque definite ed interne a K;
(C2) (K, ⊥) è un gruppo abeliano
(C3) (K-{h}, ∇) è un gruppo abeliano (dove h l’elemento neutro rispetto a ⊥)
(C4) ∀a,b,c∈K a ∇ (b ⊥ c) = (a ∇ b) ⊥ (a ∇ c) (si dice che ∇ è distributiva rispetto a ⊥)

4.8 Esempio. La terna (R, +, •) è un campo. Infatti, abbiamo già visto che sono soddisfatte le
proprietà (C1), (C2) e (C3). Inoltre, per i numeri reali vale la proprietà distributiva del prodotto
rispetto alla somma, cioè: ∀a,b,c∈R a(b + c) = (ab) + (ac).

Nel seguito indicheremo brevemente con R il campo dei numeri reali (R, +, •).

12
5. Spazi vettoriali reali.

5.1 Definizione. Indicato con R il campo dei numeri reali, diremo spazio vettoriale reale una terna
(V, ⊥, *) dove (V, ⊥) è un gruppo abeliano e ∗ : R×V →V è un’operazione tale che:
(PS1) ∀α∈R , ∀u, v∈V α∗(u⊥v) = (α∗u) ⊥ (α∗v) (distributività di * rispetto a ⊥)
(PS2) ∀α, β∈R , ∀u∈V (α+β)∗u = (α∗u) ⊥ (β∗u) (distributività di * rispetto a +)
(PS3) ∀α, β∈R , ∀u∈V (αβ)∗u = α∗(β∗u) (associatività “mista”)
(PS4) ∀u∈V 1∗u = u (1 è elemento neutro rispetto a *)
Gli elementi di V si diranno vettori, mentre quelli di R scalari. Quindi, l’operazione ∗ : R×V →V è
un’operazione tra uno scalare e un vettore il cui (unico) risultato è un vettore.

5.2 Teorema. Se (V, ⊥, ∗) è uno spazio vettoriale reale, allora valgono anche le proprietà seguenti:
(PS5) ∀u∈V 0∗u = h (dove h indica l’elemento neutro rispetto a ⊥)
(PS6) ∀α∈R α∗h = h
(PS7) ∀α∈R , ∀u∈V α∗u = h et α ≠ 0 ⇒ u = h
(PS8) ∀α∈R , ∀u∈V α∗u = h ⇔ α = 0 vel u = h
(PS9) ∀u∈V (-1)∗u = u (dove u è il simmetrico dell’elemento u)
(PS10) ∀u∈V (-α)∗u = α∗u (dove α∗u è il simmetrico dell’elemento α∗u)
(PS11) ∀α∈R , ∀u, v∈V α∗u = α∗v et α ≠ 0 ⇒ u = v (cancellabilità di α ≠ 0)
(PS12) ∀α, β∈R , ∀u∈V α∗u = β∗u et u ≠ h ⇒ α = β (cancellabilità di u ≠ h)
Dimostrazione.
(PS5) (0+0) = 0 ⇒(U1) (0+0)∗u = 0∗u ⇒(PS2) (0∗u)⊥(0∗u) = 0∗u ⇒(G12) ⇒ 0∗u = h
(PS6) (G12) ⇒ (h⊥h) = h ⇒(U2) α∗(h⊥h) = α∗h ⇒(PS1) (α∗h)⊥(α∗h) = α∗h ⇒(G12) α∗h = h
(PS7) α∗u = h et α ≠ 0 ⇒(U2) α-1∗(α∗u) = α-1∗h ⇒(PS3 e PS6) (α-1α)∗u = h ⇒ 1∗u = h ⇒(PS4) u = h
(PS8) immediata conseguenza di (PS5), (PS6) e (PS7)
(PS9) [1+(-1)] = 0 ⇒(U1) [1+(-1)]∗u = 0∗u ⇒(PS2 e PS5) (1∗u)⊥[(-1)∗u] = h ⇒(PS4)
⇒ u ⊥[(-1)∗u] = h ⇒ [(-1)∗u] è simmetrico di u ⇒(G6) (-1)∗u = u
(PS10) (-α)∗u = [(-1)α]∗u =(PS3)= (-1)∗(α∗u) =(PS9)= α∗u
(PS11) α∗u = α∗v et α≠0 ⇒(U2) α-1∗(α∗u) = α-1∗(α∗v) ⇒(PS3) (α-1α)∗u = (α-1α)∗v ⇒
⇒ 1∗u = 1∗v ⇒(PS4) u = v
(PS12) α∗u = β∗u ⇒(G3) (α∗u)⊥(β∗u) = h ⇒(PS10) (α∗u)⊥[(-β)∗u] = h ⇒(PS2) [α+(-β)]∗u = h
[α+(-β)]∗u = h et u ≠ h ⇒(PS8) [α+(-β)] = 0 ⇒ α = β 

13
6. Quattro esempi di spazi vettoriali reali.

6.1 Le funzioni reali di variabile reale.

6.1.1. Osservazione. Siano R ⊆A×B e S ⊆A×B due relazioni tra gli (stessi) insiemi A e B.
Ovviamente, le due relazioni R e S (in quanto sottoinsiemi di A×B) sono uguali (R = S) se e solo se
contengono le stesse coppie di A×B, ovvero per ogni (a, b)∈ A×B si ha che
(a, b)∈R ⇔ (a, b)∈S
che è la stessa cosa che
aRb ⇔ aSb

Tenendo conto di quanto appena detto, per le funzioni si ha la seguente

6.1.2. Osservazione. Date due funzioni f : A → B e g : A → B si ha che


f=g ⇔ ∀a∈A f(a) = g(a)
Ovvero, due funzioni f e g definite su di uno stesso insieme A e a valori in uno stesso insieme B
sono uguali se e solo se per ogni elemento a di A si ha che la sua immagine f(a) tramite f è uguale
alla sua immagine g(a) tramite g.

6.1.3. Definizione. Se I ⊆ R allora f : I → R si dice funzione reale di variabile reale definita in I.

Col simbolo ℑI(R) indicheremo l’insieme delle funzioni reali di variabile reale definite in I.

6.1.4. Osservazione. Si noti che se I ⊆ J⊆ R allora ℑR(R) ⊆ ℑJ(R) ⊆ ℑI(R).

6.1.5. Definizione. Col simbolo e indicheremo la funzione di ℑI(R) così definita:


∀x∈I e(x)=0∈R.

6.1.6 Definizione. Per ogni f∈ℑI(R) col simbolo (-f) indicheremo la funzione di ℑI(R) così definita:
∀x∈I (-f)(x) := -f(x)∈R

14
6.1.7. Osservazione. Siano f,g∈ℑI(R). Per ogni x∈I è univocamente (poiché la somma di due
numeri reali è un’operazione binaria ovunque definita ed interna a R) determinato il numero reale
f(x) + g(x). Quindi, possiamo definire univocamente una funzione h∈ℑI(R) nel modo seguente:

∀x∈I h(x) := f(x) + g(x)

Per l’osservazione precedente è ben posta la seguente:

6.1.8. Definizione. Sia  : ℑI(R)×ℑI(R) → ℑI(R) l’operazione binaria ovunque definita ed interna a
ℑI(R) definita nel modo seguente:
∀f, g∈ℑI(R) f  g := h

dove per ogni x∈I si ha che h(x) := f(x) + g(x). Quindi, (f  g)(x) = f(x) + g(x).

Possiamo, ora, provare il seguente

6.1.9 Lemma. La coppia (ℑI(R), ) è un gruppo abeliano.

Dimostrazione. Tenendo conto delle proprietà del campo R si prova facilmente che:
(G1) ∀f, g, h∈ℑI(R) (f  g)  h = f  (g  h)
Infatti, per ogni x∈I si ha che
((f  g)  h)(x) = (f  g)(x) + h(x) = (f(x) + g(x)) + h(x) =
= f(x) + (g(x) + h(x)) = (f(x) + (g  h)(x)) = (f  (g  h))(x)
(G2) ∃e∈ℑI(R) ∀f∈ℑI(R) fe=f=ef
Infatti, per ogni x∈I si ha che
(f  e)(x) = f(x) + e(x) = f(x) + 0 = f(x) = 0 + f(x) = e(x) + f(x) = (e  f)(x)
(G3) ∀f∈ℑI(R) ∃(-f)∈ℑI(R) f  (-f) = e = (-f)  f
Infatti, per ogni x∈I si ha che
(f  (-f))(x) = f(x) + (-f)(x) = f(x) + (-f(x)) = 0 = e(x)
((-f)  f)(x) = (-f)(x) + f(x) = -f(x) + f(x) = 0 = e(x)
(G4) ∀f, g∈ℑI(R) fg=gf
Infatti, per ogni x∈I si ha che
(f  g)(x) = f(x) + g(x) = g(x) + f(x) = (g  f)(x) 

15
6.1.10. Osservazione. Siano α∈R e f∈ℑI(R). Per ogni x∈I è univocamente (poiché il prodotto di
due numeri reali è un’operazione binaria ovunque definita ed interna a R) determinato il numero
reale αf(x). Quindi, possiamo definire una univocamente una funzione h∈ℑI(R) nel modo seguente:

∀x∈I g(x) := αf(x)

Per l’osservazione precedente possiamo dare la seguente

6.1.11. Definizione. Sia  : R×ℑI(R) → ℑI(R) l’operazione l’operazione binaria ovunque definita
tra uno scalare e una funzione reale di variabile reale definita in I a valori in ℑI(R) così definita:
∀α∈R , ∀f∈ℑI(R) αf := g
dove per ogni x∈I si ha che g(x) := αf(x). Quindi, (αf)(x) = αf(x)

Possiamo, ora, provare il seguente

6.1.12. TEOREMA. La terna (ℑI(R), , ) è uno spazio vettoriale reale.

Dimostrazione. Abbiamo già provato che (ℑI(R), ) è un gruppo abeliano.


Tenendo conto delle proprietà del campo R si prova facilmente che:
(PS1) ∀α∈R , ∀f,g∈ℑI(R) α(f  g) = (αf)  (αg)
Infatti, per ogni x∈I si ha che
(α(f  g))(x) = α(f  g)(x) = α(f(x) + g(x)) = (αf(x)) + (αg(x)) =
= (αf)(x) + (αg)(x) =((αf)  (αg))(x)

(PS2) ∀α,β∈R , ∀f∈ℑI(R) (α+β)f = (αf)  (βf)


Infatti, per ogni x∈I si ha che
((α+β)f)(x) = (α+β)(f(x)) = (αf(x)) + (βf(x)) =
= (αf)(x) + (βf)(x) =((αf)  (βf))(x)

(PS3) ∀α,β∈R , ∀f∈ℑI(R) (αβ)f = α(βf)


Infatti, per ogni x∈I si ha che
((αβ)f)(x) = (αβ)(f(x)) = α(βf(x)) = α((βf)(x)) = (α(βf))(x)

(PS4) ∀f∈ℑI(R) 1f = f


Infatti, per ogni x∈I si ha che
(1f)(x) = 1f(x) = f(x) 

16
6. Quattro esempi di spazi vettoriali reali.

6.2 I vettori liberi.

Siano ℘ ed ℜ rispettivamente l’insieme dei punti e quello delle rette dello spazio euclideo.

6.2.1. Definizione. Siano r, s∈ℜ due rette complanari. Diremo che r è parallela ad s, e scriveremo
r // s, se r ed s coincidono (r ≡ s) o non hanno alcun punto in comune (r∩s=∅), in quest’ultimo caso
diremo anche che le rette r ed s sono parallele in senso stretto.

Consideriamo la relazione in ℜ (detta di parallelismo) così definita // = {(r, s)∈ℜ×ℜ | r // s}.

6.2.2. Osservazione. E’ facile verificare che quella di parallelismo è una relazione di equivalenza.

6.2.3. Definizione. Chiamiamo direzione di una retta r la classe di equivalenza [r]// = {s∈ℜ | s // r}.

6.2.4. Osservazione. Tenendo conto della proprietà (CE2) (vedere Lemma 3.7) delle relazioni di
equivalenza si ha che due rette hanno la stessa direzione se e solo se sono parallele.

6.2.5. Definizione. Dati due punti distinti A e B diremo direzione del segmento AB la direzione
della (unica) retta r passante per A e B. Inoltre, stabiliamo che il segmento nullo AA abbia la stessa
direzione di ogni altro segmento (cioè sia parallelo ad ogni altro segmento).

6.2.6. Osservazione. Due segmenti non nulli hanno la stessa direzione se e solo se si trovano su due
rette parallele.

17
6.2.7. Definizione. Dato un segmento AB di estremi A e B distinti (A ≠ B), esistono due e solo due
coppie ordinate distinte (A, B) e (B, A), che chiameremo versi del segmento. Indicheremo con (AB)
il segmento di verso (A, B) e con (BA) il segmento di verso (B, A).
segmento AB
r
A B

segmento orientato (AB)


r
A B

segmento orientato (BA)


r
A B

6.2.8. Definizione. Siano r ed s due rette parallele in senso stretto. Siano A e B due punti distinti di
r e C e D due punti distinti di s. Sia π il piano individuato da r ed s e sia t la retta di π passante per A
e C. La retta t divide il piano π in due semipiani. Se i punti B e D appartengono allo stesso
semipiano, allora diremo che (AB) e (CD) hanno lo stesso verso. Altrimenti, diremo che hanno
verso opposto.

A B B A
r r

t
t

s
s
C D C D

(A,B) e (C,D) hanno lo stesso verso (A,B) e (C,D) hanno verso opposto

6.2.9. Definizione. Sulla stessa retta r siano A, B, C e D quattro punti tali che A ≠ B e C≠ D. Sia s
una retta parallela in senso stretto a r e siano E ed F due punti distinti di s tali che (AB) ed (EF)
abbiano lo stesso verso. Se (CD) e (EF) hanno lo stesso verso, allora diremo che anche (AB) e (CD)
hanno lo stesso verso. Altrimenti, diremo che hanno verso opposto.
A B B
A C D
r r
C D

s
s
F E
E F

(A,B) e (C,D) hanno lo stesso verso (A,B) e (C,D) hanno verso opposto

Se (AB) e (CD) hanno la stessa direzione (cioè sono paralleli), allora scriveremo:
• vers(AB) = vers(CD) se hanno lo stesso verso
• vers(AB) = - vers(CD) se hanno verso opposto

18
6.2.10 Definizione. Stabiliamo che il segmento nullo abbia lo stesso verso di ogni altro segmento.

Indichiamo con Σ l’insieme {(AB)  A,B∈℘} e lo chiamiamo insieme dei segmenti orientati.

6.2.11. Definizione. Comunque presi due segmenti orientati (AB) e (CD) di Σ, diremo che (AB) è
equipollente a (CD), e scriveremo (AB) ≈ (CD), se (AB) e (CD) hanno la stessa lunghezza, la stessa
direzione e lo stesso verso. Il sottoinsieme {((AB), (CD))∈Σ×Σ | (AB) è equipollente a (CD)} è una
relazione in Σ che chiamiamo relazione di equipollenza e indichiamo col simbolo ≈.

6.2.12. Osservazione. E’ facile verificare che quella di equipollenza è una relazione di equivalenza.

6.2.13. Definizione. Chiamiamo insieme dei vettori liberi , e lo indichiamo con V, l’insieme
quoziente Σ/≈. Quindi, un vettore libero è una classe di equivalenza rispetto alla relazione di
equipollenza (talvolta anche detta classe di equipollenza).

6.2.14 Osservazione. Due segmenti orientati (AA) e (BC) sono equipollenti se e solo se B = C.


6.2.15. Definizione. Chiameremo vettore libero nullo, e lo indicheremo col simbolo 0 , la classe di

equivalenza individuata da un qualsiasi segmento nullo. Quindi, 0 = {(AA)  A∈℘}.


6.2.16. Definizione. Se u = [(OA)]≈, allora il segmento orientato (OA) viene detto rappresentante

di u applicato in O.

(OA) è un rappresentante del vettore libero u

O A

Tenendo conto di come è definita la relazione ≈ di equipollenza è ben posta la seguente

6.2.17. Definizione. Diremo lunghezza, direzione e verso di un vettore libero rispettivamente la


lunghezza, la direzione e il verso di un suo qualunque rappresentante.

→ → → → →
Indicheremo con || u || la lunghezza del vettore libero u . Ovviamente, || u || = 0 ⇔ u = 0 .

19
6.2.18. Teorema. (esistenza ed unicità del rappresentante applicato in un fissato punto)


Per ogni punto O∈℘ e per ogni vettore libero u ∈V esiste, ed è unico, un punto A∈℘ tale che
→ →
(OA)∈ u , ovvero [(OA)]≈= u . In altre parole, per ogni punto O dello spazio e per ogni vettore
→ →
libero u esiste un unico rappresentante di u applicato in O.

→ → → →
Dimostrazione. Se u = 0 allora A coincide con O. Se u ≠ 0 allora sia r l’unica retta passante per

O e avente la stessa direzione di u (cioè la stessa direzione di un suo rappresentante). Sia X un

punto di r distinto da O tale che il segmento orientato non nullo (OX) abbia lo stesso verso di u
(cioè lo stesso verso di un suo rappresentante). Sull’unica semiretta per O e X chiamiamo A l’unico

punto tale che la lunghezza del segmento OA è uguale alla proprio alla lunghezza del vettore u
(cioè alla lunghezza di un suo rappresentante).

rappresentante del vettore libero u

r
A X
O

→ →
Il segmento orientato (OA) ha la stessa lunghezza, direzione e verso di u . Quindi, (OA)∈ u .


Il segmento orientato (OA) è l’unico rappresentante del vettore libero u applicato nel punto O. 

Dal precedente teorema segue subito il

6.2.19. Corollario. Dati tre punti O,A,B∈℘ si ha che [(OA)]≈= [(OB)]≈ ⇔ A = B.

20
→ →
6.2.20. Algoritmo “S”. Comunque presi due vettori liberi u e v si effettuino i seguenti passi:

(1) si scelga, a piacere, un punto O∈℘;


(2) sia A∈℘ l’unico (per il teorema 6.2.18) punto dello spazio tale che [(OA)]≈ = u ;


(3) sia B∈℘ l’unico (per il teorema 6.2.18) punto dello spazio tale che [(AB)]≈ = v ;

→ →
(4) sia t il vettore libero individuato dal segmento orientato (OB), cioè t := [(OB)]≈

rappresentante del vettore libero u A

O
rappresentante del vettore libero v


6.2.21. Osservazione. L’algoritmo precedente determina univocamente il vettore libero t .

Infatti, anche se al passo (1) scegliessimo un punto O’≠O (e quindi si avrebbe, in generale, A’≠A e
B’≠B) è facile rendersi conto che sarebbe (O’B’)≈(OB), per cui alla fine [(O’B’)]≈ = [(OB)]≈ .

I segmenti orientati (OB) e (O'B') sono equipollenti


B
quindi individuano lo stesso vettore libero t
O
A'

B'

O'

Tenendo conto dell’osservazione precedente è ben posta la seguente

6.2.22. Definizione. Sia [+] : V×V → V l’operazione binaria ovunque definita ed interna a V così
definita:
→ → →
u [+] v := t
→ → →
dove t è il vettore libero ottenuto con l’algoritmo “S” applicato ai vettori liberi u e v .
Quindi, si ha che [(OA)]≈ [+] [(AB)]≈ := [(OB)]≈ .

21
6.2.23. Lemma. La coppia (V, [+]) è un gruppo abeliano.

Dimostrazione. Dobbiamo provare che valgono (G1), (G2), (G3) e (G4).


→ → → → → → → → →
(G1) ∀ u , v , w ∈V ( u [+] v )[+] w = u [+]( v [+] w )
→ → → →
Siano u , v , w ∈V. Si scelga, a piacere, O∈℘. Sia A∈℘ l’unico punto tale che [(OA)]≈= u . Sia
→ →
B∈℘ l’unico punto tale che [(AB)]≈= v . Sia C∈℘ l’unico punto tale che [(BC)]≈ = w .
rappresentante del vettore libero u A

rappresentante del vettore libero w B

O
rappresentante del vettore libero v C
→ → →
( u [+] v )[+] w = ([(OA)]≈ [+] [(AB)]≈) [+] [(BC)]≈ = [(OB)]≈ [+] [(BC)]≈ = [(OC)]≈
→ → →
u [+]( v [+] w ) = [(OA)]≈ [+] ([(AB)]≈ [+] [(BC)]≈) = [(OA)]≈ [+] [(AC)]≈ = [(OC)]≈.
→ → → → → → →
(G2) ∃ 0 ∈V : ∀ u ∈V u⊕0=u=0⊕u
→ →
Sia u ∈V. Si scelga, a piacere, O∈℘. Sia A∈℘ l’unico punto tale che [(OA)]≈= u . Si ha che
→ → → → →
u ⊕ 0 =[(OA)]≈⊕[(AA)]≈= [(OA)]≈= u = [(OA)]≈= [(OO)]≈⊕[(OA)]≈= 0 ⊕ u
→ → → → → → →
(G3) ∀ u ∈V ∃ u' ∈V : u [+] u' = 0 = u' [+] u
→ →
Sia u ∈V. Si scelga, a piacere, O∈℘. Sia A∈℘ l’unico punto tale che [(OA)]≈= u .
→ →
Sia u' ∈V il vettore libero rappresentato dal segmento orientato (AO), cioè u' :=[(AO)]≈. Si ha che
→ → → → →
u [+] u' = [(OA)]≈ [+] [(AO)]≈ = [(OO)]≈ = 0 = [(AA)]≈ = [(AO)]≈ [+] [(OA)]≈ = u' [+] u
→ → → → → →
(G4) ∀ u , v ∈V u [+] v = v [+] u ([+] è commutativa)
→ → →
Siano u , v ∈V. Si scelga, a piacere, O∈℘. Sia A,B∈℘ gli unici punti tali che [(OA)]≈= u e che

[(AB)]≈= v . Sia D∈℘ l’unico punto tale che la figura OABD è un parallelogrammo.

rappresentante del vettore libero u


A

O
rappresentante del vettore libero v
D

→ →
Poiché (DB)≈(OA) e (OD)≈(AB) si ha che [(DB)]≈=[(OA)]≈= u e [(OD)]≈=[(AB)]≈= v . Quindi,
→ → → →
u [+] v = [(OA)]≈ [+] [(AB)]≈= [(OB)]≈= [(OD)]≈ [+] [(DB)]≈= v [+] u . 

22
6.2.24. Definizione. Sia * : R×V → V l’operazione binaria ovunque definita in R×V a valori in V

definita nel modo seguente: ∀α∈R , ∀ u ∈V
→ → → →
• se α = 0 vel u = 0 allora α* u := 0 ;
→ → → → →
• se α ≠ 0 et u ≠ 0 allora α* u è il vettore libero avente lunghezza ||α* u || := (|α|)|| u ||, la stessa
→ → →
direzione di u e verso uguale a quello di u se α > 0 aut opposto a quello di u se α < 0.

3*u

(5/6)*u

(-2)*u

(-1/2)*u

Si può provare (noi faremo solo degli esempi) che valgono le seguenti proprietà:

→ → → → → →
(PS1) ∀α∈R , ∀ u , v ∈V α*( u [+] v ) = (α* u ) [+] (α* v )

→ →
6.2.25. Esempio. Siano u e v i vettori liberi rappresentati dai segmenti orientati rosso e verde e
→ → → →
sia α = 2. Si vede che il vettore libero 2*( u [+] v ) è uguale al vettore libero (2* u ) [+] (2* v ).

A
u C

α=2 u[+]v B
O
2*(u[+]v)
v

D
2*u

2*v
E
(2*u)[+](2*v)
O'

23
→ → → →
(PS2) ∀α,β∈R , ∀ u ∈V (α+β)* u = (α* u ) [+] (β* u )


6.2.26. Esempio. Sia u il vettore libero rappresentato dal segmento orientato rosso. Siano α=1/2 e
→ → →
β=3/2. Si vede che il vettore libero (1/2+3/2)* u è uguale al vettore libero ((1/2)* u )[+]((3/2)* u )

((1/2)+(3/2))*u = 2*u

(1/2)*u

(3/2)*u

((1/2)*u) [+] ((3/2)*u)

→ → →
(PS3) ∀α,β∈R , ∀ u ∈V (αβ)* u = α*(β* u )


6.2.27. Esempio. Sia u il vettore libero rappresentato dal segmento orientato rosso. Siano α=3/2 e
→ →
β=-2. Si vede che il vettore libero ((3/2)(-2))* u è uguale al vettore libero (3/2)*((-2)* u )

((3/2)(-2))*u = (-3)*u

v = (-2)*u

(3/2)*v = (3/2)*((-2)*u)

Inoltre, è immediato verificare che


→ → →
(PS4) ∀ u ∈V 1* u = u

Ricordando (Lemma 6.2.23) che (V, [+]) è un gruppo abeliano, abbiamo provato il seguente:

6.2.28 TEOREMA. La terna (V, [+], *) è uno spazio vettoriale reale.

24
6. Quattro esempi di spazi vettoriali reali.

6.3 Le n-uple ordinate di numeri reali.

Siano R il campo dei numeri reali e Rn l’insieme delle n-uple ordinate di numeri reali.

Ricordiamo che due n-uple ordinate di numeri reali

(a1, a2, a3, …, an-1, an) e (b1, b2, b3, …, bn-1, bn)

sono uguali se e solo se

a1 = b1, a2 = b2, a3 = b3, , an-1 = bn-1, an = bn

ovvero, se e solo se hanno gli stessi elementi negli stessi “posti”.

6.3.1. Osservazione. Date due n-uple ordinate di numeri reali

(a1, a2, a3, …, an-1, an) e (b1, b2, b3, …, bn-1, bn)

per ogni i∈{1, 2, 3, …, (n-1), n} è univocamente determinato il risultato dell’operazione ai + bi .

Quindi, è anche univocamente determinata la n-upla ordinata di numeri reali seguente:

(a1+b1, a2+b2, a3+b3, …, an-1+bn-1, an+bn).

Tenendo conto dell’osservazione precedente è ben posta la seguente:

6.3.2. Definizione. Sia ⊕ : Rn×Rn→ Rn l’operazione binaria ovunque definita ed interna a Rn

definita nel modo seguente: ∀(a1, a2, a3, …, an-1, an), (b1, b2, b3, …, bn-1, bn)∈Rn

(a1, a2, a3, …, an-1, an) ⊕ (b1, b2, b3, …, bn-1, bn) := (a1+b1, a2+b2, a3+b3, …, an-1+bn-1, an+bn)

Tale operazione viene detta somma di due n-uple ordinate.

6.3.3. Esempio. In R4 si ha che (2, 4,-7, ½) ⊕ (5,-6, 3,-1) = (7, -2, -4,-½)

25
6.3.4. Definizione. Una n-upla ordinata i cui elementi sono tutti zeri la diremo n-upla nulla. Tale n-
upla la indicheremo col simbolo on

6.3.5. Esempio. o2 = (0, 0) coppia nulla; o3 = (0, 0, 0) terna nulla; o4 = (0, 0, 0, 0) quaterna nulla.

6.3.6. Definizione. Sia a = (a1, a2, a3, …, an-1, an) una n-upla ordinata di numeri reali. Col simbolo a
indicheremo la seguente (-a1, -a2, -a3, …, -an-1, -an) n-upla ordinata di numeri reali.

6.3.7. Esempio. Se a = (0, 0) allora a = (0, 0)


Se a = (0, -1, 5) allora a = (0, 1, -5)
Se a = (-1, -2, 3, 4) allora a = (1, 2, -3, -4)

Tenendo conto che (R, +) è un gruppo abeliano si prova subito che valgono le seguenti proprietà:
(G1) ∀(a1, a2, …, an), (b1, b2, …, bn), (c1, c2, …, cn)∈Rn
((a1, a2, …, an)⊕(b1, b2, …, bn))⊕(c1, c2, …, cn) = (a1, a2, …, an)⊕((b1, b2, …, bn)⊕(c1, c2, …, cn))
(l’operazione ⊕ di soma tra due n-uple gode della proprietà associativa)

(G2) ∃on = (0, 0, 0, …, 0, 0)∈Rn : ∀a = (a1, a2, a3, …, an-1, an)∈Rn a ⊕ on = a = on⊕ a
(esiste l’elemento neutro rispetto all’operazione ⊕ di somma tra due n-uple)

(G3) ∀a = (a1, a2, a3, …, an-1, an)∈Rn ∃a = (-a1, -a2, -a3, …, -an-1, -an)∈Rn : a ⊕ a = on = a⊕ a
(esiste il simmetrico di ogni elemento rispetto all’operazione ⊕ di somma tra due n-uple)

(G4) ∀(a1, a2, …, an), (b1, b2, …, bn)∈Rn


(a1, a2, …, an)⊕(b1, b2, …, bn) = (b1, b2, …, bn)⊕(a1, a2, …, an)
(l’operazione ⊕ di soma tra due n-uple gode della proprietà commutativa)

Abbiamo quindi provato il seguente

6.3.8. Lemma.La coppia (Rn, ⊕) è un gruppo abeliano.

6.3.9. Osservazione. Per la proprietà (G6) si ha che la n-upla a è unica. Tale n-upla viene anche
detta n-upla opposta della n-upla a e indicata col simbolo -a.

26
6.3.10. Osservazione. Data una n-upla ordinata di numeri reali (a1, a2, a3, …, an-1, an) e un numero
reale α per ogni i = 1, 2, 3, …, (n-1), n è univocamente determinato il risultato dell’operazione αai .
Quindi, è anche univocamente determinata la n-upla ordinata di numeri reali seguente:

(αa1, αa2, αa3, …, αan-1, αan).

Tenendo conto dell’osservazione precedente è ben posta la seguente:

6.3.11. Definizione. Sia ⊗ : R×Rn → Rn l’operazione binaria ovunque definita tra uno scalare e una

n-upla ordinata di numeri reali a valori in Rn definita nel modo seguente:


∀α∈R , ∀(a1, a2, a3, , an-1, an)∈Rn

α⊗(a1, a2, a3, …, an-1, an) := (αa1, αa2, αa3, …, αan-1, αan)

Tale operazione viene detta prodotto di un numero reale per una n-upla ordinata.

6.3.12. Esempio. 2⊗(2, 4,-7, ½) = (4, 8,-14, 1); (-¾)⊗(8,0, 12,-40) = (-6, 0, -9, 30)

Tenendo conto che R è un campo, si prova che:

∀α,β∈R, ∀(a1, a2, …, an), (b1, b2, …, bn)∈Rn

(PS1) α⊗((a1, a2, …, an) ⊕ (b1, b2, …, bn)) = (α⊗(a1, a2, …, an)) ⊕ (α⊗(b1, b2, …, bn))

(PS2) (α + β)⊗(a1, a2, …, an) = (α⊗(a1, a2, …, an)) ⊕ (β⊗(a1, a2, …, an))

(PS3) (αβ)⊗(a1, a2, …, an) = α⊗(β⊗(a1, a2, …, an))

(PS4) 1⊗(a1, a2, …, an) = (a1, a2, …, an)

Ricordando (Lemma 6.3.8) che (Rn, ⊕) è un gruppo abeliano, abbiamo provato il seguente:

6.3.13. TEOREMA. La terna (Rn, ⊕, ⊗) è uno spazio vettoriale reale.

27
6. Quattro esempi di spazi vettoriali reali.

6.4 Le matrici di uno stesso (fissato) ordine ad elementi reali.

Indichiamo con Rn l’insieme delle n-uple ordinate di numeri reali. In 6.3., dopo aver introdotto
un’operazione ⊕ di “somma” tra due n-uple reali e un’operazione ⊗ di “prodotto” tra un numero

reale e una n-upla reale, abbiamo visto che la terna (Rn, ⊕, ⊗) è uno spazio vettoriale reale.

Qui indicheremo brevemente con Rn lo spazio vettoriale reale (Rn, ⊕, ⊗).

Siano a1, a2, a3, …, a(m-1), am m elementi di Rn, cioè m n-uple ordinate di numeri reali.
a1 = (a11, a12, , a1n)
a2 = (a21, a22, , a2n)
a3 = (a31, a32, , a3n)
…………
…………
a(m-1) = (a(m-1)1, a(m-1)2, , a(m-1)n)
am = (am1, am2, , amn)

Consideriamo una m-upla ordinata che contenga tali n-uple come elementi, cioè
(a1, a2, a3, …, a(m-1), am)
ovvero
((a11, a12, , a1n), (a21, a22, , a2n), (a31, a32, , a3n), …, (a(m-1)1, a(m-1)2, , a(m-1)n), (am1, am2, , amn))

6.4.1. Definizione. Diremo matrice di tipo m×n ad elementi reali ogni m-upla ordinata avente come
elementi n-uple ordinate di numeri reali.

6.4.2. Esempio. A = ((2,3,0), (1,-7,4)) è una matrice di tipo 2×3.


B = ((4,5,1), (1,1,1), (0,0,-2)) è una matrice di tipo 3×3.
C = ((1,2,3,4), (11,-4,-4,9), (-6,0,8,0)) è una matrice di tipo 3×4.

6.4.3. Osservazione. Ovviamente, una matrice è una (mn)-upla.

28
Di solito una matrice di tipo m×n viene rappresentata con una tabella rettangolare di m righe e n
colonne in modo tale che gli n elementi della i-esima riga siano proprio gli n elementi della i-esima
n-upla ordinata ai.

 a1   a11 a12 a13 a14 . . . a1(n -1) a1n 


 a   a 21 a 22 a 23 a 24 . . . a 2(n -1) a 2n 
 2   a a 32 a 33 a 34 . . . a 3(n -1) a 3n 
 a 3   31 
A=  = . . . . . . . . . 
   . . . . . . . . . 
a(m −1)  a 
  (m-1)1 (m-1)2 (m-1)3 (m-1)4
a a a . . . a (m -1),(n -1) a (m-1)n 

 am   a m1 a m2 a m3 a m4 . . . a m(n -1) a mn 

In tal modo si ha che il numero reale aij che si trova nella i-esima riga e j-esima colonna della
matrice (che diremo elemento di posto ij) è il j-esimo elemento della i-esima n-upla ordinata.

6.4.4. Esempio. Usando questa nuova rappresentazione scriveremo

 2 3 0
A=   invece di A = ((2,3,0), (1,-7,4))
1 − 7 4 
4 5 1 

B= 1 1 1 invece di B = ((4,5,1), (1,1,1), (0,0,-2))
 
0 0 − 2

1 2 3 4

C = 11 − 4 − 4 9
 invece di C = ((1,2,3,4), (11,-4,-4,9), (-6,0,8,0))
 
− 6 0 8 0

Per brevità, spesso scriveremo A = [aij]m×n per indicare una tabella rettangolare di m righe ed n
colonne contenente come elementi dei numeri reali.

6.4.5. Definizione. Col simbolo M(m, n, R) indicheremo l’insieme contenente tutte e sole le matrici
di tipo m×n ad elementi reali. In pratica M(m, n, R) = (Rn)m.

29
 a1   b1 
 a   b 
 2   2 
 a3   b3 
6.4.6. Osservazione. Siano A =   e B=   due matrici ad elementi reali dello
   
a(m −1)  b (m −1) 
   
 am   bm 
stesso tipo m×n. Per ogni indice i∈{1, 2, 3, …, (m-1), m} di riga è univocamente determinata in Rn
la n-upla ordinata ai ⊕ bi risultato dell’operazione ⊕ tra le due n-uple ordinate ai e bi .Quindi, è

 a1 ⊕ b1 
 a ⊕b 
 2 2 
 a3 ⊕ b 3 
anche univocamente determinata la matrice   ad elementi reali di tipo m×n.
 
a m -1 ⊕ bm -1 
 
 am ⊕ bm 

Tenendo conto dell’osservazione precedente è ben posta la seguente

6.4.7. Definizione. Sia [⊕] : M(m, n, R)×M(m, n, R) → M(m, n, R) l’operazione binaria ovunque
definita ed interna a M(m, n, R) definita nel modo seguente:

 a 1   b1   a1   b1   a1 ⊕ b1 
 a   b   a   b   a ⊕b 
 2   2   2   2   2 2 
 a3   b3   a3   b3   a3 ⊕ b3 
∀ ,  ∈M(m, n, R)   [⊕]   :=  
         
a(m −1)  b (m −1)  a(m −1)  b (m −1)  am -1 ⊕ bm -1 
         
 am   bm   am   bm   am ⊕ bm 

Tale operazione (fra due matrici dello stesso tipo) viene detta somma di due matrici.

2 3 0  5 −3 1   7 0 1
6.4.8. Esempio. − 1 − 7 4 [⊕] − 7 0 − 10 = − 8 − 7 − 6
     
4 5 1  − 4 − 5 − 1 0 0 0
1 1 1  [⊕]  1 1 1  =  2 2 2
     
0 0 − 2  3 3 5  3 3 3

30
6.4.9. Definizione. Una matrice ad elementi reali di tipo m×n la diremo nulla, e la indicheremo col
simbolo Om××n (o anche, quando il tipo m×n è chiaro dal contesto, più brevemente con O) se tutte le
sue righe sono uguali alla n-upla nulla (0, 0, 0, …,0, 0). Quindi, tutti gli elementi di Om××n sono nulli.

0 0 0 0 
6.4.10. Esempio.

O3××4 = 0 0 0 0

 
0 0 0 0

6.4.11. Definizione. Sia A una matrice ad elementi reali di tipo m×n. Con A indicheremo la matrice
ad elementi reali di tipo m×n così definita: per ogni indice i∈{1, 2, 3, …, (m-1), m} di riga se
a = (ai1, ai2, ai3, …, ai(n-1), ain) è la i-esima riga di A allora –a = (-ai1, -ai2, -ai3, …, -ai,(n-1), -ain) è la
i-esima riga di A. Ovvero, se A = [aij]m×n e A = [bij]m×n allora per ogni i∈{1, 2, 3, …, (m-1), m}
indice di riga e ogni j∈{1, 2, 3, …, (n-1), n} indice di colonna si ha che e bij = - aij .

1 2 3 4  − 1 − 2 − 3 − 4
 
6.4.12. Esempio. Se A = 11 − 4 − 4 9 allora A =
− 11 4 4 − 9
   
− 6 0 8 0  6 0 − 8 0 

Tenendo conto che (Rn, ⊕) è un gruppo abeliano si prova subito che valgono le seguenti proprietà:

(G1) ∀A,B,C∈M(m, n, R) (A [⊕] B) [⊕] C = A [⊕] (B [⊕] C)


(l’operazione [⊕] di soma tra due matrici gode della proprietà associativa)
(G2) ∃ Om××n∈M(m, n, R) : ∀A∈M(m, n, R) A [⊕] Om××n = A = Om××n [⊕] A
(esiste l’elemento neutro rispetto all’operazione [⊕] di somma tra due matrici)

(G3) ∀A∈M(m, n, R) ∃∈A(m, n, R) : A [⊕] A = Om××n = A [⊕] A


(esiste il simmetrico di ogni elemento rispetto all’operazione [⊕] di somma tra due matrici)
(G4) ∀A,B∈M(m, n, R) A [⊕] B = B [⊕] A
(l’operazione [⊕] di soma tra due matrici gode della proprietà commutativa)

Abbiamo quindi provato il seguente

6.4.13. Lemma. La coppia (M(m, n, R), [⊕]) è un gruppo abeliano.

6.4.14. Osservazione. Per la proprietà (G6) si ha che la matrice A è unica. Tale matrice viene anche
detta matrice opposta della matrice A e indicata col simbolo -A.

31
 a1 
 a 
 2 
 a3 
6.4.15. Osservazione. Siano α∈R e A =   una matrice ad elementi reali di tipo m×n. Per
 
a(m −1) 
 
 am 
ogni indice i∈{1, 2, 3, …, (m-1), m} di riga è univocamente determinata in Rn la-nupla α⊗ai
risultato dell’operazione di prodotto tra il numero reale α e la n-upla ai . Quindi, è anche

 α ⊗ a1 
 α ⊗a 
 2 
 α ⊗ a3 
univocamente determinata la matrice   ad elementi reali di tipo m×n .
 
α ⊗ a(m −1) 
 
 α ⊗ a m 

Tenendo conto dell’osservazione precedente è ben posta la seguente

6.4.16. Definizione. Sia [⊗] : R×M(m, n, R) → M(m, n, R) l’operazione binaria così definita:

 a1   a1   α ⊗ a1 
 a   a   α ⊗a 
 2   2   2 
 a3   a3   α ⊗ a3 
∀α∈R ∀   ∈M(m, n, R) α [⊗]   :=  
     
a(m −1)  a(m −1)  α ⊗ a(m −1) 
     
 m 
a  m  
a α ⊗ a m 

Tale operazione viene detta prodotto di un numero reale per una matrice.

32
2 3 0 − 6 − 9 0 
6.4.17. Esempio. (-3)[⊗]  = 
− 1 − 7 4  3 21 − 12
 4 5 1   2 5 / 2 1 / 2

(1/2)[⊗] 1 1 1  = 1 / 2 1 / 2 1 / 2
   
0 0 − 2  0 0 −1 

1 2 3 4  0 0 0 0 
  
0[⊗] 11 − 4 − 4 9 = 0 0 0 0

   
− 6 0 8 0 0 0 0 0

Tenendo conto che (Rn, ⊕, ⊗) è uno spazio vettoriale reale si prova subito che valgono le proprietà:

(PS1) ∀α∈R , ∀A, B∈M(m, n, R) α[⊗](A [⊕] B) = (α[⊗]A) [⊕] (α[⊗]B)

(PS2) ∀α, β∈R , ∀A∈M(m, n, R) (α+β)[⊗]A = (α[⊗]A) [⊕] (β[⊗]A)

(PS3) ∀α, β∈R , ∀A∈M(m, n, R) (αβ)[⊗]A = α[⊗](β[⊗]A)

(PS4) ∀A∈M(m, n, R) 1[⊗]A = A

Ricordando (Lemma 6.4.13) che (M(m, n, R), [⊕]) è un gruppo abeliano, abbiamo il seguente:

6.4.18. TEOREMA. La terna (M(m, n, R), [⊕], [⊗]) è uno spazio vettoriale reale.

33
7. Dipendenza ed indipendenza lineare.

7.1. Osservazione. In generale, (α∗u) ⊥ v ≠ α∗(u ⊥ v). Infatti


(α∗u) ⊥ v = α∗(u ⊥ v) ⇔ (α∗u) ⊥ v = (α∗u) ⊥ (α∗v) ⇔ v = α∗v ⇔ 1*v = α∗v ⇔ v = 0 vel α = 1

7.2. Esempio. Si ha che 2⊗[(1, 0,-2, 5) ⊕ (2,-1, 0, 12)] = 2⊗(3, -1,-2, 17) = (6, -2, -4, 34)
Mentre [2⊗(1, 0,-2, 5)] ⊕ (2,-1, 0, 12) = (2, 0, -4, 10) ⊕ (2,-1, 0, 12) = (4, -1, -4, 22)

Tenendo conto dell’osservazione 7.1 diamo la seguente

7.3. Definizione. Stabiliamo che, in mancanza di parentesi, l’operazione * sia prioritaria rispetto
all’operazione ⊥. Ovvero, stabiliamo che α∗u ⊥ v := (α∗u) ⊥ v.

7.4. Definizione. Indicato brevemente con VR uno spazio vettoriale reale (V, ⊥, ∗), chiameremo
espressione vettoriale in VR una qualunque scrittura, che abbia senso, nella quale possono apparire:
- elementi di V (che si dicono vettori) e numeri reali (che si dicono scalari);
- operazioni ⊥ tra vettori;
- operazioni ∗ tra scalari e vettori;
- operazioni di somma e prodotto tra numeri reali;
- parentesi e il segno di uguaglianza.

7.5. Osservazione. Le proprietà (G1), (G2), …, (G12) e (PS1), (PS2), …, (PS12) di uno spazio
vettoriale reale ci permettono di “manipolare” un’espressione vettoriale in modo “analogo” ad
un’espressione coi numeri reali, tenendo però conto che rispetto all’operazione ∗ non abbiamo il
concetto di simmetrico di un vettore.

7.6. Definizione. Da ora scriveremo:


• u + v invece di u⊥v e parleremo di somma di due vettori;
• 0 invece di h e diremo che 0 è il vettore nullo;
• -v invece di v e diremo che -v è l’opposto del vettore v;
• u-v invece di u + (-v) e parleremo di differenza di due vettori;
• αu invece di α∗u e parleremo di prodotto di uno scalare per un vettore.
• αu+v invece di α∗u ⊥ v ricordando che αu+v := (αu)+v

34
7.7. Osservazione. Alcune delle proprietà viste possono essere riscritte così:
• -(-u) = u
• (-α)u = -(αu)
• αu = 0 ⇔ α = 0 vel u = 0 (legge di annullamento del prodotto)
• u+w=v+w ⇔ u=v (cancellabilità rispetto alla somma di vettori)
• αu = αv et α ≠ 0 ⇒ u = v (cancellabilità, rispetto al prodotto, di uno scalare non nullo)
• αu = βu et u ≠ 0 ⇒ α = β (cancellabilità, rispetto al prodotto, di un vettore non nullo)
• v + w = u ⇔ w = u - v ⇔ v = u - w (spostabilità rispetto alla somma di vettori)
• αu = v et α ≠ 0 ⇒ u = α-1v (spostabilità di uno scalare rispetto al prodotto)
Si noti che, rispetto all’operazione di prodotto di uno scalare per un vettore, non è possibile
spostare un vettore attraverso il segno di uguaglianza.

7.8. Definizione. Siano u1, u2, u3, u4,…, un-1, un∈VR. Diremo combinazione lineare (brevemente
C.L.) dei vettori u1, u2, u3, u4,…, un-1, un a coefficienti rispettivamente α1, α2, α3, α4,…, αn-1, αn
l’espressione vettoriale seguente
n
α1u1 + α2u2 + α3u3 + α4u4 +… αn-1un-1 + αnun = ∑ αiui
i=1

Se indichiamo con v il vettore di VR risultato finale (UNICO) di tutte le operazioni precedenti, cioè

v = α1u1 + α2u2 + α3u3 + α4u4 +… αn-1un-1 + αnun

diremo che il vettore v è una combinazione lineare dei vettori u1, u2, u3, u4,…, un-1, un .
Se n = 1, cioè v = αu diremo anche che v è multiplo di u o, anche, che v è proporzionale a u.

7.9. Esempio. L’espressione vettoriale in R4


2⊗(1, 0,-2, 5) ⊕ 0⊗(2,-1, 0, 12) ⊕ (-1)⊗(4,-3, 4, 2)
è una combinazione lineare delle quaterne ordinate (1, 0,-2, 5), (2,-1, 0, 12) e (4,-3, 4, 2). Poiché
2⊗(1, 0,-2, 5) ⊕ 0⊗(2,-1, 0, 12) ⊕ (-1)⊗(4,-3, 4, 2) = (-2, 3, -8, 8)
la quaterna (-2, 3, -8, 8) è combinazione lineare delle quaterne (1, 0,-2, 5), (2,-1, 0, 12) e (4,-3, 4, 2).

7.10 Osservazione. Per la legge di annullamento del prodotto (αu = 0 ⇔ α=0 vel u=0) si ha che:
- il vettore nullo è multiplo di qualunque altro vettore, infatti ∀u∈VR si ha che 0u = 0;
- l’unico multiplo del vettore nullo è il vettore nullo stesso, infatti ∀α∈R si ha che α0 = 0.

35
7.11. Osservazione. Se u1 = u2 = u3 = u4 = …= un-1 = un = 0, allora ogni loro combinazione lineare
(cioè per ogni scelta dei coefficienti) ha come risultato sempre il vettore nullo.

7.12. Osservazione. Comunque si scelgano n vettori u1, u2, u3, u4,…, un-1, un∈VR si ha che
0u1 + 0u2 + 0u3 +… 0un-1 + 0un = 0
Ovvero, comunque si scelgano n vettori, è sempre possibile esprimere il vettore nullo come una
loro combinzione lineare in almeno un modo, infatti è sufficiente prendere i coefficienti tutti nulli.
La precedente condizione sufficiente non è, in generale, necessaria. Ovvero, esistono combinazioni
lineari a coefficienti non tutti nulli che hanno come risultato il vettore nullo.

7.13. Esempio.

u v

v
u w
2v u+v

1u + 2v = u + 2v = u + (-u) = 0 1u + 1v + 1w = (u+v) + w = (-w) + w = 0

7.14. Esempio. Date le seguenti terne ordinate di numeri reali (1, 0,-2), (2,-1, 0) e (4,-3, 4) è facile
verificare che (-2)⊗(1, 0,-2) ⊕ 3⊗(2,-1, 0) ⊕ (-1)⊗(4,-3, 4) = (0, 0, 0).

Tenendo conto dell’osservazione 7.12 possiamo dare la seguente

7.15. Definizione. Diremo che n vettori u1, u2, u3, u4,…, un-1, un ∈VR sono linearmente dipendenti
(L. D.), se è possibile esprimere il vettore nullo 0 come una loro combinazione lineare a coefficienti
non tutti nulli. Altrimenti diremo che sono linearmente indipendenti (L. I.).

Sempre tenendo conto dell’Osservazione 7.12 si ha subito che

7.16. Osservazione. n vettori sono linearmente indipendenti (se e) solo se l’unico modo per
esprimere il vettore nullo come loro combinazione lineare è quello a coefficienti tutti nulli.

7.17. Osservazione. Per la legge di annullamento del prodotto (αu = 0 ⇔ α=0 vel u=0) si ha che
- il vettore nullo è linearmente dipendente, infatti ∀α∈R si ha che α0 = 0
- ogni vettore non nullo è linearmente indipendente, infatti u ≠ 0 et αu = 0 se solo se α = 0.

36
7.18. Teorema. Se i vettori u1, u2, u3, …, un-1, un di VR sono linearmente dipendenti, allora
comunque si scelgano altri p vettori v1, v2, v3, …, vp-1, vp di VR si ha che gli (n + p) vettori sono
ancora linearmente dipendenti.

Dimostrazione. Per ipotesi esistono n scalari αi non tutti nulli tali che

α1u1 + α2u2 + α3u3 + … αn-1un-1 + αnun = 0.

La combinazione lineare seguente:

α1u1 + α2u2 + α3u3 + … αn-1un-1 + αnun + 0v1 + 0v2 + 0v3 + … 0vp-1 + 0vp

è una combinazione lineare a coefficienti non tutti nulli (almeno uno degli αi è non nullo) il cui
risultato è il vettore nullo 0. Quindi, gli (n + p) vettori sono linearmente dipendenti. 

7.19. Corollario. Se A è un insieme di vettori linearmente indipendenti, allora ogni sottoinsieme B


di A è a sua volta un insieme di vettori linearmente indipendenti.

Dimostrazione (per assurdo). Se B fosse un insieme di vettori dipendenti, allora (per il Teorema
7.18) anche A sarebbe un insieme di vettori dipendenti, contro l’ipotesi. 

7.20. TEOREMA (caratterizzazione della lineare dipendenza). I vettori u1, u2, u3, …, un-1, un sono
linearmente dipendenti se e solo se (almeno) uno di essi è combinazione lineare dei rimanenti.

Dimostrazione.

⇒) Se u1, u2, u3, …, un-1, un sono L. Dip., allora esiste una loro combinazione lineare a coefficienti
non tutti nulli che è uguale al vettore nullo, cioè α1u1 + α2u2 + α3u3 + … αn-1un-1 + αnun = 0. Senza
perdere di generalità, possiamo supporre che sia α1 ≠ 0. Si ha u1 = β2u2 + β3u3 + … βn-1un-1 + βnun
con βi = (-αi / α1 ) ∀i∈[2, n]. Quindi, u1 è combinazione lineare dei vettori u2, u3, …, un-1, un.

⇐) Se uno dei vettori è combinazione lineare dei rimanenti allora supponiamo che questo sia u1 .

Da u1 = β2u2 + β3u3 + … βn-1un-1 + βnun si ha che (-1)u1 + β2u2 + β3u3 + … βn-1un-1 + βnun = 0.

Poichè, esiste una C.L. a coefficienti non tutti nulli (-1≠0) degli n vettori che ha come risultato il
vettore nullo si ha che essi sono L. Dip. 

7.21. Corollario. Due vettori sono linearmente dipendenti se e solo se almeno uno dei due si può
scrivere come multiplo dell’altro (ovvero almeno uno dei due è proporzionale all’altro).

37
8. Dipendenza ed indipendenza lineare: il caso dei vettori liberi.

Dall’osservazione 7.17 si ha che:


• il vettore libero nullo è linearmente dipendente;
• ogni vettore libero diverso dal vettore nullo è linearmente indipendente.

→ → → →
8.1. Definizione. Diremo che due vettori liberi u e v sono paralleli, e scriveremo u // v , se sono
→ →
paralleli un rappresentante di u e un rappresentante di v .

→ →
8.2. Lemma. Se u e v sono due vettori liberi non nulli e paralleli tra loro, allora ognuno dei due si
può scrivere come multiplo dell’altro.
→ → → → → → → →
Dimostrazione. Se u ≠ 0 et v ≠ 0 allora || u || ≠ 0 et || v || ≠ 0. Sia α := || u ||/|| v || ≠ 0. Tenendo
conto di come è stata definita l’operazione di prodotto di uno scalare per un vettore libero si ha che:
→ → → → → →
u = α* v et v = (α-1)* u se u e v hanno lo stesso verso;
→ → → → → →
u =(-α)* v et v =(-α-1)* u se u e v hanno verso opposto. 

8.3. Lemma. Due vettori liberi sono paralleli se e solo se almeno uno dei due si può scrivere come
multiplo dell’altro.

Dimostrazione. (⇐) Ovvia, tenendo conto di come è stata definita l’operazione di prodotto di uno
scalare per un vettore libero.
(⇒) Se almeno uno dei due vettori è il vettore nullo allora la tesi è vera per l’osservazione 7.10. Se i
due vettori sono non nulli la tesi è conseguenza del lemma 8.2. 

Dal Lemma 8.3 e dal Corollario 7.21 segue subito il seguente:

8.4. Teorema. Due vettori liberi sono linearmente dipendenti se e solo se sono paralleli.

8.5. Definizione. Diremo che tre vettori liberi sono complanari se sono complanari tre loro
rappresentanti applicati in uno stesso punto.

38
8.6. Lemma. Comunque scelti tre vettori liberi complanari a due a due non paralleli, ognuno di essi
si può scrivere come combinazione lineare dei rimanenti (e quindi i tre vettori sono L.Dip.).

Dimostrazione. (Indichiamo con rAB la retta passante per due punti distinti A e B). Si scelga, a
piacere, un punto O dello spazio. Siano (OA), (OB) e (OC) gli unici rappresentanti applicati in O
→ → →
dei vettori liberi di u , v e w rispettivamente. Poichè, per ipotesi, i tre vettori liberi sono
complanari esiste un unico piano π contenente i quattro punti O, A, B e C. Inoltre, siccome i tre
vettori sono a due a due non paralleli, si ha che mai sono allineati tre dei quattro punti O, A, B e C.
B

v
C

w
A
O u

Sia t la retta di π per C parallela a (OB) e sia D = t ∩ rOA. Ovviamente, D ≠ O (se fosse D = O si
avrebbe t = rOB e, quindi, C∈rOB contro l’ipotesi “mai tre allineati). D∈rOA implica (OD)//(OA) e,
quindi, [(OD)]≈//[(OA)]≈ . Essendo entrambi non nulli esiste α ≠ 0 tale che [(OD)]≈= α*[(OA)]≈ .
Sia s la retta di π per C parallela a rOA e sia E = s ∩ rOB. Ovviamente, E ≠ O (se fosse E = O si
avrebbe s = rOA e, quindi, C∈rOA contro l’ipotesi “mai tre allineati). E∈rOB implica (OE)//(OB) e,
quindi, [(OE)]≈//[(OB)]≈ . Essendo entrambi non nulli esiste β ≠ 0 tale che [(OE)]≈= β*[(OB)]≈ .

v
C E
s

w
D
A
O u

La figura ODCE è un parallelogrammo. Quindi, (OE)≈(DC) da cui [(OE)]≈.= [(DC)]≈. Si ha


→ → →
(α* u )[+](β* v )=(α*[(OA)]≈)[+](β*[(OB)]≈)=[(OD)]≈[+][(OE)]≈=[(OD)]≈[+][(DC)]≈=[(OC)]≈= w
→ → → → → →
Poiché α ≠ 0 et β ≠ 0 è anche u = ((α-1)* w )[+]((-βα-1)* v ) et v = ((β-1)* w )[+]((-αβ-1)* u ). 

39
8.7. Teorema. Tre vettori liberi sono linearmente dipendenti se e solo se sono complanari.

Dimostrazione. (Indichiamo con rAB la retta passante per due punti distinti A e B).
Se due dei tre vettori sono L.D., allora quei due vettori sono paralleli e, quindi, i tre vettori sono
complanari. Viceversa, se due dei tre vettori sono paralleli, allora quei due vettori sono L.D. e,
quindi, i tre vettori sono L.D..

Supponiamo, ora, che mai due di essi siano L.D., ovvero che mai due di essi siano paralleli.
⇐) è la dimostrazione del Lemma 8.6.
⇒) Si scelga, a piacere, un punto O dello spazio. Siano (OA), (OB) e (OC) gli unici rappresentanti
→ → →
applicati in O dei vettori liberi di u , v e w rispettivamente. Poiché, per ipotesi, i tre vettori sono
L.D., almeno uno di essi si può scrivere come C.L. degli altri due. Se supponiamo che sia
→ → →
w = (α* u )[+](β* v ) allora chiamiamo π il piano individuato dai tre punti non allineati O, A e B.
Per avere la tesi dobbiamo provare che C∈π.

Nello spazio esiste ed è unico un punto D tale che il segmento (OD) sia il rappresentante di α* u
→ → →
applicato in O. Quindi, α* u = [(OD)]≈. Poiché (α* u )// u si ha che D∈rOA e, quindi, D∈π.

Nello spazio esiste ed è unico un punto E tale che il segmento (OE) sia il rappresentante di β* v
→ → →
applicato in O. Quindi, β* v = [(OE)]≈. Poiché (β* v )// v si ha che E∈rOB e, quindi, E∈π.

F E

w
D
u A
O

Sia F∈π tale che ODFE è un parallelogrammo. Ovviamente, (OE)≈(DF) per cui [(OE)]≈.= [(DF)]≈.
→ → →
Da [(OC)]≈= w = (α* u )[+](β* v ) = [(OD)]≈[+][(OE)]≈= [(OD)]≈[+][(DF)]≈= [(OF)]≈ si ha che
[(OC)]≈= [(OF)]≈ da cui C = F. Quindi, C∈π. 

40
8.8. Lemma. Comunque scelti quattro vettori liberi a tre a tre non complanari, ognuno di essi si può
scrivere come combinazione lineare dei rimanenti (e quindi i quattro vettori sono L.Dip.).

Dimostrazione. Si scelga, a piacere, un punto O dello spazio. Siano (OA), (OB), (OC) e (OD) gli
→ → → →
unici rappresentanti applicati in O dei vettori liberi di u , v , w e z rispettivamente. Sia π1 il piano
individuato dai tre punti non allineati O, A e B. Sia π2 il piano individuato dai tre punti non allineati
O, C e D. I piani π1 e π2 hanno in comune il punto O ma sono distinti (se fossero lo stesso piano si
avrebbe che i cinque punti O, A, B, C e D sarebbero complanari e, quindi, anche i quattro vettori
liberi sarebbero complanari). Sia s la retta per O tale che s = π1∩π2 . Sulla retta s si scelga, a
→ →
piacere, un punto E diverso da O. Sia t il vettore libero individuato da (OE), cioè t = [(OE)]≈ .
→ → →
I tre vettori w , z e t sono complanari e a due a due non paralleli. Quindi, esistono due scalari α e
→ → → → → →
β non nulli tali che z = (α* t )[+](β* w ). I tre vettori u , v e t sono complanari e a due a due non
→ → →
paralleli. Quindi, esistono due scalari γ e δ non nulli tali che t = (γ* u )[+](δ* v ). Si ha
→ → → → → → → → →
z = (α* t )[+](β* w ) = α*((γ* u )[+](δ* v ))[+](β* w ) = ((αγ)* u )[+]((αδ)* v )[+](β⊗ w ).
Poiché nell’ultima espressione i coefficienti sono tutti non nulli si può esprimere ognuno dei quattro
vettori come combinazione lineare dei rimanenti. 

8.9. Teorema. Quattro, o più, vettori liberi sono sempre linearmente dipendenti.

Dimostrazione. Se tre dei quattro vettori sono L.D., allora i quattro vettori sono L.D.. Se i quattro
vettori sono a tre a tre linearmente indipendenti, allora i quattro vettori sono a tre a tre non
complanari. Per il lemma precedente ognuno di essi si può scrivere come combinazione lineare dei
rimanenti. Quindi, i quattro vettori sono linearmente dipendenti. Dati n ≥ 5 vettori liberi, allora
comunque se ne prendano quattro essi sono L.D.. Quindi, anche gli n vettori sono L.D.. 

8.10. Osservazione. Il teorema precedente è conseguenza, oltre che del fatto che (V, [+], *) è uno
spazio vettoriale reale, anche delle “peculiarità” geometriche dei vettori liberi. Per cui una proprietà
analoga non vale per ogni spazio vettoriale reale.

8.11. Esempio. Le quaterne (1,0,0,0), (0,1,0,0), (0,0,1,0) e (0,0,0,1) sono linearmente indipendenti.
Infatti, si ha che α*(1,0,0,0)[+]β*(0,1,0,0)[+]γ*(0,0,1,0)[+]δ*(0,0,0,1) = (0,0,0,0) se e solo se
(α,β,γ,δ) = (0,0,0,0) ovvero se e solo se α = β = γ = δ = 0.

41
9. Sottospazi.

9.1. Definizione. Sia f : X → Y una funzione dall’insieme X all’insieme Y. Per ogni sottoinsieme S
di X la nuova funzione fS : S → Y dall’insieme S all’insieme Y definita nel modo seguente:
∀x∈S fS(x) := f(x)∈Y.
viene detta restrizione di f a S.

9.2. Osservazione. Sia ⊥ un’operazione binaria ovunque definita ed interna ad un insieme A, cioè
una funzione ⊥ : A×A → A. Sia I ⊆ A. Quindi, I×I ⊆ A×A. La restrizione di ⊥ a I×I
⊥I×I : I×I → A
è un’operazione ovunque definita in I a valori in A, cioè ⊥I×I(I×I) ⊆ A.

Tenendo conto dell’osservazione precedente diamo la seguente:

9.3. Definizione. Sia ⊥ un’operazione binaria ovunque definita ed interna ad un insieme A. Sia
I ⊆ A. Se la restrizione di ⊥ a I×I è a valori in I, cioè ⊥I×I(I×I) ⊆ I allora diremo che il sottoinsieme I
è chiuso rispetto all’operazione ⊥.
In altre parole, I è chiuso rispetto all’operazione ⊥ se e solo se comunque presi due elementi x e y in
I si ha che il risultato dell’operazione x⊥y è ancora un elemento di I.

9.4. Esempio. Sia N l’insieme dei numeri naturali e sia + l’operazione di somma di due numeri
naturali. Siano P e D rispettivamente il sottoinsieme dei numeri pari e quello dei numeri dispari. Si
ha che P è chiuso rispetto a + mentre D non lo è. Infatti, la somma di due numeri pari è ancora un
numero pari, mentre la somma di due numeri dispari non è un numero dispari. Invece, sia P che D
sono chiusi rispetto all’operazione di prodotto di due numeri naturali.

9.5. Esempio. Sia I = [0, 1] = {x∈R | 0 ≤ x ≤ 1}. I non è chiuso rispetto alla somma di due numeri
reali mentre è chiuso rispetto al prodotto di due numeri reali.

42
9.6. Osservazione. Sia * un’operazione ovunque definita nell’insieme B×A a valori in A, cioè una
funzione * : B×A → A. Sia I ⊆ A. Quindi, B×I ⊆ B×A. La restrizione di * a B×I
⊥B×I : B×I → A
è un’operazione ovunque definita in B×I a valori in A, cioè ⊥B×I(B×I) ⊆ A.

Tenendo conto dell’osservazione precedente diamo la seguente:

9.7. Definizione. Sia * un’operazione ovunque definita nell’insieme B×A a valori in A. Sia I ⊆ A.
Se la restrizione di * a B×I è a valori in I, cioè ⊥B×I(B×I) ⊆ I allora diremo che il sottoinsieme I è
chiuso rispetto all’operazione *.
In altre parole, I è chiuso rispetto all’operazione * se e solo se comunque presi un numero reale α e
un elemento x di I si ha che il risultato dell’operazione α*x è ancora un elemento di I.

9.8. Definizione. Sia (V, ⊥, ∗) uno spazio vettoriale e U ⊆ V. Diremo che U è sottospazio di V, e
scriveremo U ≤ V, se la terna (U, ⊥U×U , *R×U) è uno spazio vettoriale reale.

9.9. Teorema. (caratterizzazione di un sottospazio). Sia U un sottoinsieme di uno spazio vettoriale


reale VR . U è un sottospazio di V se e solo se valgono le tre condizioni:
(1) U è non vuoto;
(2) U è chiuso rispetto a ⊥ (cioè ∀u,v∈U u⊥v∈U);
(3) U è chiuso rispetto a * (cioè ∀α∈R , ∀u∈U α*u∈U).
Dimostrazione. E’ ovvio che le tre condizioni sono necessarie. Proviamo che sono sufficienti.
Per la restrizione ⊥U×U valgono ovviamente le proprietà (G1) e (G4).
U ≠ ∅ ⇒ ∃u∈U ⇒ (poiché U è chiuso rispetto a *) ⇒ (0u)∈U ⇒ 0∈U. Per cui vale (G2).
∀u∈U (-u) = (-1)u∈U (poiché U è chiuso rispetto a *). Per cui vale anche (G3).
Quindi, abbiamo provato che (U, ⊥U×U) è un gruppo abeliano.
Per la restrizione *R×U valgono ovviamente le proprietà (PS1), (PS2), (PS3) e (PS4).
Abbiamo così che (U, ⊥U×U , *R×U) è uno spazio vettoriale reale. 

43
9.10. Esempio. Consideriamo lo spazio vettoriale (ℑR(R), , ) delle funzioni reali di variabile
reale definite in tutto R. Se con R[x] indichiamo l’insieme dei polinomi in x a coefficienti reali,
allora è ∅ ≠ R[x] ⊆ ℑR(R). Poiché la somma  di due polinomi è ancora un polinomio e il prodotto
 di un numero reale per un polinomio è ancora un polinomio, si ha che R[x] è chiuso rispetto alla
somma  e rispetto al prodotto . Quindi, R[x] ≤ ℑR(R).

9.11. Esempio. Sia A l’insieme dei polinomi in x a coefficienti reali di grado esattamente uguale a
n. Si vede subito che A non è chiuso rispetto all’operazione di somma di due polinomi. Infatti, presi
i polinomi p(x) = (2xn + 1)∈A e q(x) = (-2xn + 2)∈A si ha che p(x)+q(x) = 3∉A.

9.12. Esempio. Con Rn[x] indichiamo l’insieme dei polinomi in x a coefficienti reali di grado ≤ n.
Si ha che ∅ ≠ Rn[x] ⊆ R[x]. Poiché sia la somma di due polinomi di grado ≤ n che il prodotto di
uno scalare per un polinomio di grado ≤ n sono ancora polinomi di grado ≤ n si ha che Rn[x] ≤ R[x].

9.13. Esempio. Consideriamo lo spazio vettoriale (R3, ⊕, ⊗) delle terne ordinate di numeri reali.

L’insieme non vuoto B = {(x, y, z)∈R3 | z = 0} = {(x, y, 0)∈R3} è chiuso sia rispetto a ⊕ che a ⊗.

Infatti, si ha che (a, b, 0) ⊕ (c, d, 0) = (a+c, b+d, 0) e che α⊗(a, b, 0) = (αa, αb, 0). Quindi, B ≤ R3.

9.14. Esempio. Consideriamo lo spazio vettoriale (R3, ⊕, ⊗) delle terne ordinate di numeri reali.

L’insieme non vuoto C = {(x, y, z)∈R3 | z = 1} = {(x, y, 1)∈R3} non è chiuso rispetto a ⊕. Infatti,
prese due terne (a, b, 1) e (c, d, 1) si ha che (a, b, 1) ⊕ (c, d, 1) = (a+c, b+d, 2)∉C.

9.15 Esempio. Consideriamo lo spazio vettoriale (R4, ⊕, ⊗) delle quaterne ordinate di numeri reali.

L’insieme non vuoto D = {(w, x, y, z)∈R4 | w = 3x, z = x+y} = {(3x, x, y, x+y)∈R4} è chiuso sia
rispetto a ⊗ che a ⊕. Infatti, si ha che
(3a, a, b, a+b) ⊕ (3c, c, d, c+d) = (3a°+3c, a+c, b+d, a+b+c+d) = (3(a+c), a+c, b+d, (a+c)+(b+d))

e che α⊗(3a, a, b, a+b) = (α3a, αa, αb, α(a+b)) = (3(αa), αa, αb, (αa)+(αb)). Quindi, D ≤ R4.

9.16. Osservazioni. E’ facile verificare che:


9.16.1. {0} ≤ V ({0} viene detto spazio nullo)
9.16.2. V ≤ V
9.16.3. U ≤ T et T ≤ V ⇒ U ≤ V
9.16.4. U ≤ V et T ≤ V et U ⊆ T ⇒ U ≤ T

44
9.17. Definizione. Dati n vettori u1, u2, u3, …, un-1, un di VR, col simbolo <u1, u2, u3, …, un-1, un>
indicheremo il sottoinsieme di VR contenente tutti e soli i vettori che si possono esprimere come una
combinazione lineare degli n vettori u1, u2, u3, …, un-1, un.

9.18. Osservazione. Se v∈<u1, u2, u3, …, un-1, un> allora v, u1, u2, u3, …, un-1, un sono L.Dip.

9.19. Teorema. Comunque presi n vettori u1, u2, u3, …, un-1, un di VR, l’insieme

<u1, u2, u3, …, un-1, un>

è un sottospazio di VR.

Dimostrazione.

(1) Ovviamente, U := <u1, u2, u3, …, un-1, un> ≠ ∅.

(2) Proviamo che U è chiuso rispetto a +, cioè che ∀v,w∈U si ha che (v+w)∈U.
v∈U ⇒ v = α1u1+α2u2+α3u3+…+αn-1un-1+αnun
w∈U ⇒ w = β1u1+β2u2+β3u3+…+βn-1un-1+βnun
v + w = (α1u1+α2u2+α3u3+…+αn-1un-1+αnun) + (β1u1+β2u2+β3u3+…+βn-1un-1+βnun)
v + w = (α1u1+β1u1) + (α2u2+β2u2) + (α3u3+β3u3) + … + (αn-1un-1+βn-1un-1) + (αnun+βnun)
v + w = γ1u1+γ2u2+γ3u3+…+γn-1un-1+γnun ⇒ (v+w)∈U.

(3) Proviamo che U è chiuso rispetto a *, cioè che ∀v∈U e ∀δ∈R si ha che (δv)∈U.
v∈U ⇒ v = α1u1+α2u2+α3u3+…+αn-1un-1+αnun
δv = δ(α1u1+α2u2+α3u3+…+αn-1un-1+αnun) = (δα1)u1+(δα2)u2+(δα3)u3+…+(δαn-1)un-1+(δαn)un
δv = ω1u1+ωγ2u2+ω3u3+…+ωn-1un-1+ωnun ⇒ (δv)∈U. 

9.20. Definizione. Dati n vettori u1, u2, u3, …, un-1, un di VR, il sottospazio

U = <u1, u2, u3, …, un-1, un>

si dice (sotto) spazio generato dai vettori u1, u2, u3, …, un-1, un (che vengono detti generatori di U).

9.21. Definizione. Diremo che uno spazio vettoriale reale VR è finitamente generato se esiste un
insieme finito B = {u1, u2, u3, …, un-1, un} di vettori di VR tali che VR = <u1, u2, u3, …, un-1, un>.
In tal caso diremo anche che l’insieme B genera lo spazio VR e scriveremo VR = <B>.

45
9.22. Teorema. Se U = <u1, u2, u3, …, un-1, un> ≤ VR e T = <v, u1, u2, u3, …, un-1, un> ≤ VR, allora
(1) U ⊆ T e, quindi, U ≤ T (per l’Osservazione 9.16.4)
(2) U = T ⇔ v∈U

Dimostrazione.

(1) Preso w∈U si ha che w = α1u1+α2u2+α3u3+…+αn-1un-1+αnun .

Ovviamente, è anche w = 0v+α1u1+α2u2+α3u3+…+αn-1un-1+αnun . Quindi, w∈T.

(2⇒) v∈T et T = U ⇒ v∈U.

(2⇐) Per ipotesi v∈U, cioè v = α1u1+α2u2+α3u3+…+αn-1un-1+αnun .


Poiché per la (1) è già U ⊆ T, resta da provare che T ⊆ U.
Sia w∈T. Quindi, w = ωv + β1u1+β2u2+β3u3+…+βn-1un-1+βnun .
w = ω(α1u1+α2u2+α3u3+…+αn-1un-1+αnun) + β1u1+β2u2+β3u3+…+βn-1un-1+βnun .
w = (ωα1+β1)u1+(ωα2+β2)u2+(ωα3+β3)u3+ +(ωαn-1+βn-1)un-1+(ωαn+βn)un
w = δ1u1+δ2u2+δ3u3+ +δn-1un-1+δnun . Quindi, w∈U. 

9.23. Corollario. Sia VR uno spazio vettoriale reale finitamente generato. Se B è un suo insieme
minimale di generatori, allora i vettori di B sono linearmente indipendenti.

Dimostrazione. Sia B = {u1, u2, u3, …, un-1, un} un insieme minimale di generatori. Se i vettori di
B fossero linearmente dipendenti allora almeno uno di essi si potrebbe scrivere come combinazione
lineare dei rimanenti. Supponendo che sia u1 = α2u2 + α3u3 + … + αn-1un-1 + αnun si avrebbe che
u1∈<u2, u3, …, un-1, un>. Per il Teorema 9.22 si avrebbe che
<u2, u3, …, un-1, un> = <u1, u2, u3, …, un-1, un> = VR
Quindi, anche il sottoinsieme {u2, u3, …, un-1, un} di B sarebbe un insieme di generatori di VR
contro l’ipotesi che B fosse minimale. 

46
9.24. Teorema. Siano v, u1, u2, u3, …, un-1, un∈VR e U := <u1, u2, u3, …, un-1, un>. Si ha che

u1, u2, u3, …, un-1, un sono L. Indip. et v∉U ⇔ v, u1, u2, u3, …, un-1, un sono L. Indip.

Dimostrazione.

(⇐) Ovvia tenendo conto del corollario 7.19 e dell’osservazione 9.18.

(⇒) Dobbiamo provare che l’unica combinazione lineare dei vettori v, u1, u2, u3, …, un-1, un che ha
come risultato il vettore nullo è quella a coefficienti tutti nulli. Cioè, dobbiamo provare che se si ha
ωv + β1u1+β2u2+β3u3+…+βn-1un-1+βnun = 0 (#)
allora necessariamente sono nulli sia il coefficiente ω che tutti i coefficienti βi .
Se fosse ω ≠ 0, allora v = (-ω-1β1)u1+(-ω-1β2)u2+(-ω-1β3)u3+ … +(-ω-1βn-1)un-1+(-ω-1βn)un e, quindi,
v∈U contro l’ipotesi v∉U. Per cui è ω = 0. Sostituendo ω = 0 in (#) si ottiene
β1u1+β2u2+β3u3+…+βn-1un-1+βnun = 0
Essendo, per ipotesi, u1, u2, u3, …, un-1, un L. Indip. si ha che tutti i coefficienti βi sono nulli. 

9.25. Corollario. Siano v, u1, u2, u3, …, un-1, un∈VR e U := <u1, u2, u3, …, un-1, un>.

Se u1, u2, u3, …, un-1, un sono L. Indip. mentre v, u1, u2, u3, …, un-1, un sono L. Dip. allora v∈U.

9.26. Corollario. Sia VR uno spazio vettoriale reale finitamente generato. Se B è un suo insieme
massimale di vettori linearmente indipendenti, allora i vettori di B sono generatori dello spazio.

Dimostrazione. Sia B = {u1, u2, u3, …, un-1, un} un insieme massimale di vettori linearmente
indipendenti. Essendo B massimale, per ogni vettore v di VR si ha che v, u1, u2, u3, …, un-1, un sono
linearmente dipendenti. Per il Corollario 9.25 è v∈<u1, u2, u3, …, un-1, un> = <B>. Quindi, i vettori
di B sono generatori dello spazio. 

47
9.27. Definizione. Sia U := <u1, u2, u3, …,uj, …, uk, …, un-1, un>.
Diremo operazioni elementari sui generatori di U le seguenti azioni:
(O.E.1) scambiare due generatori uj e uk tra loro;
(O.E.2) sostituire un generatore uj con il vettore γuj ∀γ∈R-{0};
(O.E.3) sostituire un generatore uj con il vettore uj+βuk ∀β∈R et k≠j.

9.28. Osservazione. U è invariante rispetto all’operazione (O.E.1) di scambio di due generatori.


Infatti, per la commutatività della somma si ha che <u1, u2, u3, …,uk, …, uj, …, un-1, un> = U.

9.29. Lemma. Siano T = <t, u2, u3, …, un-1, un> e W = <w, u2, u3, …, un-1, un>

T = W ⇔ w∈T et t∈W

Dimostrazione. Sia Y = <t, w, u2, u3, …, un-1, un>.


(⇒) t∈T = W et w∈W = T ⇒ t∈W et w∈T;
(⇐) w∈T et t∈W ⇒ T = Y et W = Y ⇒ T = W. 

9.30. Teorema. Lo spazio <u1, u2, u3, …, un-1, un> è invariante rispetto alle O.E. sui generatori.

Dimostrazione. Sia U = <u1, u2, u3, …, un-1, un>.


(O.E.1) Già visto nell’Osservazione 9.28.
Tenendo conto della proprietà (O.E.1), possiamo provare la (O.E.2) e la (O.E.3) con j = 1.
(O.E.2) Sia T = <γu1, u2, u3, …, un-1, un> con γ ≠ 0
(γu1)∈T ⇒ u1= (γ-1)(γu1)∈T u1∈U ⇒ (γu1)∈U
u1∈T et (γu1)∈U ⇒ T = U (per il Lemma 9.29)
(O.E.3) Sia T = <u1+βuk, u2, u3, …, un-1, un> con k≠1.
(u1+βuk), uk∈T ⇒ (u1+βuk), (-β)uk∈T ⇒ [(u1+βuk) + (-β)uk]∈T ⇒ u1∈T
u1 , uk∈U ⇒ u1 , βuk∈U ⇒ (u1+βuk)∈U
u1∈T et (u1+βuk)∈U ⇒ T = U (per il Lemma 9.29) 

9.31. Corollario Se i vettori v1, v2, v3, …, vn-1, vn sono stati ottenuti effettuando un numero finito di
operazioni elementari sui generatori dello spazio <u1, u2, u3, …, un-1, un>, allora si ha che
<v1, v2, v3, …, vn-1, vn> = <u1, u2, u3, …, un-1, un>.

48
10. Basi e dimensione di uno spazio vettoriale.

10.1. Lemma. Sia VR uno spazio vettoriale reale finitamente generato.


Se A = {u1, u2, u3, …, un-1, un} è un insieme di generatori di VR e B = {v1, v2, v3, …, vp-1, vp} è un
insieme di vettori di VR linearmente indipendenti, allora p ≤ n.
Ovvero, la cardinalità di un qualunque insieme di generatori è sempre maggiore o uguale della
cardinalità di un insieme di vettori linearmente indipendenti.
n
Dimostrazione. Passo 1) v1∈VR = <u1, u2, u3, …, un-1, un> ⇒ v1= ∑ α1iui
i=1

v1 ≠ 0 ⇒ ∃i∈[1, n] : α1i ≠ 0. Supponiamo che sia i = 1 (cioè α11 ≠ 0) e poniamo x1:=α11-1


n
u1= x1v1+ ∑ (-x1α1i)ui ⇒ u1∈<v1, u2, u3, …, un-1, un>
i= 2

u1∈<v1, u2, u3, …, un-1, un> et v1∈<u1, u2, u3, …, un-1, un> = VR ⇒ VR = <v1, u2, u3, …, un-1, un>
n
Passo 2) v2∈VR = <v1, u2, u3, …, un-1, un> ⇒ v2=β11v1+ ∑ α2iui
i= 2

v1 , v2 L.I. ⇒ ∃i∈[2, n] : α2i ≠ 0. Supponiamo che sia i = 2 (cioè α22 ≠ 0) e poniamo x2:=α22-1
n
u2= (-x2β11)v1+x2v2+ ∑ (-x2α2i)ui ⇒ u2∈<v1, v2, u3, …, un-1, un>
i=3

u2∈<v1, v2, u3, …, un-1, un> et v2∈<v1, u2, u3, …, un-1, un> = VR ⇒ VR = <v1, v2, u3, …, un-1, un>
n
Passo 3) v3∈VR = <v1, v2, u3, …, un-1, un> ⇒ v3=β21v1+β22v2+ ∑ α3iui
i=3

v1 , v2 , v3 L.I. ⇒ ∃i∈[3, n] : α3i ≠ 0. Supponiamo i = 3 (cioè α33 ≠ 0) e poniamo x3:=α33-1


n
u3= (-x3β21)v1+(-x3β22)v2+x3v3+ ∑ (-x3α3i)ui ⇒ u3∈<v1, v2, v3, …, un-1, un>
i= 4

u3∈<v1, v2, v3, …, un-1, un> et v3∈<v1, v2, u3, …, un-1, un> = VR ⇒ VR = <v1, v2, v3, …, un-1, un>
n n
Passo j) vj∈VR = <v1, v2, v3, …, vj-1, uj, , un-1, un> ⇒ vj= ∑ β(j-1),ivi+ ∑ αjiui
i= j-1 i= j

v1 , v2 ,…, vj-1 L.I. ⇒ ∃i∈[j, n] : αji ≠ 0. Supponiamo i = j (cioè αjj ≠ 0) e poniamo xj:=αjj-1
n n
uj= ∑ (-xjβ(j-1),i)vi+xjvj+ ∑ (-xjαji)ui ⇒ uj∈<v1, v2, v3, …, vj, uj+1, , un-1, un>
i= j-1 i = j+1

uj∈<v1, v2, v3, …, vj, uj+1, , un-1, un> et vj∈VR ⇒ VR = <v1, v2, v3, …, vj, uj+1, , un-1, un>
Se fosse n<p, cioè (n+1)≤p, allora al passo n si avrebbe

49
n
Passo n) vn∈VR = <v1, v2, v3, …, vn-1, un> ⇒ vn= ∑ β(n-1),ivi + αnnun
i= n -1

v1 , v2 ,…, vn-1 L.I. ⇒ αnn ≠ 0. Poniamo xn:=αnn-1


n
un= ∑ (-xnβ(n-1),i)vi+xnvn ⇒ un∈<v1, v2, v3, …, vn>
i= n -1

un∈<v1, v2, v3, …, vn> et vn∈<v1, v2, v3, …, vn-1, un> = VR ⇒ VR = <v1, v2, v3, …, vn>

vn+1∈VR = <v1, v2, v3, …, vn> ⇒ v1, v2, v3, …, vn, vn+1 L.D. ⇒ v1, v2, v3, …, vn+1, …, vp L.D.
Essendo giunti ad un ASSURDO, si ha che p ≤ n. 

10.2. Definizione. Diremo base di uno spazio vettoriale reale finitamente generato un insieme
ordinato di generatori linearmente indipendenti, che vengono anche detti elementi della base.

n
10.3. Esempio. Nello spazio vettoriale R si considerino le seguenti n-uple: u1 = (1,0,0,0, … ,0,0,0),
u2 = (0,1,0,0, … ,0,0,0), u3 = 0,0,1,0, … ,0,0,0), ..., un-1 = 0,0,0,0, … ,0,1,0), un = 0,0,0,0, … ,0,0,1).
n
E’ facile convincersi che per ogni n-upla (α1 , α2 , α3 , … , αn-1 , αn ) di R si ha che

(α1 , α2 , α3 , … , αn-1 , αn ) = α1u1 + α2u2 + α3u3 + … + αn-1un-1 + αnun

Da quest’ultima relazione si vede subito che:


n
(1) ogni n-upla (α1 , α2 , α3 , … , αn-1 , αn ) di R si può scrivere come combinazione lineare dei
n
vettori u1, u2, u3, …, un-1, un ; quindi, i vettori u1, u2, u3, …, un-1, un sono dei generatori per R ;
(2) α1u1 + α2u2 + α3u3 + … + αn-1un-1 + αnun = (0,0,0,0, … ,0,0,0) se e solo se
(α1 , α2 , α3 , … , αn-1 , αn ) = (0,0,0,0, … ,0,0,0).
Quindi, i vettori u1, u2, u3, …, un-1, un sono linearmente indipendenti.
n
Da (1) e (2) si ha che (u1, u2, u3, …, un-1, un) è una base (detta base canonica) di R .

Tenendo conto dei Corollari 9.23 e 9.26 abbiamo la seguente

10.4. Osservazione. Sia VR uno spazio vettoriale reale finitamente generato. Se B un insieme
ordinato di vettori di VR allora
10.4.1. B è una base di VR ⇔ B è un insieme minimale di generatori di VR
10.4.2. B è una base di VR ⇔ B è un insieme massimale di vettori linearmente indipendenti

50
10.5. Esempio. Ogni terna ordinata di vettori liberi non complanari è un insieme massimale di
vettori linearmente indipendenti e, quindi, una base dello lo spazio vettoriale dei vettori liberi.

10.6. Teorema. Ogni spazio vettoriale reale VR ≠ {0} finitamente generato ha almeno una base.

1a Dimostrazione (algoritmo di decrescita). Sia V = <u1, u2, u3, …, un-1, un>.


Passo 1) Se u1, u2, u3, …, un-1, un sono L.I. allora (u1, u2, u3, …, un-1, un) è una base di V. [STOP]
Altrimenti uno di essi è combinazione lineare dei rimanenti. Se supponiamo che sia u1, allora si ha
u1∈<u2, u3, …, un-1, un> per cui è <u2, u3, …, un-1, un> = <u1, u2, u3, …, un-1, un> = V.
Passo 2) Se u2, u3, …, un-1, un sono L.I. allora (u2, u3, …, un-1, un) è una base di V. [STOP]
Altrimenti uno di essi è combinazione lineare dei rimanenti. Se supponiamo che sia u2, allora si ha
u2∈<u3, …, un-1, un> per cui è <u3, …, un-1, un> = <u2, u3, …, un-1, un> = V.
……………………………………………………………………..
Passo j) Se uj, uj+1, …, un-1, un sono L.I. allora (uj, uj+1, …, un-1, un) è una base di V. [STOP]
Altrimenti uno di essi è combinazione lineare dei rimanenti. Se supponiamo che sia uj, allora si ha
u2∈<u3, …, un-1, un> per cui è <u3, …, un-1, un> = <u2, u3, …, un-1, un> = V.
Se l’algoritmo non si fermasse prima (fornendo una base), dopo (n-1) passi si avrebbe <un> = V.
Essendo V ≠ {0}, deve essere un≠ 0. Per cui un è L.Indip. e, quindi, (un) è una base di V. 

2a Dimostrazione (algoritmo di crescita). Sia V = <u1, u2, u3, …, un-1, un>.


V ≠ {0} ⇒ ∃v1∈V : v1≠ 0 ⇒ v1 è L.I.
Passo 1) Se <v1> = V allora (v1) è una base di V. [STOP]
Se <v1> ≠ V allora ∃v2∈V : v2∉<v1> ⇒ v1,v2 sono L.I.
Passo 2) Se <v1,v2> = V allora (v1,v2) è una base di V. [STOP]
Se <v1,v2> ≠ V allora ∃v3∈V : v3∉<v1,v2> ⇒ v1,v2,v3 sono L.I.
…………………………………………………………………………
Passo j) Se <v1,v2,v3, …,vj> = V allora (v1,v2,v3, …,vj) è una base di V. [STOP]
Se <v1,v2,v3, …,vj> ≠ V allora ∃vj+1∈V : vj+1 vn+1∈<v1,v2,v3, …,vj> ⇒ v1,v2,v3, …,vj sono L.I.
Se l’algoritmo non si fermasse prima (fornendo una base), dopo n passi si avrebbe necessariamente
che <v1,v2,v3, …,vn> = V. Infatti, se esistesse vn+1∈V tale che vn+1∈<v1,v2,v3, …,vn> allora si
avrebbe che v1,v2,v3, …,vn,vn+1 sono linearmente indipendenti. Per cui in V esisterebbe un insieme
di vettori linearmente indipendenti {v1,v2,v3, …,vn,vn+1} la cui cardinalità (n+1) è strettamente
maggiore della cardinalità n di un insieme {u1, u2, u3, …, un-1, un} di generatori. E ciò sarebbe
assurdo per il Lemma 10.1. 

51
Tenendo conto dell’Osservazione 10.4.2. diamo la seguente

10.7. Definizione. Stabiliamo che lo spazio nullo {0} abbia come base l’insieme vuoto ∅.

10.8. Teorema. (di equicardinalità delle basi). Sia V uno spazio vettoriale reale finitamente
generato. Se (u1, u2, u3, …, un-1, un) e (v1, v2, v3, …, vp-1, vp) sono due basi di V, allora n = p.
Ovvero, tutte le basi di un fissato spazio vettoriale hanno lo stesso numero di elementi.

Dimostrazione.
(v1, v2, v3, …, vp-1, vp) L.I. e (u1, u2, u3, …, un-1, un) generatori ⇒ p ≤ n
(u1, u2, u3, …, un-1, un) L.I. e (v1, v2, v3, …, vp-1, vp) generatori ⇒ n ≤ p
p ≤ n et n ≤ p ⇒ n = p. 

Tenendo conto del teorema precedente è ben posta la seguente

10.9. Definizione. Diremo dimensione di uno spazio vettoriale reale VR ≠ {0} finitamente generato,
e la indicheremo con dim(VR), il numero di elementi di una (qualsiasi) sua base. In accordo con la
Definizione 10.7 abbiamo stabiliamo che la dimensione dello spazio nullo {0} sia uguale a zero.

10.10. Esempio. Lo spazio delle n-uple ordinate di numeri reali ha dimensione n.

10.11. Esempio. Lo spazio dei vettori liberi ha dimensione 3.

Tenendo conto dell’osservazione 10.1 si ha subito la seguente:

10.12. Osservazione. Se VR è uno spazio vettoriale reale finitamente generato, allora si ha che
10.12.1 dim(VR) = numero massimo di vettori linearmente indipendenti in VR
10.12.2 dim(VR) = numero minimo di generatori di VR

10.13. Osservazione. Siano VR e UR due spazi vettoriali reali finitamente generati.


Se VR = UR allora, ovviamente, dim(VR) = dim(UR). La precedente condizione necessaria non è, in
3
generale, anche sufficiente. Ad esempio, lo spazio vettoriale V dei vettori liberi e lo spazio R delle
terne ordinate di numeri reali hanno la stessa dimensione 3 ma non sono lo stesso spazio.

10.14. Osservazione. Siano VR e UR due spazi vettoriali reali finitamente generati. Si prova che
dim(VR) = dim(UR) et VR ≤ UR ⇔ VR = UR

52
Tenendo conto delle Osservazioni 10.4 e 10.12 si ha la seguente

10.15. Osservazione. Sia VR è uno spazio vettoriale reale finitamente generato di dimensione n. Se
B un insieme ordinato di vettori di VR allora
10.15.1. B è una base di VR ⇔ B è un insieme di n generatori
10.15.2. B è una base di VR ⇔ B è un insieme di n di vettori linearmente indipendenti

10.16. Teorema. (caratterizzazione di una base) Sia VR è uno spazio vettoriale reale finitamente
generato. Un insieme ordinato B = (u1, u2, u3, …, un-1, un) è una base di VR se e solo se ogni vettore
di VR si può scrivere in modo unico come combinazione lineare dei vettori u1, u2, u3, …, un-1, un .

Dimostrazione. Se l’insieme B è una base di VR allora (poiché i suoi elementi sono generatori di
VR) per ogni vettore v di VR si ha che v = α1u1+α2u2+α3u3+…+αn-1un-1+αnun . Ci resta da provare
che tale scrittura è unica. Supponiamo che sia anche v = β1u1+β2u2+β3u3+…+βn-1un-1+βnun . Da
α1u1+α2u2+α3u3+…+αn-1un-1+αnun = v = β1u1+β2u2+β3u3+…+βn-1un-1+βnun
si ottiene
(α1 – β1)u1 + (α2 – β2)u2 + (α3 – β3)u3 + … + (αn-1 – βn-1)un-1 + (αn – βn)un = 0
Poiché gli elementi di una base sono linearmente indipendenti, si ha che tutti i coefficienti (αi – βi)
sono nulli, da cui αi = βi. Quindi, le due scritture coincidono.
Viceversa, supponiamo che ogni vettore (anche quello nullo) di VR si possa scrivere in modo unico
come combinazione lineare degli elementi di B. Ovviamente, questo vuol dire che gli elementi di U
sono generatori dello spazio VR. Inoltre, 0 = 0u1+0u2+0u3+…+0un-1+0un è un modo di scrivere il
vettore nullo come combinazione lineare di u1, u2, u3, …, un-1, un . Poiché, per ipotesi, tale modo di
scrivere il vettore nullo è unico, abbiamo che i vettori di B sono linearmente indipendenti. 

10.17. Osservazione. Sia VR è uno spazio vettoriale reale finitamente generato di dimensione n. Se
B = (u1, u2, u3, …, un-1, un) è una base di VR allora per ogni elemento v∈V esiste, ed è unica, una
n
n-upla ordinata (α1 , α2 , α3 , … , αn-1 , αn ) di R tale che v = α1u1+α2u2+α3u3+…+αn-1un-1+αnun .
Si noti che la n-upla ordinata (α1 , α2 , α3 , … , αn-1 , αn ) dipende dalla base B.

53
Tenendo conto dell’Osservazione 10.17 è ben posta la seguente

10.18. Definizione. Sia VR uno spazio vettoriale reale finitamente generato di dimensione n e sia
n
B = (u1, u2, u3, …, un-1, un) una sua base. La funzione ΩB : VR → R così definita
n
∀v∈V ΩB(v) := (α1 , α2 , α3 , … , αn-1 , αn )∈R

dove v = α1u1+α2u2+α3u3+…+αn-1un-1+αnun viene detta coordinatizzazione di VR rispetto a B.


I numeri reali della n-upla (α1 , α2 , α3 , … , αn-1 , αn ) vengono detti componenti o coordinate del
vettore v rispetto alla base B.

10.19. Teorema. Sia VR uno spazio vettoriale reale finitamente generato di dimensione n e sia
n
B = (u1, u2, u3, …, un-1, un) una sua base. La funzione ΩB : VR → R di coordinatizzazione di VR

rispetto a B così definita è una funzione biettiva che soddisfa le seguenti proprietà:
(L1) ∀v, w∈VR ΩB(v + w) = ΩB(v) + ΩB(w)

(L2) ∀v∈VR , ∀ω∈R ΩB(ωv) = ωΩB(v)

Dimostrazione. Proviamo che ΩB è iniettiva, cioè che a vettori distinti di VR corrispondono n-uple

ordinate (loro immagini attraverso ΩB) distinte. Siano v e w due generici vettori di VR .

n
Poiché B è base di VR esiste un’unica n-upla (α1 , α2 , α3 , … , αn-1 , αn )∈R tale che

v = α1u1+α2u2+α3u3+…+αn-1un-1+αnun . Quindi, ΩB(v) = (α1 , α2 , α3 , … , αn-1 , αn ).

n
Analogamente, esiste un’unica n-upla (β1 , β2 , β3 , … , βn-1 , βn )∈R tale che

w = β1u1+β2u2+β3u3+…+βn-1un-1+βnun . Quindi, ΩB(w) = (β1 , β2 , β3 , … , βn-1 , βn ).

v ≠ w ⇒ (α1 , α2 , α3 , … , αn-1 , αn ) ≠ (β1 , β2 , β3 , … , βn-1 , βn ) ⇒ ΩB(v) ≠ ΩB(w).

Proviamo, ora, che ΩB è suriettiva. Cioè che ogni n-upla ordinata di numeri reali è immagine di

almeno un vettore di VR . Sia (α1 , α2 , α3 , … , αn-1 , αn ) una generica n-upla ordinata.

Sia v il vettore di VR risultato della combinazione lineare α1u1+α2u2+α3u3+…+αn-1un-1+αnun , cioè


v = α1u1+α2u2+α3u3+…+αn-1un-1+αnun . La n-upla ordinata (α1 , α2 , α3 , … , αn-1 , αn ) è proprio
l’immagine di v attraverso ΩB .

Da v + w = (α1u1+α2u2+α3u3+…+αn-1un-1+αnun ) + (β1u1+β2u2+β3u3+…+βn-1un-1+βnun) si ha che

54
v + w = (α1 + β1)u1 + (α2 + β2)u2 + (α3 + β3)u3 + … + (αn-1 + βn-1)un-1 + (αn + βn)un

Quindi, ΩB(v + w) = (α1 + β1 , α2 + β2 , α3 + β3 , … , αn-1 + βn-1 , αn + βn). Osservando che

(α1+β1, α2+β2, α3+β3, …, αn-1+βn-1, αn+βn) = (α1, α2, α3, …, αn-1, αn) + (β1, β2, β3, …, βn-1, βn)

si è provata la proprietà (L1). Da ωv = ω(α1u1+α2u2+α3u3+…+αn-1un-1+αnun ) si ha che

ωv = (ωα1)u1+(ωα2)u2+(ωα3)u3+…+(ωαn-1)un-1+(ωαn)un

Quindi, ΩB(ωv) = (ωα1, ωα2, ωα3, …, ωαn-1, ωαn). La (L2) è provata osservando che

(ωα1, ωα2, ωα3, …, ωαn-1, ωαn) = ω(α1, α2, α3, …, αn-1, αn). 

10.20. Definizione. Siano VR e UR due spazi vettoriali reali. Diremo isomorfismo tra VR e UR ogni
funzione f : VR → UR che sia biettiva e soddisfi le proprietà (L1) e (L2). Diremo anche che lo
spazio VR è isomorfo allo spazio UR .

Tenendo conto del Teorema 10.19 si ha subito la seguente

10.21. Osservazione. Ogni spazio vettoriale reale finitamente generato di dimensione n è isomorfo
allo spazio vettoriale reale delle n-uple ordinate di numeri reali.

Tenendo conto dell’Osservazione 10.21 diamo la seguente

n
10.22. Definizione. Diremo che lo spazio vettoriale reale R delle n-uple ordinate di numeri reali è
un modello universale di spazio vettoriale di dimensione finita n.

55
10.23. Teorema. Sia VR uno spazio vettoriale reale finitamente generato di dimensione n e sia
B = (u1, u2, u3, …, un-1, un) una sua base. Sia ΩB la coordinatizzazione di VR rispetto a B.

Se i vettori v1, v2, v3, …, vp-1, vp di VR sono linearmente indipendenti, allora anche le loro immagini
ΩB(v1), ΩB(v2), ΩB(v3), …, ΩB(vp-1), ΩB(vp) sono linearmente indipendenti.

Dimostrazione. Proviamo che una combinazione lineare delle immagini è uguale al vettore nullo di
n
R (cioè la n-upla nulla) se e solo se tutti i coefficienti sono nulli.

α1ΩB(v1) + α2ΩB(v2) + α3ΩB(v3) + … + αp-1ΩB(vp-1) + αpΩB(vp) = (0, 0, 0, …, 0, 0) ⇔

⇔ ΩB(α1v1+α2v2+α3v3+…+αp-1vp-1+αpvp) = ΩB(0) ⇔ α1v1+α2v2+α3v3+…+αp-1vp-1+αpvp = 0 ⇔

(poichè v1, v2, v3, …, vp-1, vp sono linearmente indipendenti ) ⇔ α1 = α2 = α3 = … = αp-1 = αp = 0.

Quindi, ΩB(v1), ΩB(v2), ΩB(v3), …, ΩB(vp-1), ΩB(vp) sono linearmente indipendenti. 

Del Teorema precedente vale anche il viceversa.

10.24. Teorema. Sia VR uno spazio vettoriale reale finitamente generato di dimensione n e sia
B = (u1, u2, u3, …, un-1, un) una sua base. Sia ΩB la coordinatizzazione di VR rispetto a B.
n n
Siano a1, a2, a3, …, ap-1, ap∈R . Poiché ΩB è biettiva, per ogni n-upla a∈R esiste un unico vettore

v∈VR tale che ΩB(v) = a. Siano v1, v2, v3, …, vp-1, vp i vettori di VR tali che

ΩB(v1) = a1, ΩB(v2) = a2, ΩB(v3) = a3, …, ΩB(vp-1) = ap-1, ΩB(vp) = ap


n
Se le n-uple a1, a2, a3, …, ap-1, ap di R sono linearmente indipendenti, allora anche i vettori
v1, v2, v3, …, vp-1, vp di VR sono linearmente indipendenti.
Dimostrazione. Proviamo che una combinazione lineare dei vettori v1, v2, v3, …, vp-1, vp è uguale al
vettore nullo di VR se e solo se tutti i coefficienti sono nulli.

α1v1+α2v2+α3v3+…+αp-1vp-1+αpvp = 0 ⇔ ΩB(α1v1+α2v2+α3v3+…+αp-1vp-1+αpvp) = ΩB(0) ⇔

⇔ α1ΩB(v1) + α2ΩB(v2) + α3ΩB(v3) + … + αp-1ΩB(vp-1) + αpΩB(vp) = (0, 0, 0, …, 0, 0) ⇔

⇔ α1a1 + α2a2 + α3a3 + … + αp-1ap-1 + αpap = (0, 0, 0, …, 0, 0) ⇔

(poichè a1, a2, a3, …, ap-1, ap sono linearmente indipendenti ) ⇔ α1 = α2 = α3 = … = αp-1 = αp = 0.

Quindi, v1, v2, v3, …, vp-1, vp sono linearmente indipendenti. 

56
10.25. Teorema. Sia VR uno spazio vettoriale reale finitamente generato di dimensione n e sia
B = (u1, u2, u3, …, un-1, un) una sua base. Sia ΩB la coordinatizzazione di VR rispetto a B.

Se i vettori v1, v2, v3, …, vp-1, vp sono generatori dello spazio VR, allora le loro immagini ΩB(v1),
n
ΩB(v2), ΩB(v3), …, ΩB(vp-1), ΩB(vp) sono generatori dello spazio R .
n
Dimostrazione. Proviamo che ogni n-upla a∈R si può scrivere come combinazione lineare delle
n-uple ΩB(v2), ΩB(v3), …, ΩB(vp-1), ΩB(vp).
n
Poiché ΩB è biettiva, per ogni n-upla a∈R esiste un unico vettore v∈VR tale che ΩB(v) = a.

Dato che v1, v2, v3, …, vp-1, vp sono generatori dello spazio VR il vettore v∈VR si può scrivere come
loro combinazione lineare. Sia v = α1v1+α2v2+α3v3+…+αp-1vp-1+αpvp . Si ha che
a = ΩB(v) = ΩB(α1v1+α2v2+α3v3+…+αp-1vp-1+αpvp) =

= α1ΩB(v1) + α2ΩB(v2) + α3ΩB(v3) + … + αp-1ΩB(vp-1) + αpΩB(vp)

Quindi, a è combinazione lineare delle n-uple ΩB(v2), ΩB(v3), …, ΩB(vp-1), ΩB(vp). 

Del Teorema precedente vale anche il viceversa.

10.26. Teorema. Sia VR uno spazio vettoriale reale finitamente generato di dimensione n e sia
B = (u1, u2, u3, …, un-1, un) una sua base. Sia ΩB la coordinatizzazione di VR rispetto a B.
n n
Siano a1, a2, a3, …, ap-1, ap∈R . Poiché ΩB è biettiva, per ogni n-upla a∈R esiste un unico vettore

v∈VR tale che ΩB(v) = a. Siano v1, v2, v3, …, vp-1, vp i vettori di VR tali che

ΩB(v1) = a1, ΩB(v2) = a2, ΩB(v3) = a3, …, ΩB(vp-1) = ap-1, ΩB(vp) = ap


n
Se a1, a2, a3, …, ap-1, ap sono generatori di R , allora v1, v2, v3, …, vp-1, vp sono generatori di VR.
Dimostrazione. Proviamo che ogni vettore v∈VR si può esprimere come una combinazione lineare
dei vettori v1, v2, v3, …, vp-1, vp .
n
Poiché ΩB è biettiva, per ogni vettore v∈VR esiste un’unica n-upla a∈R tale che ΩB(v) = a.
n n
Dato che le n-uple a1, a2, a3, …, ap-1, ap sono generatori di R allora la n-upla a∈R si può scrivere
come loro combinazione lineare. Sia a = α1a1+α2a2+α3a3+…+αp-1ap-1+αpap . Si ha che
ΩB(v) = α1ΩB(v1) + α2ΩB(v2) + α3ΩB(v3) + … + αp-1ΩB(vp-1) + αpΩB(vp)

ΩB(v) = ΩB(α1v1+α2v2+α3v3+…+αp-1vp-1+αpvp)

v = α1v1+α2v2+α3v3+…+αp-1vp-1+αpvp
Quindi, v è combinazione lineare dei vettori v1, v2, v3, …, vp-1, vp . 

57
11. Rango di una matrice.

Consideriamo una matrice di tipo m×n ad elementi reali rappresentata nel modo seguente:

 a11 a12 a13 a14 . . . a1(n -1) a1n 


 a a 22 a 23 a 24 . . . a 2(n -1) a 2n 
 21
 a 31 a 32 a 33 a 34 . . . a 3(n -1) a 3n 
 
A=  . . . . . . . . . 
 . . . . . . . . . 
 
a (m-1)1 a (m -1)2 a (m -1)3 a (m-1)4 . . . a (m -1),(n -1) a (m-1)n 
 a a m2 a m3 a m4 . . . a m(n -1) a mn 
 m1

Per ogni i = 1, 2, 3, …, (m-1), m, col simbolo Ai indicheremo la i-esima riga della matrice A.
j
Per ogni j = 1, 2, 3, …, (n-1), n, col simbolo A indicheremo la j-esima colonna della matrice A.
Osservando che ogni riga di A è una n-upla ordinata di numeri reali possiamo scrivere
n
A1, A2, A3, …, Am-1, Am∈R
e parleremo di vettore riga.
Osservando che ogni colonna di A è una m-upla ordinata di numeri reali possiamo scrivere
1 2 3 n-1 n m
A ,A ,A ,…,A ,A ∈R .
e parleremo di vettore colonna.

 2 3 0
11.1. Esempio. A =  
1 − 7 4 
Le due righe di A sono le terne ordinate A1 = (2, 3, 0) e A1 = (1, –7, 4).
1 2 3
Le tre colonne di A sono le coppie ordinate A = (2, 1), A = (3, –7) e A = (0, 4).
3
Le righe di A sono vettori dello spazio R delle terne ordinate di numeri reali.
2
Le colonne di A sono vettori dello spazio R delle coppie ordinate di numeri reali.

1 1 0

11.2. Esempio. A = 0 5 1 .

 
3 23 4
Le tre righe di A sono le terne ordinate A1 = (1, 1, 0), A2 = (0, 5, 1) e A3 = (3, 23, 4).
1 2 3
Le tre colonne di A sono le terne ordinate A = (1, 0, 3), A = (1, 5, 23) e A = (0, 1, 4).
3
Sia le righe che le colonne di A sono vettori dello spazio R delle terne ordinate di numeri reali.

58
Ricordiamo che col simbolo M(m, n, R) indichiamo l’insieme (spazio vettoriale) contenente tutte e
sole le matrici di tipo m×n ad elementi reali.

n
11.3. Definizione. Sia A∈M(m, n, R). Siccome le righe di A sono vettori dello spazio R possiamo
considerare il sottospazio <A1, A2, A3,…, Am-1, Am> da essi generato. Tale sottospazio viene detto
spazio delle righe della matrice A e indicato col simbolo RA. Quindi,

RA = <A1, A2, A3,…, Am-1, Am>

m
11.4. Definizione. Sia A∈M(m, n, R). Siccome le colonne di A sono vettori dello spazio R
1 2 3 n-1 n
possiamo considerare il sottospazio <A , A , A , …, A , A > da essi generato. Tale sottospazio
viene detto spazio delle colonne della matrice A e indicato col simbolo CA. Quindi,
1 2 3 n-1 n
CA = <A , A , A , …, A , A >

2 3 0
11.5. Esempio. A =  .
1 − 7 17
3
• Lo spazio RA delle righe di A è il sottospazio di R generato dalle terne
A1 = (2, 3, 0) e A2 = (1, -7, 17). Cioè, RA = <(2, 3, 0), (1, -7, 17)>.
2
• Lo spazio CA delle righe di A è il sottospazio di R generato dalle coppie
1 2 3
A = (2, 1), A = (3, -7) e A = (0, 17). Cioè, CA = <(2, 1), (3, -7), (0, 17)>.
• Si noti che gli spazi RA e CA sono sottospazi di spazi diversi.
Quindi, non ha senso chiedersi se essi siano uguali.
• Osservando che nessuna delle due terne (2, 3, 0) e (1, -7, 17) è multipla dell’altra (cioè non sono
proporzionali) si ha che esse sono linearmente indipendenti. Poiché sono anche generatori di RA
abbiamo provato che B = ((2, 3, 0), (1, -7, 17)) è una base dello spazio RA .Quindi, dimRA = 2.
3
• Si noti che la coppia A = (0, 17) si può scrivere come combinazione lineare delle altre due
1 2
A = (2, 1), A = (3, -7). Infatti, 3(2, 1) + (-2)(3, -7) = (0, 17). Quindi, (0, 17)∈<(2, 1), (3, -7)> e

<(2, 1), (3, -7)> = <(2, 1), (3, -7), (0, 17)> = CA
Per cui le due coppie (2, 1) e (3, -7) sono sufficienti per generare lo spazio delle colonne.
Osservando che nessuna delle due coppie (2, 1) e (3, -7) è multipla dell’altra (cioè non sono
proporzionali) si ha che quelle due coppie sono anche linearmente indipendenti. Abbiamo provato
che B’ = ((2, 1), (3, -7)) è una base dello spazio CA . Quindi, dimCA = 2.

59
1 1 0

11.6. Esempio. A = 0 5 1 .

 
3 23 4
3
• Lo spazio RA delle righe di A è il sottospazio di R generato dalle terne
A1 = (1, 1, 0), A2 = (0, 5, 1) e A3 = (3, 23, 4). Cioè, RA = <(1, 1, 0), (0, 5, 1), (3, 23, 4)>.
3
• Lo spazio CA delle righe di A è il sottospazio di R generato dalle terne
1 2 3
A = (1, 0, 3), A = (1, 5, 23) e A = (0, 1, 4). Cioè, CA = <(1, 0, 3), (1, 5, 23), (0, 1, 4)>.
• In questo caso lo spazio RA delle righe e lo spazio CA delle colonne di A sono sottospazi dello
3
stesso spazio R . Quindi, ha senso chiedersi se essi siano uguali.
• Si noti che la terna A3 = (3, 23, 4) si può scrivere come combinazione lineare delle altre due
A1 = (1, 1, 0) e A2 = (0, 5, 1). Infatti, 3(1, 1, 0) + 4(0, 5, 1) = (3, 23, 4).
Quindi, (3, 23, 4)∈<(1, 1, 0), (0, 5, 1)> e
<(1, 1, 0), (0, 5, 1)> = <(1, 1, 0), (0, 5, 1), (3, 23, 4)> = RA
Per cui le due terne (1, 1, 0), (0, 5, 1) sono sufficienti per generare lo spazio delle righe.
Inoltre, osservando che nessuna delle due terne è multipla dell’altra (cioè non sono proporzionali) si
ha che quelle due terne sono anche linearmente indipendenti. Abbiamo provato che B = ((1, 1, 0),
(0, 5, 1)) è una base dello spazio RA delle righe di A. Quindi, dimRA = 2.
2
• Si noti che la terna A = (1, 5, 23) si può scrivere come combinazione lineare delle altre due
1 3
A = (1, 0, 3) e A = (0, 1, 4). Infatti, 1(1, 0, 3) + 5(0, 1, 4) = (1, 5, 23).

Quindi, (1, 5, 23)∈<(1, 0, 3), (0, 1, 4)> e


<(1, 0, 3), (0, 1, 4)> = <(1, 0, 3), (1, 5, 23), (0, 1, 4)> = CA
Per cui le due terne (1, 0, 3), (0, 1, 4) sono sufficienti per generare lo spazio delle colonne.
Inoltre, osservando che nessuna delle due terne è multipla dell’altra (cioè non sono proporzionali) si
ha che quelle due terne sono anche linearmente indipendenti. Abbiamo provato che B’ = ((1, 0, 3),
(0, 1, 4)) è una base dello spazio CA delle colonne di A. Quindi, dimCA = 2.
• La terna (3, 23, 4), che ovviamente appartiene allo spazio RA delle righe di A (è la terza riga di A)
non appartiene allo spazio CA delle colonne di A. Infatti, non è possibile ottenere la terna
(3, 23, 4) come combinazione lineare degli elementi della base B’ dello spazio CA.
(3, 23, 4)∈CA ⇔ ∃α,β∈R : α(1, 0, 3) + β(0, 1, 4) = (3, 23, 4) ⇔
⇔ ∃α,β∈R : (α, β, 3α+4β) = (3, 23, 4) ⇔ ∃α,β∈R : α = 3 et β = 23 et 3α+4β = 4 ⇔
⇔ 9 + 92 = 4 ⇔ 101 = 4 (assurdo)

60
• La terna (1, 5, 23), che ovviamente appartiene allo spazio CA delle colonne di A (è la seconda riga
di A) non appartiene allo spazio RA delle righe di A. Infatti, non è possibile ottenere la terna
(1, 5, 23) come combinazione lineare degli elementi della base B dello spazio RA.
(1, 5, 23)∈ RA ⇔ ∃α,β∈R : α(1, 1, 0) + β(0, 5, 1) = (1, 5, 23) ⇔
⇔ ∃α,β∈R : (α, α+5β, β) = (1, 5, 23) ⇔ ∃α,β∈R : α = 1 et β = 23 et α+5β = 5 ⇔
⇔ 1 + 105 = 5 ⇔ 106 = 5 (assurdo)

• La terna (19, –16, –7) appartiene sia allo spazio RA che allo spazio CA infatti
(19, –16, –7) = 19(1, 1, 0) + (–7)(0, 5, 1) et (19, –16, –7) = 19(1, 0, 3) + (–16)(0, 1, 4)

• Ne concludiamo che i sottospazi RA e CA hanno intersezione non vuota ma nessuno dei due è
sottospazio dell’altro. In particolare, si ha che i sottospazi RA e CA sono diversi.

11.7. Osservazione. Nei due precedenti esempi abbiamo visto che:


11.7.1. RA e CA non sono, in generale, sottospazi dello stesso spazio;
11.7.1. anche quando RA e CA sono sottospazi dello stesso spazio, in generale, si ha RA ≠ CA .

11.8. Osservazione. In ognuno dei due precedenti esempi abbiamo visto che dimRA = dimCA.

Quanto osservato in 11.8 è vero in generale, cioè si può provare il seguente:

11.9. Teorema. Lo spazio RA delle righe e lo spazio CA delle colonne di una matrice A hanno la
stessa dimensione.

Tenendo conto del Teorema 11.9 è ben posta la seguente

11.10. Definizione. Diremo rango di una matrice A, e lo indicheremo col simbolo rg(A), la
dimensione del suo spazio delle righe oppure la dimensione del suo spazio delle colonne.

11.11. Osservazione. Se A∈M(m, n, R) allora 0 ≤ rg(A) ≤ min{m, n}. Inoltre, rg(A) = 0 se e solo
se A è la matrice nulla (tutti i suoi elementi sono uguali a zero). Infatti, la matrice nulla ha tutte le
righe uguali al vettore nullo. Quindi, RA = <0> = {0} e dimRA = dim{0} = 0.

61
11.12. Definizione. Diremo che A∈M(m, n, R) è una matrice a scalini se verifica le proprietà:
(SCAL1) Se una riga di A è la riga nulla (cioè i suoi elementi sono tutti zeri) allora sotto di essa ci
possono essere solo righe nulle.
(SCAL2) Se Ai = (ai1, ai2, ai3, ai4, …, ai(n-2), ai(n-1), ain, ) è una riga non nulla e j è il minimo indice di
colonna per cui è aij ≠ 0 (cioè h < j ⇒ aij = 0) allora a(i+1),k = 0 per ogni k ≤ j.

2 3 0
11.13. Esempio. La matrice A =   non è a scalini. Infatti, poiché la prima riga non è
 − 1 − 7 4 
nulla e a11 = 2 ≠ 0 si ha che j = 1 è il minimo indice di colonna per cui a1j ≠ 0. Per soddisfare la
proprietà (SCAL2) dovrebbe essere a2,k = 0 per ogni k ≤ j = 1 cioè a21 = 0. Ma a21 = –1 ≠ 0.

 2 3 0
11.14. Esempio. La matrice A =   è a scalini. Perché?
0 0 0 

0 0 1
11.15. Esempio. La matrice A =   non è a scalini. Perché?
0 0 1

0 1 1 
11.16. Esempio. La matrice A =   è a scalini. Perché?
0 0 0 

0 0 0 
11.17. Esempio. La matrice A =   è a scalini. Perché?
 0 0 0 

4 5 1 
 
11.18. Esempio. La matrice A = 0 − 3 1 è a scalini. Perché?
 
0 0 − 2

4 5 1 

11.19. Esempio. La matrice A = 0 0 1  non è a scalini. Perché?
 
0 0 − 2

4 5 1
 
11.20. Esempio. La matrice A = 0 0 1 è a scalini. Perché?
 
0 0 0

62
11.21. Osservazione. Sia A una matrice a scalino.
Se Ax è una riga non nulla di A, allora con il simbolo jx indicheremo l’indice di colonna del primo

elemento non nullo di tale riga, cioè si ha che axj ≠ 0 e per ogni j ≤ jx che axj = 0.
x

11.21.1. Se la i-esima riga Ai con i ≥ 2 è non nulla, allora sono non nulle anche tutte le (i–1) righe al

di sopra di essa, cioè Ah = 0 se 1 ≤ h ≤ (i–1).

11.21.2. Se Ai e Ai+1 sono due righe non nulle di A, allora si ha che j(i+1) ≥ ji + 1.

11.21.3. Se Ai e Ai+s sono due righe non nulle di A, allora si ha che j(i+s) ≥ ji + s.

11.21.4. Se Ah è una riga non nulla di A, allora si ha che jh ≥ h.

11.21.5. Se Ak è una riga non nulla di A allora per ogni h ≥ (k+1) e per ogni j ≤ jk si ha che ahj= 0.

11.21.6. Se Ak è una riga non nulla di A allora per ogni h ≥ (k+1) si ha che ahj = 0.
k

Dimostrazione.
11.21.1. Immediata conseguenza di (SCAL1).
11.21.2. Immediata conseguenza di (SCAL2).
11.21.3. Se s = 1 la tesi è vera per la 11.2.2. Supponiamo che la tesi sia vera per (s – 1), cioè che sia
j(i+s-1) ≥ ji + (s – 1). Proviamo la tesi per s. Applicando la 11.2.2. abbiamo che

j(i+s) ≥ j(i+s-1) + 1. Quindi, j(i+s) ≥ j(i+s-1) + 1 ≥ ji + (s – 1) +1 = ji + s.

11.21.4. Se h = 1 allora per ogni indice j di colonna si ha che j ≥ 1. Quindi, j1 ≥ 1.

Se h ≥ 2, allora tutte le (h–1) righe al di sopra di A sono non nulle. Applicando la 11.2.3. alla prima
riga A1 e alla riga Ah abbiamo che s = (h–1) e jh ≥ j1 + s ≥ 1 + (h–1) = h.

11.21.5. Per 11.2.3 abbiamo che jh ≥ jk + (h – k) ≥ jk + 1. Quindi, è jh > jk.

Se esistessero j ≤ jk e h ≥ (k+1) tale che ahj ≠ 0 allora il primo elemento non nullo della h-esima

riga avrebbe indice di colonna jh ≤ j, da cui jh ≤ jk. Essendo ciò assurdo, si ha la tesi.
11.21.6. Caso particolare di 11.21.5 con j = jk 

63
0 2 3 0 −1 5 5 57
0 0 −1 5 4 0 0 −2 1
 
0 0 0 0 7 0 −3 4 6
 
11.22. Esempio. 0 0 0 0 0 0 0 8 0
0 0 0 0 0 0 0 0 11
 
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 
a12 = 2 ≠ 0 è il primo elemento non nullo della prima riga, 1 < 2.
Tutti gli elementi al di sotto di a12 sono nulli.

a23 = –1 ≠ 0 è il primo elemento non nullo della seconda riga, 2 < 3.


Tutti gli elementi al di sotto di a23 sono nulli.

a35 = 7 ≠ 0 è il primo elemento non nullo della terza riga, 3 < 5.


Tutti gli elementi al di sotto di a35 sono nulli.

a48 =5 ≠ 0 è il primo elemento non nullo della quarta riga, 4 < 8.


Tutti gli elementi al di sotto di a48 sono nulli.

a59 =11 ≠ 0 è il primo elemento non nullo della quinta riga, 5 < 9.
Tutti gli elementi al di sotto di a59 sono nulli.
Si osservi che, negli ultimi tre casi è j > (i+1).

64
11.23. Teorema. Il rango di una matrice a scalini è uguale al numero delle sue righe non nulle.
Dimostrazione. Se A è una matrice nulla, allora il suo rango è zero che è proprio uguale al numero
delle sue righe non nulle. Ora, sia A una matrice non nulla a scalini di tipo m×n.
Sia r≤m il numero di righe non nulle di A.

α1  a11 a12 a13 a14 . . . a1(n -1) a1n 


a a 2n 
α2  21
a 22 a 23 a 24 . . . a 2(n -1)

α3  a 31 a 32 a 33 a 34 . . . a 3(n -1) a 3n 
 
.  . . . . . . . . . 
αr  a r1 a r 2 a r3 a r4 . . . a r ( n −1) a rn 
 
 . . . . . . . . . 
α m a m1 a m2 a m3 a m4 . . . a m(n -1) a mn 

s1 s2 s3 s4 ……… s(n-1) sn
Consideriamo una combinazione lineare delle r righe non nulle di A a coefficienti
α1 , α2 , α3 , α4 , … ,α(r-1) , αr

α1(a11 , a12 , a13 , a14 , … , a1(n-1) , a1n) + α2(a21 , a22 , a23 , a24 , … , a2(n-1) , a2n) +

+ α3(a31 , a32 , a33 , a34 , … , a3(n-1) , a3n) + α4(a41 , a42 , a43 , a44 , … , a4(n-1) , a4n) +

+ ………………..… + α(r-1)(a(r-1)1 , a(r-1)2 , a(r-1)3 , a(r-1)4 , … , a(r-1)(n-1) , a(r-1)n) +

+ αr(ar1 , ar2 , ar3 , ar4 , … , ar(n-1) , arn)


Ponendo
s1 = α1a11 +α2a21 +α3a31 +α4a41 + … +α(r-1)a(r-1)1 +αrar1

s2 = α1a12 +α2a22 +α3a32 +α4a42 + … +α(r-1)a(r-1)2 +αrar2

s3 = α1a13 +α2a23 +α3a33 +α4a43 + … +α(r-1)a(r-1)3 +αrar3

s4 = α1a14 +α2a24 +α3a34 +α4a44 + … +α(r-1)a(r-1)4 +αrar4


…………………………………………………………..
s(n-1) = α1a1(n-1) +α2a2(n-1) +α3a3(n-1) +α4a4(n-1) + … +α(r-1)a(r-1)(n-1) +αrar(n-1)

sn = α1a1n +α2a2n +α3a3n +α4a4n + … +α(r-1)a(r-1)n +αrarn


si ha che il risultato della combinazione lineare delle r righe non nulle di A è la n-upla
(s1, s2, s3, s4, …, s(n-1), sn)
Ora, proviamo che le r righe non nulle sono linearmente indipendenti. Cioè, proviamo che
(s1, s2, s3, s4, …, s(n-1), sn) = (0, 0, 0, 0, …, 0, 0) ⇔ α1= α2= α3= α4= … = α(r-1)= αr= 0.

65
Sia a1j ≠ 0 il primo elemento non nullo della prima riga; quindi ahj = 0 per ogni h ≥ 2.
1 1

Sia a2j ≠ 0 il primo elemento non nullo della seconda riga; quindi j2 > j1 e ahj = 0 per ogni h ≥ 3.
2 2

Sia a3j3 ≠ 0 il primo elemento non nullo della terza riga; quindi j3 > j2 e ahj3= 0 per ogni h ≥ 4.

Sia a4j ≠ 0 il primo elemento non nullo della quarta riga; quindi j4 > j3 e ahj = 0 per ogni h ≥ 5.
4 4

……………………………………………………
Sia a(r-1)j ≠ 0 il primo elemento non nullo della (r–1)-esima riga; quindi ahj = 0 per ogni h≥r.
(r-1) (r-1)

Sia arj ≠ 0 il primo elemento non nullo della r-esima riga; quindi jr > j(r-1) e ahj = 0 per ogni h>r.
r r

Poiché ahj = 0 per ogni h≥2 si ha sj = α1a1j


1 1 1

Poiché ahj = 0 per ogni h≥3 si ha sj = α1a1j + α2a2j


2 2 2 2

Poiché ahj = 0 per ogni h≥4 si ha sj = α1a1j + α2a2j + α3a3j


3 3 3 3 3

Poiché ahj = 0 per ogni h≥5 si ha sj = α1a1j + α2a2j + α3a3j + α4a4j


4 4 4 4 4 4

……………………………………………………
Poiché ahj = 0 per ogni h≥r si ha
(r-1)

sj = α1a1j + α2a2j + α3a3j + α4a4j + … + α(r-1)a(r-1)j


(r-1) (r-1) (r-1) (r-1) (r-1) (r-1)

Poiché ahj = 0 per ogni h>r si ha


r

sj = α1a1j + α2a2j + α3a3j + α4a4j + … + α(r-1)a(r-1)j + αrarj


r r r r r r r

0 = sj1 = α1a1j1 ⇒ α1= 0 (poichè a1j1 ≠ 0)

0 = sj = α1a1j + α2a2j ⇒ α2a2j = 0 ⇒ α2= 0 (poichè a2j ≠ 0)


2 2 2 2 2

0 = sj = α1a1j + α2a2j + α3a3j ⇒ α3a3j = 0 ⇒ α3= 0 (poichè a3j ≠ 0)


3 3 3 3 3 3

0 = sj = α1a1j + α2a2j + α3a3j + α4a4j ⇒ α4a4j = 0 ⇒ α4= 0 (poichè a4j ≠ 0)


4 4 4 4 4 4 4

……………………………………………………
0 = sj = α1a1j + α2a2j + α3a3j + α4a4j + … + α(r-1)a(r-1)j ⇒
(r-1) (r-1) (r-1) (r-1) (r-1) (r-1)

⇒ α(r-1)a(r-1)j = 0 ⇒ α(r-1)= 0 (poichè a(r-1)j ≠ 0)


(r-1) (r-1)

0 = sj = α1a1j + α2a2j + α3a3j + α4a4j + … + α(r-1)a(r-1)j + αrarj ⇒


r r r r r r r

⇒ αrarj = 0 ⇒ αr= 0 (poichè arj ≠ 0)


r r

Quindi, le r righe non nulle di A sono linearmente indipendenti. Ovviamente, tali r righe sono anche
generatori dello spazio delle righe. Per cui esse sono una base per lo spazio delle righe che ha,
quindi, dimensione r. Per cui il rango di A è uguale al numero r delle sue righe non nulle. 

66
11.24. Esempio. Si consideri la seguente matrice di tipo 7×9 a scalini avente le ultime due righe
nulle. Proviamo che il suo rango è uguale al numero delle sue righe non nulle, cioè (7–2) = 5. Per
far ciò, consideriamo una combinazione lineare delle sue righe con coefficienti α1 , α2 , α3 , α4 , α5

α1 0 2 3 0 −1 5 5 5 7
α 2 0 0 −1 5 4 0 0 −2 1
 
α 3 0 0 0 0 7 0 −3 4 6
 
α 4 0 0 0 0 0 0 0 8 0
α 5 0 0 0 0 0 0 0 0 11
 
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 
s1 s2 s3 s4 s5 s 6 s 7 s8 s 9

Poiché a12 = 2 ≠ 0 è il primo elemento non nullo della prima riga, si ha che j1 = 2.

Poiché a23 = –1 ≠ 0 è il primo elemento non nullo della seconda riga, si ha che j2 = 3.

Poiché a35 = 7 ≠ 0 è il primo elemento non nullo della terza riga, si ha che j3 = 5.

Poiché a48 =5 ≠ 0 è il primo elemento non nullo della quarta riga, si ha che j4 = 8.

Poiché a59 =11 ≠ 0 è il primo elemento non nullo della quinta riga, si ha che j5 = 9.

s2 = 2α1 = 0 ⇒ α1 = 0

s3 = 3α1 + (–1)α2 = 0 ⇒ (–1)α2 = 0 ⇒ α2 = 0

s5 = (–1)α1 + 4α2 + 7α3 = 0 ⇒ 7α3 = 0 ⇒ α3 = 0

s8 = 5α1 +(–2)α2 + 4α3 + 8α4 = 0⇒ 8α4 = 0 ⇒ α4 = 0

s9 = 7α1 + 1α2 + 6α3 + 0α4 + 11α5 = 0⇒ 11α5 = 0 ⇒ α5 = 0

Poichè le prime 5 righe sono linearmente indipendenti, il rango di A è proprio uguale a 5.

67
11.25. Teorema. Sia A una matrice non nulla di tipo m×n.
Le righe A1 , A2 , A3 , A4 , …, A(m-1) e Am , sono un insieme di generatori dello spazio RA.
Tramite un numero finito di opportune operazioni elementari applicate alle righe di A è sempre
possibile trovare m nuovi generatori B1 , B2 , B3 , B4 , …, B(m-1) e Bm di RA tali che la matrice B

avente proprio tali generatori come righe è una matrice di tipo m×n a scalino.
Ovviamente, RA = RB e, quindi, rg(A) = rg(B) = numero di righe non nulle di B.
Dimostrazione. Si segua il seguente algoritmo
(1) j := 0 et k := 0 et I := {1, 2, 3, 4, …, (m–1), m} (parametri iniziali)
(2) incrementa di 1 il parametro j; quindi, j := j + 1
(3) se j = (n + 1) allora STOP
(4) Se per ogni i∈I è aij = 0 allora torna al punto (2).

(5) A questo punto esiste almeno un i∈I tale che aij ≠ 0 (la matrice A è non nulla).
(6) incrementa di 1 il parametro k; quindi, k := k + 1
(7) se k = m allora STOP
(8) scambia la i-esima riga con la k-esima riga; dopo questo scambio si ha che akj ≠ 0
Si noti che akj è il primo elemento non nullo della k-esima riga.

(9) “togli” k dall’insieme I; quindi, I := {h∈N  (k+1) ≤ h ≤ m}


(10) Per ogni h∈I (cioè h > k), se ahj ≠ 0 sostituisci la riga Ah con la riga [Ah + (–ahj/akj)Ak].

Dopo questa sostituzione si ha che per ogni h∈I (cioè h > k) si ha che ahj = 0,
cioè sono nulli tutti gli elementi al di sotto del primo elemento non nullo della k-esima riga.
(11) torna al punto (2)
E’ evidente che l’algoritmo termina dopo un numero finito di passi.
Per il punto (8), le eventuali righe nulle si trovano dopo le righe non nulle. Quindi, la matrice
soddisfa la proprietà (SCAL1).
Inoltre, se akj ≠ 0 è il primo elemento non nullo della k-esima riga, allora si ha che:

- per ogni s ≤ (j – 1) e per ogni h ≥ k è ahs = 0, per il punto (4);


- per ogni h > k è ahj = 0, per il punto (10).

Quindi, per ogni s ≤ j è a(k+1)s = 0 e la matrice soddisfa anche la proprietà (SCAL2). 

68
11.26. Esempio. Calcolare il rango della matrice

0 0 0 0 0 0 
0 0 0
0 0 −1 5 4 0 0 −2 1 
 
0 0 2 − 10 − 1 0 − 3 8 4 
 
0 0 0 0 0 0 0 0 0 
0 0 0 0 0 3 1 9 11 
 
0 0 0 0 0 3 0 8 0 
0 0 0 0 0 − 6 − 1 − 17 − 11
Siccome le prime 2 colonne sono nulle il punto (4) ci rimanda al punto (2) fino a che j = 3 ≤ 9 = n.
Al punto (5) abbiamo che esistono due elementi a23 = –1 e a33 = 2 non nulli.
Scegliamo a23 e, quindi, è i = 2.
Al punto (6) abbiamo che k = 1 < 7 = m
Al punto (8) scambiamo la seconda (i-esima) riga con la prima (k-esima) riga e otteniamo

0 0 −1 5 4 0 1 0 −2
0 0 0 0 0 0 0 0 0 
 
0 0 2 − 10 − 1 0 − 3 8 4 
 
0 0 0 0 0 0 0 0 0 
0 0 0 0 0 3 1 9 11 
 
0 0 0 0 0 3 0 8 0 
0 0 0 0 0 − 6 − 1 − 17 − 11
Al punto (9) ora è I = {2,3,4,5,6,7}.
Al punto (10), poiché a33 = 2 ≠ 0 sostituiamo la terza riga con A3 + 2A1 e otteniamo

0 0 −1 5 4 0 0 1 −2
0 0 0 0 0 0 0 0 0 
 
0 0 0 0 7 0 −3 4 6 
 
0 0 0 0 0 0 0 0 0 
0 0 0 0 0 3 1 9 11 
 
0 0 0 0 0 3 0 8 0 
0 0 0 0 0 − 6 − 1 − 17 − 11
Tornati al punto (2) abbiamo j = 4 ≤ 9 = n.
Il punto (4) ci rimanda al punto (2) poiché per ogni i∈I = {2,3,4,5,6,7} è ai4 = 0.

Quindi, ora è j = 5 ≤ 9 = n.

69
Al punto (5) abbiamo solo l’elemento a35 = 7 ≠ 0. Quindi, i = 3.
Al punto (6) abbiamo che k = 2 < 7 = m
Al punto (8) scambiamo la terza (i-esima) riga con la seconda (k-esima) riga e otteniamo

0 0 −1 5 4 0 0 −2
1 
0 0 0 0 7 0 −3 4 6 
 
0 0 0 0 0 0 0 0 0 
 
0 0 0 0 0 0 0 0 0 
0 0 0 0 0 3 1 9 11 
 
0 0 0 0 0 3 0 8 0 
0 0 0 0 0 − 6 − 1 − 17 − 11
Al punto (9) ora è I = {3,4,5,6,7}.
Al punto (10) non accade nulla poiché tutti gli elementi sotto a25 = 7 sono già nulli.

Tornati al punto (2) abbiamo j = 6 ≤ 9 = n.


Al punto (5) abbiamo tre elementi a56 = 3, a66 = 3 e a76 = –6 non nulli.
Scegliamo a66 e, quindi, i = 6.
Al punto (6) abbiamo che k = 3 < 7 = m
Al punto (8) scambiamo la sesta (i-esima) riga con la terza (k-esima) riga e otteniamo

0 0 −1 5 4 0 0 −2
1 
0 0 0 0 7 0 −3 4 6 
 
0 0 0 0 0 3 0 8 0 
 
0 0 0 0 0 0 0 0 0 
0 0 0 0 0 3 1 9 11 
 
0 0 0 0 0 0 0 0 0 
0 0 0 0 0 − 6 − 1 − 17 − 11
Al punto (9) ora è I = {4,5,6,7}.
Al punto (10), poiché
• a56 = 3 ≠ 0 sostituisco la quinta riga con A5 + (–1)A3

• a76 = –6 ≠ 0 sostituisco la settima riga con A7 + 2A3


Otteniamo

70
0 0 −1 5 4 0 0 −2 1 
0 0 0 0 7 0 −3 4 6 
 
0 0 0 0 0 3 0 8 0 
 
0 0 0 0 0 0 0 0 0 
0 0 0 0 0 0 1 1 11 
 
0 0 0 0 0 0 0 0 0 
0 0 0 0 0 0 −1 − 1 − 11
Tornati al punto (2) abbiamo j = 7 ≤ 9 = n.
Al punto (5) abbiamo due elementi a57 = 1 ≠ 0 e a77 = –1 non nulli. Scegliamo a57 e, quindi, i = 5.
Al punto (6) abbiamo che k = 4 < 7 = m
Al punto (8) scambiamo la quinta (i-esima) riga con la quarta (k-esima) riga e otteniamo

0 0 −1 5 4 0 0 −2 1 
0 0 0 0 7 0 −3 4 6 
 
0 0 0 0 0 3 0 8 0 
 
0 0 0 0 0 0 1 1 11 
0 0 0 0 0 0 0 0 0 
 
0 0 0 0 0 0 0 0 0 
0 0 0 0 0 0 −1 − 1 − 11
Al punto (9) ora è I = {5,6,7}.
Al punto (10), poiché a77 = –1 ≠ 0 sostituisco la settima riga con A7 + (–1)A4 e otteniamo

0 0 −1 5 4 0 0 −2 1
0 0 0 0 7 0 −3 4 6
 
0 0 0 0 0 3 0 8 0
 
0 0 0 0 0 0 1 1 11
0 0 0 0 0 0 0 0 0
 
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 
Tornati al punto (2) abbiamo j = 8 ≤ 9 = n.
Il punto (4) ci rimanda al punto (2) poiché per ogni i∈I = {5,6,7} è ai8 = 0.

Quindi, ora è j = 9 ≤ 9 = n. Il punto (4) ci rimanda al punto (2) poiché per ogni i∈I è ai9 = 0.
Quindi, ora è j = 10 = (n + 1). Per il punto (3) l’algoritmo si ferma.
La matrice ottenuta è a scalini e il suo rango è 4. Quindi, anche la matrice iniziale ha rango 4.

71
11.27. Esempio. Calcolare il rango della matrice

 2 −1 0
3 0 1
 
1 1 1
 
− 2 1 0
Al punto (4) è j = 1 ≤ 3 = n, poiché la prima colonna ha almeno un elemento non nullo.
Al punto (5) scegliamo l’elemento non nullo a31 = 1 della prima colonna, quindi i = 3.
Al punto (6) abbiamo k = 1 < 4 = m
Al punto (8) scambiamo la terza (i-esima) riga con la prima (k-esima) riga e otteniamo

1 1 1
3 0 1
 
 2 −1 0
 
− 2 1 0
Al punto (9) ora è I = {2,3,4}.
Al punto (10), poiché:
• a21 = 3 ≠ 0 sostituisco la seconda riga con A2 + (–3)A1 = (0, –3, –2)

• a31 = 2 ≠ 0 sostituisco la terza riga con A3 + (–2)A1 = (0, –3, –2)

• a41 = –2 ≠ 0 sostituisco la quarta riga con A4 + 2A1 = (0, 3, 2)


Otteniamo

1 1 1
0 − 3 − 2 
 
0 − 3 − 2 
 
0 3 2
Tornati al punto (2) abbiamo j = 2 ≤ 3 = n.
Al punto (5) scegliamo l’elemento non nullo a22 = –3 della seconda colonna, quindi i = 2.
Al punto (6) abbiamo k = 2 < 4 = m
Al punto (8) non effettuiamo alcun scambio poiché i = 2 = k.
Al punto (9) ora è I = {3,4}.
Al punto (10), poiché:
• a32 = –3 ≠ 0 sostituisco la terza riga con A3 + (–1)A2 = (0, 0)

• a42 = 3 ≠ 0 sostituisco la quarta riga con A4 + A2 = (0, 0)


Otteniamo

72
1 1 1
0 − 3 − 2 
 
0 0 0
 
0 0 0
Tornati al punto (2) abbiamo j = 3 ≤ 3 = n.
Il punto (4) ci rimanda al punto (2) poiché per ogni i∈I = {3,4} è ai3 = 0.
Quindi, ora è j = 4 = (n + 1). Per il punto (3) l’algoritmo si ferma.
La matrice ottenuta è a scalini e il suo rango è 2. Quindi, anche la matrice iniziale ha rango 2.

11.28. Esempio. Calcolare il rango della matrice

2 3 0 1
 1 2 −1 0 
 
− 2 0 0 − 1
Al punto (4) è j = 1 ≤ 4 = n, poiché la prima colonna ha almeno un elemento non nullo.
Al punto (5) scegliamo l’elemento non nullo a21 = 1 della prima colonna, quindi i = 2.
Al punto (6) abbiamo k = 1 < 3 = m
Al punto (8) scambiamo la seconda (i-esima) riga con la prima (k-esima) riga e otteniamo

 1 2 −1 0 
2 3 0 1
 
− 2 0 0 − 1
Al punto (9) ora è I = {2,3}.
Al punto (10), poiché:
• a21 = 2 ≠ 0 sostituisco la seconda riga con A2 + (–2)A1 = (0, –1, 2, 1)

• a31 = –2 ≠ 0 sostituisco la terza riga con A3 + 2A1 = (0, 4, –2, –1)


Otteniamo

1 2 − 1 0 
0 − 1 2 1
 
0 4 − 2 − 1
Tornati al punto (2) abbiamo j = 2 ≤ 4 = n.
Al punto (5) scegliamo l’elemento non nullo a22 = –1 della seconda colonna, quindi i = 2.
Al punto (6) abbiamo k = 2 < 3 = m
Al punto (8) non effettuiamo alcun scambio poiché i = 2 = k.

73
Al punto (9) ora è I = {3}.
Al punto (10), poiché a32 = 4 ≠ 0 sostituisco la terza riga con A3 + 4A2 = (0, 0, 6, 3)
Otteniamo

1 2 − 1 0
0 − 1 2 1 
 
0 0 6 3
Tornati al punto (2) abbiamo j = 3 ≤ 4 = n.
Al punto (5) abbiamo solo 3∈I = {3} tale che a3j = a33 = 6 ≠ 0. Quindi, è i = 3.
Al punto (6) abbiamo k = 3 = m. Per il punto (3) l’algoritmo si ferma.
La matrice ottenuta è a scalini e il suo rango è 3. Quindi, anche la matrice iniziale ha rango 3.

74
11.21. Osservazione. Sia A una matrice a scalino.
Se Ax è una riga non nulla di A, allora con il simbolo jx indicheremo l’indice di colonna del primo

elemento non nullo di tale riga, cioè si ha che axj ≠ 0 e per ogni j ≤ jx che axj = 0.
x

11.21.1. Se la i-esima riga Ai con i ≥ 2 è non nulla, allora sono non nulle anche tutte le (i–1) righe al

di sopra di essa, cioè Ah = 0 se 1 ≤ h ≤ (i–1).

11.21.2. Se Ai e Ai+1 sono due righe non nulle di A, allora si ha che j(i+1) ≥ ji + 1.

11.21.3. Se Ai e Ai+s sono due righe non nulle di A, allora si ha che j(i+s) ≥ ji + s.

11.21.4. Se Ah è una riga non nulla di A, allora si ha che jh ≥ h.

11.21.5. Se Ak è una riga non nulla di A allora per ogni h ≥ (k+1) e per ogni j ≤ jk si ha che ahj= 0.

11.21.6. Se Ak è una riga non nulla di A allora per ogni h ≥ (k+1) si ha che ahj = 0.
k

Dimostrazione.
11.21.1. Immediata conseguenza di (SCAL1).
11.21.2. Immediata conseguenza di (SCAL2).
11.21.3. Se s = 1 la tesi è vera per la 11.2.2. Supponiamo che la tesi sia vera per (s – 1), cioè che sia
j(i+s-1) ≥ ji + (s – 1). Proviamo la tesi per s. Applicando la 11.2.2. abbiamo che

j(i+s) ≥ j(i+s-1) + 1. Quindi, j(i+s) ≥ j(i+s-1) + 1 ≥ ji + (s – 1) +1 = ji + s.

11.21.4. Se h = 1 allora per ogni indice j di colonna si ha che j ≥ 1. Quindi, j1 ≥ 1.

Se h ≥ 2, allora tutte le (h–1) righe al di sopra di A sono non nulle. Applicando la 11.2.3. alla prima
riga A1 e alla riga Ah abbiamo che s = (h–1) e jh ≥ j1 + s ≥ 1 + (h–1) = h.

11.21.5. Per 11.2.3 abbiamo che jh ≥ jk + (h – k) ≥ jk + 1. Quindi, è jh > jk.

Se esistessero j ≤ jk e h ≥ (k+1) tale che ahj ≠ 0 allora il primo elemento non nullo della h-esima

riga avrebbe indice di colonna jh ≤ j, da cui jh ≤ jk. Essendo ciò assurdo, si ha la tesi.
11.21.6. Caso particolare di 11.21.5 con j = jk 

75
0 2 3 0 −1 5 5 57
0 0 −1 5 4 0 0 −2 1
 
0 0 0 0 7 0 −3 4 6
 
11.22. Esempio. 0 0 0 0 0 0 0 8 0
0 0 0 0 0 0 0 0 11
 
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 
a12 = 2 ≠ 0 è il primo elemento non nullo della prima riga, 1 < 2.
Tutti gli elementi al di sotto di a12 sono nulli.

a23 = –1 ≠ 0 è il primo elemento non nullo della seconda riga, 2 < 3.


Tutti gli elementi al di sotto di a23 sono nulli.

a35 = 7 ≠ 0 è il primo elemento non nullo della terza riga, 3 < 5.


Tutti gli elementi al di sotto di a35 sono nulli.

a48 =5 ≠ 0 è il primo elemento non nullo della quarta riga, 4 < 8.


Tutti gli elementi al di sotto di a48 sono nulli.

a59 =11 ≠ 0 è il primo elemento non nullo della quinta riga, 5 < 9.
Tutti gli elementi al di sotto di a59 sono nulli.
Si osservi che, negli ultimi tre casi è j > (i+1).

76
11.23. Teorema. Il rango di una matrice a scalini è uguale al numero delle sue righe non nulle.
Dimostrazione. Se A è una matrice nulla, allora il suo rango è zero che è proprio uguale al numero
delle sue righe non nulle. Ora, sia A una matrice non nulla a scalini di tipo m×n.
Sia r≤m il numero di righe non nulle di A.

α1  a11 a12 a13 a14 . . . a1(n -1) a1n 


a a 2n 
α2  21
a 22 a 23 a 24 . . . a 2(n -1)

α3  a 31 a 32 a 33 a 34 . . . a 3(n -1) a 3n 
 
.  . . . . . . . . . 
αr  a r1 a r 2 a r3 a r4 . . . a r ( n −1) a rn 
 
 . . . . . . . . . 
α m a m1 a m2 a m3 a m4 . . . a m(n -1) a mn 

s1 s2 s3 s4 ……… s(n-1) sn
Consideriamo una combinazione lineare delle r righe non nulle di A a coefficienti
α1 , α2 , α3 , α4 , … ,α(r-1) , αr

α1(a11 , a12 , a13 , a14 , … , a1(n-1) , a1n) + α2(a21 , a22 , a23 , a24 , … , a2(n-1) , a2n) +

+ α3(a31 , a32 , a33 , a34 , … , a3(n-1) , a3n) + α4(a41 , a42 , a43 , a44 , … , a4(n-1) , a4n) +

+ ………………..… + α(r-1)(a(r-1)1 , a(r-1)2 , a(r-1)3 , a(r-1)4 , … , a(r-1)(n-1) , a(r-1)n) +

+ αr(ar1 , ar2 , ar3 , ar4 , … , ar(n-1) , arn)


Ponendo
s1 = α1a11 +α2a21 +α3a31 +α4a41 + … +α(r-1)a(r-1)1 +αrar1

s2 = α1a12 +α2a22 +α3a32 +α4a42 + … +α(r-1)a(r-1)2 +αrar2

s3 = α1a13 +α2a23 +α3a33 +α4a43 + … +α(r-1)a(r-1)3 +αrar3

s4 = α1a14 +α2a24 +α3a34 +α4a44 + … +α(r-1)a(r-1)4 +αrar4


…………………………………………………………..
s(n-1) = α1a1(n-1) +α2a2(n-1) +α3a3(n-1) +α4a4(n-1) + … +α(r-1)a(r-1)(n-1) +αrar(n-1)

sn = α1a1n +α2a2n +α3a3n +α4a4n + … +α(r-1)a(r-1)n +αrarn


si ha che il risultato della combinazione lineare delle r righe non nulle di A è la n-upla
(s1, s2, s3, s4, …, s(n-1), sn)
Ora, proviamo che le r righe non nulle sono linearmente indipendenti. Cioè, proviamo che
(s1, s2, s3, s4, …, s(n-1), sn) = (0, 0, 0, 0, …, 0, 0) ⇔ α1= α2= α3= α4= … = α(r-1)= αr= 0.

77
Sia a1j ≠ 0 il primo elemento non nullo della prima riga; quindi ahj = 0 per ogni h ≥ 2.
1 1

Sia a2j ≠ 0 il primo elemento non nullo della seconda riga; quindi j2 > j1 e ahj = 0 per ogni h ≥ 3.
2 2

Sia a3j3 ≠ 0 il primo elemento non nullo della terza riga; quindi j3 > j2 e ahj3= 0 per ogni h ≥ 4.

Sia a4j ≠ 0 il primo elemento non nullo della quarta riga; quindi j4 > j3 e ahj = 0 per ogni h ≥ 5.
4 4

……………………………………………………
Sia a(r-1)j ≠ 0 il primo elemento non nullo della (r–1)-esima riga; quindi ahj = 0 per ogni h≥r.
(r-1) (r-1)

Sia arj ≠ 0 il primo elemento non nullo della r-esima riga; quindi jr > j(r-1) e ahj = 0 per ogni h>r.
r r

Poiché ahj = 0 per ogni h≥2 si ha sj = α1a1j


1 1 1

Poiché ahj = 0 per ogni h≥3 si ha sj = α1a1j + α2a2j


2 2 2 2

Poiché ahj = 0 per ogni h≥4 si ha sj = α1a1j + α2a2j + α3a3j


3 3 3 3 3

Poiché ahj = 0 per ogni h≥5 si ha sj = α1a1j + α2a2j + α3a3j + α4a4j


4 4 4 4 4 4

……………………………………………………
Poiché ahj = 0 per ogni h≥r si ha
(r-1)

sj = α1a1j + α2a2j + α3a3j + α4a4j + … + α(r-1)a(r-1)j


(r-1) (r-1) (r-1) (r-1) (r-1) (r-1)

Poiché ahj = 0 per ogni h>r si ha


r

sj = α1a1j + α2a2j + α3a3j + α4a4j + … + α(r-1)a(r-1)j + αrarj


r r r r r r r

0 = sj1 = α1a1j1 ⇒ α1= 0 (poichè a1j1 ≠ 0)

0 = sj = α1a1j + α2a2j ⇒ α2a2j = 0 ⇒ α2= 0 (poichè a2j ≠ 0)


2 2 2 2 2

0 = sj = α1a1j + α2a2j + α3a3j ⇒ α3a3j = 0 ⇒ α3= 0 (poichè a3j ≠ 0)


3 3 3 3 3 3

0 = sj = α1a1j + α2a2j + α3a3j + α4a4j ⇒ α4a4j = 0 ⇒ α4= 0 (poichè a4j ≠ 0)


4 4 4 4 4 4 4

……………………………………………………
0 = sj = α1a1j + α2a2j + α3a3j + α4a4j + … + α(r-1)a(r-1)j ⇒
(r-1) (r-1) (r-1) (r-1) (r-1) (r-1)

⇒ α(r-1)a(r-1)j = 0 ⇒ α(r-1)= 0 (poichè a(r-1)j ≠ 0)


(r-1) (r-1)

0 = sj = α1a1j + α2a2j + α3a3j + α4a4j + … + α(r-1)a(r-1)j + αrarj ⇒


r r r r r r r

⇒ αrarj = 0 ⇒ αr= 0 (poichè arj ≠ 0)


r r

Quindi, le r righe non nulle di A sono linearmente indipendenti. Ovviamente, tali r righe sono anche
generatori dello spazio delle righe. Per cui esse sono una base per lo spazio delle righe che ha,
quindi, dimensione r. Per cui il rango di A è uguale al numero r delle sue righe non nulle. 

78
11.24. Esempio. Si consideri la seguente matrice di tipo 7×9 a scalini avente le ultime due righe
nulle. Proviamo che il suo rango è uguale al numero delle sue righe non nulle, cioè (7–2) = 5. Per
far ciò, consideriamo una combinazione lineare delle sue righe con coefficienti α1 , α2 , α3 , α4 , α5

α1 0 2 3 0 −1 5 5 7
5
α 2 0 0 −1 5 4 0 0 −2 1
 
α 3 0 0 0 0 7 0 −3 4 6
 
α 4 0 0 0 0 0 0 0 8 0
α 5 0 0 0 0 0 0 0 0 11
 
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 
↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑
s1 s2 s3 s4 s5 s6 s7 s8 s9

Poiché a12 = 2 ≠ 0 è il primo elemento non nullo della prima riga, si ha che j1 = 2.

Poiché a23 = –1 ≠ 0 è il primo elemento non nullo della seconda riga, si ha che j2 = 3.

Poiché a35 = 7 ≠ 0 è il primo elemento non nullo della terza riga, si ha che j3 = 5.

Poiché a48 =5 ≠ 0 è il primo elemento non nullo della quarta riga, si ha che j4 = 8.

Poiché a59 =11 ≠ 0 è il primo elemento non nullo della quinta riga, si ha che j5 = 9.

s2 = 2α1 = 0 ⇒ α1 = 0

s3 = 3α1 + (–1)α2 = 0 ⇒ (–1)α2 = 0 ⇒ α2 = 0

s5 = (–1)α1 + 4α2 + 7α3 = 0 ⇒ 7α3 = 0 ⇒ α3 = 0

s8 = 5α1 +(–2)α2 + 4α3 + 8α4 = 0⇒ 8α4 = 0 ⇒ α4 = 0

s9 = 7α1 + 1α2 + 6α3 + 0α4 + 11α5 = 0⇒ 11α5 = 0 ⇒ α5 = 0

Poichè le prime 5 righe sono linearmente indipendenti, il rango di A è proprio uguale a 5.

79
11.25. Teorema. Sia A una matrice non nulla di tipo m×n.
Le righe A1 , A2 , A3 , A4 , …, A(m-1) e Am , sono un insieme di generatori dello spazio RA.
Tramite un numero finito di opportune operazioni elementari applicate alle righe di A è sempre
possibile trovare m nuovi generatori B1 , B2 , B3 , B4 , …, B(m-1) e Bm di RA tali che la matrice B

avente proprio tali generatori come righe è una matrice di tipo m×n a scalino.
Ovviamente, RA = RB e, quindi, rg(A) = rg(B) = numero di righe non nulle di B.
Dimostrazione. Si segua il seguente algoritmo
(1) j := 0 et k := 0 et I := {1, 2, 3, 4, …, (m–1), m} (parametri iniziali)
(2) incrementa di 1 il parametro j; quindi, j := j + 1
(3) se j = (n + 1) allora STOP
(4) Se per ogni i∈I è aij = 0 allora torna al punto (2).

(5) A questo punto esiste almeno un i∈I tale che aij ≠ 0 (la matrice A è non nulla).
(6) incrementa di 1 il parametro k; quindi, k := k + 1
(7) se k = m allora STOP
(8) scambia la i-esima riga con la k-esima riga; dopo questo scambio si ha che akj ≠ 0
Si noti che akj è il primo elemento non nullo della k-esima riga.

(9) “togli” k dall’insieme I; quindi, I := {h∈N  (k+1) ≤ h ≤ m}


(10) Per ogni h∈I (cioè h > k), se ahj ≠ 0 sostituisci la riga Ah con la riga [Ah + (–ahj/akj)Ak].

Dopo questa sostituzione si ha che per ogni h∈I (cioè h > k) si ha che ahj = 0,
cioè sono nulli tutti gli elementi al di sotto del primo elemento non nullo della k-esima riga.
(11) torna al punto (2)
E’ evidente che l’algoritmo termina dopo un numero finito di passi.
Per il punto (8), le eventuali righe nulle si trovano dopo le righe non nulle. Quindi, la matrice
soddisfa la proprietà (SCAL1).
Inoltre, se akj ≠ 0 è il primo elemento non nullo della k-esima riga, allora si ha che:

- per ogni s ≤ (j – 1) e per ogni h ≥ k è ahs = 0, per il punto (4);


- per ogni h > k è ahj = 0, per il punto (10).

Quindi, per ogni s ≤ j è a(k+1)s = 0 e la matrice soddisfa anche la proprietà (SCAL2). 

80
11.26. Esempio. Calcolare il rango della matrice

0 0 0 0 0 0 
0 0 0
0 0 −1 5 4 0 0 −2 1 
 
0 0 2 − 10 − 1 0 − 3 8 4 
 
0 0 0 0 0 0 0 0 0 
0 0 0 0 0 3 1 9 11 
 
0 0 0 0 0 3 0 8 0 
0 0 0 0 0 − 6 − 1 − 17 − 11
Siccome le prime 2 colonne sono nulle il punto (4) ci rimanda al punto (2) fino a che j = 3 ≤ 9 = n.
Al punto (5) abbiamo che esistono due elementi a23 = –1 e a33 = 2 non nulli.
Scegliamo a23 e, quindi, è i = 2.
Al punto (6) abbiamo che k = 1 < 7 = m
Al punto (8) scambiamo la seconda (i-esima) riga con la prima (k-esima) riga e otteniamo

0 0 −1 5 4 0 1 0 −2
0 0 0 0 0 0 0 0 0 
 
0 0 2 − 10 − 1 0 − 3 8 4 
 
0 0 0 0 0 0 0 0 0 
0 0 0 0 0 3 1 9 11 
 
0 0 0 0 0 3 0 8 0 
0 0 0 0 0 − 6 − 1 − 17 − 11
Al punto (9) ora è I = {2,3,4,5,6,7}.
Al punto (10), poiché a33 = 2 ≠ 0 sostituiamo la terza riga con A3 + 2A1 e otteniamo

0 0 −1 5 4 0 0 1 −2
0 0 0 0 0 0 0 0 0 
 
0 0 0 0 7 0 −3 4 6 
 
0 0 0 0 0 0 0 0 0 
0 0 0 0 0 3 1 9 11 
 
0 0 0 0 0 3 0 8 0 
0 0 0 0 0 − 6 − 1 − 17 − 11
Tornati al punto (2) abbiamo j = 4 ≤ 9 = n.
Il punto (4) ci rimanda al punto (2) poiché per ogni i∈I = {2,3,4,5,6,7} è ai4 = 0.

Quindi, ora è j = 5 ≤ 9 = n.

81
Al punto (5) abbiamo solo l’elemento a35 = 7 ≠ 0. Quindi, i = 3.
Al punto (6) abbiamo che k = 2 < 7 = m
Al punto (8) scambiamo la terza (i-esima) riga con la seconda (k-esima) riga e otteniamo

0 0 −1 5 4 0 0 −2
1 
0 0 0 0 7 0 −3 4 6 
 
0 0 0 0 0 0 0 0 0 
 
0 0 0 0 0 0 0 0 0 
0 0 0 0 0 3 1 9 11 
 
0 0 0 0 0 3 0 8 0 
0 0 0 0 0 − 6 − 1 − 17 − 11
Al punto (9) ora è I = {3,4,5,6,7}.
Al punto (10) non accade nulla poiché tutti gli elementi sotto a25 = 7 sono già nulli.

Tornati al punto (2) abbiamo j = 6 ≤ 9 = n.


Al punto (5) abbiamo tre elementi a56 = 3, a66 = 3 e a76 = –6 non nulli.
Scegliamo a66 e, quindi, i = 6.
Al punto (6) abbiamo che k = 3 < 7 = m
Al punto (8) scambiamo la sesta (i-esima) riga con la terza (k-esima) riga e otteniamo

0 0 −1 5 4 0 0 −2
1 
0 0 0 0 7 0 −3 4 6 
 
0 0 0 0 0 3 0 8 0 
 
0 0 0 0 0 0 0 0 0 
0 0 0 0 0 3 1 9 11 
 
0 0 0 0 0 0 0 0 0 
0 0 0 0 0 − 6 − 1 − 17 − 11
Al punto (9) ora è I = {4,5,6,7}.
Al punto (10), poiché
• a56 = 3 ≠ 0 sostituisco la quinta riga con A5 + (–1)A3

• a76 = –6 ≠ 0 sostituisco la settima riga con A7 + 2A3


Otteniamo

82
0 0 −1 5 4 0 0 −2 1 
0 0 0 0 7 0 −3 4 6 
 
0 0 0 0 0 3 0 8 0 
 
0 0 0 0 0 0 0 0 0 
0 0 0 0 0 0 1 1 11 
 
0 0 0 0 0 0 0 0 0 
0 0 0 0 0 0 −1 − 1 − 11
Tornati al punto (2) abbiamo j = 7 ≤ 9 = n.
Al punto (5) abbiamo due elementi a57 = 1 ≠ 0 e a77 = –1 non nulli. Scegliamo a57 e, quindi, i = 5.
Al punto (6) abbiamo che k = 4 < 7 = m
Al punto (8) scambiamo la quinta (i-esima) riga con la quarta (k-esima) riga e otteniamo

0 0 −1 5 4 0 0 −2 1 
0 0 0 0 7 0 −3 4 6 
 
0 0 0 0 0 3 0 8 0 
 
0 0 0 0 0 0 1 1 11 
0 0 0 0 0 0 0 0 0 
 
0 0 0 0 0 0 0 0 0 
0 0 0 0 0 0 −1 − 1 − 11
Al punto (9) ora è I = {5,6,7}.
Al punto (10), poiché a77 = –1 ≠ 0 sostituisco la settima riga con A7 + (–1)A4 e otteniamo

0 0 −1 5 4 0 0 −2 1
0 0 0 0 7 0 −3 4 6
 
0 0 0 0 0 3 0 8 0
 
0 0 0 0 0 0 1 1 11
0 0 0 0 0 0 0 0 0
 
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 
Tornati al punto (2) abbiamo j = 8 ≤ 9 = n.
Il punto (4) ci rimanda al punto (2) poiché per ogni i∈I = {5,6,7} è ai8 = 0.

Quindi, ora è j = 9 ≤ 9 = n. Il punto (4) ci rimanda al punto (2) poiché per ogni i∈I è ai9 = 0.
Quindi, ora è j = 10 = (n + 1). Per il punto (3) l’algoritmo si ferma.
La matrice ottenuta è a scalini e il suo rango è 4. Quindi, anche la matrice iniziale ha rango 4.

83
11.27. Esempio. Calcolare il rango della matrice

 2 −1 0
3 0 1
 
1 1 1
 
− 2 1 0
Al punto (4) è j = 1 ≤ 3 = n, poiché la prima colonna ha almeno un elemento non nullo.
Al punto (5) scegliamo l’elemento non nullo a31 = 1 della prima colonna, quindi i = 3.
Al punto (6) abbiamo k = 1 < 4 = m
Al punto (8) scambiamo la terza (i-esima) riga con la prima (k-esima) riga e otteniamo

1 1 1
3 0 1
 
 2 −1 0
 
− 2 1 0
Al punto (9) ora è I = {2,3,4}.
Al punto (10), poiché:
• a21 = 3 ≠ 0 sostituisco la seconda riga con A2 + (–3)A1 = (0, –3, –2)

• a31 = 2 ≠ 0 sostituisco la terza riga con A3 + (–2)A1 = (0, –3, –2)

• a41 = –2 ≠ 0 sostituisco la quarta riga con A4 + 2A1 = (0, 3, 2)


Otteniamo

1 1 1
0 − 3 − 2 
 
0 − 3 − 2 
 
0 3 2
Tornati al punto (2) abbiamo j = 2 ≤ 3 = n.
Al punto (5) scegliamo l’elemento non nullo a22 = –3 della seconda colonna, quindi i = 2.
Al punto (6) abbiamo k = 2 < 4 = m
Al punto (8) non effettuiamo alcun scambio poiché i = 2 = k.
Al punto (9) ora è I = {3,4}.
Al punto (10), poiché:
• a32 = –3 ≠ 0 sostituisco la terza riga con A3 + (–1)A2 = (0, 0)

• a42 = 3 ≠ 0 sostituisco la quarta riga con A4 + A2 = (0, 0)


Otteniamo

84
1 1 1
0 − 3 − 2 
 
0 0 0
 
0 0 0
Tornati al punto (2) abbiamo j = 3 ≤ 3 = n.
Il punto (4) ci rimanda al punto (2) poiché per ogni i∈I = {3,4} è ai3 = 0.
Quindi, ora è j = 4 = (n + 1). Per il punto (3) l’algoritmo si ferma.
La matrice ottenuta è a scalini e il suo rango è 2. Quindi, anche la matrice iniziale ha rango 2.

11.28. Esempio. Calcolare il rango della matrice

2 3 0 1
 1 2 −1 0 
 
− 2 0 0 − 1
Al punto (4) è j = 1 ≤ 4 = n, poiché la prima colonna ha almeno un elemento non nullo.
Al punto (5) scegliamo l’elemento non nullo a21 = 1 della prima colonna, quindi i = 2.
Al punto (6) abbiamo k = 1 < 3 = m
Al punto (8) scambiamo la seconda (i-esima) riga con la prima (k-esima) riga e otteniamo

 1 2 −1 0 
2 3 0 1
 
− 2 0 0 − 1
Al punto (9) ora è I = {2,3}.
Al punto (10), poiché:
• a21 = 2 ≠ 0 sostituisco la seconda riga con A2 + (–2)A1 = (0, –1, 2, 1)

• a31 = –2 ≠ 0 sostituisco la terza riga con A3 + 2A1 = (0, 4, –2, –1)


Otteniamo

1 2 − 1 0 
0 − 1 2 1
 
0 4 − 2 − 1
Tornati al punto (2) abbiamo j = 2 ≤ 4 = n.
Al punto (5) scegliamo l’elemento non nullo a22 = –1 della seconda colonna, quindi i = 2.
Al punto (6) abbiamo k = 2 < 3 = m
Al punto (8) non effettuiamo alcun scambio poiché i = 2 = k.

85
Al punto (9) ora è I = {3}.
Al punto (10), poiché a32 = 4 ≠ 0 sostituisco la terza riga con A3 + 4A2 = (0, 0, 6, 3)
Otteniamo

1 2 − 1 0
0 − 1 2 1 
 
0 0 6 3
Tornati al punto (2) abbiamo j = 3 ≤ 4 = n.
Al punto (5) abbiamo solo 3∈I = {3} tale che a3j = a33 = 6 ≠ 0. Quindi, è i = 3.
Al punto (6) abbiamo k = 3 = m. Per il punto (3) l’algoritmo si ferma.
La matrice ottenuta è a scalini e il suo rango è 3. Quindi, anche la matrice iniziale ha rango 3.

86
12. Rango di una matrice: il caso delle matrici quadrate

Nel seguito A sarà una matrice ad elementi reali di tipo n×n rappresentata nel modo seguente:

 a11 a12 a13 . . . . a1(n -1) a1n 


 a a 22 a 23 . . . . a 2(n -1) a 2n 
 21
 a 31 a 32 a 33 . . . . a 3(n -1) a 3n 
 
A=  . . . . . . . . . 
 . . . . . . . . . 
 
a (n -1)1 a (n -1)2 a (n -1)3 . . . . a (n -1),(n -1) a (n -1)n 
 a a n2 a n3 . . . . a n(n -1) a nn 
 n1

12.1. Definizione. Diremo che A è una matrice (quadrata) di ordine n.

12.2. Definizione. Diremo diagonale principale di A, la n-upla ordinata


(a11 , a22 , a33 , a44 , a55 , ….. , a(n-2),(n-2) , a(n-1),(n-1)1 , ann )

12.3. Osservazione. Per ogni indice i di riga e ogni indice j di colonna si ha che:
• se i = j allora l’elemento aij di A si trova “sulla” diagonale principale;

a11 
 a 22 
 
 a 33 
 
 a 44 
 a 55 

• se i > j allora l’elemento aij di A si trova “al di sotto” della diagonale principale;

 
a 
 21 
a 31 a 32 
 
a 41 a 42 a 43 
a 51 a 52 a 53 a 54 

• se i < j allora l’elemento aij di A si trova “al di sopra” della diagonale principale.

 a12 a13 a14 a15 


 a 23 a 24 a 25 

 a 34 a 35 
 
 a 45 
 

87
12.4. Definizione. Diremo che una matrice quadrata A è:
• triangolare superiore se sono nulli tutti gli elementi al di sotto della diagonale principale, cioè
 
0 
 
i > j ⇒ aij = 0; 0 0 
 
0 0 0 
0 0 0 0 

• triangolare inferiore se sono nulli tutti gli elementi al di sopra della diagonale principale, cioè
 0 0 0 0
 0 0 0

i < j ⇒ aij = 0;  0 0
 
 0
 

• diagonale se sono nulli tutti gli elementi che non si trovano sulla diagonale principale, cioè
 0 0 0 0
0 0 0 0

i ≠ j ⇒ aij = 0; 0 0 0 0
 
0 0 0 0
0 0 0 0 

12.5. Osservazione. Una matrice quadrata A è diagonale se e solo se è sia triangolare superiore che
triangolare inferiore.

Tenendo conto di (SCAL1) e dell’osservazione 11.21.4 si ha subito la seguente

12.6. Osservazione. Tutte le matrici a scalino sono matrici triangolari superiori.

12.7. Esempio. Si vede che le seguenti quattro matrici a scalino


0 1 − 1 2 0
9 2 0 6 0
− 1 5 3 0 − 3 0 0 4 7 
1 2  0 2 4  1 1  
0 3  0 0 0 0 3
  0 0 4 7  
   0 0 7   0 0 0 0 0
0 0 0 0
0 0 0 0 0
sono anche matrici triangolari superiori.

88
12.8. Osservazione. NON tutte le matrici triangolari superiori sono matrici a scalino.

12.9. Esempio. Si vede che delle seguenti quattro matrici triangolari superiori
0 1 −1 0
2
0 2 0 6 0
 − 1 5 3 0 − 3 5 2 4 7
0 2   0 0 4  1 1  
0 3   
0 0 0 − 3 3
  0 0 4 7  
 0 0 7   0 0 0 2 1
0 0 0 0
0 0 0 0 0
nessuna è una matrice a scalino.

Ricordiamo che nell’Osservazione 11.21 abbiamo stabilito di indicare col simbolo jx l’indice di
colonna del primo elemento non nullo della x-esima riga di una matrice a scalino A non nulla.

12.10. Definizione. Sia A una matrice quadrata di ordine n a scalino. Stabiliamo che:
• Sn := {s∈N  1 ≤ s ≤ n}

• JA := {jx∈Sn  x è l’indice di colonna del primo elemento non nullo della x-esima riga di A}

Ovviamente, ∅ ⊆ JA ⊆ Sn essendo JA = ∅ se e solo se A è la matrice nulla.

12.11. Esempio. Consideriamo le seguenti matrici a scalino


0 1 −1 2 0
9 2 0 6 0
− 1 5 3 0 0 0 4 7 
0 0  0 1 1  
A=   B =  0 2 4 C=  D = 0 0 0 0 3
0 0  0 0 0 7  
 0 0 7   0 0 0 0 0
0 0 0 0
0 0 0 0 0

Si ha che JA = ∅, JB = {1,2,3}, JC = {1,3,4} e JD = {2,4,5}.

Tenendo conto delle Osservazioni 11.21.3 e 11.21.4 si ha subito la seguente:

12.12. Osservazione. Se A è una matrice quadrata di ordine n a scalino, allora si ha che


12.12.1. JA:= numero di elementi di JA = numero di righe non nulle di A

12.12.2. le righe di A sono tutte non nulle se e solo se JA = n, ovvero se e solo se JA = Sn .

12.12.3. Le righe di A sono tutte non nulle se e solo se per ogni s∈Sn si ha che js = s.

89
12.13. Esempio. Consideriamo le seguenti matrici a scalino
0 1 − 1 2 0
9 2 0 6 0
− 1 5 3 0 0 0 4 7 
0 0  0 1 1  
A=   B =  0 2 4 C=  D = 0 0 0 0 3
0 0  0 0 0 7  
 0 0 7   0 0 0 0 0
0 0 0 0
0 0 0 0 0

Si ha che la matrice A di ordine 2 ha JA = 0 righe non nulle.

Si ha che la matrice B di ordine 3 ha JB = 3 righe non nulle.

Si ha che la matrice C di ordine 4 ha JC = 3 righe non nulle.

Si ha che la matrice D di ordine 5 ha JD = 3 righe non nulle.


Inoltre, si noti che le righe di B sono tutte non nulle e j1 = 1, j2 = 2 e j3 = 3.

Tenendo conto dell’Osservazione 11.11 è ben posta la seguente:

12.14. Definizione. Diremo che A è una matrice quadrata di rango massimo se A è una matrice
quadrata avente rango uguale al suo ordine.

Conseguenza immediata del Teorema 11.23 e dell’Osservazione 12.12.3 è la seguente

12.15. Osservazione. Una matrice quadrata a scalino ha rango massimo se e solo se tutte le sue
righe sono non nulle, ovvero se e solo se per ogni s∈Sn si ha che js = s.

12.16. Teorema. Una matrice quadrata a scalino ha rango massimo se e solo se tutti gli elementi
che si trovano sulla sua diagonale principale sono non nulli.
Dimostrazione. Se A è una matrice quadrata a scalino di rango massimo, allora (per l’Osservazione
12.15) per ogni s∈Sn si ha che js = s, ovvero per ogni s∈Sn si ha che l’elemento ass = asjs ≠ 0

(essendo il primo elemento non nullo della s-esima riga di A). Viceversa, sia A una matrice a
scalino avente tutti gli elementi della diagonale principale non nulli. Per l’Osservazione 12.6 la
matrice A è triangolare superiore. Quindi, per ogni s∈Sn l’elemento ass è il primo elemento non

nullo della s-esima riga, cioè per ogni s∈Sn si ha che js = s. Per cui A ha rango massimo. 

12.17. Corollario. Una matrice quadrata a scalino ha rango massimo se e solo se è non nullo il
prodotto di tutti gli elementi che si trovano sulla sua diagonale principale.

90
12.18. Teorema. Sia VR uno spazio vettoriale reale di dimensione n.
Sia B = (u1, u2, u3, …, un-1, un) una base di VR.
Sia D = (v1, v2, v3, …, vn-1, vn) una n-upla ordinata di vettori di VR.
Per ogni s∈Sn sia as la n-upla di coordinate del vettore vs rispetto alla base B.
n
Cioè, se ΩB : VR → R è la coordinatizzazione di VR rispetto a B, allora per ogni s∈Sn è as= ΩB(vs).

Sia A la matrice avente come righe le n-uple a1, a2, a3, a4, …, an-1, an .
L’insieme D è una base di VR se e solo se la matrice A ha rango massimo.
Dimostrazione. Per il l’Osservazione 10.15.2 l’insieme D è una base di VR se e solo se gli n vettori
v1, v2, v3, …, vn-1, vn sono linearmente indipendenti. Per i Teoremi 10.23 e 10.24 gli n vettori
v1, v2, v3, …, vn-1, vn sono linearmente indipendenti se s solo se le n n-uple a1, a2, a3, a4, …, an-1, an
sono linearmente indipendenti, ovvero se e solo se le n righe di A sono linearmente indipendenti.
Quest’ultimo fatto accade se e solo se il rango di A è uguale a n, cioè è massimo. 

Tenendo conto dei Teoremi 11.25, 12.16, 12.18 e del Corollario 12.17 si ha subito il seguente:

12.19. Corollario. Sia VR uno spazio vettoriale reale di dimensione n.


Sia B = (u1, u2, u3, …, un-1, un) una base di VR.
Sia D = (v1, v2, v3, …, vn-1, vn) una n-upla ordinata di vettori di VR.
Per ogni s∈Sn sia as la n-upla di coordinate del vettore vs rispetto alla base B.
Sia A la matrice avente come righe le n-uple a1, a2, a3, a4, …, an-1, an .
Sia A’ una matrice a scalino ottenuta da A usando solo le operazioni elementari per righe.
L’insieme D è una base di VR se e solo se tutti gli elementi che si trovano sulla diagonale principale
della matrice A’ sono non nulli, ovvero se e solo se è non nullo il prodotto di tutti gli elementi che
si trovano sulla diagonale principale della matrice A’.

12.20. Esempio. Si considerino i seguenti polinomi di R5[x]:

p1(x) = – x5 + x4 + 4x2+ x p2(x) = 2x5 – 11x2 – 2x + 4 p3(x) = –3x5 + 7x4 + 5x + 12

p4(x) = 4x5 + 2x2 – 12x – 8 p5(x) = –5x5 + 7x4 + 23x2 + 3x


Sia U <p1(x), p2(x), p3(x), p4(x), p5(x)> lo spazio da essi generato.

• Trovare dim(U).
• Posto r := dim(U), trovare una base B = (q1(x), …, qr(x)) di U.

• Trovare altri (6 – r) polinomi qr+1(x), …, q6(x) tali che ((q1(x), …, q6(x)) sia una base di R5[x].

91
La coordinatizzazione di R5[x] rispetto alla base canonica C = (x5 , x4 , x3 , x2 , x , 1 ) è la funzione
6
ΩB : R5[x] → R così definita: ΩB(ax5 + bx4 + cx3 + dx2 + ex + f) := (a, b, c, d, e, f)

Si ha che
ΩB(p1(x)) = ΩB(– x5 + x4 + 4x2+ x) = (– 1, 1, 0, 4, 1, 0) = a1

ΩB(p2(x)) = ΩB(2x5 – 11x2 – 2x + 4) = (2, 0, 0, –11, –2, 4) = a2

ΩB(p3(x)) = ΩB(–3x5 + 7x4 + 5x + 12) = (–3, 7, 0, 0, 5, 12) = a3

ΩB(p4(x)) = ΩB(4x5 + 2x2 – 12x – 8) = (4, 0, 0, 2, –12, –8) = a4

ΩB(p5(x)) = ΩB(–5x5 + 7x4 + 23x2 + 3x) = (–5, 7, 0, 23, 3, 0) = a4

−1 1 0 4 1 0
2 0 0 − 11 − 2 4 

Sia A la matrice avente a1, a2, a3, a4, a5 come righe, cioè A = − 3 7 0 0 5 12  .
 
4 0 0 2 − 12 − 8
− 5 7 0 23 3 0 

− 1 1 0 4 1 0
0 2 0 − 3 0 4

Tramite operazioni elementari si trova la matrice A’ =  0 0 0 − 3 1 2 .
 
0 0 0 0 0 0
 0 0 0 0 0 0
Si ha che lo spazio delle righe di A e di A’ coincidono. Quindi, dim(U) = rg(A) = rg(A’) = 3.

Le prime tre righe di A’ sono una base dello spazio delle righe di A’, quindi i polinomi
q1(x) = p1(x) = – x5 + x4 + 4x2+ x, q2(x) = 2x4 –3x2 + 4, q3(x) = –3x2 + x + 2 sono una base di U.

Tenendo conto del Corollario 12.19 possiamo prendere, a piacere, tre polinomi nel modo seguente:
q4(x) = a33x3 + a34x2 + a35x + a36, q5(x) = a55x + a56, q6(x) = a66,

− 1 1 0 4 1 0 
0 2 0 −3 0 4 

0 0 a 33 a 34 a 35 a 36 
 
0 0 0 −3 1 2 
0 0 0 0 a 55 a 56 
 
 0 0 0 0 0 a 66 

con a33 ≠ 0 , a55 ≠ 0 e a66 ≠ 0.

Per esempio, q4(x) = x3 , q5(x) = x , q6(x) = 1.

92
13. Determinante di una matrice quadrata

13.1. Definizione. Dati i numeri reali x1, x2, x3, x4,…, x(n-2), x(n-1), xn col simbolo
n
∑ xi indicheremo la loro somma (x1 + x2 + x3 + x4 + … + x(n-2) + x(n-1) + xn). Quindi,
i =1
n
∑ xi := x1 + x2 + x3 + x4 + … + x(n-2) + x(n-1) + xn
i =1

13.2. Esempio.
n
• ∑ αyi = αy1 + αy2 + αy3 + αy4 + ….. + αy(n-2) + αy(n-1) + αyn
i =1
n
• ∑ (xi + yi ) = (x1 + y1 ) + (x2 + y2 ) + (x3 + y3 ) +…..+ (x(n-1) + y(n-1) ) + (xn + yn )
i =1
n
• ∑ xih = x1h + x2h + x3h + x4h + ….. + x(n-1),h + x(n-1),h + xnh
i =1
n
• ∑ (αyi + zih ) = (αy1 + z1h ) + (αy2 + z2h ) + (αy3 + z3h ) + ….. + (αy(n-1) + z(n-1),h ) + (αyn + znh )
i =1
n m m m m m m
• ∑ ( ∑ xhi ) = ( ∑ xh1 ) + ( ∑ xh2 ) + ( ∑ xh3 ) + ….. + ( ∑ xh,(n-1) ) + ( ∑ xhn )
i =1 h =1 h =1 h =1 h =1 h =1 h =1

13.3. Lemma. Valgono le seguenti proprietà:


n
(0) x1 = x2 = x3 = x4 = … = x(n-2) = x(n-1) = xn = α ⇒ ∑ xi = nα
i =1

n n n
(1) ∑ (xi + yi ) = ( ∑ xi ) + ( ∑ yi )
i =1 i =1 i =1
n n
(2) ∑ (αxi ) = α( ∑ xi )
i =1 i =1

n n n
(3) ∑ (αxi + βyi ) = α( ∑ xi ) + β( ∑ yi )
i =1 i =1 i =1

n m m n
(4) ∑ ( ∑ xhi ) = ∑ ( ∑ xhi )
i =1 h =1 h =1 i =1

93
Dimostrazione.
n
(0) ∑ xi = x1 + x2 + x3 + … + x(n-1) + xn = α + α + α + ….. + α + α = nα
i =1
n
(1) ∑ (xi + yi ) = (x1 + y1 ) + (x2 + y2 ) + (x3 + y3 ) +…..+ (x(n-1) + y(n-1) ) + (xn + yn ) =
i =1
[per le proprietà associativa e commutativa della somma]
n n
= (x1 + x2 + x3 + ….. + x(n-1) + xn) + (y1 + y2 + y3 + ..… + y(n-1) + xn) = ( ∑ xi ) + ( ∑ yi )
i =1 i =1
n
(2) ∑ (αxi ) = (αx1 ) + (αx2 ) + (αx3 ) + ….. + (αx(n-1) ) + (αxn ) =
i =1
[per le proprietà distributiva del prodotto rispetto alla somma]
n
= α(x1 + x2 + x3 + x4 + … + x(n-2) + x(n-1) + xn) = α( ∑ xi )
i =1
(3) Sia X la matrice di tipo m×n avente come elementi proprio i numeri reali xhi .

 x1,1 x1, 2 x1,3 . . x1, ( n −1) x1, n  → r1


 x x 2, 2 x 2 ,3 . . x 2,( n −1) x 2, n  → r2
 2,1
 x 3,1 x 3,2 x 3,3 . . x 3,( n −1) x 3, n  → r3
 
X=  . . . . . . .  .
 . . . . . . .  .
 
 x ( m −1),1 x ( m −1),2 x ( m −1),3 . . x ( m −1),( n −1) x ( m −1),n  → r( m −1)
 x x m2 x m3 . . x m,( n −1) x m, n  → rm
 m1
↓ ↓ ↓ ↓ ↓ ↓
s1 s2 s3 s(n-1) sn → S

Per ogni indice di riga h∈{1, 2, 3, …, (m–1), m} indichiamo con rh il numero reale che si ottiene
sommando tutti gli elementi della h-esima riga. Quindi,
n
rh = xh1 + xh2 + xh3 + xh4 + … + xh,(n-2) + xh,(n-1) + xhn = ∑ xhi
i =1
Per ogni indice di colonna i∈{1, 2, 3, …, (n–1), n} indichiamo con si il numero reale che si ottiene
sommando tutti gli elementi della i-esima colonna. Quindi,
m
si = x1i + x2i + x3i + x4i + … + x(m-2),i + x(m-1),i + xmi = ∑ xhi
h =1
Se indichiamo con S la somma di tutti gli elementi della matrice X, è facile convincersi che
n m
∑ si = S = ∑ rh
i =1 h =1
n m n m m n
Quindi, ∑ ( ∑ xhi ) = ∑ si = S = ∑ rh = ∑ ( ∑ xhi ). 
i =1 h =1 i =1 h =1 h =1 i =1

94
13.4. Definizione. Sia A una matrice quadrata di tipo m×n ad elementi reali. Se h < m e k < n con il
simbolo A{α1, α2, α3,…, αh},{β1, β2, β3,…, βk} indicheremo la matrice A’ di tipo (m–h)×(n–k) ottenuta

“cancellando” da A le righe di indici {α1, α2, α3, …, αh}, le colonne di indici {β1, β2, β3, …, βk} e
“eliminando gli spazi vuoti”. Diremo anche che A’ è una sottomatrice di A.
Se h = k = 1 invece di A{α},{β} scriveremo brevemente Aα,β e, talvolta, anche solamente Aαβ.

13.5. Esempio. Sia A la matrice di tipo 5×8 seguente:

2 0 4 6 1 −7 08
1 1 4 3 − 2 0 − 1 2  ← 2a

A = 3 3 − 1 −3 0 0 0 2
 
5 − 5 5 − 5 5 − 5 5 − 5
0 1 0 −1 0 1 0 − 1 ← 5a
↑ ↑ ↑ ↑
1a 2a 4 a 7a

Cancellando da A le righe di indici {2, 5} e le colonne di indici {1, 2, 4, 7} otteniamo


 4 1 −7 0
 
 
 −1 0 0 2
 
 5 5 −5 − 5
 

Eliminando gli spazi vuoti otteniamo la seguente matrice di tipo 3×4

 4 1 −7 0 
A’ = A{2,5},{1,2,4,7}= − 1 0 0 2 
 5 5 − 5 − 5

13.6. Esempio. Sia A la matrice quadrata di ordine 3 seguente:


 7 −4 0 
A =  0 5 2 
− 1 6 − 3

5 2  0 2  0 5
Si ha che A11=  , A12 =  , A13 =  
6 − 3 − 1 − 3  − 1 6
− 4 0  7 0  7 − 4
A21 =  , A22 =  , A23 =  
 6 − 3 − 1 − 3 − 1 6 
− 4 0 7 0  7 − 4 
A31 =  , A32 =  , A33 =  .
 5 2  0 2 0 5 

95
13.7. Definizione. Sia A una matrice quadrata di ordine n ad elementi reali.

 a11 a12 a13 . . . . a1(n -1) a1n 


 a a 22 a 23 . . . . a 2(n -1) a 2n 
 21
 a 31 a 32 a 33 . . . . a 3(n -1) a 3n 
 
A=  . . . . . . . . . 
 . . . . . . . . . 
 
a (n -1)1 a (n -1)2 a (n -1)3 . . . . a (n -1),(n -1) a (n -1)n 
 a a n2 a n3 . . . . a n(n -1) a nn 
 n1

Definiamo determinante di A, e lo indichiamo con detA, il numero reale seguente:

• se n = 1, cioe’ A = [a11], allora detA := a11

n
• se n ≥ 2 allora detA := ∑ (–1)1+ja1jdetA1j
j =1

13.8. Osservazione. Calcoliamo il determinante per una generica matrice di ordine 2.

 a 11 a 12  2
det  = ∑ (–1)1+ja1jdetA1j = (–1)1+1a11detA11 + (–1)1+2a12detA12 =
a 21 a 22  j =1

= (–1)2a11det[a11] + (–1)3a12det[a12] = a11a22 – a12a21 =

= a11a22 – a12a21

13.9. Esempio. Utilizzando quanto visto nell’osservazione precedente abbiamo che:

 2 5  − 1 4  3 − 2
det   = 12 – 15 = – 3 det   = (–7) – (–12) = 5 det   = 12 – (–12) = 0
 3 6 − 3 7  − 6 4 

13.10. Esempio. Considerando le sottomatrici di ordine 2 dell’esempio 13.6 si ha che:

5 2  0 2  0 5
detA11= det   = –27 detA12= det  = 2 detA13= det  =5
6 − 3 − 1 − 3  − 1 6
− 4 0  7 0  7 − 4
detA21= det   = 12 detA22= det   = –21 detA23=det   =38
 6 − 3 − 1 − 3 − 1 6 
− 4 0 7 0  7 − 4 
detA31= det   = –8 detA32= det   = 14 detA33= det   = 35.
 5 2  0 2 0 5 

96
13.11. Osservazione. Calcoliamo il determinante per una generica matrice di ordine 3.

 a 11 a 12 a 13 
3
det a 21 a 22 a 23  = ∑ (–1)1+ja1jdetA1j =
a 31 a 32 a 33  j =1

= (–1)1+1a11detA11+ (–1)1+2a12detA12 + (–1)1+3a13detA13 =

a 22 a 23  a 21 a 23  a 21 a 22 
= (–1)2a11det   + (–1)3a12det   + (–1)4a13det  =
a 32 a 33  a 31 a 33  a 31 a 32 

= a11(a22a33 – a32a23) – a12(a21a33 – a31a23) + a13(a21a32 – a31a22) =

= a11a22a33 – a11a32a23 – a12a21a33 + a12a31a23 + a13a21a32 – a13a31a22 =

= a11a22a33 + a12a23a31 + a13a21a32 – a31a22a13 – a32a23a11 – a33a21a12.

13.12. Osservazione. Lo sviluppo del determinante di ordine 3 si può ricordare utilizzando la


“regola di Sarrus”. Nella riga precedente si osserva che si hanno sei addendi ognuno prodotto di tre
fattori. Costruiamo ora una matrice C aggiungendo alla matrice A le prime due colonne di A
 a 11 a 12 a 13 a 11 a 12 
C = a 21 a 22 a 23 a 21 a 22 
a 31 a 32 a 33 a 31 a 32 

Si può notare che i primi tre addendi corrispondono al prodotto degli elementi sulle tre diagonali
discendenti verso destra mentre i secondi tre addendi corrispondono al prodotto degli elementi sulle
tre diagonali ascendenti verso destra.

13.13. Esempio. Si calcoli il determinante delle matrici A e B quadrate di ordine 3.

 2 −1 5   2 −1 5 2 − 1

A = − 3 4  
1  → − 3 4 1 − 3 4 
 11 7 − 6  11 7 − 6 11 7 

detA = (–48) + (–11) + (–105) – (220) – (14) – (–18) = – 380

3 − 1 7  3 − 1 7 3 − 1
B = 0 2 11  → 0 2 11 0 2  detB = (–30) + 0 + 0 – 0 – 0 – 0 = – 30
 
0 0 − 5 0 0 − 5 0 0 

97
Omettiamo la dimostrazione del seguente:

13.14. Lemma. Scambiando due righe il determinante cambia di segno.

13.15. Teorema (O.E.1). Effettuando s scambi di righe il determinante viene moltiplicato per (–1)s.

13.16. Corollario. Se una matrice quadrata ha due righe uguali, allora il suo determinante vale zero.
Dimostrazione. Sia A una matrice avente avente la i-esima riga uguale alla h-esima riga con i ≠ h.
Sia B la matrice ottenuta da A scambiando la i-esima riga con la h-esima riga. Per il Lemma 13.14 è
detB = –detA. D’altronde, è B = A per cui detB = detA. Quindi, si ha che detA = 0. 

13.17. Teorema (1° di Laplace). Se A è una matrice quadrata di ordine n ≥ 2, allora per ogni indice
n
di riga h = 1, 2, 3, …, (n–1), n si ha che detA = ∑ (–1)h+jahjdetAhj
j =1

Dimostrazione. Per h = 1 la tesi è vera per definizione. Sia ora 2 ≤ h ≤ n.

 A1   Ah 
 A   A 
 2   1 
 A3   A2 
   
 .   A3 
 .   . 
   
Siano A = A h −1  e B =  .  . Si osservi che:
 A  A 
 h   h −1 
A h +1  A h +1 
 .   . 
   
 .   . 
   
 An   An 
• B si ottiene da A mediante (h – 1) scambi di righe, quindi, detA = (–1)h-1detB;
• per ogni j = 1, 2, 3, …, n è b1j=ahj

• per ogni j = 1, 2, 3, …, n è B1j = Ahj


Tenendo conto di tali osservazioni si ha:
n n
detA = (–1)h-1detB = (–1)h-1[ ∑ (–1)1+jb1jdetB1j] = (–1)h-1[ ∑ (–1)1+jahjdetAhj] =
j=1 j=1
(–1)h-1 non dipende dall’indice di sommatoria, quindi per la proprietà (2) del Lemma 13.3 
n n
= ∑ (–1)h-1(–1)1+jahjdetAhj = ∑ (–1)h+jahjdetAhj 
j=1 j=1

98
13.18. Teorema (O.E.2). Se si moltiplicano tutti gli elementi di una riga per uno scalare allora il
determinante risulta anch’esso moltiplicato per quello scalare.

Dimostrazione. Se B è la matrice ottenuta da A moltiplicando per α la sua h-esima riga, cioè


(♣) per ogni i ≠ h è Bi = Ai.

(♥) Bh = αAh

allora detB = αdetA

 A1   A1 
 A   A 
 2   2 
 A3   A3 
   
 .   . 
 .   . 
   
A = A h −1  B =  A h −1 
 A  (α A ) 
 h   h 
A h +1   A h +1 
 .   . 
   
 .   . 
   
 An   An 

Si osservi che per ogni indice di colonna j = 1, 2, 3, …, n si ha che


(♣) ⇒ Bhj = Ahj

(♥) ⇒ bhj = αahj


Per il 1° teorema di Laplace applicata alla h-esima riga di B si ha:
n n n
detB = ∑ (–1)h+jbhjdetBhj = ∑ (–1)h+j(αahj)detAhj = α[ ∑ (–1)h+jahjdetAhj] = α(detA). 
j=1 j=1 j=1
 per la proprietà (2) del Lemma 13.3

13.19. Corollario. Se una matrice ha una riga nulla, allora il suo determinante vale zero.
Dimostrazione. Avere una riga nulla è come avere tutti gli elementi di quella riga moltiplicati per
zero. 

99
13.20. Lemma. Se A, B e C sono tre matrici quadrate di ordine n tali che:
(♣) per ogni i ≠ h è Ai = Bi = Ci (A, B e C hanno tutte le righe, esclusa la h-esima, uguali)

(♥) Ch = Ah + Bh (la h-esima riga di C è la somma delle h-esime righe di A e di B)


allora detC = detA + detB.
Si osservi che, in generale, la matrice C NON è la somma delle matrici A e B, cioè C ≠ A + B.

 A1   A1   A1 
 A   A   A 
 2   2   2 
 A3   A3   A3 
     
 .   .   . 
 .   .   . 
     
A = A h −1  B = A h −1  C =  A h −1 
 A   B  A + B 
 h   h   h h
A h +1  A h +1   h +1 
A
 .   .   . 
     
 .   .   . 
     
 An   An   An 
Dimostrazione. Si osservi che per ogni indice di colonna j = 1, 2, 3, …, n si ha che

(♣) ⇒ Chj = Bhj = Ahj

(♥) ⇒ chj = ahj + bhj


n n n
detC = ∑ (–1)h+jchjdetChj = ∑ (–1)h+j(ahj + bhj)detChj = ∑ [(–1)h+jahjdetChj + (–1)h+jbhjdetChj] =
j =1 j =1 j =1
per la proprietà (1) del Lemma 13.3 
n n
= [ ∑ [(–1)h+jahjdetChj] + [ ∑ (–1)h+jbhjdetChj] =
j =1 j =1
n n
= [ ∑ [(–1)h+jahjdetAhj] + [ ∑ (–1)h+jbhjdetBhj] = detA + detB 
j =1 j =1

13.21. Osservazione. Precisiamo ancora una volta che il Lemma precedente NON afferma che il
determinante di una somma di due matrici è uguale alla somma dei determinanti delle due matrici.

13.22. Esempio. Per le seguenti matrici A e B si ha che det(A + B) ≠ detA + detB.


5 2  − 2 − 3  3 − 1
Se A =   eB=   , allora (A + B) = 10 − 4 .
6 − 3  4 − 1  
Si ha che det(A + B) = –2 ≠ –13 = –27 + 14 = detA + detB.

100
Dal Lemma 13.20 e dal Corollario 13.16 segue subito il seguente:

13.23. Teorema (O.E.3). Se ad una riga si aggiunge un’altra (diversa) riga moltiplicata per uno
scalare qualsiasi allora il determinante non cambia.

Dimostrazione. Sia B la matrice ottenuta dalla matrice A aggiungendo alla sua k-esima riga la sua
h-esima riga moltiplicata per α. Cioè,
(♣) per ogni i ≠ k è Bi = Ai.

(♥) Bk = Ak + αAh

 A1   A1   A1   A1 
 A  A  A  A 
 2   2  2   2
 A3   A3   A3   A3 
       
 .   .   .   . 
 Ah  A h   Ah  A h 
       
detB = det  .  = det  .  + det  .  = detA + αdet  .  = detA + α0 = detA 
 .   .   .   . 
       
 A k + αA h  A k  α A h  A h 
 .   .   .   . 
       
 .   .   .   . 
       
 An  A n   An  A n 

Dal teorema 13.23 e dal corollario 13.16 seguono subito i seguenti corollari.

13.24. Corollario. Se ad una riga aggiungiamo una combinazione lineare di altre (diverse) righe,
allora il determinante non cambia.

13.25. Corollario. Se una riga è combinazione lineare di altre righe, allora il determinante è nullo.

Tenendo conto dei Teoremi 13.15, 13.18 e 13.23 si prova subito il seguente:

13.26. TEOREMA. Sia A una matrice quadrata e sia B la matrice quadrata ottenuta da A tramite un
numero finito di operazioni elementari sulle righe di A. Se abbiamo effettuato s scambi di righe e
abbiamo moltiplicato le righe per gli scalari non nulli α1, α2, α3, …, α(t-1), αt allora

detB = (–1)s(α1α2α3…α(t-1)αt)detA

Si osservi che detB ≠ 0 ⇔ detA ≠ 0

101
13.27. Teorema. Il determinante di una matrice triangolare superiore è uguale al prodotto degli
elementi che si trovano sulla sua diagonale principale.

Dimostrazione. (per induzione). Si verifica subito per matrici di ordine 1 e di ordine 2. Proviamo,
ora, che se l’enunciato è vero per matrici di ordine (n–1), allora è vero anche per matrici di ordine n.
Sia A una matrice quadrata di ordine n triangolare superiore. Per il 1° teorema di Laplace applicato
alla sua (ultima) n-esima riga si ha:
n
detA = ∑ (–1)n+janjdetAnj
j=1

Poiché A è triangolare superiore si ha che per ogni j ≤ (n–1) è anj = 0. Quindi,

detA = (–1)n+nanndetAnn = (–1)2nanndetAnn = anndetAnn


Poiché Ann è una matrice di ordine (n-1) triangolare superiore, per l’ipotesi induttiva, si ha che il
suo determinante è uguale al prodotto degli elementi che si trovano sulla sua diagonale principale
detAnn = a11a22a33a44…..a(n-2),(n-2)a(n-1),(n-1)
Quindi, detA = anndetAnn = a11a22a33a44…..a(n-2),(n-2)a(n-1),(n-1)ann 

13.28. Osservazione. I Teoremi 13.26 e 13.27 ci forniscono un modo comodo per calcolare il
determinante di una matrice di ordine “grande”. Infatti, se dobbiamo calcolare il determinante di
una matrice A possiamo procedere nel modo seguente:
(1) troviamo (tramite un numero finito di opportune operazioni elementari applicate alle righe di A)
una matrice B a scalino; ovviamente, la matrice B è anche triangolare superiore;
(2) calcoliamo il determinante di B che è uguale al prodotto degli elementi che si trovano sulla sua
diagonale principale;
(3) Se abbiamo effettuato s scambi di righe e abbiamo moltiplicato le righe per gli scalari non
nulli α1, α2, α3, …, α(t-1), αt allora detB = (–1)s(α1α2α3…α(t-1)αt)detA da cui

detA = (–1)s(α1α2α3…α(t-1)αt)-1detB

 7 −4 0  − 1 6 − 3 − 1 6 − 3 
13.29. Esempio. A =  0 5 2  → B = 0
 5 2  → C = 0 5
 2  →
− 1 6 − 3  7 − 4 0   0 38 − 21

− 1 6 −3  − 1 6 − 3 

→ D= 0 5 2  → E = 0 5 2 

 0 190 − 105  0 0 − 181

905 = detE = detD = 5detC = 5detB = 5(– detA) ⇒ detA = – 905/5 = – 181.

102
Dal Teorema 13.27 e dal Corollario 12.17 si ha subito il seguente:

13.30. Corollario. Una matrice quadrata a scalino ha rango massimo se e solo se il suo
determinante è diverso da zero.

13.31. Teorema. Una matrice quadrata ha rango massimo se e solo se il suo determinante è diverso
da zero.
Dimostrazione. Sia A una matrice quadrata. Per il Teorema 11.25 è possibile trovare (tramite un
numero finito di opportune operazioni elementari applicate alle righe di A) una matrice B che abbia
lo stesso rango di A. Quindi, il rango di A è massimo se e solo se il rango di B è massimo, ovvero
(per il Corollario 13.30) se e solo se il determinante di B è diverso da zero e, quindi, (per il Teorema
13.26) se e solo se il determinante di A è diverso da zero. 

13.32. Corollario. Sia VR uno spazio vettoriale reale di dimensione n.


Sia B = (u1, u2, u3, …, un-1, un) una base di VR.
Sia D = (v1, v2, v3, …, vn-1, vn) una n-upla ordinata di vettori di VR.
Per ogni s∈Sn sia as la n-upla di coordinate del vettore vs rispetto alla base B.
Sia A la matrice avente come righe le n-uple a1, a2, a3, a4, …, an-1, an .
L’insieme D è una base di VR se e solo se il determinante della matrice A è diverso da zero.

13.33. Esempio. Consideriamo le seguenti 4 quaterne di numeri reali:


a1 = (–2, 1, 0, 5), a2 = (0, 1, 3, 0), a3 = (1, 1, 1, 1) e a4 = (7, 0, –1, 4).
Stabilire se l’insieme B = (a1, a2, a3, a4) è o non è una base di R4.
− 2 1 0 5
0 1 3 0
Sia A =  la matrice quadrata avente le 4 quaterne come righe.
1 1 1 1
 
7 0 −1 4

Applicando il 1o Terorema di Laplace alla 2a riga di A.


4
detA = ∑ (–1)2+ja2jdetA2j = (–1)2+2a22detA22 + (–1)2+3a23detA23 = detA22 – 3detA23 =
j=1

− 2 0 5 − 2 1 5 

= det  1 1 1 – 3det  1 1 1  = – 50 – 3(–40) = – 50 + 120 = 70 ≠ 0

 7 − 1 4  7 0 4

Quindi, B = (a1, a2, a3, a4) è una base di R4.

103
13.34 Teorema (2° di Laplace). Se A è una matrice quadrata di ordine n ≥ 2, allora per ogni coppia
di indici di riga h,k = 1, 2, 3, …, (n–1), n con h ≠ k si ha che
n
∑ (–1)k+jahjdetAkj = 0.
j=1

Dimostrazione. Siano A e B due matrici tali che sia Bk = Ah e per ogni i ≠ k sia Bi = Ai. Cioè,

 A1   A1 
A   A 
 2  2 
 A3   A3 
   
 .   . 
 .   . 
   
A = A h  B = Bh = A h 
 .   . 
   
A k  Bk = A h 
 .   . 
   
 .   . 
   
A n   An 

Si osservi che per ogni indice di colonna j = 1, 2, 3, …, n si ha che:

• bkj = ahj

• Bkj = Akj
Per il 1° teorema di Laplace applicato alla k-esima riga di B si ha:
n n
detB = ∑ (–1)k+jbkjdetBkj = ∑ (–1)k+jahjdetAkj
j=1 j=1

D’altronde, si ha anche che detB = 0 poiché B ha due righe uguali (la h-esima e la k-esima).
n
Quindi, ∑ (–1)k+jahjdetAkj = 0. 
j=1

104
13.35. Definizione. Sia A una matrice quadrata di ordine n ad elementi reali. Per ogni i,j = 1,2,…,n
il numero reale Aij := (–1)i+jdetAij si dice complemento algebrico dell’elemento aij.

13.36. Definizione. Sia A una matrice quadrata di ordine n ad elementi reali. Chiamiamo matrice
cofattore della matrice A, e la indichiamo col simbolo cofA, la matrice quadrata di ordine n ad
elementi reali formata dai complementi algebrici Aij degli elementi aij di A.

13.37. Definizione. Sia A una matrice quadrata di ordine n ad elementi reali. Chiamiamo matrice
aggiunta di A, e la indichiamo sol simbolo aggA, la trasposta della matrice cofattore di A.

13.38. Esempio. Sia A la matrice quadrata di ordine 3 dell’esempio 13.6:


 7 −4 0 
A =  0 5 2 
− 1 6 − 3

Dall’Esempio 13.10 si ha che

5 2  0 2  0 5
detA11= det   = –27 detA12= det  = 2 detA13= det  =5
6 − 3 − 1 − 3  − 1 6
− 4 0  7 0  7 − 4
detA21= det   = 12 detA22= det   = –21 detA23=det   =38
 6 − 3 − 1 − 3 − 1 6 
− 4 0 7 0  7 − 4 
detA31= det   = –8 detA32= det   = 14 detA33= det   = 35.
 5 2  0 2 0 5 
Quindi,
A11= (–1)1+1(–27) = –27 A12 = (–1)1+2(2) = –2 A13 = (–1)1+3(5) = 5

A21= (–1)2+1(12) = –12 A22 = (–1)2+2(–21) = –21 A23= (–1)2+3(38) = –38

A31= (–1)3+1(–8) = –8 A32 = (–1)3+2(14) = –14 A33= (–1)3+3(35) = 35

− 27 − 2 5  − 27 − 12 − 8 
Per cui cofA =  − 12 − 21 − 38 e aggA = (cofA)T =
  − 2 − 21 − 14
 
 − 8 − 14 35   5 − 38 35 

105
13.39. Osservazione. Tenendo conto della Definizione 13.35 i due teoremi di Laplace si possono
brevemente sintetizzare nel modo seguente:
n
∑ ahjAkj = (detA)δhk
j=1

dove δhk è la delta di Kronecker (δhk = 0 se h ≠ k, δhk = 1 se h = k).

13.40. Definizione. Chiameremo matrice unità di ordine n, e la indicheremo con il simbolo In , la


matrice quadrata diagonale di ordine n avente tutti gli elementi sulla diagonale principale uguali a 1.
Quindi, l’elemento che si trova sulla h-esima riga e sulla k-esima colonna di In è δhk.

13.41. Teorema. Per ogni matrice A quadrata di ordine n ad elementi reali si ha che

A(aggA) = (aggA)A = (detA)In

dove (detA)In è la matrice diagonale avente come elementi δhkdetA, cioè avente tutti gli elementi
sulla diagonale principale uguali a detA.

Dimostrazione. Sia B := A(aggA). Proviamo che B = In.


Il generico elemento bhk di B è uguale al prodotto riga per colonna della h-esima riga di A
(ah1 ah2 ah3 ah4 ….. ah,(n-1) ahn )
per la k-esima colonna di aggA, che è proprio la k-esima riga di cofA
(Ak1 Ak2 Ak3 Ak4 ….. Ak,(n-1) Akn )
n
Quindi, bhk = ∑ ahjAkj = (detA)δhk. Per cui B = In. Analogamente si ha che (aggA)A = (detA)In. 
j=1

Ricordiamo che il determinante di una somma di due matrici quadrate dello stesso ordine NON è,
in generale, uguale alla somma dei determinanti delle due matrici.

Invece, vale (ne omettiamo la dimostrazione) il seguente:

13.42. Teorema (Binet). Il determinante del prodotto di due matrici quadrate dello stesso ordine è
uguale al prodotto dei determinanti delle due matrici.

106
14. Matrici invertibili.

14.1. Definizione. Diremo che una matrice A quadrata di ordine n ad elementi reali è invertibile se
esiste una matrice B quadrata di ordine n ad elementi reali tale che
AB = In =BA
Ovviamente, anche la matrice B è invertibile.

14.2. Osservazione. Se A è una matrice quadrata di ordine n ad elementi reali invertibile allora
esiste ed è unica una matrice B quadrata di ordine n ad elementi reali tale che
AB = In =BA
Dimostrazione. Poiché A è per ipotesi invertibile, dobbiamo provare solamente che B è unica. Se
esistesse un’altra matrice C quadrata di ordine n ad elementi reali tale che AC = In =CA, si avrebbe:
AB = In ⇒ C(AB) = CIn ⇒ (CA)B = C ⇒ InB = C ⇒ B = C. 

Tenendo conto dell’Osservazione 14.2 è ben posta la seguente:

14.3. Definizione. Se A è una matrice invertibile, allora diremo matrice inversa della matrice A, e
la indicheremo con il simbolo A-1, l’unica matrice B tale che AB = In =BA. Quindi,

A A-1 = In = A-1A

14.4. Osservazione. Ovviamente, se A è invertibile, allora anche A-1 è invertibile. Inoltre, l’inversa
di A-1 è A stessa, cioè (A-1)-1 = A.

14.5. Teorema. Se A e B sono due matrici invertibili dello stesso ordine, allora anche la matrice
AB è invertibile ed è (AB)-1 = (B-1)(A-1). Quindi, l’inversa di un prodotto di due matrici invertibili
è uguale al prodotto delle inverse delle due matrici prese in ordine “inverso”.

Dimostrazione. Poiché A e B sono invertibili esiste la matrice C := B-1A-1. Si ha che:


(AB)C = (AB)(B-1A-1) = A(BB-1)A-1 = AInA-1 =AA-1 = In

C(AB) = (B-1A-1)(AB) = B-1(A-1A)B = B-1InB = B-1B = In

Quindi, per la Definizione 14.1 AB è invertibile e la matrice C = B-1A-1 è, per l’Osservazione 14.2,
la sua unica inversa. Per cui (AB)-1 = (B-1)(A-1). 

107
14.6. Definizione. Diremo che una matrice quadrata è singolare se il suo determinante è nullo.

Per il Teorema 13.41, per ogni matrice quadrata A di ordine n ad elementi reali si ha che
A(aggA) = (aggA)A = (detA)In

Come immediata conseguenza del Teorema 13.41 si ha il seguente:

14.7. Lemma. Per ogni matrice A quadrata di ordine n non singolare (cioè detA ≠ 0) si ha che
A[(detA)-1(aggA)] = [(detA)-1(aggA)]A = In

Tenendo conto della Definizione 14.1 e dell’Osservazione 14.2 si ha il seguente:

14.8 Teorema. Se A è una matrice quadrata non singolare, allora A è invertibile e la sua (unica)
inversa è data dal prodotto dell’inverso del determinante di A per la matrice aggiunta di A, cioè

A-1 = (detA)-1(aggA)

 7 −4 0 
14.9 Esempio. Se esiste, trovare l’inversa della matrice A =  0 5 2  .
− 1 6 − 3

Nell’Esempio 13.29 abbiamo visto che detA = – 181 ≠ 0. Quindi, la matrice A è non singolare e,
per il Teorema 14.8, è invertibile. Inoltre, A-1 = (detA)-1(aggA).
Nell’Esempio 13.38 abbiamo visto che
− 27 − 12 − 8  − 27 − 12 − 8 
aggA =  − 2 − 21 − 14 . Per cui si ha che A = (– 1/181)  − 2 − 21 − 14 .
  -1

 5 − 38 35   5 − 38 35 

108
14.10 Esempio. Troviamo l’inversa di una generica matrice non singolare di ordine 2.
 a11 a12 
Sia A =   con detA = (a11a22 – a21a12) ≠ 0.
a 21 a 22 
A11 = (–1)1+1detA11 = (–1)2det[a22] = a22 A12 = (–1)1+2detA12 = (–1)3det[a21] = – a21

A21 = (–1)2+1detA21 = (–1)3det[a12] = – a12 A22 = (–1)2+2detA22 = (–1)4det[a11] = a11

 a 22 − a 21   a 22 − a12 
Per cui cofA =  e aggA = (cofA)T =
− a12 a11  − a
 21 a11 

 a 22 a12 
 −
Infine, A-1 =  det A det A  .
a a11 
− 21 
 det A det A 

Dal Teorema (di Binet) 13.42 abbiamo subito il seguente:

14.11 Corollario. Se A è una matrice invertibile, allora si ha che detA ≠ 0, cioè A è non singolare.
Inoltre, è det(A-1) = (detA)-1.

Dimostrazione. Sia A una matrice invertibile e A-1 la sua inversa. Allora si ha


(detA)(detA-1) = det(AA-1) = detIn = 1

Per cui detA ≠ 0. Si osservi, inoltre, che è det A-1 = (detA)-1. 

Conseguenza immediata del Teorema 14.8 e del Corollario 14.11 è il seguente:

14.12 Teorema. Una matrice quadrata è invertibile se e solo se è non singolare.

109
14.13 Osservazione. Siano A, B e C tre matrici quadrate di ordine n. Ovviamente, si ha che
B = C ⇒ AB = AC

In generale, non vale il viceversa come possiamo vedere nel seguente

14.14 Esempio. Si considerino le seguenti tre matrici:

 1 − 2 − 1 3  − 5 − 5
A=   , B=   e C= 
− 1 2   2 5 0 1 

− 5 − 7 − 5 − 7
Con semplici calcoli si vede che AB =   et AC =  .
5 7  5 7 

Quindi, si ha che AB = AC et B ≠ C

14.15 Osservazione. Siano A, B e C tre matrici quadrate di ordine n. Si ha che


AB = AC et A è invertibile ⇒ B = C
Dimostrazione.
AB = AC ⇒ A-1(AB) = A-1(AC) ⇒ (A-1A)B = (A-1A)C ⇒ InB = InC ⇒ B = C 

14.16 Esercizi. Se esistono, calcolare le matrici inverse delle seguenti matrici.

 − 1 − 2  1 − 2 11 − 2 0 − 21
A=   B=   C=   D=  
 3 − 5 − 3 6   5 − 1 0 17 

2 − 1 0 1 0 − 2 1 1 1  0 0 1 
E = 0 3 5 F = 3 − 1 1  G = 1 0 − 1 H = 1 2 0
1 0 1 0 − 1 7  0 1 1  0 1 0

 2 − 1 1 3 0 0 7 0 0 
L = 0 − 3 5 
M=  2 1 0 N = 0 − 1 0
0 0 1 − 4 − 1 1 0 0 2

110
15. Cambiamenti di base in uno spazio vettoriale.

15.1 Esempio. Sia VR uno spazio vettoriale di dimensione 3 e sia B = (u1, u2, u3) una sua base.

Siano v0 = 5u1 + 16u3 , v1 = 2u1 − u2 + 5u3 , v2 = − u1 + 3u2 + u3 , v3 = u1 − 4u2 − 7u3


Sia M la matrice avente come colonne le coordinate dei vettori v0, v1, v2 rispetto alla base B e
sia N la matrice avente come colonne le coordinate dei vettori v1, v2, v3 rispetto alla base B.

 5 2 − 1  2 −1 1 
M =  0 − 1 3  N = − 1 3 − 4
16 5 1   5 1 − 7

Poiché detM = 0 la matrice M non ha rango massimo. Quindi, dimCM = dimRM = rgM ≤ 2. Per cui
le sue tre colonne sono linearmente dipendenti. Di conseguenza, anche i tre vettori v0, v1, v2 sono

linearmente dipendenti. Così l’insieme (v0, v1, v2) NON è una base di VR.

Poiché detN = −23 ≠ 0 la matrice N ha rango massimo. Quindi, dimCN = dimRN = rgN = 3. Per cui
le sue tre colonne sono linearmente indipendenti. Di conseguenza, anche i tre vettori v1, v2, v3 sono
linearmente indipendenti. Così l’insieme B = (v1, v2, v3) è un’altra base di VR.

Sia w il vettore di VR avente coordinate (4, 1, −6) rispetto alla base B, cioè w = 4v1 + v2 − 6v3.

E’ molto facile trovare le coordinate di w rispetto alla base B, infatti si ha che

w = 4v1 + v2 − 6v3 = 4(2u1 − u2 + 5u3) + (− u1 + 3u2 + u3) − 6(u1 − 4u2 − 7u3) = u1 + 23u2 + 63u3

Quindi, le coordinate di w rispetto alla base B sono (1, 23, 63).

Sia, ora, t il vettore di VR avente coordinate (4, −8, −3) rispetto a B, cioè t = 4u1 − 8u2 − 3u3.

Troviamo le coordinate (x, y, z) di t rispetto a B, cioè tali che t = xv1 + yv2 + zv3 . Si ha che

t = xv1 + yv2 + zv3 = x(2u1 − u2 + 5u3) + y(− u1 + 3u2 + u3) + z(u1 − 4u2 − 7u3)

t = (2x − y + z)u1 + (−x + 3y − 4z)u2 + (5x + y − 7z)u3

Poichè la scrittura di t = 4u1 − 8u2 − 3u3 rispetto alla base B è unica deve essere

 2x − y + z = 4

− x + 3y − 4z = −8
 5x + y − 7z = −3

L’unica soluzione di tale sistema è la terna ordinata (x, y, z) = (1, −1, 1), cioè t = v1 − v2 + v3.

111
15.2 Esempio. Siano VR , B = (u1, u2, u3) e B = (v1, v2, v3) come nell’Esempio 15.1. Quindi,

v1 = 2u1 − u2 + 5u3 , v2 = − u1 + 3u2 + u3 e v3 = u1 − 4u2 − 7u3

Sia w un generico vettore di VR . Siccome B e B sono due basi, si ha che esistono, e sono uniche,
due terne (α1, α2, α3) e (β1, β2, β3) tali che

(I) w = α1u1 + α2u2 + α3u3

(II) w = β1v1 + β2v2 + β3v3

Ora, vedremo di trovare il “legame” che c’è tra le coordinate (β1, β2, β3) di w rispetto alla base B e

le coordinate (α1, α2, α3) di w rispetto alla base B.

Si ha che w = β1v1 + β2v2 + β3v3 = β1(2u1 − u2 + 5u3) + β2(− u1 + 3u2 + u3) + β3(u1 − 4u2 − 7u3)

da cui (III) w = = (2β1 − β2 + β3)u1 + (−β1 + 3β2 − 4β3)u2 +(5β1 + β2 − 7β3)u3

Si osservi che la (III) è una scrittura di w come combinazione lineare dei vettori della base B.
Per l’unicità della scrittura di w rispetto alla base B, da (I) e (III) si ha che deve essere:

 2β1 − β2 + β3 = α1

(#) − β1 + 3β2 − 4β3 = α 2
 5β + β − 7β = α
 1 2 3 3

Queste equazioni sono il “legame” che c’è tra le coordinate (β1, β2, β3) di w rispetto alla base B e le

coordinate (α1, α2, α3) di w rispetto alla base B.

• Note le coordinate (β1, β2, β3) di un vettore w rispetto alla base B, con semplici calcoli si trovano

le coordinate (α1, α2, α3) di w rispetto alla base B.

Se (come nell’Esempio 15.1) w = 4v1 + v2 − 6v3 cioè (β1, β2, β3) = (4, 1, −6), allora dal sistema

(#) si ha subito che (α1, α2, α3) = (1, 23, 63) e, quindi, w = u1 + 23u2 + 63u3.

• Note le coordinate (α1, α2, α3) di un vettore w rispetto alla base B, risolvendo un sistema lineare

di tre equazioni in tre incognite, si trovano le coordinate (β1, β2, β3) di w rispetto alla base B.

Se (come nell’Esempio 15.1) t = 4u1 − 8u2 − 3u3 cioè (α1, α2, α3) = (4, −8, −3), allora (#) diventa

 2β1 − β2 + β3 = 4

− β1 + 3β2 − 4β3 = −8
 5β + β − 7β = −3
 1 2 3

L’unica soluzione di tale sistema è la terna ordinata (β1, β2, β3) = (1, −1, 1), cioè t = v1 − v2 + v3.

112
Nel seguito ci occuperemo di generalizzare quanto appena visto nell’Esempio 15.2.

Sia VR uno spazio vettoriale reale di dimensione finita n e B = (u1, u2, u3, u4, ….., un) una sua base.

Se w è un vettore di VR e (α1, α2, α3, α4, ….., αn) è l’unica n-upla ordinata di numeri reali tale che

(♥) w = α1u1 + α2u2 + α3u3 + α4u4 + ….. + αnun

allora la matrice matrice di tipo n×1 (matrice colonna) così definita:

 α1 
α 
 2
 α3 
 
wB := α 4 
 . 
 
 . 
α 
 n

si dice (matrice) colonna delle coordinate di w rispetto alla base B.

Sia, ora, B = (v1, v2, v3, v4, ….., vn) un’altra base di VR. Poiché B è una base di VR esiste un’unica

n-upla ordinata di numeri reali (β1, β2, β3, β4, ….., βn) tale che:

(♣) w = β1v1 + β2v2 + β3v3 + β4v4 + ….. + βnvn

Quindi, la colonna delle coordinate di w rispetto alla base B è

 β1 
β 
 2
β3 
 
wB = β4 
 . 
 
 . 
β 
 n

Poiché B = (u1, u2, u3, u4, ….., un) è una base di VR e v1, v2, v3, v4, ….., vn sono vettori di VR
allora ognuno di essi si può scrivere in modo unico come combinazione lineare dei vettori di B.
Poiché i coefficienti di tali combinazioni lineari dipendono sia dal vettore ui della base B che dal
vettore vj della base B, useremo un doppio indice con la convenzione che il primo sia l’indice i del
vettore ui di B mentre il secondo sia l’indice j del vettore vj di B. Quindi, scriveremo

113
(1) v1 = a11u1 + a21u2 + a31u3 + a41u4 + ….. + an1un
(2) v2 = a12u1 + a22u2 + a32u3 + a42u4 + ….. + an2un
(3) v3 = a13u1 + a23u2 + a33u3 + a43u4 + ….. + an3un
(4) v4 = a14u1 + a24u2 + a34u3 + a44u4 + ….. + an4un
…………………………………………………
(n) vn = a1nu1 + a2nu2 + a3nu3 + a4nu4 + ….. + annun

Da (♣), (1), (2), (3), (4), ....., (n) si ha

w = β1v1 + β2v2 + β3v3 + β4v4 + ….. + βnvn =

= β1(a11u1 + a21u2 + a31u3 + a41u4 + ….. + an1un) +

+ β2(a12u1 + a22u2 + a32u3 + a42u4 + ….. + an2un) +

+ β3(a13u1 + a23u2 + a33u3 + a43u4 + ….. + an3un) +

+ β4(a14u1 + a24u2 + a34u3 + a44u4 + ….. + an4un) +


……………………………………………
+ βn(a1nu1 + a2nu2 + a3nu3 + a4nu4 + ….. + annun)

Utilizzando le proprietà PS1, PS2 e PS3 si ottiene

(♦) w = (β1a11 + β2a12 + β3a13 + β4a14 + ..… + βna1n )u1 +

+ (β1a21 + β2a22 + β3a23 + β4a24 + ..… + βna2n )u2 +

+ (β1a31 + β2a32 + β3a33 + β4a34 + ..… + βna3n )u3 +

+ (β1a41 + β2a42 + β3a43 + β4a44 + ..… + βna4n )u4 +


……………………………………………
+ (β1an1 + β2an2 + β3an3 + β4an4 + ..… + βnann )un

Si osservi che la (♦) è una scrittura di w come combinazione lineare dei vettori della base B.
Ricordiamo che
(♥) w = α1u1 + α2u2 + α3u3 + α4u4 + ….. + αnun

Per l’unicità della scrittura di w rispetto alla base B, dalle (♥) e (♦) si ha che deve essere:

114
(E1) α1 = β1a11 + β2a12 + β3a13 + β4a14 + ..… + βna1n

(E2) α2 = β1a21 + β2a22 + β3a23 + β4a24 + ..… + βna2n

(E3) α3 = β1a31 + β2a32 + β3a33 + β4a34 + ..… + βna3n

(E4) α4 = β1a41 + β2a42 + β3a43 + β4a44 + ..… + βna4n


……………………………………………
(En) αn = β1an1 + β2an2 + β3an3 + β4an4 + ..… + βnann

Il sistema di equazioni (E1), (E2), (E3), (E4), …., (En) è il “legame” che c’è tra le coordinate
(β1, β2, β3, β4, ….., βn) di w rispetto a B e le coordinate (α1, α2, α3, α4, ….., αn) di w rispetto a B.

Ora troviamo un modo comodo di rappresentare questo sistema.

Da (1), (2), (3), (4), ....., (n) si che le colonne delle coordinate dei vettori v1, v2, v3, v4, ….., vn
rispetto alla base B = (u1, u2, u3, u4, ….., un) sono

 a11   a12   a13   a14   a1n 


a  a  a  a  a 
 21   22   23   24   2n 
a 31   a 32   a 33   a 34   a 3n 
         
(v1)B = a 41  , (v2)B =  a 42  , (v3)B = a 43  , (v4)B =  a 44  , ….. , (vn)B = a 4 n 
 .   .   .   .   . 
         
 .   .   .   .   . 
a  a  a  a  a 
 n1   n2   n3   n4   nn 

Stabiliamo che A(B→B) sia la matrice quadrata di ordine n avente come colonne ordinatamente le
colonne delle coordinate (rispetto alla base B) dei vettori della base B, cioè:

A(B→B) = [ (v1)B | (v2)B | (v3)B | (v4)B | …... | (vn)B ]

 a11 a12 a13 a14 . . . . a1n 


a a 22 a 23 a 24 . . . . a 2n 
 21
a 31 a 32 a 33 a 34 . . . . a 3n 
 
A(B→B) = a 41 a 42 a 43 a 44 . . . . a 4n 
 . . . . . . . . . 
 
 . . . . . . . . . 
a a n2 a n3 a n4 . . . . a nn 
 n1

115
Osservando (E1), (E2), (E3), (E4), ….., (En) e tenendo conto di come è definito il prodotto riga per
colonna tra due matrici moltiplicabili e si ha che:

• l’elemento α1 di wB è uguale al prodotto della prima riga di A(B→B) per la colonna wB;

• l’elemento α2 di wB è uguale al prodotto della seconda riga di A(B→B) per la colonna wB;

• l’elemento α3 di wB è uguale al prodotto della terza riga di A(B→B) per la colonna wB;

• l’elemento α4 di wB è uguale al prodotto della quarta riga di A(B→B) per la colonna wB;
………………………………………
• l’elemento αn di wB è uguale al prodotto della n-esima riga di A(B→B) per la colonna wB;

Quindi, la colonna wB è uguale al prodotto della matrice A(B→B) per la colonna wB.

Per cui, il sistema di equazioni (E1), (E2), (E3), (E4), …., (En) si può scrivere nel modo seguente:

wB = A(B→B)wB

 α1   a11 a12 a13 a14 . . . . a1n   β1 


 α  a a 22 a 23 a 24 . . . . a 2n  β 
 2   21  2
 α3  a 31 a 32 a 33 a 34 . . . . a 3n  β3 
     
α 4  = a 41 a 42 a 43 a 44 . . . . a 4n  β4 
 .   . . . . . . . . .   . 
     
 .   . . . . . . . . .   . 
α  a a n2 a n3 a n4 . . . . a nn  β 
 n   n1  n

Tenendo conto che ognuna delle n colonne delle coordinate dei vettori della base B rispetto alla
base B è univocamente determinata, si ha subito la seguente:

15.3 Osservazione. Sia VR uno spazio vettoriale reale di dimensione finita n. Ogni volta che si
fissano due sue basi B = (u1, u2, u3, u4, ….., un) e B = (v1, v2, v3, v4, ….., vn) si ha che la matrice
A(B→B) quadrata di ordine n avente come colonne ordinatamente le colonne delle coordinate dei
vettori della base B rispetto alla base B è univocamente determinata.

116
15.4 Lemma. Sia VR uno spazio vettoriale reale di dimensione finita n.
Siano B = (u1, u2, u3, u4, ….., un) e B = (v1, v2, v3, v4, ….., vn) due sue basi.
Sia w un generico vettore di VR. Se H è una matrice tale che wB = HwB allora H = A(B→B).

Dimostrazione. Per i vettori della base B si ha che


v1 = 1v1 + 0v2 + 0v3 + 0v4 + ….. + 0vn
v2 = 0v1 + 1v2 + 0v3 + 0v4 + ….. + 0vn
v3 = 0v1 + 0v2 + 1v3 + 0v4 + ….. + 0vn
v4 = 0v1 + 0v2 + 0v3 + 1v4 + ….. + 0vn
…………………………………………………
vn = 0v1 + 0v2 + 0v3 + 0v4 + ….. + 1vn
Quindi, le colonne delle coordinate dei vettori v1, v2, v3, v4, ….., vn rispetto alla base B sono:

1 0  0  0  0 
0  1 0  0  0 
         
0  0  1 0  0 
         
(v1)B = 0 , (v2)B = 0 , (v3)B = 0 , (v1)B = 1 , …… , (v1)B = 0 
. . . . .
         
. . . . .
0  0  0  0  1
         
E’ immediato verificare che per ogni vettore vi è H(vi)B = i-esima colonna di H. Quindi, si ha che
• prima colonna di A(B→B) = (v1)B = H(v1)B = prima colonna di H;

• seconda colonna di A(B→B) = (v2)B = H(v2)B = seconda colonna di H;

• terza colonna di A(B→B) = (v3)B = H(v3)B = terza colonna di H;

• quarta colonna di A(B→B) = (v4)B = H(v4)B = quarta colonna di H;


………………………………………………..
• n-esima colonna di A(B→B) = (vn)B = H(vn)B = n-esima colonna di H.
Essendo le colonne di H ordinatamente uguali alle colonne di A(B→B) si ha che H = A(B→B). 

Tenendo conto del Lemma 15.4 è ben posta la seguente:

15.5 DEFINIZIONE. Sia VR uno spazio vettoriale reale di dimensione finita n.


Siano B = (u1, u2, u3, u4, ….., un) e B = (v1, v2, v3, v4, ….., vn) due sue basi.
La matrice A(B→B) che ha come colonne ordinatamente le colonne delle coordinate dei vettori della
base B rispetto alla base B viene detta matrice del cambiamento di base da B a B.
Le n equazioni rappresentate con l’equazione matriciale wB = A(B→B)wB si dicono equazioni del
cambiamento di base.

117
Tenendo conto che, per costruzione, le colonne di A(B→B) sono le n-uple delle coordinate di n
vettori linearmente indipendenti (gli elementi della base B) si ha che tali colonne sono linearmente
indipendenti e, quindi, la matrice A(B→B) ha rango massimo. Per il Teorema 13.31 il determinante
della matrice A(B→B) è diverso da zero, cioè la matrice A(B→B) è non singolare. Tenendo conto del
Teorema 14.12 abbiamo subito la seguente:

15.6 Osservazione. Sia VR uno spazio vettoriale reale di dimensione finita n. Fissate due sue basi
B = (u1, u2, u3, u4, ….., un) e B = (v1, v2, v3, v4, ….., vn) si ha che la matrice A(B→B) è invertibile.

15.7 TEOREMA. Sia VR uno spazio vettoriale reale di dimensione finita n. Fissate due sue basi
B = (u1, u2, u3, u4, ….., un) e B = (v1, v2, v3, v4, ….., vn) si ha che la matrice del cambiamento di
base da da B a B è uguale all’inversa della matrice del cambiamento di base da B a B. Cioè

A(B→B) = [A(B→B)]-1

Dimostrazione. Se w è un generico vettore di VR si ha che wB = A(B→B)wB. Tenendo conto che per

l’Osservazione 15.6 la matrice A(B→B) è invertibile, si ha che [A(B→B)]-1wB = wB .

Per il Lemma 15.4 è [A(B→B)]-1 = A(B→B). 

15.8 TEOREMA. Sia VR uno spazio vettoriale reale di dimensione finita n. Fissate tre sue basi
B = (u1, u2, u3, u4, ….., un), C = (e1, e2, e3, e4, ….., en) e B = (v1, v2, v3, v4, ….., vn) si ha che:

A(B→B) = A(C→B)A(B→C)

Dimostrazione. Se w è un generico vettore di VR si ha che


[A(C→B)A(B→C)]wB = A(C→B)[A(B→C)wB] = A(C→B)wC = wB
Per cui, la matrice A(C→B)A(B→C) esprime il cambiamento di coordinate dalla base B alla base B.
Quindi, per il Lemma 15.4 si ha che A(C→B)A(B→C) = A(B→B). 

15.9 Osservazione. Il Teorema 15.7 ci permette di trovare la matrice del cambiamento di base dalla
base B alla base B “transitando” per la base C. Inoltre, si noti l’ordine delle matrici nel prodotto
A(C→B)A(B→C)
La matrice che fa passare da B a C è il fattore a destra mentre la matrice che poi fa passare da C a B
è il fattore a sinistra. Questo è dovuto (come si vede nella dimostrazione del Teorema 15.7) al fatto
che prima la matrice A(B→C) “agisce” su wB e, poi, la matrice A(C→B) “agisce” su wC.

118
15.10 Esempio. Sia VR uno spazio vettoriale di dimensione 2 e sia B = (u1, u2) una sua base.

Consideriamo i seguenti vettori v1 = 2u1 − 5u2 e v2 = u1 − 3u2 di VR.

2 1 2 1
Sia M =   la matrice avente come colonne ordinatamente (v1)B =   e (v2)B =   .
− 5 − 3  − 5 − 3
Poiché detM = −1 ≠ 0 le due colonne di M sono linearmente indipendenti. Quindi, anche i due
vettori v1, v2 sono linearmente indipendenti. Così l’insieme B = (v1, v2) è un’altra base di VR.

Inoltre, M è proprio la matrice A(B→B) del cambiamento di base da B a B, cioè

2 1
A(B→B) =  
− 5 − 3

Per il Teorema 15.7 la matrice A(B→B) del cambiamento di base da B a B è [A(B→B)]-1. Quindi,

−1
2 1
A(B→B) =  
− 5 − 3

−1
2 1 2 1 − 3 − 1  3 1 
Poiché   = (1/−1)(agg   ) = − =  si ha che
− 5 − 3 − 5 − 3 5 2  − 5 − 2

3 1 
A(B→B) =  
− 5 − 2

Sia w un generico vettore dello spazio VR. Se indichiamo con:

• (β1, β2) le coordinate di w rispetto alla base B

• (α1, α2) le coordinate di w rispetto alla base B

 α1   2 1   β1 
allora le equazioni del cambiamento di base da B a B sono   =   
α 2  − 5 − 3 β2 

 β1   3 1   α1 
mentre le equazioni del cambiamento di base da B a B sono   =   α 
β2  − 5 − 2  2

Con tali equazioni è molto veloce trovare come cambiano le coordinate di un vettore.

Se w = v1 + 2v2 cioè (β1, β2) = (1, 2) si ha subito che (α1, α2) = (4, −11) cioè w = 4u1 − 11u2 .

Se t = 3u1 − 2u2 cioè (α1, α2) = (3, −2) si ha subito che (β1, β2) = (7, −11), cioè t = 7v1 − 11v2.

119
15.11 Esempio. Sia VR = R3 lo spazio vettoriale reale delle terne ordinate di numeri reali.
Siano u1 = (2, 0, 1), u2 = (0, 5, 1), u3 = (−1, 3, 0), v1 = (1, 1, 0), v2 = (1, −1, 1), v3 = (1, 0, 1).

Dopo aver verificato che B = (u1, u2, u3) e B = (v1, v2, v3) sono due basi di R3 trovare la matrice
del cambiamento di base dalla base B alla base B.

(1) Sia M la matrice avente come colonne proprio le terne u1, u2, u3 e sia N la matrice avente come

2 0 − 1 1 1 1
colonne proprio le terne v1, v2, v3 , cioè M = 0 5 3  N = 1 − 1 0
1 1 0  0 1 1

Poiché detM = −1 ≠ 0 e detN = −1 ≠ 0 sia le tre terne u1, u2, u3 che le tre terne v1, v2, v3 sono

linearmente indipendenti. Quindi, B = (u1, u2, u3) e B = (v1, v2, v3) sono due basi di R3.
(2) Ricordiamo che se e1 = (1, 0, 0), e2 = (0, 1, 0) e e3 = (0, 0, 1) allora C = (e1, e2, e3) è una base

(canonica) di R3. Si noti che:


u1 = (2, 0, 1) = 2e1 + 0e2 + 1e3
u2 = (0, 5, 1) = 0e1 + 5e2 + 1e3
u3 = (−1, 3, 0) = (−1)e1 + 3e2 + 0e3
v1 = (1, 1, 0) = 1e1 + 1e2 + 0e3
v2 = (1, −1, 1) = 1e1 + (−1)e2 + 1e3
v3 = (1, 0, 1) = 1e1 + 0e2 + 1e3
Quindi, si ha che M = A(B→C) e N = A(B→C)

Per i Teoremi 15.8 e 15.7 si ha che A(B→B) = A(C→B)A(B→C) = [A(B→C)]-1A(B→C) = M-1N.

2 0 − 1 − 3 3 − 5 3 1 −5
Da cofM = cof 0 5 3  =  − 1 1 − 2 si ha subito che M-1= − 3 − 1 6  .
 
1 1 0   5 − 6 10   5 2 − 10

3 1 −5 1 1 1  4 − 3 − 2
Si ha che A(B→B) = M-1N = − 3 − 1 6 
 1 − 1 0 = − 4 4
   3  .
 5 2 − 10 0 1 1  7 − 7 − 5

Tenendo conto che le colonne di A(B→B) sono le coordinate dei vettori della base B rispetto alla
base B, possiamo verificare la correttezza del risultato nel modo seguente:
v1 = 4u1 − 4u2 + 7u3 = 4(2, 0, 1) − 4(0, 5, 1) + 7(−1, 3, 0) = (1, 1, 0) ☺

v2 = −3u1 + 4u2 − 7u3 = −3(2, 0, 1) + 4(0, 5, 1) − 7(−1, 3, 0) = (1, −1, 1) ☺

v3 = −2u1 + 3u2 − 5u3 = −2(2, 0, 1) + 3(0, 5, 1) − 5(−1, 3, 0) = (1, 0, 1) ☺

120
Tenendo conto che per ogni numero reale ω si ha che (cos2ω + sin2ω) = 1, ogni matrice del tipo
cos ω − sin ω
 sin ω cos ω 
 
è non singolare e, quindi, è invertibile. Inoltre, è facile verificare che
−1
cos ω − sin ω  cos ω sin ω 
 sin ω cos ω  =  
  − sin ω cos ω

15.12 Osservazione. Sia VR = R2 lo spazio vettoriale reale delle coppie ordinate di numeri reali.
Per ogni numero reale ω, le due coppie w1 = (cosω, sinω) e w2 = (−sinω, cosω) sono linearmente

indipendenti e, quindi, l’insieme B = (w1, w2) è una base di R2.

15.13 Esempio. Sia VR = R2 lo spazio vettoriale reale delle coppie ordinate di numeri reali.
Siano u1 = (cosα, sinα), u2 = (−sinα, cosα), v1 = (cosβ, sinβ) e v2 = (−sinβ, cosβ).

Per l’Osservazione 15.12 gli insiemi B = (u1, u2) e B = (v1, v2) sono due basi di R2.
Trovare la matrice A(B→B) del cambiamento di base dalla base B alla base B.

Se indichiamo con C = ((1, 0), (0, 1)) la base canonica di R2 si ha che

cos α − sin α  cos β − sin β


A(B→C) =   e A(B→C) =  sin β cos β 
 sin α cos α   

Per i Teoremi 15.8 e 15.7 si ha che A(B→B) = A(C→B)A(B→C) = [A(B→C)]-1A(B→C). Per cui

−1
cos β − sin β cos α − sin α 
A(B→B)=    sin α cos α 
 sin β cos β   

 cos β sin β  cos α − sin α 


A(B→B)=   
− sin β cos β  sin α cos α 

(cos β cos α + sin β sin α) − (sin α cos β − sin β cos α)


A(B→B)=  
(sin α cos β − sin β cos α) (cos β cos α + sin β sin α ) 

cos(α − β) − sin(α − β)


A(B→B)=  
 sin(α − β) cos(α − β) 

121
15.10 Esempio. Sia VR uno spazio vettoriale di dimensione 2 e sia B = (u1, u2) una sua base.
Consideriamo i seguenti vettori v1 = 2u1 − 5u2 e v2 = u1 − 3u2 di VR.

2 1 2 1
Sia M =   la matrice avente come colonne ordinatamente (v1)B =   e (v2)B =   .
− 5 − 3  − 5 − 3
Poiché detM = −1 ≠ 0 le due colonne di M sono linearmente indipendenti. Quindi, anche i due
vettori v1, v2 sono linearmente indipendenti. Così l’insieme B = (v1, v2) è un’altra base di VR.

Inoltre, M è proprio la matrice A(B→B) del cambiamento di base da B a B, cioè

2 1
A(B→B) =  
− 5 − 3

Per il Teorema 15.7 la matrice A(B→B) del cambiamento di base da B a B è [A(B→B)]-1. Quindi,

−1
2 1
A(B→B) =  
− 5 − 3

−1
2 1 2 1 − 3 − 1  3 1 
Poiché   = (1/−1)(agg   ) = − =  si ha che
− 5 − 3 − 5 − 3 5 2  − 5 − 2

3 1 
A(B→B) =  
− 5 − 2

Sia w un generico vettore dello spazio VR. Se indichiamo con:

• (β1, β2) le coordinate di w rispetto alla base B

• (α1, α2) le coordinate di w rispetto alla base B

 α1   2 1  β1 
allora le equazioni del cambiamento di base da B a B sono   =   β 
α 2  − 5 − 3  2

 β1   3 1   α1 
mentre le equazioni del cambiamento di base da B a B sono   =   α 
β2  − 5 − 2  2

Con tali equazioni è molto veloce trovare come cambiano le coordinate di un vettore.

Se w = v1 + 2v2 cioè (β1, β2) = (1, 2) si ha subito che (α1, α2) = (4, −11) cioè w = 4u1 − 11u2 .

Se t = 3u1 − 2u2 cioè (α1, α2) = (3, −2) si ha subito che (β1, β2) = (7, −11), cioè t = 7v1 − 11v2.

122
15.11 Esempio. Sia VR = R3 lo spazio vettoriale reale delle terne ordinate di numeri reali.
Siano u1 = (2, 0, 1), u2 = (0, 5, 1), u3 = (−1, 3, 0), v1 = (1, 1, 0), v2 = (1, −1, 1), v3 = (1, 0, 1).

Dopo aver verificato che B = (u1, u2, u3) e B = (v1, v2, v3) sono due basi di R3 trovare la matrice
del cambiamento di base dalla base B alla base B.

(1) Sia M la matrice avente come colonne proprio le terne u1, u2, u3 e sia N la matrice avente come

2 0 − 1 1 1 1
colonne proprio le terne v1, v2, v3 , cioè M = 0 5 3  N = 1 − 1 0
1 1 0  0 1 1

Poiché detM = −1 ≠ 0 e detN = −1 ≠ 0 sia le tre terne u1, u2, u3 che le tre terne v1, v2, v3 sono

linearmente indipendenti. Quindi, B = (u1, u2, u3) e B = (v1, v2, v3) sono due basi di R3.
(2) Ricordiamo che se e1 = (1, 0, 0), e2 = (0, 1, 0) e e3 = (0, 0, 1) allora C = (e1, e2, e3) è una base

(canonica) di R3. Si noti che:


u1 = (2, 0, 1) = 2e1 + 0e2 + 1e3
u2 = (0, 5, 1) = 0e1 + 5e2 + 1e3
u3 = (−1, 3, 0) = (−1)e1 + 3e2 + 0e3
v1 = (1, 1, 0) = 1e1 + 1e2 + 0e3
v2 = (1, −1, 1) = 1e1 + (−1)e2 + 1e3
v3 = (1, 0, 1) = 1e1 + 0e2 + 1e3
Quindi, si ha che M = A(B→C) e N = A(B→C)

Per i Teoremi 15.8 e 15.7 si ha che A(B→B) = A(C→B)A(B→C) = [A(B→C)]-1A(B→C) = M-1N.

2 0 − 1 − 3 3 − 5 3 1 −5
Da cofM = cof 0 5 3  =  − 1 1 − 2 si ha subito che M-1= − 3 − 1 6  .
 
1 1 0   5 − 6 10   5 2 − 10

3 1 −5 1 1 1  4 − 3 − 2
Si ha che A(B→B) = M-1N = − 3 − 1 6 
 1 − 1 0 = − 4 4
   3  .
 5 2 − 10 0 1 1  7 − 7 − 5

Tenendo conto che le colonne di A(B→B) sono le coordinate dei vettori della base B rispetto alla
base B, possiamo verificare la correttezza del risultato nel modo seguente:
v1 = 4u1 − 4u2 + 7u3 = 4(2, 0, 1) − 4(0, 5, 1) + 7(−1, 3, 0) = (1, 1, 0) ☺

v2 = −3u1 + 4u2 − 7u3 = −3(2, 0, 1) + 4(0, 5, 1) − 7(−1, 3, 0) = (1, −1, 1) ☺

v3 = −2u1 + 3u2 − 5u3 = −2(2, 0, 1) + 3(0, 5, 1) − 5(−1, 3, 0) = (1, 0, 1) ☺

123
Tenendo conto che per ogni numero reale ω si ha che (cos2ω + sin2ω) = 1, ogni matrice del tipo
cos ω − sin ω
 sin ω cos ω 
 
è non singolare e, quindi, è invertibile. Inoltre, è facile verificare che
−1
cos ω − sin ω  cos ω sin ω  cos(−ω) − sin(−ω)
 sin ω cos ω  =   =  
  − sin ω cos ω  sin(−ω) cos(−ω) 

15.12 Osservazione. Sia VR = R2 lo spazio vettoriale reale delle coppie ordinate di numeri reali.
Per ogni numero reale ω, le due coppie w1 = (cosω, sinω) e w2 = (−sinω, cosω) sono linearmente

indipendenti e, quindi, l’insieme B = (w1, w2) è una base di R2.

15.13 Esempio. Sia VR = R2 lo spazio vettoriale reale delle coppie ordinate di numeri reali.
Siano u1 = (cosα, sinα), u2 = (−sinα, cosα), v1 = (cosβ, sinβ) e v2 = (−sinβ, cosβ).

Per l’Osservazione 15.12 gli insiemi B = (u1, u2) e B = (v1, v2) sono due basi di R2.
Trovare la matrice A(B→B) del cambiamento di base dalla base B alla base B.

Se indichiamo con C = ((1, 0), (0, 1)) la base canonica di R2 si ha che

cos α − sin α  cos β − sin β


A(B→C) =   e A(B→C) =  sin β cos β 
 sin α cos α   

Per i Teoremi 15.8 e 15.7 si ha che A(B→B) = A(C→B)A(B→C) = [A(B→C)]-1A(B→C). Per cui

−1
cos β − sin β cos α − sin α 
A(B→B)=    sin α cos α 
 sin β cos β   

 cos β sin β  cos α − sin α 


A(B→B)=   
− sin β cos β  sin α cos α 

(cos β cos α + sin β sin α) − (sin α cos β − sin β cos α)


A(B→B)=  
(sin α cos β − sin β cos α) (cos β cos α + sin β sin α ) 

cos(α − β) − sin(α − β)


A(B→B)=  
 sin(α − β) cos(α − β) 

124
16. Teorema degli orlati e sue applicazioni.

Ricordiamo che se p∈N allora col simbolo Ip indichiamo l’insieme {1, 2, 3, 4, ….., p}.

Sia A una matrice ad elementi reali di tipo m×n e sia s un intero tale che 0 ≤ s ≤ min{m, n}.
Si scelgano s righe di A e s colonne di A.
Siano i1 < i2 < i3 < i4 < …. < is gli indici delle righe scelte.
Siano j1 < j2 < j3 < j4 < …. < js gli indici delle colonne scelte.
Sia B la sottomatrice di A che si ottiene “cancellando” da A
• le (m−s) righe aventi indice nell’insieme Im−{i1, i2, i3, i4, ….., is};

• le (n−s) colonne aventi indice nell’insieme In−{j1, j2, j3, j4, ….., js}.

Se poniamo RB := {i1, i2, i3, i4, ….., is} ⊆ Im e CB := {j1, j2, j3, j4, ….., js} ⊆ In allora

B = A(Im−RB),(In−RC)
Ovviamente, B è una matrice quadrata di ordine s.

16.1. Esempio. Sia A la matrice di tipo 5×7 seguente:


2 0 −1 − 3 0 00
1 1 1 0 − 1 − 2 − 3

A=  0 0 0 0 0 4 1
 
9 0 −1 1 0 8 1
− 7 7 −7 7 −7 0 0 

Sia s = 3 e scegliamo la 2a, 3a e 5a riga di A e la 3a, 4a e 6a colonna di A.


Quindi, si ha che i1 = 2, i2 = 3, i3 = 5, j1 = 3, j2 = 4 e j3 = 6. Cioè, RB = {2, 3, 5} e CB = {3, 4, 6}.

B è la sottomatrice di A ottenuta “cancellando” da A la 1a e 4a riga e la 1a, 2a, 5a e 7a colonna.


2 0 −1 − 3 0 0 0 # # # # # # #
1  # # 1 0 # − 2 #
 1 1 0 − 1 − 2 − 3   1 0 − 2
0 0 0 0 0 4 1  → # # 0 0 # 4 # →  0 0 4 
   
9 0 −1 1 0 8 1 # # # # # # # − 7 7 0 
− 7 7 −7 7 −7 0 0  # # − 7 7 # 0 #

 1 0 − 2
B = A{1,4},{1,2,5,7} =  0 0 4 
− 7 7 0 

B è una matrice quadrata di ordine 3.

125
Per costruzione, l’elemento che si trova sulla h-esima riga e k-esima colonna di B è l’elemento che
si trova sulla ih-esima riga e sulla jk -esima colonna di A, cioè

bhk = aihjk

 b11 b12 b13 b14 . . . b1s   a i1 j1 a i1 j2 a i1 j3 a i1 j4 . . . a i1 js 


b  . . . a i 2 js 
 21 b 22 b 23 b 24 . . . b 2s  a i 2 j1 a i 2 j2 a i 2 j3 a i 2 j4
 b31 b32 b33 b34 . . . b3s  a i 3 j1 a i 3 j2 a i3 j3 a i 3 j4 . . . a i 3 js 
   
b b 42 b 43 b 44 . . . b 4s  a i 4 j1 a i 4 j2 a i 4 j3 a i 4 j4 . . . a i 4 js 
B =  41 =
 . . . . . . . .   . . . . . . . . 
   
 . . . . . . . .   . . . . . . . . 
 . . . . . . . .   . . . . . . . . 
   
 bs1 bs 2 bs3 bs 4 . . . bss   a i s j1 a i s j2 a i s j3 a i s j4 . . . a i s js 

16.2. Esempio. Sia A la matrice di tipo 5×7 seguente:


2 0 −1 − 3 0 00
1 1 1 0 − 1 − 2 − 3

A=  0 0 0 0 0 4 1
 
9 0 −1 1 0 8 1
− 7 7 −7 7 −7 0 0 
Abbiamo scelto i1 = 2, i2 = 3, i3 = 5, j1 = 3, j2 = 4 e j3 = 6

# # # # # # #
# #
 # a 23 a 24 # a 26 a 23 a 24 a 26   b11 b12 b13 
# # a 33 a 34 # a 36 # → a 33 a 34 a 36  → B = b
 21 b 22 b 23 
 
# # # # # # # a 53 a 54 a 56   b31 b32 b33 
# # a 53 a 54 # a 56 #

Quindi,
b11 = a23 = ai1j1 b12 = a24 = ai1j2 b13 = a26 = ai1j3

b21 = a33 = ai2j1 b22 = a34 = ai2j2 b23 = a36 = ai2j3

b31 = a53 = ai3j1 b32 = a54 = ai3j2 b33 = a56 = ai3j3

cioè

 b11 b12 b13   a i1 j1 a i1 j2 a i1 j3 


 
B = b 21 b 22 b 23  = a i 2 j1 a i 2 j2 a i 2 j3 
 b31 b32 b33  a i3 j1 a i3 j2 a i3 j3 

126
Siano, ora, x∈(Im−RB) l’indice di una riga di A che non è stata scelta per costruire B e y∈(In−CB)
l’indice di una colonna di A che non è stata scelta per costruire B.

16.3. Definizione. Sia La sottomatrice C quadrata di ordine (s+1) così ottenuta


 b11 b12 b13 b14 . . b1s a i1y   a i1 j1 a i1 j2 a i1 j3 a i1 j4 . . a i1 js a i1y 
b b 22 b 23 b 24 . . b 2s a i1y  a a i 2 j2 a i 2 j3 a i 2 j4 . . a i 2 js a i 2 y 
 21  i 2 j1
 b31 b32 b33 b34 . . b3s a i1y  a i j a i 3 j2 a i 3 j3 a i3 j4 . . a i 3 js a i3y 
   31 
b 41 b 42 b 43 b 44 . . b 4s a i1y  a i 4 j1 a i 4 j2 a i 4 j3 a i 4 j4 . . a i 4 js ai4y 
C =  =
. . . . . . . .   . . . . . . . . 
   
 . . . . . . . .   . . . . . . . . 
b bs 2 bs 3 bs 4 . . bss a is y  a a i s j2 a i s j3 a i s j4 . . a i s js a is y 
 s1   i s j1 
a xj1 a xj2 a xj3 a xj4 . . a xjs a xy   a xj1 a xj2 a xj3 a xj4 . . a xjs a xy 

viene detta sottomatrice orlata di B.

16.4. Esempio. Sia A la matrice di tipo 5×7 seguente:


2 0 −1 − 3 0 0 0 # # # # # # #
1 1 1 0 − 1 − 2 − 3 # # 1 0 # − 2 #
 
A=  0 0 0 0 0 4 1  → # # 0 0 # 4 #
   
9 0 −1 1 0 8 1 # # # # # # #
− 7 7 −7 7 −7 0 0  # # − 7 7 # 0 #

e sia B la sua seguente sottomatrice quadrata di ordine 3


 1 0 − 2
B = A{1,4},{1,2,5,7} =  0 0 4 
− 7 7 0 

Siano x = 4 e y = 1 rispettivamente l’indice di una riga e l’indice di una colonna di A che non sono
state usate per costruire B.
2  # 
1 b11 b12 b13  1 b11 b12 b13 
   
0 b 21 b 22 b 23  →  0 b 21 b 22 b 23 
   
 9 0 −1 1 0 8 1  9 # −1 1 # 8 1
− 7 b31 b32 b33  − 7 b31 b32 b33 

 b11 b12 b13 1  1 0 −2 1 


b b 22 b 23 0   0 0 4 0 
Quindi, C =  21 = è una sottomatrice orlata di B.
 b31 b32 b33 − 7  − 7 7 0 − 7
   
 −1 1 8 9  −1 1 8 9 

127
Omettiamo la dimostrazione del seguente:

16.5. Teorema (degli orlati). Sia A una matrice non nulla ad elementi reali di tipo m×n e sia B una
sua sottomatrice quadrata di ordine s non singolare. Il rango della matrice A è uguale a s se e solo se
ogni sottomatrice orlata di B è singolare.

16.6. Esempio. Al variare del parametro reale t, trovare il rango della matrice
 1 0 t
A = − 1 2 t 
 0 1 3

 1 0 #
 1 0
Si vede subito che − 1 2 # → B = − 1 2 è una sottomatrice non singolare (detB = 2 ≠ 0).
 # # #  

Quindi, 2 ≤ rg(A) ≤ 3. Inoltre, rg(A) = 2 se e solo se ogni sottomatrice orlata di B è singolare.


Ma l’unica sottomatrice orlata di B è la matrice A stessa. Quindi, rg(A) = 2 se solo se detA = 0.
Siccome detA = 6 − 2t, si ha che rg(A) = 2 solo per t = 3 e rg(A) = 3 per ogni altro valore di t.

16.7. Esempio. Al variare del parametro reale t, trovare il rango della matrice
1 0 1 0 
A =  t 1 0 1 
1 t 0 −1

 # 0 1 #
0 1 
Si vede subito che # 1 0 # → B = 1 0 è una sottomatrice non singolare (detB = −1 ≠ 0).
# # # #  

Quindi, 2 ≤ rg(A) ≤ 3. Inoltre, rg(A) = 2 se e solo se ogni sottomatrice orlata di B è singolare.


Esistono due sottomatrici orlate di B
1 0 1 0 1 0 
C1 =  t 1 0 C2 = 1 0 1 
1 t 0  t 0 −1

Per cui, rg(A) = 2 se e solo se detC1 = 0 et detC2 = 0, ovvero se e solo se t2 −1 0 et t + 1 = 0.

Quindi, rg(A) = 2 solo per t = −1 e rg(A) = 3 per ogni altro valore di t.

128
16.8. Esempio. Al variare del parametro reale t, trovare il rango della matrice
 t t2 0 − 8
64
 
A = 1 8 0 t − 1
0 0 6 − 5 0 
 

 # # # # #
8 0
Si vede che # 8 0 # # → B =  è una sottomatrice non singolare (detB = 48 ≠ 0).
 0 6
# 0 6 # #

Quindi, 2 ≤ rg(A) ≤ 3. Inoltre, rg(A) = 2 se e solo se ogni sottomatrice orlata di B è singolare.

 t t2 0 t 2 0 64  t 2 0 − 8
     
Esistono tre sottomatrici orlate di B C1 = 1 8 0  C2 = 8 0 t  C3 = 8 0 − 1
0 0 6 0 6 − 5 0 6 0 
     
Per cui, rg(A) = 2 se e solo se detC1 = 0 et detC2 = 0 et detC3 = 0, ovvero se e solo se

 6t (8 − t ) = 0
 2
6(8 − t )( t + 8t + 64) = 0
 6( t − 8)( t + 8) = 0

Quindi, rg(A) = 2 solo per t = 8 e rg(A) = 3 per ogni altro valore di t.

16.9. Esempio. Sia VR = R4. Sia u1 = (1, 0, −2, 3).


Trovare le equazioni cartesiane del sottospazio U = <u1>.

Sia v = (w, x, y, z) un generico vettore di R4. Il vettore v appartiene al sottospazio U se e solo se v è


multiplo del vettore u1 ovvero v e u1 sono linearmente dipendenti.

w x yz
Sia A =  la matrice avente come righe le quaterne v e u1 .
1 0 − 2 3
I vettori v e u1 sono linearmente dipendenti se e solo se rg(A) = 1.

 # # # #
Si vede subito che   → B = [1] è una sottomatrice non singolare (detB = 1 ≠ 0).
1 # # # 
w x w y  w z
Esistono tre sottomatrici orlate di B C1 =  C2 =  1 − 2  C3 =
1 0   
 1 3
 
Per cui, rg(A) = 2 se e solo se detC1 = 0 et detC2 = 0 et detC3 = 0, ovvero se e solo se

 x=0

2w + y = 0 . Quindi, U = {(w, x, y, z)∈R4  x = 2w + y = 3w − z = 0}.
 3w − z = 0

129
16.10. Esempio. Sia VR = R4. Siano u1 = (1, 0, −2, 3) e u2 = (2, 0, 0, 1).
Trovare le equazioni del sottospazio U = <u1, u2>.

Sia v = (w, x, y, z) un generico vettore di R4. Il vettore v appartiene al sottospazio U se e solo se v è


combinazione lineare dei vettori u1 e u2 ovvero v, u1 e u2 sono linearmente dipendenti. Sia A la
matrice avente le quaterne v, u1 e u2 come righe

w x z
y
A =  1 0 − 2 3
 2 0 0 1

I vettori v, u1 e u2 sono linearmente dipendenti se e solo se rg(A) = 2.

 # # # #
− 2 3
Si vede che # # − 2 3 → B =  è una sottomatrice non singolare (detB = −2 ≠ 0).
 0 1
# # 0 1

w y z x y z
Esistono due sottomatrici orlate di B C1 =  1 − 2 3 C2 =  0 − 2 3 .
 
 2 0 1  0 0 1
 x=0
Per cui, rg(A) = 2 se e solo se detC1 = 0 et detC2 = 0, ovvero se e solo se  .
2 w − 5 y − 4 z = 0
Quindi, U = {(w, x, y, z)∈R4  x = 2w − 5y − 4z = 0}.

16.11. Esempio. Sia VR = R4. Siano u1 = (1, 0, −2, 3) , u2 = (2, 0, 0, 1) e u3 = (0, 1, 7, −4).
Trovare le equazioni del sottospazio U = <u1, u2, u3>.

Sia v = (w, x, y, z) un generico vettore di R4. Il vettore v appartiene al sottospazio U se e solo se v è


combinazione lineare dei vettori u1, u2 e u3 ovvero v, u1, u2 e u3 sono linearmente dipendenti. Sia
A la matrice avente le quaterne v, u1, u2 e u3 come righe

w x y z 
1 0 − 2 3 
A= 
2 0 0 1 
 
0 1 7 − 4
I vettori v, u1, u2 e u3 sono linearmente dipendenti se e solo se rg(A) = 3, cioè A non ha rango
massimo, ovvero se e solo se (−2w − 19x + 5y + 4z) = detA = 0.
Quindi, U = {(w, x, y, z)∈R4  2w + 19x − 5y − 4z = 0}.

130
17. Sistemi lineari.

Ricordiamo che se p∈N allora col simbolo Ip indichiamo l’insieme {1, 2, 3, 4, ….., p}.

17.1. Definizione. Diremo sistema lineare di m equazioni in n incognite un insieme di m equazioni


lineari (cioè di 1o grado) del tipo
(eq1) a11x1 + a12x2 + a13x3 + a14x4 + ….. + a1nxn = b1
(eq2) a21x1 + a22x2 + a23x3 + a24x4 + ….. + a2nxn = b2
(eq3) a31x1 + a32x2 + a33x3 + a34x4 + ….. + a3nxn = b3
(eq4) a41x1 + a42x2 + a43x3 + a44x4 + ….. + a4nxn = b4
…………………………………………………
(eqm) am1x1 + am2x2 + am3x3 + am4x4 + ….. + amnxn = bm
dove (x1, x2, x3, x4, ….., xn) è la n-upla delle incognite.
Per ogni i∈Im il numero reale bi si dice termine noto della i-esima equazione. Per ogni coppia di

indici (i, j)∈Im×In il numero reale aij si dice coefficiente dell’incognita xj nella i-esima equazione.

17.2. Esempio. Consideriamo il sistema lineare di 3 equazioni nelle 4 incognite (w, x, y, z)


 2w + 2 x − y + 3z = 15

 w − 3y + 2 z = 7
3w − 2x − 17 y + 7z = 26

E’ facile rendersi conto che è possibile rappresentare tale sistema anche nei due modi seguenti:
w 
2 2 − 1 3   15 
1 0 x
(I)  − 3 2   =  7 
y
3 − 2 − 17 7   26
z
2 2  −1  3 15 
(II) 1  w +  0 x+  −3  y + 2 z = 7
         
3 − 2 − 17 7 26

Si noti, inoltre, che


2  2   − 1  3 2 2 − 1 3
1 ,  0  ,  − 3  e 2 sono proprio le colonne della matrice 1 0 − 3 2 .
        
3 − 2 − 17 7 3 − 2 − 17 7

Ora, generalizziamo quanto visto nell’Esempio 17.2.

131
Con riferimento a quanto visto nella Definizione 17.1 definiamo tre matrici A, X e B come segue
 a11 a12 a13 a14 . . . . a1n   x1   b1 
a a 2n  x  b 
 21 a 22 a 23 a 24 . . . .  2  2
 a 31 a 32 a 33 a 34 . . . . a 3n   x3   b3 
     
A :=  a 41 a 42 a 43 a 44 . . . . a 4n  X :=  x 4  B :=  b 4 
 . . . . . . . . .   .   . 
     
 . . . . . . . . .   .   . 
a a mn  x  b 
 m1 a m2 a m3 a m4 . . . .  n  m
Le colonne di A sono
 a11   a12   a13   a14   a1n 
a  a  a  a  a 
 21   22   23   24   2n 
 a 31   a 32   a 33   a 34   a 3n 
1          
A =  a 41  , A2 = 3
 a 42  , A =
4
 a 43  , A =
n
 a 44  , ….. , A =  a 4n 
 .   .   .   .   . 
         
 .   .   .   .   . 
a  a  a  a  a 
 m1   m2   m3   m4   mn 
E’ facile convincersi che il sistema lineare della definizione si può rappresentare nei seguenti modi
 a11 a12 a13 a14 . . . . a1n   x1   b1 
a a 2n  x   b 
 21 a 22 a 23 a 24 . . . .  2  2 
 a 31 a 32 a 33 a 34 . . . . a 3n   x 3   b3 
     
(I)  a 41 a 42 a 43 a 44 . . . . a 4n  x 4  =  b4 
 . . . . . . . . .   .   . 
     
 . . . . . . . . .   .   . 
a a mn   x  b 
 m1 a m2 a m3 a m4 . . . .  n  m
ovvero AX = B
 a11   a12   a13   a14   a1n   b1 
a  a  a  a  a  b 
 21   22   23   24   2n   2
 a 31   a 32   a 33   a 34   a 3n   b3 
           
(II)  a 41  x1 +  a 42  x2 +  a 43  x3 +  a 44  x4 + ….. +  a 4 n  xn =  b4 
 .   .   .   .   .   . 
           
 .   .   .   .   .   . 
a  a  a  a  a  b 
 m1   m2   m3   m4   mn   m

ovvero A1x1 + A2x2 + A3x3 + A4x4 + ….. + Anxn = B

17.3. Definizione. Quando useremo la rappresentazione (I) diremo che il sistema è scritto in forma
matriciale mentre quando useremo la (II) diremo che il sistema è scritto per colonne.

132
Sia C := [A|B] la matrice di tipo m×(n+1) che si ottiene “affiancando” la colonna B alla matrice A.

 a11 a12 a13 a14 . . . . a1n b1 



 a 21 a 22 a 23 a 24 . . . . a 2n b 2 
 a 31 a 32 a 33 a 34 . . . . a 3n b3 
 
C = [A|B] =  a 41 a 42 a 43 a 44 . . . . a 4n b 4 
 . . . . . . . . . . 
 
 . . . . . . . . . . 
a a mn b m 
 m1 a m2 a m3 a m4 . . . .

17.4. Definizione. Per un sistema lineare AX = B diremo che


• A è la matrice dei coefficienti o matrice incompleta del sistema;
• X è la (matrice) colonna delle incognite;
• B è la (matrice) colonna dei termini noti;
• C = [A|B] è la matrice completa del sistema.

17.5.Osservazione. Per il Teorema 9.22, lo spazio <A1, A2, A3, A4, …, An> generato dalle colonne
di A è un sottospazio dello spazio <A1, A2, A3, A4, …, An, B> delle colonne di C. Per cui si ha che
17.5.1. CA ≤ CC
17.5.2. dimCA ≤ dimCC ovvero rg(A) ≤ rg(C)
17.5.3. CA = CC ⇔ dimCA = dimCC

17.6. Esempio. Consideriamo il sistema lineare di 3 equazioni nelle 4 incognite (w, x, y, z)


 2w + 2 x − y + 3z = 15

 w − 3y + 2 z = 7
3w − 2x − 17 y + 7z = 26

w 
2 2 − 1 3 x 15  2 2 − 1 3 15 

A = 1 0 − 3 2 X=   B =  7  
C = [A|B] = 1 0 − 3 2 7 
y
3 − 2 − 17 7   26 3 − 2 − 17 7 26
z

2  2   − 1  3 2  2   − 1  3 15 


< 1 ,  0  ,  − 3  , 2 > è sottospazio di < 1 ,  0  ,  − 3  , 2 ,  7  >
       
3 − 2 − 17 7 3 − 2 − 17 7 26

133
17.7. Definizione. Dato un sistema lineare AX = B nelle incognite (x1, x2, x3, x4, ….., xn) diremo

che la n-upla ordinata di numeri reali (α1, α2, α3, α4, ….., αn) è UNA soluzione del sistema se

sostituendo ordinatamente i numeri reali α1, α2, α3, α4, ….., αn alle incognite x1, x2, x3, x4, ….., xn
in ognuna delle equazioni si ottengono sempre delle identità.

17.8. Esempio. Consideriamo il sistema lineare di 3 equazioni nelle 4 incognite (w, x, y, z)


 2w + 2 x − y + 3z = 15

 w − 3y + 2 z = 7
3w − 2x − 17 y + 7z = 26

È facile verificare che la quaterna ordinata (w, x, y, z) = (19, 1, −2, −9) è una soluzione del sistema.

Riguardo all’esistenza di soluzioni di un sistema lineare abbiamo il seguente:

17.9. TEOREMA (Rouché - Capelli). Un sistema lineare ha almeno una soluzione se e solo se il
rango della sua matrice incompleta è uguale al rango della sua matrice completa.

Dimostrazione. Sia A1x1 + A2x2 + A3x3 + A4x4 + ….. + Anxn = B e C := [A|B].

Il sistema ha almeno una soluzione (α1, α2, α3, α4, ….., αn)∈Rn ⇔

⇔ A1α1 + A2α2 + A3α3 + A4α4 + ….. + Anαn = B ⇔

⇔ B è una combinazione lineare delle colonne di A ⇔

⇔ B∈<A1, A2, A3, A4, ….., An> ⇔

⇔ <A1, A2, A3, A4, ….., An> = <A1, A2, A3, A4, ….., An, B> ⇔
⇔ CA = CC ⇔ dimCA = dimCC ⇔ rg(A) = rg(C) 

17.10. Esempio. Consideriamo il sistema lineare di 3 equazioni nelle 4 incognite (w, x, y, z)


 2w + 2 x − y + 3z = 15

 w − 3y + 2 z = 7
3w − 2x − 17 y + 7z = 26

Abbiamo visto che tale sistema ha almeno una soluzione. Facciamo vedere che rg(A) = rg(C). Il
2 − 1 3
determinante della sottomatrice 1 − 3 2 formata dalla prima, terza e quarta colonna di A è
3 − 17 7

non nullo (è uguale a +3). Quindi, rg(A) = 3. Da 3 = rg(A) ≤ rg(C) ≤ 3 si ha che rg(C) = 3.

134
17.11. Definizione. Un sistema lineare AX = B si dice normale se rg(A) = numero righe di A.

17.12. Esempio. Consideriamo il sistema lineare di 3 equazioni nelle 4 incognite (w, x, y, z)


 2w + 2 x − y + 3z = 15

 w − 3y + 2 z = 7
3w − 2x − 17 y + 7z = 26

Abbiamo visto che rg(A) = 3 = numero righe di A. Quindi, questo sistema lineare è normale.

17.13. Lemma. In un sistema lineare normale il numero delle equazioni è minore o uguale al
numero delle incognite.

Dimostrazione. Se AX = B è un sistema lineare normale con A di tipo m×n, allora rg(A) = m.


Da m = rg(A) ≤ min{m, n} si ha che m ≤ n. 

17.14. Corollario. Un sistema lineare normale ha sempre almeno una soluzione.

Dimostrazione. Se AX = B è un sistema lineare normale con A di tipo m×n, allora m ≤ n. Quindi,


m < (n+1) da cui m = min{m, (n+1)}. Poiché m = rg(A) ≤ rg(C) ≤ min{m, (n+1)} = m si ha che
rg(A) = rg(C) = m. Per il Teorema di Rouché - Capelli il sistema ha almeno una soluzione. 

17.15. Definizione. Un sistema lineare AX = B normale con A quadrata si dice sistema di Cramer.

17.16. Esempio. Consideriamo il sistema lineare di 3 equazioni nelle 3 incognite (x, y, z)


 2x − z = 3

5y + 3z = 1
 x+y = 2

2 0 − 1
Si ha che A = 0 5 3  . Poichè detA = −1 ≠ 0 è rg(A) = 3. Quindi, il sistema è normale.
1 1 0 

Poiché A è una matrice quadrata, questo sistema lineare è un sistema di Cramer.

135
17.17. Teorema. (Cramer) Un sistema di Cramer ha un’unica soluzione.

Dimostrazione. Se AX = B è un sistema di Cramer allora, per definizione, A è quadrata di rango


massimo. Per cui A è non singolare (cioè detA ≠ 0) e, quindi, invertibile.

E’ facile verificare che la colonna Y := A-1B è una soluzione del sistema AX = B.


Infatti, moltiplicando la matrice A per la colonna Y := A-1B si ottiene
AY = A(A-1B) = (AA-1)B = IB = B
Quindi, sostituendo la colonna X con la colonna Y := A-1B si ottiene l’identità B = B.
Per cui, la colonna Y è una soluzione del sistema AX = B.
Proviamo che tale soluzione Y è unica.
Se Z fosse un’altra soluzione del sistema AX = B, allora si avrebbe l’identità AZ = B. Da cui si
avrebbe A-1(AZ) = A-1B. Cioè (A-1A)Z = Y ovvero IZ = Y e, infine Z = Y. 

17.18. Esempio. Consideriamo il sistema lineare di 3 equazioni nelle 3 incognite (x, y, z)

 2x − z = 3

5y + 3z = 1
 x+y = 2

Abbiamo già visto che questo è un sistema di Cramer.


2 0 − 1  3 3 1 −5
Si ha che A = 0 5 3  e B = 1 . Inoltre, A-1 =
 
− 3 − 1 6  .
 
1 1 0  2  5 2 − 10

Quindi, l’unica soluzione del sistema è la colonna

3 1 −5  3  0 
Y = A-1B = − 3 − 1 6 
 1  =  2 
   
 5 2 − 10 2 − 3

Ovvero, la terna (x, y, z) = (0, 2, −3) è l’unica soluzione del sistema.

Si noti che tale sistema ha UNA unica soluzione data dalla terna (0, 2, −3).

NON è corretto dire che x = 0, y = 2 e z = −3 sono TRE soluzioni del sistema.

136
17.19. Teorema. Un sistema lineare normale non di Cramer ha infinite soluzioni.

Dimostrazione. Se AX = B è un sistema lineare non normale di Cramer allora rg(A) = m < n.


Quindi, tra le n colonne di A ne esistono m linearmente indipendenti che fomano una base di CA .
Per comodità supponiamo che siano le ultime (n − m). Rappresentiamo il sistema per colonne

(♣) A1x1 + A2x2 + A3x3 + ….. + Amxm + Am+1xm+1 + Am+2xm+2 + ….. + Anxn = B

Ora, scegliamo a piacere una (n − m)-upla ordinata di numeri reali (βm+1, βm+2, βm+3, ….., βn).

Sostituendo in tutte le equazioni del sistema i numeri reali βm+1, βm+2, βm+3, ….., βn ordinatamente
alle incognite xm+1, xm+2, xm+3, ….., xn otteniamo

A1x1 + A2x2 + A3x3 + ….. + Amxm + Am+1βm+1 + Am+2βm+2 + ….. + Anβn = B


ovvero
A1x1 + A2x2 + A3x3 + A4x4 + ….. + Amxm = B − (Am+1βm+1 + Am+2βm+2 + ….. + Anβn)
Ponendo
• A* := [A1 | A2 | A3 | A4 | ….. | Am]
(cioè A è la sottomatrice di A ottenuta cancellando da A le sue ultime (n − m) colonne)

• B* := B − (Am+1βm+1 + Am+2βm+2 + ….. + Anβn)

si ottiene un nuovo sistema lineare di m equazioni nelle m incognite (x1, x2, x3, x4, ….., xm)

(♥) A1x1 + A2x2 + A3x3 + A4x4 + ….. + Amxm = B*

La matrice incompleta di questo sistema è la matrice quadrata A* := [A1 | A2 | A3 | A4 | ….. | Am]


formata dalle prime m colonne della matrice A. Poiché tali colonne sono linearmente indipendenti
la matrice A* ha rango massimo m. Quindi, il sistema (♥) è un sistema di Cramer.
Sia (α1, α2, α3, α4, ….., αm) l’unica soluzione del sistema (♥), cioè si ha la seguente

A1α1 + A2α2 + A3α3 + A4α4 + ….. + Amαm = B*.

E’ immediato verificare che la n-upla (α1, α2, α3, α4, ….., αm, βm+1, βm+2, βm+3, ….., βn) è una

soluzione del sistema iniziale (♣). Infatti, sostituendola all’n-upla delle incognite si ha

A1α1 + A2α2 + A3α3 + ….. + Amαm + Am+1βm+1 + Am+2βm+2 + ….. + Anβn =

= B* + Am+1βm+1 + Am+2βm+2 + ….. + Anβn =

= [B − (Am+1βm+1 + Am+2βm+2 + ….. + Anβn)] + Am+1βm+1 + Am+2βm+2 + ….. + Anβn = B

Quindi, per ogni scelta della (n − m)-upla (βm+1, βm+2, βm+3, ….., βn), si ottiene un’unica soluzione

del sistema lineare (♣). Di conseguenza, il sistema lineare (♣) ha infinite soluzioni. 

137
17.20. Definizione. Nel Teorema 17.12 abbiamo visto che un sistema lineare può avere infinite
soluzioni che dipendono dalla scelta di una (n − m)-upla di numeri reali.

In tal caso diremo che il sistema ha ∞(n-m) soluzioni.

17.21. Esempio. Consideriamo il sistema lineare di 3 equazioni nelle 4 incognite (w, x, y, z)


 2w + 2 x − y + 3z = 15

 w − 3y + 2 z = 7
3w − 2x − 17 y + 7z = 26

w 
2 2 − 1 3 x 15 

Si ha che A = 1 0 − 3 2 , X =   e B=  7 .
y  
3 − 2 − 17 7   26
z
2 − 1 3
Abbiamo già visto che il determinante della sottomatrice A’= 1 − 3 2 formata dalla prima,
3 − 17 7

terza e quarta colonna di A è uguale a +3. Per cui, la prime, terza e quarta colonna di A sono
linearmente indipendenti. Quindi, scegliamo la seconda incognita x, poniamola uguale a β e
portiamola a secondo membro. Si ottiene il seguente nuovo sistema nelle tre incognite (w, y, z)

 2w − y + 3z = 15 − 2β

 w − 3y + 2z = 7
3w − 17 y + 7z = 26 + 2β

Tale sistema è un sistema di Cramer.
2 − 1 3 w  15 − 2β   13 − 44 7 
Si ha che A’= 1 − 3 2 , X’=  y  , B =
   7  e (A’)-1= (1/3)  − 1
   5 − 1 .
3 − 17 7  z  26 + 2β − 8 31 − 5

unica soluzione di tale sistema è


Quindi, l’unica

 13 − 44 7  15 − 2β   23 − 4β 
(A’) B = (1/3)  − 1
-1
5 − 1  7  =  − 2 
− 8 31 − 5 26 + 2β − 11 + 2β

Per cui, l’unica soluzione è la terna (w, y, z) = (23−4β, −2, −11+2β).


A questo punto è immediato rendersi conto che la quaterna (w, x, y, z) = (23−4β, β, −2, −11+2β) è
una soluzione del sistema iniziale. Essendo infiniti i possibili valori di β, si ha che il sistema iniziale
ha infinite soluzioni dipendenti dal parametro β.

138
17.22. Definizione. Dati due sistemi lineari AX =B e AX = B con A di tipo m×n, A di tipo m×n,
diremo che sono equivalenti se hanno le stesse soluzioni. Si noti che affinché due sistemi siano
equivalenti è necessario che abbiano lo stesso numero di incognite mentre, in generale, non è
necessario i due sistemi abbiano lo stesso numero di equazioni.

17.22. Definizione. Dato un sistema lineare le seguenti azioni:


(1) scambiare due equazioni tra loro;
(2) moltiplicare un’equazione per un numero reale c ≠ 0;
(3) aggiungere ad un’equazione un’altra equazione moltiplicata per un numero reale qualsiasi;
si dicono operazioni elementari sulle equazioni del sistema.

17.23. Osservazione. Consideriamo le seguenti due equazioni lineari.


(I) a1x1 + a2x2 + a3x3 + a4x4 + ….. + anxn = b
(II) ca1x1 + ca2x2 + ca3x3 + ca4x4 + ….. + canxn = cb con c ≠ 0
Si noti che l’equazione (II) si può scrivere anche nel modo seguente
c(a1x1 + a2x2 + a3x3 + a4x4 + ….. + anxn) = cb
cioè l’equazione (II) è stata ottenuta dall’equazione (I) con l’operazione elementare (2).
Si vede subito che una n-upla (α1, α2, α3, α4, ….., αn) è una soluzione dell’equazione (I) se e solo

se la n-upla (α1, α2, α3, α4, ….., αn) è una soluzione dell’equazione (II).
Quindi, le equazioni (I) e (II) hanno le stesse soluzioni.

17.24. Osservazione. Consideriamo le seguenti tre equazioni lineari.


(I) a1x1 + a2x2 + a3x3 + a4x4 + ….. + anxn = r
(II) b1x1 + b2x2 + b3x3 + b4x4 + ….. + bnxn = s
(III) (a1+db1)x1 + (a2+db2)x2 + (a3+db3)x3 + (a4+db4)x4 + ….. + (a5+db5)xn = r + ds
Si noti che l’equazione (III) si può scrivere anche nel modo seguente
(a1x1 + a2x2 + a3x3 + a4x4 + ….. + anxn) + d(b1x1 + b2x2 + b3x3 + b4x4 + ….. + bnxn) = r + ds
cioè l’equazione (III) è stata ottenuta dalle equazioni (I) e (II) con l’operazione elementare (3).
Si vede subito che se la n-upla (α1, α2, α3, α4, ….., αn) è soluzione delle equazioni (I) e (II) allora

tale n-upla è anche soluzione dell’equazione (III). Inoltre, se la n-upla (β1, β2, β3, β4, ….., βn) è
soluzione delle equazioni (II) e (III) allora tale n-upla è anche soluzione dell’equazione (I).
Quindi, se (I) e (II) sono due equazioni di un sistema lineare AX = B allora esso è equivalente al
sistema lineare AX = B che si ottiene sostituendo l’equazione (I) con l’equazione (III).

139
Tenendo conto delle Osservazioni 17.23 e 17.24 si ha subito il seguente

17.25. Lemma. Sia AX =B un sistema lineare. Se agiamo su di esso con un numero finito di
operazioni elementari, allora otteniamo un sistema lineare AX = B equivalente a quello iniziale.

17.26. Osservazione. Sia AX =B un sistema lineare. Se un’equazione del sistema è combinazione


lineare di altre s equazioni del sistema, allora possiamo supporre che sia l’ultima equazione (se così
non fosse possiamo effettuare uno scambio di equazioni). A questo punto, tramite s operazioni
elementari del tipo (3) si può ottenere un sistema AX = B (equivalente a quello dato per il Lemma
precedente) che ha come ultima equazione l’identità 0 = 0.

Tenendo conto dell’Osservazione 17.26 si ha subito il seguente

17.27. Corollario. Se un’equazione di un sistema lineare è combinazione lineare di altre equazioni


del sistema, allora eliminando tale equazione si ottiene un sistema equivalente al sistema dato.

17.28. Osservazione. Si noti che ogni operazione elementare sulle righe di un sistema corrisponde
ad un’operazione elementare sulla matrice C = [A|B] completa del sistema, e viceversa.

17.29. Corollario. Sia AX =B un sistema lineare. Sia C = [A|B] la matrice completa del sistema. Se
la matrice C = [A|B] è stata ottenuta dalla matrice C con un numero finito di operazioni elementari
sulle sue righe, allora il sistema lineare AX =B è equivalente al sistema iniziale.

17.30. TEOREMA. Sia AX = B un sistema lineare non normale. Se tale sistema ha almeno una
soluzione, allora esso è equivalente ad un sistema lineare normale.

Dimostrazione. Sia AX = B un sistema lineare non normale con A di tipo m×n e sia C = [A|B].
Se esso ha almeno una soluzione allora (per il Teorema di Rouchè-Capelli) rg(C) = r = rg(A) < m.
Quindi, tra le m righe di C ve ne sono r linearmente indipendenti. Tali r righe sono una base dello
spazio delle righe di C. Per cui ognuna delle altre (m – r) si può scrivere come loro combinazione
lineare. Sia C = [A|B] la matrice che si ottiene da C cancellando queste (m – r). Il sistema lineare
AX =B (cioè quello ottenuto da quello iniziale eliminando le equazioni che sono combinazioni
lineari di altre equazioni) è equivalente, per il Corollario 17.27, al sistema iniziale. Inoltre, si ha che
numero righe di A = r = rg(A). Quindi, AX =B è un sistema lineare normale. 

140
18. Sistemi lineari omogenei.

18.1. Definizione. Sia AX = B un sistema lineare di m equazioni in n incognite. Se la (matrice)


colonna B dei termini noti è la colonna 0 nulla, ovvero sono nulli tutti i termini noti
(eq1) a11x1 + a12x2 + a13x3 + a14x4 + ….. + a1nxn = 0
(eq2) a21x1 + a22x2 + a23x3 + a24x4 + ….. + a2nxn = 0
(eq3) a31x1 + a32x2 + a33x3 + a34x4 + ….. + a3nxn = 0
(eq4) a41x1 + a42x2 + a43x3 + a44x4 + ….. + a4nxn = 0
…………………………………………………
(eqm) am1x1 + am2x2 + am3x3 + am4x4 + ….. + amnxn = 0
allora diremo che il sistema è omogeneo e scriveremo AX = 0.

18.2. Osservazione. E’ immediato verificare che ogni sistema lineare omogeneo in n incognite ha
almeno una soluzione. Infatti, la n-upla nulla (0, 0, 0, 0, ….., 0), cioè la colonna 0, è una soluzione
del sistema lineare omogeneo AX = 0.

18.3. Definizione. Sia AX = 0 un sistema lineare omogeneo in n incognite. La sua soluzione data
dalla n-upla nulla (0, 0, 0, 0, ….., 0) viene detta soluzione banale. Ogni altra sua soluzione (quindi
diversa da quella banale) viene detta autosoluzione.

18.4. Esempio. Si consideri il seguente sistema lineare omogeneo di 3 equazioni in 3 incognite


x1 − x 3 = 0 1 0 − 1

x 2 + x 3 = 0 A = 0 1 1 
x − x = 0 1 − 1 0 
 1 2

E’ facile verificare che la soluzione banale (0, 0, 0) è la sua unica soluzione.

18.5. Esempio. Si consideri il seguente sistema lineare omogeneo di 4 equazioni in 4 incognite


2 x1 + x 2 + 4 x 3 + x 4 = 0 2 1 4 1 
3x + 2 x − x − 6 x = 0 3 2 − 1 − 6
 1
A= 
2 3 4

x1 + 8x 3 + 7 x 4 = 0 1 0 8 7 
7 x1 + 42 + 6 x 3 − 5x 4 = 0  
7 4 6 − 5

La quaterna (0, 0, 0, 0) è la soluzione banale. La quaterna (1, 1, −1, 1) è una autosoluzione.

141
18.6. Teorema. Un sistema lineare omogeneo ha autosoluzioni se e solo se il rango della matrice
incompleta (matrice dei coefficienti) è minore del numero delle incognite.

Dimostrazione. Sia A1x1 + A2x2 + A3x3 + A4x4 + ….. + Anxn = 0.

Il sistema ha almeno una autosoluzione (α1, α2, α3, α4, ….., αn) ≠ (0, 0, 0, 0, ….., 0) ⇔

⇔ A1α1 + A2α2 + A3α3 + A4α4 + ….. + Anαn = 0 è un’identità ⇔

⇔ le n colonne di A sono linearmente dipendenti ⇔


⇔ A ha s < n colonne linearmente indipendenti ⇔ rg(A) = dimCA = s < n ⇔ rg(A) < n 

18.7. Esempio. Si consideri il sistema lineare omogeneo dell’Esempio 18.4. Esso aveva solo la
soluzione banale. Verifichiamo che il rango della sua matrice completa è uguale al numero delle sue
incognite. Si ha che detA = 2 ≠ 0 e, quindi, rg(A) = 3 = numero incognite.

18.8. Esempio. Si consideri il sistema lineare omogeneo dell’Esempio 18.5. Esso aveva almeno una
autosoluzione. Verifichiamo che il rango della sua matrice completa è minore del numero delle sue
incognite. Col metodo di Gauss-Jordan applicato alla matrice A si trova (vedi Esempio 18.17) una
matrice a scalino H avente una riga nulla. Quindi, rg (A) = rg(A’) = 3 < 4 = numero incognite.

Tenendo conto che se A è di tipo m×n, allora rg(A) ≤ min{m, n} si ha il seguente

18.9. Corollario. Se in un sistema lineare omogeneo il numero delle equazioni è minore del numero
delle incognite, allora esso ha sicuramente autosoluzioni.

18.10. Esempio. Si consideri il seguente sistema lineare omogeneo di 3 equazioni in 5 incognite


x1 + 4x 2 + 2x 3 − 3x 5 = 0 1 4 2 0 − 3

2x1 + 9x 2 + 5x 3 + 2x 4 + x 5 = 0 A = 2 9 5 2 1 
x + 3x + x − 2x − 9 x = 0
 1 2 3 4 5 1 3 1 − 2 − 9
Poiché il numero delle equazioni è minore del numero delle incognite, tale sistema ha autosoluzioni.
Infatti, si può verificare che (2, −1, 1, 0, 0), (8, −2, 0, 1, 0) e (0, 2, −4, 1, 0) sono autosoluzioni.

Poiché una matrice quadrata ha rango massimo se e solo se è non singolare si ha il seguente

18.11. Corollario. Un sistema lineare omogeneo quadrato (cioè con tante equazioni quante
incognite) ha autosoluzioni se e solo se la sua matrice incompleta è singolare.

142
18.12. Esempio. Si consideri il seguente sistema lineare omogeneo di 3 equazioni in 3 incognite
x1 + 2x 3 = 0 1 0 2

x 2 + x 3 = 0 A = 0 1 1
x − 2x = 0 1 − 2 0
 1 2

E’ facile verificare che detA = 0 e la terna (2, 1, −1) è una sua autosoluzione.

18.13. Tabella. Sia AX = 0 un sistema lineare omogeneo con A di tipo m×n. Si ha che:

• m < n → ∞ n − rg( A ) soluzioni

det(A) ≠ 0 ⇒ la soluzione banale è l' unica soluzione


• m=n→ n − rg ( A )
det(A) = 0 ⇒ ∞ soluzioni

n = rg (A) ⇒ la soluzione banale è l' unica soluzione


• m>n→ n − rg( A )
n > rg (A) ⇒ ∞ soluzioni

18.14. Definizione. Con SAB indicheremo l’insieme delle soluzioni del sistema lineare AX = B.

Se il sistema ha n incognite, allora SAB è un sottoinsieme (può essere l’insieme vuoto) di Rn.

18.15. Teorema. Se AX = 0 un sistema lineare omogeneo in n incognite, allora SA0 ≤ Rn.

Dimostrazione. L’insieme SA0 è non vuoto poiché la n-upla nulla 0 è una soluzione di AX = 0.

Proviamo ora che SA0 è chiuso rispetto alla somma di due n-uple, cioè che se Y e Z sono due n-uple

di SA0 allora anche (Y+Z) è una n-upla di SA0.

Se Y e Z sono due n-uple di SA0 allora AY = 0 e AZ = 0 sono due identità. Sommandole membro a

membro si ottiene l’identità AY+AZ = 0 + 0 da cui l’identità A(Y+Z) = 0. Per cui (Y+Z) è una
soluzione di AX = 0 e, quindi, (Y+Z) è una n-upla di SA0.

Infine, proviamo che SA0 è chiuso rispetto al prodotto di un numero reale (scalare) per una n-upla,

cioè se α è un numero reale e Y è una n-upla di di SA0 allora anche (αY) è una n-upla di SA0.

Se Y è una n-upla di di SA0 allora AY = 0 è un’identità. Moltiplicando entrambe i membri di tale

identità per α si ottiene l’identità α(AY) = α0 da cui l’identità A(αY) = 0. Per cui αY è una
soluzione di AX = 0 e, quindi, (αY) è una n-upla di SA0. 

143
Omettiamo la dimostrazione del seguente

18.16. Teorema. Se AX = 0 è un sistema lineare omogeneo in n incognite, allora


dimSA0 = n − rg(A).

Vediamo quanto affermato nel Teorema 18.16 con alcuni esempi.

18.17. Esempio. Si consideri il sistema lineare omogeneo dell’Esempio 18.5


2 x1 + x 2 + 4 x 3 + x 4 = 0 2 1 4 1 
3x + 2 x − x − 6 x = 0 3 2 − 1 − 6

(♥)  1 2 3 4
A= 
x1 + 8x 3 + 7 x 4 = 0 1 0 8 7 
7 x1 + 42 + 6 x 3 − 5x 4 = 0  
7 4 6 − 5

Applicando il metodo di riduzione di Gauss-Jordan alla matrice A si ottiene la matrice a scalino


1 0 8 7 
0 1 − 12 − 13
H= 
0 0 1 1 
 
0 0 0 0 
Quindi, rg(A) = rg (H) = 3.
Inoltre, il sistema lineare omogeneo iniziale (♥) è equivalente al sistema lineare omogeneo

x1 + 8x 3 + 7 x 4 = 0 1 0 8 7 

(♣) x 2 − 12 x 3 − 13x 4 = 0 A’ = 0 1 − 12 − 13
x + x = 0 0 0 1 1 
 3 4

Poiché le prime tre colonne di A’ sono sicuramente linearmente indipendenti, portando l’incognita
x4 a secondo membro e ponendo x4 = β, otteniamo il seguente sistema di Cramer

x1 + 8x 3 = −7β 1 0 8 

(♠) x 2 − 12x 3 = 13β A’’ = 0 1 − 12
x = −β 0 0 1 
 3
L’unica soluzione di (♠) è la terna (x1, x2, x3) = (β, β, −β). Per cui, per ogni valore reale di β la

quaterna (x1, x2, x3, x4) = (β, β, −β, β) è una soluzione del sistema (♣) e, quindi, del sistema (♥).

Per cui il sottospazio delle soluzioni di (♥) è SA0 = {(β, β, −β, β)∈R4 | β∈R}. Inoltre, poiché

(β, β, −β, β) = β(1, 1, −1, 1), la quaterna (1, 1, −1, 1) è un generatore del sottospazio SA0. Essendo

(1, 1, −1, 1) anche linearmente indipendente (è diversa dalla quaterna nulla) si ha che la quaterna
(1, 1, −1, 1) è una base di SA0. Quindi, dimSA0 = 1 = 4 − 3 = n − rg(A).

144
18.18. Esempio. Si consideri il sistema lineare omogeneo dell’Esempio 18.10
x1 + 4x 2 + 2x 3 − 3x 5 = 0 1 4 2 0 − 3

(♥) 2x1 + 9x 2 + 5x 3 + 2x 4 + x 5 = 0 A = 2 9 5 2 1 
x + 3x + x − 2x − 9x = 0 1 3 1 − 2 − 9
 1 2 3 4 5

Applicando il metodo di riduzione di Gauss-Jordan alla matrice A si ottiene la matrice a scalino


1 4 2 0 − 3
H = 0 1 1 2 7 
0 0 0 0 1 

Quindi, rg(A) = rg (H) = 3.


Inoltre, il sistema lineare omogeneo iniziale (♥) è equivalente al sistema lineare omogeneo

x1 + 4x 2 + 2x 3 − 3x 5 = 0 1 4 2 0 − 3

(♣) x 2 + x 3 + 2x 4 + 7 x 5 = 0 A’ = 0 1 1 2 7 
x = 0 0 0 0 0 1 
 5
Poiché le prima, la seconda e la quinta colonna di A’ sono sicuramente linearmente indipendenti,
portando le incognite x3 e x4 a secondo membro e ponendo x3 = α e x4 = β, otteniamo il seguente
sistema di Cramer
x1 + 4x 2 − 3x 5 = −2α 1 4 − 3

(♠) x 2 + 7 x 5 = −α − 2β A’’ = 0 1 7 
x = 0 0 0 1 
 5
L’unica soluzione di (♠) è la terna (x1, x2, x3) = (2α+8β, −α−2β, 0). Per cui, per ogni valore reale

di α e β la 5-upla (x1, x2, x3, x4, x5) = (2α+8β, −α−2β, α, β, 0) è una soluzione del sistema (♣) e,

quindi, del sistema (♥).

Per cui il sottospazio delle soluzioni di (♥) è SA0 = {(2α+8β, −α−2β, α, β, 0)∈R5 | α,β∈R}.

Inoltre, poiché (2α+8β, −α−2β, α, β, 0) = α(2, −1, 1, 0, 0) + β(8, −2, 0, 1, 0), le 5-uple (2, −1, 1, 0)
e (8, −2, 0, 1, 0) sono generatori del sottospazio SA0.

Essendo (2, −1, 1, 0) e (8, −2, 0, 1, 0) anche linearmente indipendenti (si verifica subito che non
sono proporzionali tra loro) si ha che B = ((2, −1, 1, 0), (8, −2, 0, 1, 0)) è una base di SA0.

Per cui dimSA0 = 2 = 5 − 3 = n − rg(A).

145
18.19. Esempio. Si consideri il sistema lineare omogeneo seguente
2 x1 − 2 x 2 + 3x 3 + 6 x 4 + 5x 5 = 0 2 −2 3 6 5 
 4 x − 5 x + 7 x + 3x − 8 x = 0 4 −5 7 3 − 8 
 1 2 3 4 5 
8x − 9 x 2 + 13x 3 + 15x 4 + 2 x 5 = 0 8 −9 13 15 2 
(♥)  1 A=  
 10 x1 − 12 x 2 + 17 x 3 + 12 x 4 − 11x 5 = 0 10 − 12 17 12 − 11
6 x1 − 7 x 2 + 10 x 3 + 9 x 4 − 3x 5 = 0 6 −7 10 9 −3 
  
14 x1 − 17 x 2 + 24 x3 + 15x 4 − 19 x 5 = 0 14 − 17 24 15 − 19

Applicando il metodo di riduzione di Gauss-Jordan alla matrice A si ottiene la matrice a scalino


2 − 2 3 6 5
0 1 − 1 9 18

0 0 0 0 0
H=   . Quindi, rg(A) = rg (H) = 2.
0 0 0 0 0
0 0 0 0 0
 
0 0 0 0 0 

Inoltre, il sistema lineare omogeneo iniziale (♥) è equivalente al sistema lineare omogeneo

2x − 2 x 2 + 3x 3 + 6x 4 + 5x 5 = 0 2 − 2 3 6 5 
(♣)  1 A’ =  
x 2 − x 3 + 9x 4 + 18x 5 = 0 0 1 − 1 9 18
Poiché le prima e la seconda colonna di A’ sono linearmente indipendenti, portando le incognite x3 ,
x4 e x5 a secondo membro e ponendo x3 = 2α , x4 = β e x5 = 2γ, otteniamo il sistema di Cramer

2x − 2 x 2 = −6α − 6β − 10γ 2 − 2


(♠)  1 A’’ =  
x 2 = +2α − 9β − 36γ 0 1 
L’unica soluzione di (♠) è la coppia (x1, x2) = (−α−12β−41γ, 2α−9β−36γ). Per cui, per ogni valore

reale di α, β e γ la 5-upla (x1, x2, x3, x4, x5) = (−α−12β−41γ, 2α−9β−36γ, 2α, β, 2γ) è una soluzione

del sistema (♣) e, quindi, del sistema (♥). Per cui il sottospazio delle soluzioni di (♥) è

SA0 = {(−α−12β−41γ, 2α−9β−36γ, 2α, β, 2γ)∈R5 | α,β,γ∈R}

Inoltre, poiché
(−α−12β−41γ, 2α−9β−36γ, 2α, β, 2γ) = α(−1, 2, 2, 0, 0) + β(−12, −9, 0, 1, 0) + γ(−41, −36, 0, 0, 2)
le 5-uple (−1, 2, 2, 0, 0), (−12, −9, 0, 1, 0) e (−41, −36, 0, 0, 2) sono generatori del sottospazio SA0.

 −1 2 2 0 0
Inoltre, la matrice  − 12 − 9 0 1 0 che ha come righe quelle tre 5-uple ha sicuramente

− 41 − 36 0 0 2

rango 3 poiché contiene una sottomatrice (quella formata dalle ultime tre colonne) di ordine 3 non
singolare. Quindi, quelle tre 5-uple sono linearmente indipendenti e formano una base di SA0. Per

cui dimSA0 = 3 = 5 − 2 = n − rg(A).

146
La proprietà vista nel Teorema 18.15 non vale per i sistemi lineari non omogenei. Infatti,

18.20. Osservazione. L’insieme delle soluzioni di un sistema lineare non omogeneo AX = B in n


incognite non è un sottospazio di Rn.

Dimostrazione. Se AX = B è un sistema lineare non omogeneo, allora B ≠ 0. Poiché A0 = 0 ≠ B, la


n-upla nulla 0 non è una soluzione del sistema e, quindi, non appartiene a SAB. Poiché l’elemento

neutro 0 rispetto alla somma non appartiene a SAB , esso non è un sottospazio Rn. 

18.21. Definizione. Se AX = B è un sistema lineare non omogeneo (cioè con B ≠ 0), allora il
sistema lineare omogeneo AX = 0 (cioè avente la stessa matrice A dei coefficienti) viene detto
sistema omogeneo associato al sistema lineare non omogeneo AX = B.

18.22. Teorema. Sia AX = B un sistema lineare non omogeneo in n incognite avente almeno una
soluzione e sia Yp una qualsiasi di esse. Una n-upla Z∈Rn è una soluzione del sistema AX = B

(cioè Z∈SAB) se e solo se (⇔) esiste una n-upla X0∈Rn soluzione del sistema omogeneo associato

AX = 0 (cioè X0∈SA0) tale che Z = Yp + X0.

Dimostrazione. Poiché Yp è una soluzione del sistema AX = B si ha che AYp = B è un’identità.

⇒) Supponiamo che Z∈SAB cioè che AZ = B sia un identità. Sottraendo membro a membro da tale

identità l’identità AYp = B otteniamo l’identità AZ−AYp = B−B da cui l’identità A(Z−Yp) = 0. Per

cui la n-upla (Z−Yp) è una soluzione del sistema omogeneo associato AX = 0, cioè (Z−Yp)∈SA0.

Posto X0 := (Z−Yp)∈SA0 si ha che Z = Yp + (Z−Yp) = Yp + X0.

⇐) Consideriamo, ora, una n-upla di Rn del tipo Z = Yp + X0 dove X0 è una soluzione del sistema

omogeneo associato AX = 0. Poiché X0∈SA0 si ha che AX0 = 0 è un’identità. Sommando membro

a membro a tale identità l’identità AYp = B otteniamo l’identità AYp + AX0= B+0 da cui l’identità
A(Yp+X0) = B. Quindi, la n-upla Z = (Yp+X0) è una soluzione del sistema AX = B. 

147
1. Esercizio. Il seguente sistema lineare
x1 − 5x 3 + 2 x 6 = 6
 2 x + x + 3x = 6
 2 4 5
2 x − 7 x 3 + 3x 6 = 4
(1)  1
3x 2 + 2 x 4 + 4 x 5 = 7
2 x1 − x 3 + x 6 = −12

4 x 2 + 3x 4 + 5x 5 = 9
non ha soluzioni.

2. Esercizio. Il seguente sistema lineare


3x1 + 5x 2 + 6 x 3 + 13x 4 = 5
7 x + 14 x + 20 x + 27 x = 0
 1 2 3 4
5x1 + 10 x 2 + 16 x 3 + 19 x 4 = −2
 x + 2 x + 3x + 4 x = 0
 1 2 3 4
3x1 + 6 x 2 + 7 x 3 + 12 x 4 = 2

ha come unica soluzione la quaterna (x1, x2, x3, x4) = (1, −1, −1, 1).

3. Esercizio. Il seguente sistema lineare


x1 + x 2 = 1
x + x + x = 4
 1 2 3
x 2 + x 3 + x 4 = −3
x + x + x = 2
 3 4 5
x 4 + x 5 = −1

ha infinite ∞1 soluzioni, cioè dipendenti da un parametro


(x1, x2, x3, x4, x5) = (6, −5, 3, −1, 0) + α(−1, 1, 0, −1, 1)

4. Esercizio. Il seguente sistema lineare


7 x1 − 5x 2 − 2 x 3 − 4 x 4 = 8
3x − 2 x − x − 2 x = 3
 1 2 3 4
2 x1 − x 2 − x 3 − 2 x 4 = 1
 x − x − 2 x = −1
 1 3 4
x 2 − x 3 − 2 x 4 = −3

ha infinite ∞2 soluzioni, cioè dipendenti da due parametri


(x1, x2, x3, x4) = (−1, −3, 0, 0) + α(1, 1, 1, 0) + β(2, 2, 0, 1)

148
5. Esercizio. Il seguente sistema lineare
40 x1 + 5x 2 + 55x 3 − 25x 4 + 213x 5 = 35
8x + x + 11x − 5x − 11x = 7
 1 2 3 4 5

56 x1 + 7 x 2 + 77 x 3 − 35x 4 − 197 x 5 = 49
24 x1 + 3x 2 + 33x 3 − 15x 4 − 29 x 5 = 21

ha infinite ∞3 soluzioni, cioè dipendenti da tre parametri


(x1, x2, x3, x4, x5) = (0, 7, 0, 0, 0) + α(1, −8, 0, 0, 0) + β(0, −11, 1, 0, 0) + γ(0, 5, 0, 1, 0)

6. Esercizio. Il seguente sistema lineare


2000 x1 + 0,003x 2 − 0,3x 3 + 40 x 4 = 5
3000 x + 0,005x − 0,4 x + 90 x = 8
 1 2 3 4

 500 x1 + 0, 0007 x 2 − 0, 08 x 3 + 8 x 4 = 1,3
60000 x1 + 0,09 x 2 − 9 x 3 + 1300 x 4 = 160

ha infinite ∞1 soluzioni, cioè dipendenti da un parametro


(x1, x2, x3, x4) = (0.008; −5000; 0; 0.1) + α(0.0003; −100; 1; 0)

7. Esercizio. Il seguente sistema lineare


2 x − 3 y − z = 0

x + 2 y + z = −1
3x + 6 y + 2z = 1

ha come unica soluzione la terna (x, y, z) = (1/7, 10/7, −4).

8. Esercizio. Si consideri il seguente sistema lineare “simultaneo”


2x − 3y − z = 1; = 2

x + 2 y + z = 1; = 1
x + 23y + 10z = 4; = 0

Il primo ha infinite ∞1 soluzioni, cioè dipendenti da un parametro
(x, y, z) = (5/7, 1/7, 0) + α(−1/7, −3/7, 1)
Il secondo non ha alcuna soluzione.

149
9. Esercizio. Si consideri il seguente sistema lineare “simultaneo”
2x − 3y − z = 1; = 0; = 0 2 − 3 − 1

x + 2 y + z = 0; = 1; = 0 A = 1 2 1 
3x + 6 y + 2z = 0; = 0; = 1 3 6 2 

Il primo ha come unica soluzione la terna (x, y, z) = (2/7, −1/7, 0).
Il secondo ha come unica soluzione la terna (x, y, z) = (0, −1, 3).
Il terzo ha come unica soluzione la terna (x, y, z) = (1/7, 3/7, −1).
Si noti che la matrice B che ha come colonne ordinatamente le precedenti tre terne è l’inversa di A.

10. Esercizio. Si consideri il seguente sistema lineare dipendente da un parametro reale t


3x + 2 y + z = −1

7 x + 6 y + 5z = t
5x + 4 y + 3z = 2

Per t ≠ 5 il sistema non ha soluzioni.
Per t = 5 il sistema ha infinite ∞1 soluzioni, cioè dipendenti da un parametro
(x, y, z) = (0, −5/2, 4) + α(1, −2, 1)

11. Esercizio. Si consideri il seguente sistema lineare dipendente da un parametro reale t


w + x + ( 2 − t ) y = 1

(3 − 2t ) w + (2 − t ) x + y = t
(2 − t ) w + (2 − t ) x + 1 = 1

- per t = 3 il sistema non ha soluzioni;
- per t = 1 il sistema ha infinite ∞2 soluzioni (w, x, y) = (1, 0, 0) + α(−1, 1, 0) + β(−1, 0, 1);
- per ogni t reale con t ≠ 1 et t ≠ 3 il sistema ha un’unica soluzione data dalla terna
(w, x, y) = (−1, (4−t)/(3−t), 1/(3−t)).

12. Esercizio. Si consideri il seguente sistema non lineare


 w + x + yz = 2

w + xz + y = −1
wz + x + y = −1

- per z = 1 il sistema non ha soluzioni;
- per z = −2 il sistema è lineare e ha infinite soluzioni (w, x, y, z) = (1+α, 1+α, α, −2);
- per z ≠ 1 et z ≠ −2 il sistema ha come soluzione (w, x, y, z) = (1/(1−z), 1/(1−z), 2/(z−1), z).

150
19. Autovalori e autovettori di una matrice quadrata.

19.1 Osservazione. Se A è una matrice quadrata ad elementi reali di ordine n e H è una matrice
(colonna) ad elementi reali di tipo n×1 (cioè una n-upla ordinata di numeri reali), allora la matrice
AH è una matrice (colonna) ad elementi reali di tipo n×1, cioè AH è dello stesso tipo di H.

19.2 Esempio. Se A è quadrata di ordine 3 e H è di tipo 3×1 allora AH è di tipo 3×1.

 3 0 2 1 3 1  7


A = 0 1 0 H = − 2 AH =  − 2
  K = 0 AK = 0
 
6 0 4  0   6  2 14

Si osservi che non esiste un numero reale β tale che AH = βH, mentre AK = 7K.

19.3 Osservazione. Se A è una matrice quadrata ad elementi reali di ordine n e se 0 è la matrice


(colonna) nulla di tipo n×1 allora per ogni numero reale β si ha che A0 = 0 = β0.

19.4. Definizione. Sia A una matrice quadrata ad elementi reali di ordine n. Se esistono un numero
reale β e una matrice (colonna) ad elementi reali non nulla H di tipo n×1 tali che AH = βH allora
diremo che β è un autovalore di A e che H è un autovettore di A relativo all’autovalore β.
Quindi, H ≠ 0 è un autovettore di A se e solo se AH è un multiplo di H.

19.5 Esempio. Consideriamo ancora la matrice dell’Esempio 19.2 e i seguenti vettori colonna
1  2 0 
K = 0 H2 =  0  H3 = 1
2 − 3 0

Abbiamo già visto che AK = 7K. Inoltre, è facile verificare che AH2 = 0H2 e AH3 = H3 . Quindi,

- K è un autovettore di A relativo all’autovalore β1 = 7;

- H2 è un autovettore di A relativo all’autovalore β2 = 0;

- H3 è un autovettore di A relativo all’autovalore β3 = 1.


La colonna H dell’Esempio 19.2 non è un autovettore di A poiché AH non è un multiplo di H.

19.6. Osservazione. Si noti che, per definizione, un autovettore è un vettore non nullo mentre,
come abbiamo visto nell’Esempio 19.5, un autovalore può anche essere uguale a zero.

151
19.7. Lemma. Se A è una matrice quadrata ad elementi reali di ordine n, allora il determinante della
matrice (A − λIn) è un polinomio a coefficienti reali di grado n nella indeterminata λ.
Dimostrazione. (per induzione sull’ordine n della matrice A).
Se A = [a11] è una matrice quadrata di ordine 1 allora det(A − λI1) = (a11 − λ) è un polinomio di

primo grado nell’indeterminata λ. Quindi, per n = 1 la tesi è vera.


Ora, nell’ipotesi (induttiva) che la tesi sia vera per (n − 1) proviamo la tesi per n.
Osserviamo che se a11 , a12 , a13 , a14 , ….., a1n sono gli elementi della prima riga di A allora gli

elementi della prima riga di (A − λIn) sono (a11 − λ), a12 , a13 , a14 , ….., a1n

Calcoliamo il determinante di (A − λIn)


n
det(A − λIn) := (a11 − λ)det(A − λIn)11 + ∑ (–1)1+ja1jdet(A − λIn)1j
j= 2

Poichè per ogni j = 1,2,3,4,…,n la matrice (A − λIn)1j è una matrice quadrata di ordine (n − 1)

allora, per ipotesi, il suo determinante det(A − λIn)1j è un polinomio di grado (n − 1).

Quindi, per ogni j = 2,3,…,n, a1jdet(A − λIn)1j o è uguale a zero o è un polinomio di grado (n − 1).
n
Per cui anche ∑ (–1)1+ja1jdet(A − λIn)1j o è uguale a zero o è un polinomio di grado (n − 1).
j= 2

Invece, (a11 − λ)det(A − λIn)11 è certamente un polinomio di grado n. Quindi, la somma dei due
n
polinomi (a11 − λ)det(A − λIn)11 e ∑ (–1)1+ja1jdet(A − λIn)1j è un polinomio di grado n. 
j= 2

Tenendo conto del Lemma 19.7 diamo la seguente

19.8 Definizione. Sia A una matrice quadrata ad elementi reali di ordine n. Il determinante della
matrice (A − λIn) viene detto polinomio caratteristico di A e viene indicato con il simbolo pA(λ).

pA(λ) := det(A − λIn)

19.9 Esempio. pA(λ) = det(A − λI2) = λ2 − 5λ − 6 = (λ + 1)(λ − 6)

5 2 λ 0  (5 − λ) 2 
A=   λI2 =   (A − λI2) = 
3 0 0 λ   3 − λ 

152
19.10 Esempio. pA(λ) = det(A − λI3) = −λ3 + 8λ2 − 7λ = λ(λ − 1)(7 − λ)

 3 0 2 λ 0 0  (3 − λ ) 0 2 
A = 0 1 0 λI3 =  0 λ 0  
(A − λI3) =  0 (1 − λ ) 0 
6 0 4  0 0 λ   6 0 (4 − λ )

19.11 Esempio. pA(λ) = det(A − λI4) = λ4 − 10λ2 + 9 = (λ + 1)(λ − 1)(λ + 3)(λ − 3)

0 1 0 0 λ 0 0 0 − λ 1 0 0 
3 0 2 0 0 λ 0 0   3 −λ 2 0 
A=  λI4 =  (A − λI4) = 
0 2 0 3 0 0 λ 0  0 2 −λ 3 
     
0 0 1 0 0 0 0 λ  0 0 1 − λ

19.12. Teorema. Sia A una matrice quadrata ad elementi reali di ordine n. Un numero reale β è un
autovalore di A se e solo se esso è una radice del polinomio caratteristico di A, cioè pA(β) = 0.

Inoltre, gli autovettori di A relativi all’autovalore β sono tutte e sole le autosoluzioni del sistema
lineare omogeneo quadrato (A − βIn)X = 0.

Dimostrazione. Un numero reale β è un autovalore di A ⇔ ∃H ≠ 0 : AH = βH ⇔


⇔ ∃H ≠ 0 : AH = β(InH) ⇔ ∃H ≠ 0 : AH = (βIn)H ⇔ ∃H ≠ 0 : AH − (βIn)H = 0 ⇔

⇔ ∃H ≠ 0 : (A − βIn)H = 0 ⇔ H è un’autosoluzione del sistema (A − βIn)X = 0 ⇔

⇔ il sistema lineare omogeneo quadrato (A − βIn)X = 0 ha autosluzioni ⇔

⇔ det(A − βIn) = 0 ⇔ pA(β) = 0 ⇔ β è una radice del polinomio caratteristico di A. 

5 2
19.13 Esempio. Gli autovalori di A =   sono λ1 = −1, λ2 = 6.
3 0

 3 0 2
19.14 Esempio. Gli autovalori di A = 0 1 0 sono λ1 = 0, λ2 = 1, λ3 = 7.
6 0 4

0 1 0 0
3 0 2 0
19.15 Esempio. Gli autovalori di A =  sono λ1 = −1, λ2 = 1, λ3 = −3, λ4 = 3.
0 2 0 3
 
0 0 1 0

153
19.16 Esercizi Trovare i polinomi caratteristici e gli autovalori delle seguenti matrici:

2 1 1

A= 2 3 4  pA(λ) = −λ3 + 3λ2 + λ − 3 = (3 − λ)(λ − 1)(λ + 1)
− 1 − 1 − 2

2 − 1 1 
B = 0 3 − 1 pB(λ) = −λ3 + 8λ2 − 20λ + 16 = (4 − λ)(λ − 2)2
2 1 3 

2 1 1 
C = 2 3 2 pC(λ) = −λ3 + 9λ2 − 15λ + 7 = (7 − λ)(λ − 1)2
3 3 4

1 0 1 0
1 1 0 1
D=  pD(λ) = λ4 − 4λ3 + 4λ2 = λ2(λ − 2)2
1 0 1 0
 
0 1 1 1

1 2 0 3
− 1 − 2 0 − 3
E=  pE(λ) = λ4 − 4λ3 + 4λ2 = λ2(λ − 2)2
0 0 2 0
 
1 2 0 3

3 − 1 0 0
0 3 0 0
F=  pF(λ) = (λ − 3)4
1 0 3 1
 
0 1 0 3

154
19.17 Esercizi Trovare gli autovettori delle matrici precedenti.

2 1 0


A → λ1 = 3 , H1 = h  3  λ2 = 1 , H2 = h − 1 λ3 = −1 , H3 = h  1  ∀h∈R−{0}
−1  0  −1

1 1
B → λ1 = 2 , H1 = h − 1 λ2 = 4 , H2 = h − 1 ∀h∈R−{0}
− 1  1 

1  1 0
C → λ1 = 7 , H1 = h 2 ∀h∈R−{0} λ2 = 1 , H2 = h  0  + k  1  ∀h,k∈R2−{(0,0)}
 
3 −1 −1

0 0 
1 1 
D → λ1 = 0 , H1 = h   λ2 = 2 , H2 = h   ∀h∈R−{0}
0 0 
   
−1 1 

 − 2 − 3 0  1
1 0 0  − 1
E → λ1 = 0 , H1 = h   + k   λ2 = 2 , H2 = h   + k   ∀h,k∈R2−{(0,0)}
0 0 1  0
       
0 1 0  1

1 0 
0 0 
F → λ1 = 3 , H1 = h   + k  ∀h,k∈R2−{(0,0)}
0 1 
   
−1 0 

155
RICORDIAMO che se p(x)∈R[x] e il suo grado è n, allora
• un numero reale α è una sua radice (cioè p(α) = 0) se e solo se p(x) è divisibile per (x − α);
• α è una sua radice di molteplicità h se p(x) è divisibile per (x − α)h ma non per (x − α)h+1;
• la somma delle molteplicità delle radici reali a due a due distinte tra loro è minore o uguale a n;
• se n è dispari allora p(x) ha almeno una radice reale.

19.18 Esempio. Si considerino i seguenti polinomi di R[x]


- p(x) = (x − 2)(x + 1)2(x + 4)5(x − 3)7
- q(x) = (x + 1)3(x − 5)4(x − 4)6(x2 + 1)
- r(x) = (x2 + 1)(x2 + 3x + 3)(x2 − x + 1)
- Le radici reali di p(x) a due a due distinte tra loro sono 2, −1, −4 e 3. Le loro molteplicità sono
rispettivamente 1, 2, 5, e 7. La somma delle loro molteplicità è 15 che è uguale al grado 15 di p(x).
- Le radici reali di q(x) a due a due distinte tra loro sono −1, 5 e 4. Le loro molteplicità sono
rispettivamente 3, 4, e 6. La somma delle loro molteplicità è 13 che è minore del grado 15 di q(x).
- Il polinomio r(x) non ha radici reali.

Tenendo conto di quanto appena ricordato diamo la seguente

19.19 Definizione. Diremo molteplicità algebrica di un autovalore β, e la indicheremo col simbolo


ma(β), di una matrice A ad elementi reali quadrata di ordine n la molteplicità di β come radice del

polinomio caratteristico pA(λ) della matrice A.

19.20 Esempio. Si considerino le matrici dell’Esercizio 19.16


pA(λ) = (3 − λ)(λ − 1)(λ + 1) ma(3) = ma(1) = ma(−1) = 1

pB(λ) = (4 − λ)(λ − 2)2 ma(4) = 1 ma(2) = 2

pC(λ) = (7 − λ)(λ − 1)2 ma(7) = 1 ma(1) = 2

pD(λ) = λ2(λ − 2)2 ma(0) = ma(2) = 2

pE(λ) = λ2(λ − 2)2 ma(0) = ma(2) = 2

pF(λ) = (λ − 3)4 ma(3) = 4

156
19.21 Osservazione. Se A è una matrice ad elementi reali quadrata di ordine n avente s autovalori
λ1, λ2, λ3, …, λs-1, λs a due a due distinti tra loro (cioè i ≠ j ⇔ λi ≠ λj), allora pA(λ) è divisibile

ma(λ1) ma(λ2) ma(λ3) ma(λs)


per (λ − λ1) (λ − λ2) (λ − λ3) …..(λ − λs) . Quindi,

ma(λ1) + ma(λ2) + ma(λ3) + ….. + ma(λs) ≤ n = grado di pA(λ)

valendo il segno di uguaglianza se e solo se le radici di pA(λ) sono tutte reali.

19.22 Esempio. Si considerino i polinomi dell’Esempio 19.20


pA(λ) = (3 − λ)(λ − 1)(λ + 1) ma(3) + ma(1) + ma(−1) = 3 = grado di pA(λ)

pB(λ) = (4 − λ)(λ − 2)2 ma(4) + ma(2) = 3 = grado di pB(λ)

pC(λ) = (7 − λ)(λ − 1)2 ma(7) + ma(1) = 3 = grado di pC(λ)

pD(λ) = λ2(λ − 2)2 ma(0) + ma(2) = 4 = grado di pD(λ)

pE(λ) = λ2(λ − 2)2 ma(0) + ma(2) = 4 = grado di pE(λ)

pF(λ) = (λ − 3)4 ma(3) = 4 = grado di pF(λ)

Si noti che in tutti i precedenti casi vale il segno di uguaglianza, in quanto ognuno dei polinomi
caratteristici ha solo radici reali.

Nel Teorema 19.12 abbiamo visto che gli autovettori relativi ad un autovalore β di una matrice A ad
elementi reali quadrata di ordine n sono tutte e sole le autosoluzioni del sistema lineare omogeneo
(A − βIn)X = 0. Tenendo conto del fatto l’insieme delle soluzioni di tale sistema lineare omogeneo

è uno spazio vettoriale (sottospazio di Rn) diamo la seguente

19.23 Definizione. Sia A una matrice ad elementi reali quadrata di ordine n e sia β un suo
autovalore. Lo spazio delle soluzioni del sistema lineare omogeneo (A − βIn)X = 0 viene detto

autospazio relativo all’autovalore β e viene indicato col simbolo E(β).

19.24 Osservazione. Se E(β) è un autospazio della matrice A ad elementi reali quadrata di ordine n,
allora un vettore di Rn appartiene ad E(β) se e solo se è il vettore nullo aut è un autovettore di A
relativo all’autovalore β.

157
Relativamente all’intersezione di due autospazi si ha il seguente

19.25. Teorema. Sia A una matrice ad elementi reali quadrata di ordine n.


Se λ1 e λ2 sono due autovalori distinti (λ1 ≠ λ2) di A, allora E(λ1) ∩ E(λ2) = {0}.

Dimostrazione. Ovviamente, 0∈E(λ1) e 0∈E(λ2), da cui 0∈E(λ1) ∩ E(λ2).

Se esistesse un autovettore H ≠ 0 tale che H∈E(λ1) ∩ E(λ2) allora si avrebbero le due identità

AH = λ1H et AH = λ2H. Sottraendo membro a membro la prima dalla seconda si otterrebbe

l’identità (λ2 − λ1)H = 0. Poiché (λ2 − λ1) ≠ 0, per la legge di annullamento del prodotto di uno

scalare per un vettore si avrebbe che H = 0. Ma ciò è assurdo. Quindi, E(λ1) ∩ E(λ2) = {0}. 

Ricordando il Teorema 18.16 dalla Definizione 19.23 si ha subito la seguente

19.26 Osservazione. Se E(β) è un autospazio della matrice A ad elementi reali quadrata di ordine n,
allora dimE(β) = n − rg(A − βIn). Inoltre, poiché det(A − βIn) = 0 si ha che rg(A − βIn) < n. Quindi

dimE(β) = n − rg(A − βIn) ≥ 1

Tenendo conto dell’Osservazione 19.26 precedente diamo la seguente

19.27 Definizione. Se β è un autovalore di una matrice A ad elementi reali quadrata di ordine n,


allora la dimensione dell’autospazio E(β) viene detta molteplicità geometrica dell’autovalore β e
viene indicata col simbolo mg(β). Quindi,

mg(β) := dimE(β) = n − rg(A − βIn) ≥1

Omettiamo la dimostrazione del seguente

19.28. Teorema. Se β è un autovalore della matrice A ad elementi reali quadrata di ordine n, allora
la sua molteplicità geometrica è minore o uguale alla sua molteplicità algebrica, cioè
1 ≤ mg(β) ≤ ma(β)

Conseguenza immediata del Teorema 19.28 è il seguente

19.29 Corollario. Sia β un autovalore di una matrice A ad elementi reali quadrata di ordine n.
Se ma(β) = 1 allora mg(β) = 1.

158
19.30 Esempio. Si considerino le matrici dell’Esercizio 19.17.
Matrice A ma(3) = ma(1) = ma(−1) = 1 ⇒ mg(3) = mg(1) = mg(−1) = 1

Matrice B ma(4) = 1 ⇒ mg(4) = 1 mg(2) = 1 < 2 = ma(2)

Matrice C ma(7) = 1 ⇒ mg(7) = 1 mg(1) = 2 = ma(1)


Matrice D mg(0) = 1 < 2 = ma(0) mg(2) = 1 < 2 = ma(2)
Matrice E mg(0) = 2 = ma(0) mg(2) = 2 = ma(2)
Matrice F mg(3) = 2 < 4 = ma(3)

Tenendo conto del Teorema 19.28 e dell’Osservazione 19.21 si ha subito il seguente

19.31 Corollario. Se A è una matrice ad elementi reali quadrata di ordine n avente s autovalori
λ1, λ2, λ3, …, λs-1, λs a due a due distinti tra loro (cioè i ≠ j ⇔ λi ≠ λj), allora

mg(λ1) + mg(λ2) + mg(λ3) + ….. + mg(λs) ≤ n

19.32 Esempio. Si considerino le matrici dell’Esercizio 19.17.


Tenendo conto anche di quanto già visto nell’Esempio 19.22 si ha che
Matrice A mg(3) + mg(1) + mg(−1) = 1 + 1 + 1 = 3 = ordine di A
Matrice B mg(4) + mg(2) = 1 + 1 = 2 < 3 = ordine di B
Matrice C mg(7) + mg(1) = 1 + 2 = 3 = ordine di C
Matrice D mg(0) + mg(2) = 2 < 4 = ordine di D
Matrice E mg(0) + mg(2) = 2 + 2 = 4 = ordine di E
Matrice F mg(3) = 2 < 4 = ordine di F

19.33. Lemma. Sia A una matrice ad elementi reali quadrata di ordine n.


Siano λ1, λ2, λ3, …, λs-1, λs s autovalori di A a due a due distinti tra loro, cioè i ≠ j ⇔ λi ≠ λj.

Se H1, H2, H3, …, Hs-1, Hs sono s autovettori di A relativi agli autovalori λ1, λ2, λ3, …, λs-1, λs
rispettivamente, allora gli autovettori H1, H2, H3, …, Hs-1, Hs sono linearmente indipendenti.

Dimostrazione. (per induzione sul numero s di autovalori a due a due distinti tra loro)
Se s = 1 allora l’autovettore H1 è certamente linearmente indipendente in quanto diverso dal vettore
nullo. Quindi, per s = 1 la tesi è vera (base induttiva). Ora, nell’ipotesi (induttiva) che la tesi sia vera
per (s − 1) proviamo la tesi per s. A tal fine dobbiamo provare che se
(♥) α1H1 + α2H2 + α3H3 + … + αs-1Hs-1 + αsHs = 0

allora deve necessariamente essere α1 = α2 = α3 = … = αs-1 = αs = 0.

159
Moltiplicando entrambe i membri dell’identità (♥) a sinistra per la matrice A otteniamo le identità
A(α1H1 + α2H2 + α3H3 + … + αs-1Hs-1 + αsHs) = A0

A(α1H1) + A(α2H2) + A(α3H3) + … + A(αs-1Hs-1) + A(αsHs) = 0

α1(AH1) + α2(AH2) + α3(AH3) + … + αs-1(AHs-1) + αs(AHs) = 0

Poiché H1, H2, H3, …, Hs-1, Hs sono autovettori relativi agli autovalori λ1, λ2, λ3, …, λs-1, λs si ha

α1(λ1H1) + α2(λ2H2) + α3(λ3H3) + … + αs-1(λs-1Hs-1) + αs(λsHs) = 0

(♣) (α1λ1)H1 + (α2λ2)H2 + (α3λ3)H3 + … + (αs-1λs-1)Hs-1 + (αsλs)Hs = 0

Moltiplicando entrambe i membri dell’identità (♥) per lo scalare λs otteniamo le identità

λs(α1H1 + α2H2 + α3H3 + … + αs-1Hs-1 + αsHs) = λs0

λs(α1H1) + λs(α2H2) + λs(α3H3) + … + λs(αs-1Hs-1) + λs(αsHs) = 0

(♠) (α1λs)H1 + (α2λs)H2 + (α3λs)H3 + … + (αs-1λs)Hs-1 + (αsλs)Hs = 0

Sottraendo membro a membro l’identità (♠) dall’identità (♣) otteniamo l’identità


α1(λ1 − λs)H1 + α2(λ2 − λs)H2 + α3(λ3 − λs)H3 + … + αs-1(λs-1 − λs)Hs-1 = 0

Poiché, per ipotesi, gli (s − 1) autovettori H1, H2, H3, …, Hs-1, sono linearmente indipendenti si ha

α1(λ1 − λs) = α2(λ2 − λs) = α3(λ3 − λs) = αs-1(λs-1 − λs) = 0

Ma, per ogni h ≠ s è (λh − λs) ≠ 0, quindi deve essere α1 = α2 = α3 = … = αs-1 = 0.

Sostituendo α1 = α2 = α3 = … = αs-1 = 0 nella (♥) si ottiene l’identità αsHs = 0. Essendo Hs ≠ 0

(poiché Hs è un autovettore), si ha che deve essere αs = 0. 

Come immediata conseguenza del Lemma 19.33 si ha il seguente

19.34 Corollario. Se A è una matrice ad elementi reali quadrata di ordine n avente n autovalori a
due a due distinti tra loro, allora esistono n autovettori di A linearmente indipendenti. Quindi, in tal
caso esiste sicuramente una base di Rn formata da autovettori della matrice A.

19.35 Teorema. Sia A una matrice ad elementi reali quadrata di ordine n.


Siano λ1, λ2, λ3, …, λs-1, λs s autovalori di A a due a due distinti tra loro, cioè i ≠ j ⇔ λi≠λj.

Se per ogni i∈{1, 2, 3, …, s} Hi1, Hi2, Hi3, ..., Himi sono mi autovettori relativi all’autovalore λi

tra loro linearmente indipendenti, allora gli autovettori


H11, H12, …, H1m1, H21, H22, …, H2m2, H31, H32, …, H3m3, ………….., Hs1, Hs2, …, Hsms

sono linearmente indipendenti.

160
Dimostrazione. Considerata una combinazione lineare di tutti gli autovettori
H11, H12, …, H1m1, H21, H22, …, H2m2, H31, H32, …, H3m3, ….., Hs1, Hs2, …, Hsms

si provi che se essa ha come risultato il vettore nullo, allora tutti i suoi coefficienti sono nulli.
s
(♥) Σ (αi1Hi1 + αi2Hi2 + αi3Hi3 + ….. + αimiHimi) = 0
i =1

Per ogni i∈{1, 2, 3, …, s} poniamo Ki = (αi1Hi1 + αi2Hi2 + αi3Hi3 + ….. + αimiHimi).

Poiché Hi1, Hi2, Hi3, ..., Himi∈E(λi) si ha che Ki∈E(λi) e, dalla (♥), che

s
(♣) Σ Ki = K1 + K2 + K3 + ….. + Ks = 0
i =1

Sia J := {j∈{1, 2, 3, …, s} | Kj ≠ 0}. Se fosse J ≠ ∅ allora per ogni j∈J (per l’Osservazione 19.24)

Kj sarebbe un autovettore relativo all’autovalore λj. Da (♣) si avrebbe Σ Kj = 0. Quest’ultima


j∈J

sarebbe una combinazione lineare (con tutti i coefficienti uguali a uno) di autovettori linearmente
indipendenti (per il Lemma 19.33) avente come risultato il vettore nullo. Essendo ciò un assurdo, si
ha che J = ∅, cioè per ogni i∈{1, 2, 3, …, s} è Ki = 0.

Quindi, per ogni i∈{1, 2, 3, …, s} è


αi1Hi1 + αi2Hi2 + αi3Hi3 + ….. + αimiHimi = 0

Poiché tali autovettori sono, per ipotesi, linearmente indipendenti, si ha che


∀i∈{1, 2, 3, …, s} αi1 = αi2 = αi3 = ….. = αimi = 0. 

161
Tenendo conto del Corollario 19.31 dal Teorema 19.35 si ha subito il seguente

19.36 Corollario. Sia A una matrice ad elementi reali quadrata di ordine n. Esiste una base di Rn
formata da autovettori di A se e solo se la somma delle molteplicità geometriche dei suoi autovalori
è uguale al suo ordine n.

Tenendo conto del Teorema 19.28 e dell’Osservazione 19.21 si ha il seguente

19.37 Teorema. Sia A una matrice ad elementi reali quadrata di ordine n. Esiste una base di Rn
formata da autovettori di A se e solo se sono soddisfatte entrambe le condizioni seguenti:
(1) le radici del polinomio caratteristico di A sono tutte reali (non ci sono radici complesse);
(2) per ogni autovalore la sua molteplicità algebrica è uguale alla sua molteplicità geometrica.

19.38 Esempio. Si considerino le matrici dell’Esercizio 19.17.


Tenendo conto di quanto già visto negli Esempi 19.30 e 19.31 si ha che
• ((2, 3, −1), (1, −1, 0), (0, 1, −1)) è una base di R3 formata da autovettori di A;
• mg(2) = 1 < 2 = ma(2) quindi, NON esiste una base di R3 formata da autovettori di B;

• ((1, 2, 3), (1, 0, −1), (0, 1, −1)) è una base di R3 formata da autovettori di C;
• mg(2) = 1 < 2 = ma(2) quindi, NON esiste una base di R4 formata da autovettori di D;

• ((−2, 1, 0, 0), (−3, 0, 0, 1), (0, 0, 1, 0), (1, −1, 0, 1)) è una base di R4 formata da autovettori di E;
• mg(3) = 2 < 4 = ma(3) quindi, NON esiste una base di R4 formata da autovettori di F;

Relativamente ad una matrice avente un solo autovalore reale (come la matrice F dell’Esempio
19.38) possiamo provare il seguente

19.39 Teorema. Sia A una matrice ad elementi reali quadrata di ordine n avente un solo autovalore
β. Esiste una base di Rn formata da autovettori di A se e solo se A = βIn.

Dimostrazione. Esiste una base di Rn formata da autovettori di A ⇔ se mg(β) = n ⇔

⇔ n − rg(A − βIn) = n ⇔ rg(A − βIn) = 0 ⇔ (A − βIn) = matrice nulla ⇔ A = βIn 

162
20. Diagonalizzazione di una matrice quadrata.

20.1 Definizione. Siano A e B due matrici ad elementi reali quadrate dello stesso ordine n.
Diremo che la matrice A è simile alla matrice B se esiste una matrice P ad elementi reali quadrata di
ordine n invertibile (cioè detP ≠ 0) tale che A = PBP-1, ovvero AP = PB.

20.2 Osservazione. Si prova subito che


20.2.1 ogni matrice è simile a se stessa;
20.2.3 se A è simile a B allora B è simile ad A;
20.2.3 se A è simile a B e B è simile a C allora A è simile a C.
Dimostrazione.
(1) ∃I : A = IAI = IAI-1;
(2) ∃P : A = PBP-1 ⇒ ∃P-1 : B = P-1AP = P-1A(P-1)-1;
(3) ∃P : A = PBP-1 , ∃Q : B = QCQ-1 ⇒ ∃PQ : A = P(QCQ-1)P-1 = (PQ)C(PQ)-1.

20.3 Osservazione. Se A e B sono simili allora hanno lo stesso determinante.


AP = PB ⇒ det(AP) = det(PB) ⇒ (detA)(detP) = (detP)(detB) ⇒ detA = detB

Ricordiamo che una matrice quadrata A = [aij] si dice diagonale se sono nulli tutti gli elementi che

non si trovano sulla sua diagonale principale, cioè i ≠ j ⇒ aij = 0.

Con il simbolo diag(λ1, λ2, λ3, ….., λn-1, λn) indicheremo una matrice ad elementi reali diagonale

di ordine n avente i numeri reali λ1, λ2, λ3, ….., λn-1, λn sulla sua diagonale principale.

20.4 Definizione. Sia A una matrice ad elementi reali quadrata di ordine n. Diremo che la matrice A
è diagonalizzabile se A è simile ad una matrice diagonale. Cioè, A è diagonalizzabile se esistono
una matrice P invertibile ed una matrice diagonale Λ = diag(λ1, λ2, λ3, λ4, ….., λn-1, λn) tali che

A = PΛP-1. ovvero AP = PΛ
In tal caso si dice anche che le matrici P e Λ diagonalizzano la matrice A.

20.5 Osservazione. Per l’Osservazione 20.2.2 si ha che una matrice diagonale è diagonalizzabile

163
20.6 Osservazione. Siano A e P due matrici ad elementi reali quadrate aventi lo stesso ordine n e
sia Λ = diag(λ1, λ2, λ3, λ4, ….., λn-1, λn) una matrice ad elementi reali diagonale di ordine n.
Tenendo conto di come è stato definito il prodotto riga per colonna si ha subito che:
20.6.1. per ogni indice di colonna j∈{1, 2, 3, …, n} si ha che la j-esima colonna della matrice
prodotto (AP) è uguale al prodotto della matrice A per la j-esima colonna della matrice P. Cioè,
(AP)j = A(Pj)
20.6.2. per ogni indice di colonna j∈{1, 2, 3, …, n} si ha che la j-esima colonna della matrice
prodotto (PΛ) è uguale al prodotto dello scalare λj per la j-esima colonna della matrice P. Cioè,

(PΛ)j = λjPj

Tenendo conto dell’Osservazione 20.6 si prova subito il seguente

20.7 Teorema. Una matrice A ad elementi reali quadrata di ordine n è diagonalizzabile se e solo se
esiste una base di Rn formata da autovettori di A.

Dimostrazione. A è diagonalizzabile ⇔
⇔ esistono una matrice P invertibile ed una matrice diagonale Λ tali che A = PΛP-1 ⇔
⇔ esistono una matrice P invertibile ed una matrice diagonale Λ tali che AP = PΛ ⇔
⇔ esistono una matrice P invertibile ed una matrice diagonale Λ tali che per ogni j∈{1,2,3,…,n}
la j-esima colonna di AP è uguale alla j-esima colonna di PΛ ⇔
⇔ esistono una matrice P invertibile ed una matrice diagonale Λ tali che per ogni j∈{1,2,3,…,n}
si ha (AP)j = (PΛ)j ⇔
⇔ esistono n colonne P1, P2, P3, ..., Pn linearmente indipendenti e n numeri reali λ1, λ2, λ3, ..., λn

tali che A(Pj) = (AP)j = (PΛ)j = λjPj ⇔

⇔ esistono n autovettori di A linearmente indipendenti ⇔


⇔ esiste una base di Rn formata da autovettori di A. 

20.8 Osservazione. Se esiste una base B di Rn formata da autovettori di A, nella dimostrazione del
Teorema 20.7 abbiamo visto un modo pratico per trovare una matrice diagonale Λ ed una matrice
invertibile P che diagonalizzano A. La matrice Λ = diag(λ1, λ2, λ3, λ4, ….., λn-1, λn) è la matrice
che ha sulla diagonale principale gli autovalori di A ognuno ripetuto tante volte quanto è la sua
molteplicità algebrica. La matrice P è la matrice che ha come colonna j-esima un autovettore della
base B relativo all’autovalore λj.

164
20.9 Esempio. Si consideri la matrice
2 1 1

A= 2 3 4  pA(λ) = −λ3 + 3λ2 + λ − 3 = (3 − λ)(λ − 1)(λ + 1)
− 1 − 1 − 2

Abbiamo già visto che gli autovettori di A sono


λ1 = 3 → H(λ1) = α(2, 3, −1) ∀α∈R−{0}

λ2 = 1 → H(λ2) = β(1, −1, 0) ∀β∈R−{0}

λ3 = −1 → H(λ3) = γ(0, 1, −1) ∀γ∈R−{0}

Scegliendo (a piacere) un autovettore per ogni autovalore, ad esempio H1 = (2,3,−1), H2 = (1,−1,0)

e H3 = (0,1,−1), si ottengono 3 autovettori linearmente indipendenti e, quindi, una base di R3.


Per il Teorema 20.7, la matrice A è diagonalizzabile. Infatti, prendendo le seguenti due matrici
λ1 0 0  3 0 0  2 1 0
Λ :=  0 λ 2 0  = 0 1 0  e P := [ H1 | H2 | H3 ] =  3 − 1 1 

 0 0 λ 3  0 0 −1 − 1 0 − 1

si ha che AP = PΛ ovvero A = PΛP-1.

20.10 Esempio. Si consideri la matrice


2 1 1 
C = 2 3 2 pC(λ) = −λ3 + 9λ2 − 15λ + 7 = (7 − λ)(λ − 1)2
3 3 4

Abbiamo già visto che gli autovettori di C sono


λ1 = 7 → H(λ1) = α(1, 2, 3) ∀α∈R−{0}

λ2 = 1 → H(λ2) = β(1, 0, −1) + γ(0, 1, −1) ∀β,γ∈R2−{(0,0)}

Scegliendo (a piacere) un autovettore per l’autovalore λ1, ad esempio H1 = (1,2,3), e (sempre a

piacere) due autovettori linearmente indipendenti per l’autovalore λ2, ad esempio H2 = (1,0,−1) e

H3 = (0,1,−1), si ottengono 3 autovettori linearmente indipendenti e, quindi, una base di R3.


Per il Teorema 20.7, la matrice C è diagonalizzabile. Infatti, prendendo le seguenti due matrici
λ1 0 0  7 0 0  1 1 0
Λ :=  0 λ 2 0  = 0 1 0 e P := [ H1 | H2 | H3 ] = 2 0 1 

 0 0 λ 2  0 0 1 3 − 1 − 1

si ha che CP = PΛ ovvero C = PΛP-1.

165
20.11 Esempio. Si consideri la matrice
1 2 0 3
− 1 − 2 0 − 3
E=  pE(λ) = λ4 − 4λ3 + 4λ2 = λ2(λ − 2)2
0 0 2 0
 
1 2 0 3
Abbiamo già visto che gli autovettori di E sono
λ1 = 0 → H(λ1) = α(−2, 1, 0, 0) + β(−3, 0, 0, 1) ∀α,β∈R2−{(0,0)}

λ2 = 2 → H(λ2) = γ(0, 0, 1, 0) + δ(1, −1, 0, 1) ∀γ,δ∈R2−{(0,0)}

Scegliendo (a piacere) due autovettori linearmente indipendenti per l’autovalore λ1, ad esempio

H1 = (−2,1,0,0) e H2 = (−3,0,0,1), e (sempre a piacere) due autovettori linearmente indipendenti per

l’autovalore λ2, ad esempio H3 = (0,0,1,0) e H4 = (1,−1,0,1), si ottengono 4 autovettori linearmente

indipendenti e, quindi, una base di R4.


Per il Teorema 20.7, la matrice E è diagonalizzabile. Infatti, prendendo le seguenti due matrici
λ1 0 0 0  0 0 0 0 − 2 − 3 0 1
0 λ 0 0  0 0 0 0 1 0 0 − 1
Λ :=  =  P := [ H1 | H2 | H3 | H4 ] = 
1
e
 0 0 λ2 0  0 0 2 0 0 0 1 0
     
0 0 0 λ 2  0 0 0 2 0 1 0 1

si ha che EP = PΛ ovvero E = PΛP-1.

Ricordiamo che (per l’Osservazione 20.5) una matrice diagonale è diagonalizzabile

a b 
20.12 Teorema. Sia A =   una matrice ad elementi reali quadrata di ordine 2 non diagonale.
c d 
La matrice A è diagonalizzabile se e solo se ha due autovalori distinti, ovvero [(a − d)2 + 4bc] > 0.

Dimostrazione. Si ha che pA(λ) = det(A − λI2) = (λ − a)(λ − d) − bc = λ2 − (a + d)λ + (ad − bc).

Il discriminante del polinomio pA(λ) è ∆ = (a + d)2 − 4(ad − bc) = (a − d)2 + 4bc.

Se ∆ > 0 allora A ha due autovalori distinti. Per cui, per il Corollario 19.34 esiste una base di R2
formata da autovettori di A. Quindi, per il Teorema 20.7 la matrice A è diagonalizzabile.
Se ∆ = 0 allora la matrice A ha un solo autovalore β avente molteplicità algebrica 2. Poiché A non è
uguale alla matrice diagonale βI2 (per il Teorema 19.39) la matrice A non è diagonalizzabile.

Se ∆ < 0 allora la matrice A non ha autovalori. Per cui, non esiste una base di R2 formata da
autovettori di A. Quindi, per il Teorema 20.7 la matrice A non è diagonalizzabile. 

166
 t ( t − 2) 
20.13 Esempio. Si consideri la matrice A =  .
2 2 
Determinare per quali valori del parametro reale t la matrice A è diagonalizzabile.
pA(λ) = λ2 − (t + 2)λ + 4 ∆ = t2 + 4t − 12 = (t + 6)(t − 2)

A è diagonalizzabile se e solo se ∆ > 0, cioè se e solo se t < −6 o t > 2.

 5 7 0
20.14 Esempio. Si consideri la matrice A=  0 h 0
- 2 k 3

Trovare i valori dei parametri reali h e k per i quali la matrice A è diagonalizzabile.


pA(λ) = (5 − λ)(h − λ)(3 − λ) λ1 = 5 λ2 = h λ3 = 3

∈R−
Per ogni h∈ −{3,5} la matrice A ha tre autovalori a due a due distinti tra loro e, quindi, per il
Corollario 19.34 esiste una base di R3 formata da autovettori di A, ovvero A è diagonalizzabile.
 5 7 0
Per h = 3 si ha la matrice A=  0 3 0 e i suoi autovalori sono λ1 = 5 e λ2 = 3. La molteplicità
- 2 k 3

geometrica di λ1 è 1 in quanto la sua molteplicità algebrica è 1. Affinché esista una base di R3


formata da autovettori di A è necessario e sufficiente che sia uguale a 2 anche la molteplicità
geometrica di λ2. Ricordando che mg(λ2) = dimE(λ2) = 3 − rg(A − λ2I3 ) e osservando che

 2 7 0
rg(A − λ2I3 ) = rg(A − 3I3 ) = rg  0 0 0
- 2 k 0

si ha che mg(λ2) = 2 se e solo se rg(A − λ2I3 ) = 1 ovvero se e solo se k = −7.

 5 7 0
Per h = 5 si ha la matrice A=  0 5 0 e i suoi autovalori sono λ1 = 5 e λ2 = 3. La molteplicità
- 2 k 3

geometrica di λ2 è 1 in quanto la sua molteplicità algebrica è 1. Osservando che

0 7 0
rg(A − λ1I3 ) = rg(A − 5I3 ) = rg  0 0 0 
- 2 k - 2

si ha che per ogni valore di k è rg(A − 5I3 ) = 2 ovvero è mg(λ1) = 1. Per cui non esiste una base di

R3 formata da autovettori di A che, quindi, non è diagonalizzabile.

167
20.15 Definizione. Una matrice C ad elementi reali quadrata C si dice ortogonale se CT = C−1.

20.16 Osservazione. Una matrice C ad elementi reali quadrata C è ortogonale se e solo se CTC= I.
Dimostrazione. Se C è ortogonale allora CTC = C−1C = I. Viceversa, se CTC= I allora detC ≠ 0 e,
quindi, C è invertibile. Si ha che CT = CTI = CT(CC−1) = (CTC)C−1 = IC−1 = C−1. 

20.17 Osservazione. Se a e b sono due numeri reali tali che a2 + b2 = 1, allora


∃!α∈(−π, π] : a = cosα , b = sinα

20.18 Teorema. Una matrice C ad elementi reali quadrata di ordine 2 è ortogonale se e solo se

cosθ − sin θ  cosθ sin θ 


∃!θ∈(−π, π] : C =   aut C = 
 sin θ cos θ   sin θ − cos θ 

Si osservi che nel primo caso è detC = 1 mentre nel secondo caso è detC = −1.
Si osservi, inoltre, che cambiando il segno della seconda colonna di una matrice del primo tipo si
ottiene una matrice del secondo tipo e viceversa.

Dimostrazione. (⇐) Si verifica subito che se C è una matrice del tipo


cosθ − sin θ  cosθ sin θ 
C=  aut C =
 sin θ cos θ   sin θ
 − cos θ 

allora in entrambe i casi si ha CT = C−1. Quindi, C è ortogonale.


x z 
(⇒) Sia, ora, C :=   una generica matrice ad elementi reali quadrata di ordine 2 ortogonale.
y w 

 x 2 + y2 = 1
x y   x z  1 0  2
Da CTC = C−1C = I si ha che  = ovvero il sistema: 2
z + w = 1
z w   y w  0 1 zx + wy = 0


Dall’equazione x2 + y2 = 1 si ha che ∃!θ∈(−π, π] : x = cosθ , y = sinθ.


Dall’equazione z2 + w2 = 1 si ha che ∃!ω∈(−π, π] : z = cosω , w = sinω.
Dall’ultima equazione zx + wy = 0 si ha che cosωcosθ + sinωsinθ = 0, da cui cos(ω − θ) = 0.
Per cui, ω − θ = ± π/2 ovvero ω = θ ± π/2.
cosθ − sin θ 
Se ω = θ + π/2 allora cosω = −sinθ e sinω = cosθ e, quindi, C =  .
 sin θ cos θ 

cosθ sin θ 
Se ω = θ − π/2 allora cosω = sinθ e sinω = −cosθ e, quindi, C =  . 
 sin θ − cos θ 

168
20.19 Definizione. Una matrice A ad elementi reali quadrata si dice simmetrica se AT = A.

20.20 Teorema. Una matrice A ad elementi reali quadrata simmetrica di ordine 2 è sempre
diagonalizzabile tramite una matrice ortogonale C con detC = 1.

Dimostrazione. Sia A una generica matrice ad elementi reali quadrata simmetrica di ordine 2.
a b 
A=  
b c 
Se b = 0 allora A è già una matrice diagonale. Se b ≠ 0 si consideri il polinomio caratteristico di A:
p (λ) = det(A−λI) = (a − λ)(c − λ) − b2 = λ2 − (a + c)λ + (ac − b2) (♥)
A

Poiché il suo discriminante ∆ = (a − c)2 + 4b2 è strettamente positivo, la matrice A ha due autovalori
λ1 e λ2 reali e distinti e, quindi, per il Teorema 20.12 la matrice A è diagonalizzabile.

Si ha anche che p (λ) = (λ − λ1)(λ − λ2) = λ2 − (λ1 + λ2)λ + λ1λ2 (♣)


A

Da (♥) e (♣) si ha che ac − b2 = λ1λ2 e a + c = λ1 + λ2 (♠)

Siano (x, y) e (z, w) due autovettori relativi a λ1 e λ2 rispettivamente. Quindi,

a − λ1 b   x1  0
(x, y) è un autosoluzione del sistema omogeneo  = .
 b c − λ1   x 2  0

a − λ2 b   x1  0
(z, w) è un autosoluzione del sistema omogeneo   x  = 0  .
 b c − λ2   2  
Per cui, (x, y) = m(b, λ1−a) e (z, w) = n(b, λ2− a) con m ed n costanti (a piacere) non nulle.

Si ha che xz + yw = mn[b2 + (λ1 − a)(λ2 − a)] = mn[b2 + λ1λ2 − a(λ1 + λ2) + a2] =

= per (♠) = mn[b2 + (ac − b2) − a(a + c) + a2] = mn[b2 + ac − b2− a2− ac + a2] = 0
Si ha che x2 + y2 = m2[b2 + (λ1 − a)2] e z2 + w2 = n2[b2 + (λ2 − a)2].

Scegliendo m = [b2 + (λ1 − a)2]1/2 e n = [b2 + (λ2 − a)2]1/2 si ha x2 + y2 = 1 e z2 + w2 = 1.

x z  T
Sia D =   la matrice che ha come colonne gli autovettori (x, y) e (z, w). Si ha che D D = I.
 y w 
x z  x − z 
Se detD = 1 allora sia C :=   . Se, invece, detD = −1 sia C := y − w  .
y w   
In ogni caso, C è ortogonale con detC = 1 e la seconda colonna di C è un autovettore relativo a λ2.

λ1 0  −1
Posto Λ :=  T
 si ha, poiché A è diagonalizzabile, che A = CΛC = CΛC . 
 0 λ2

169
 7 − 2
20.21 Esercizio. Si consideri la seguente matrice simmetrica A =  .
− 2 4 
Trovare una matrice diagonale Λ ed una matrice ortogonale C con detC = 1 che diagonalizzano A.
Gli autovalori di A sono λ1 = 3 e λ2 = 8.

Gli autovettori di λ1 = 3 sono v1 = α(1, 2) ∀α∈R−{0}.

Gli autovettori di λ2 = 8 sono v2 = β(−2, 1) ∀β∈R−{0}.

λ 0  3 0   α − 2β
Ponendo Λ =  1  =   e C=   si ha che A = CΛC−1.
 0 λ 2  0 8  2α β 

1 1 1 − 2
ORA, se scegliamo α = β = otteniamo C =   . Con tale scelta si ha che detC = +1
5 5 2 1 

e CT = C−1 ovvero C è una matrice ortogonale. Quindi, A = CΛCT, cioè

 7 − 2 1 1 − 2  3 0  1  1 2  1 1 − 2  3 0   1 2 
− 2 4  = ( 2 1  ) 0 8 ( − 2 1  ) = 5 2 1  0 8 − 2 1 
  5     5      

 2 3 3
20.22 Esercizio. Si consideri la seguente matrice simmetrica A =  
3 3 − 4 
Trovare una matrice diagonale Λ ed una matrice ortogonale C con detC = 1 che diagonalizzano A.
Gli autovalori di A sono λ1 = 5 e λ2 = −7.

Gli autovettori di λ1 = 5 sono v1 = α( 3 , 1) ∀α∈R−{0}.

Gli autovettori di λ2 = −7 sono v2 = β(−1, 3 ) ∀β∈R−{0}.

λ1 0  5 0  α 3 −β −1
Ponendo Λ =   =   e C=   si ha che A = CΛC .
 0 λ 2  0 − 7   α 3β

 3 1
1  − 
ORA, se scegliamo α = β = otteniamo C =  2 2  . Con tale scelta si ha che detC = +1 e
2  1 3
 2 2 

CT = C−1 ovvero C è una matrice ortogonale. Quindi, A = CΛCT, cioè

 3 1  3 1 
 2 3 3  −  5 0   
2 2  2 2 
  =   
3 3 − 4   1 3  0 − 7  − 1 3
 2 2   2 2 

170
f ' = 3f − 4g
20.23 Esercizio. Si consideri il sistema di equazioni differenziali 
g ' = −9f − 6g
 3 − 4 f   f '
Ponendo A :=   , X := g  e X’ := g ' , il sistema si può scrivere così X’ = AX.
− 9 − 6    
Relativamente alla matrice A si ha che
pA(λ) = λ2 + 3λ − 54 = (λ − 6)(λ + 9)

λ1 = 6 → H(λ1) = α(4, −3) ∀α∈R−{0}

λ2 = −9 → H(λ2) = β(1, 3) ∀β∈R−{0}


Quindi, la matrice A è diagonalizzabile tramite le seguenti matrici
6 0   4 1  p1 p2 
Λ=  P=  A = PΛP-1 Sia P-1 = 

0 − 9 

− 3 3  p3 p4 

Si ha che
 p1 p2  f   p1f + p 2g 
• P-1X =  g  =  p f + p g 
 p3 p4     3 4 

 p1 p2  f '  p1f '+ p2g' 


• P-1X’ =  =
 p3 p4  g ' p3f '+ p 4g'

Ponendo F := p1f + p2g , G := p3f + p4g si ha che F’ := p1f’ + p2g’ , G’ := p3f’ + p4g’

 p1 p2  f   p1f + p 2g   F 
• P-1X =  = =
 p3 p4  g  p3f + p 4g  G 

 p1 p2  f '  p1f '+ p2g'   F' 


• P-1X’ =  g ' = p f '+ p g' =
 p3 p4     3 4 
G '
 

F  F'  -1 -1
Ponendo Y :=   e Y’ = G ' si ha P X = Y e P X’ = Y’. Quindi, X = PY
G   
X’ = AX ⇒ X’ = (PΛP-1)X ⇒ X’ = PΛ(P-1X) ⇒ P-1X’ = Λ(P-1X) ⇒ Y’ = ΛY ⇒

 F'  6 0  F F' = 6F F = αe6 x  F   αe 6 x 


⇒   =   G  ⇒  ⇒  ⇒ G  =  − 9 x 
G ' 0 − 9   G ' = −9G G = β e −9 x   β e 

 f   4 1  F  f = 4F + G f = 4αe6 x + β e −9 x
X = PY ⇒   =    ⇒  ⇒ 
g  − 3 3 G  g = −3F + 3G g = −3αe6 x + 3β e−9 x

171
20.24 Esercizio. Si consideri l’equazione differenziale f’’ + 3f’ − 4f = 0.
f ' = 0f + 1g
Ponendo g := f’ si ha che g’ := f’’ e tale equazione è equivalente al sistema 
g ' = 4f − 3g
0 1  f   f '
Ponendo A :=   , X :=   e X’ :=   , il sistema si può scrivere così X’ = AX.
4 − 3 g  g '
Relativamente alla matrice A si ha che
pA(λ) = λ2 + 3λ − 4 = (λ − 1)(λ + 4)

λ1 = 1 → H(λ1) = α(1, 1) ∀α∈R−{0}

λ2 = −4 → H(λ2) = β(1, −4) ∀β∈R−{0}


Quindi, la matrice A è diagonalizzabile tramite le seguenti matrici
1 0  1 1   p1 p2 
Λ=  P=  A = PΛP-1 Sia P-1 = 

0 − 4 

1 − 4  p3 p4 

Si ha che
 p1 p2  f   p1f + p 2g 
• P-1X =  =
 p3 p4  g  p3f + p 4g 

 p1 p2  f '  p1f '+ p2g' 


• P-1X’ =  g ' = p f '+ p g'
 p3 p4     3 4 

Ponendo F := p1f + p2g , G := p3f + p4g si ha che F’ := p1f’ + p2g’ , G’ := p3f’ + p4g’

 p1 p2  f   p1f + p 2g   F 
• P-1X =  g  =  p f + p g  = G 
 p3 p4     3 4   

 p1 p2  f '  p1f '+ p2g'   F' 


• P-1X’ =  = =
 p3 p4  g ' p3f '+ p 4g' G '

F  F' 
Ponendo Y :=   e Y’ =   si ha P-1X = Y e P-1X’ = Y’. Quindi, X = PY
G  G '
X’ = AX ⇒ X’ = (PΛP-1)X ⇒ X’ = PΛ(P-1X) ⇒ P-1X’ = Λ(P-1X) ⇒ Y’ = ΛY ⇒

 F'  1 0   F  F' = F F = αe x  F   αe x 


⇒   =    ⇒  ⇒  ⇒ G  =  − 4 x 
G ' 0 − 4 G  G ' = −4G G = β e − 4 x   βe 

f  1 1   F  f = F + G f = αe x + βe − 4 x
X = PY ⇒   =    ⇒  ⇒ 
g  1 − 4 G  g = F − 4G g = αe x − 4β e − 4 x

Quindi, f = αex + βe-4x.

172
21. Geometria affine del piano.

21.1. Definizione. Sia π un piano e sia O un suo punto. Siano i e j due vettori liberi linearmente
indipendenti e paralleli al piano π. Diremo che la terna ordinata (O, i, j) è un riferimento affine del
piano e lo indicheremo col simbolo RA(O, i, j).

21.2. Osservazione. La coppia (i, j) è una base dello spazio U := <i, j> generato dai vettori i e j. Per
il Teorema di caratterizzazione di una base, si ha che per ogni punto P del piano π esiste un’unica
coppia ordinata di numeri reali (xP, yP) tali che [(OP)] = xPi+ yPj. Inoltre, per ogni coppia ordinata
di numeri reali (α, β) esiste un unico vettore libero t = αi + βj appartenente allo spazio U e, quindi,
sul piano π esiste un unico punto Q tale che [(OQ)] = t.

Tenendo conto dell’Osservazione 21.2 è ben posta la seguente

21.3. Definizione. La funzione biettiva che ad ogni punto P del piano associa l’unica coppia
(xP, yP) ordinata di numeri reali tali che [(OP)] = xPi+ yPj si dice coordinatizzazione dei punti del
piano rispetto al riferimento affine RA(O, i, j).

21.4. Definizione. L’unica coppia ordinata di numeri reali (xP, yP) associata al punto P tramite la
funzione di coordinatizzazione viene detta coppia di coordinate del punto P rispetto al riferimento
affine RA(O, i, j). Il primo e secondo elemento della coppia (xP, yP) vengono detti rispettivamente
ascissa e ordinata del punto P.
Inoltre, diremo brevemente “il punto P(xP, yp)” invece che “il punto P di coordinate (xP, yP)”.

21.5. Osservazione. Se P1(x1, y1) e P2(x2, y2) sono due punti dello piano, allora

[P1P2] = (x2 – x1)i + (y2 – y1)j

Dimostrazione. Per la Definizione 21.3 si ha che [OP1] = x1i + y1j e [OP2] = x2i + y2j.
Dall’identità vettoriale [OP1] + [P1P2] = [OP2] si ottiene [P1P2] = [OP2] – [OP1] da cui la tesi. 

Ovviamente, essendo sottointesa la base (i, j), possiamo identificare il vettore libero [P1P2] con la
coppia ordinata delle sue componenti, per cui scriveremo brevemente [P1P2] = (x2 – x1 , y2 – y1)

173
21.6. Teorema. (equazioni parametriche di una retta nel piano).
Per ogni retta r del piano esiste un sistema di equazioni lineari del tipo
x = lt + x 0
(♣) 
 y = mt + y 0
nelle incognite (x, y; t) con (l, m) ≠ (0, 0) tale che un punto P1(x1, y1) del piano appartiene alla retta
r se e solo se esiste t1∈R tale che la terna (x1, y1; t1) è una soluzione del sistema (♣).
Le equazioni del sistema (♣) si dicono equazioni parametriche della retta r (il parametro è t).
(l, m) sono le componenti di un vettore parallelo ad r e si dicono parametri direttori della retta.
Dimostrazione. Sia P0(x0, y0) un punto della retta r e sia v = li + mj un vettore libero non nullo
parallelo alla retta r. Quindi, (l, m) ≠ (0, 0). Se P1(x1, y1) è un generico punto del piano si ha che
P1∈r ⇔ [(P0P1)] e v sono paralleli ⇔ [(P0P1)] e v sono linearmente dipendenti ⇔
⇔ ∃t1∈R : [(P0P1)] = t1v ⇔ ∃t1∈R : (x1 – x0 , y1 – y0) = t1(l, m) ⇔

x − x 0 = lt1
⇔ ∃t1∈R : (x1 – x0 , y1 – y0) = (lt1, mt1) ⇔ ∃t1∈R :  1 ⇔
 y1 − y0 = mt1

x1 = lt1 + x 0 x = lt + x 0
⇔ ∃t1∈R :  ⇔ la terna (x1, y1; t1) è una soluzione del sistema  
 y1 = mt1 + y 0  y = mt + y 0

21.7. Corollario. (equazioni parametriche di una retta passante per due punti distinti).
Siano P0(x0, y0) e P1(x1, y1) sono due punti distinti di una retta r. Poiché il vettore [P0P1] ≠ 0 è
parallelo alla retta r, per la retta r si hanno subito le seguenti equazioni parametriche
x = ( x1− x 0 ) t + x 0

 y = ( y1 − y0 ) t + y 0

21.8. Lemma. (allineamento di tre punti).


Siano P1(x1, y1), P2(x2, y2) e P3(x3, y3) tre punti del piano.
 x − x y3 − y1 
P1, P2 e P3 sono allineati ⇔ det  3 1  =0
 x 2 − x1 y2 − y1 
Dimostrazione. Si ha che [P1P2] = (x2 – x1, y2 – y1) e [P1P3] = (x3 – x1, y3 – y1).
 x − x y3 − y1 
Sia H =  3 1  la matrice avente come righe le componenti dei vettori [P1P2] e [P1P3].
 x 2 − x1 y2 − y1 
I tre punti P1, P2 e P3 sono allineati ⇔ i due vettori [P1P2] e [P1P3] e sono paralleli ⇔
⇔ i due vettori [P1P2] e [P1P3] sono linearmente dipendenti ⇔
⇔ le due righe di H sono linearmente dipendenti ⇔ rg(H) < 2 ⇔ detH = 0. 

174
21.9. Osservazione. Tenendo conto delle seguenti uguaglianze
 x 3 − x1 y3 − x1 0  x3 y3 1
 x 3 − x1 y3 − y1 
det   = det  x 2 − x1 y 2 − y1 0 = det  x 2
  y 2 1
 x 2 − x1 y2 − y1   x1 y1 1  x1 y1 1

(si osservi ad essere uguali non sono le matrici ma solo i loro determinanti) si ha anche che
 x3 y3 1
P1, P2 e P3 sono allineati ⇔ det  x 2 y 2 1 = 0
 x1 y1 1

21.10. Teorema. (equazione cartesiana di una retta)


Per ogni retta r del piano esiste un’equazione lineare del tipo (♥) ax + by + c = 0 nelle incognite
(x, y) con (a, b) ≠ (0, 0) tale che un punto P3(x3, y3) del piano appartiene alla retta r se e solo se la
coppia (x3, y3) è una soluzione dell’equazione (♥). L’equazione (♥), che caratterizza i punti di r, si
dice equazione cartesiana della retta r. Inoltre, diremo brevemente “la retta r : ax + by + c = 0”
invece che “la retta r di equazione ax + by + c = 0”.

Dimostrazione. Siano P1(x1, y1) e P2(x2, y2) due punti distinti di r.


Sia P3(x3, y3) un punto del piano e sia H la matrice del Lemma 21.8. Il determinante di H è
detH = (x3 – x1)(y2 – y1) – (y3 – y1)(x2 – x1)
Ponendo a := (y2 – y1) e b : –(x2 – x1) = (x1 – x2) si ha che
detH = a(x3 – x1) + b(y3 – y1) = ax3 + by3 + (– ax1 – by1)
Ponendo c := – (ax1 + by1) si ha infine
detH = ax3 + by3 + c
Poichè, per ipotesi, i punti P1 e P2 sono distinti si ha che il vettore libero [P1P2] = (x2 – x1 , y2 – y1) è
non nullo. Quindi, (a, b) ≠ (0, 0). Ora, si osservi che
P3(x3, y3)∈r ⇔ P1, P2 e P3 sono allineati ⇔ (per il Lemma 21.8) ⇔ detH = 0 ⇔
⇔ ax3 + by3 + c = 0 ⇔ (x3, y3) è una soluzione di ax + by + c = 0. 

Viceversa, si potrebbe provare (omettiamo la dimostrazione) il seguente


21.11. Teorema. Per ogni equazione lineare del tipo (♥) ax + by + c = 0 con (a, b) ≠ (0, 0) esiste
una retta r del piano tale che la sua equazione cartesiana è proprio l’equazione (♥).

21.12. Osservazione. Se (♥) ax + by + c = 0 con (a, b) ≠ (0, 0) è l’equazione cartesiana di una retta
r del piano, allora per ogni scalare α non nullo l’equazione αax + αby + αc = 0 è equivalente
all’equazione (♥). Quindi, ognuna di esse rappresenta sempre la stessa retta.

175
21.13. Osservazione. (equazione cartesiana di una retta passante per due punti distinti)
Sia r la retta passante per i due punti distinti P1(x1, y1) e P2(x2, y2) del piano.
 x − x1 y − y1 
L’equazione cartesiana di r è data da det  =0
 x 2 − x1 y 2 − x1 

21.14. Teorema. (mutua posizione di due rette nel piano)


Siano r1 : a1x + b1y + c1 = 0 e r2 : a2x + b2y + c2 = 0 due rette.
 a1 b1   a1 b1 c1 
Ponendo A =   e C=  si ha che le due rette
a 2 b2  a 2 b2 c 2 

1) sono la stessa retta (r1 ≡ r2) ⇔ rgC = 1


2) non hanno punti in comune (r1 ∩ r2 = ∅) ⇔ rgC = 2 et rgA = 1
3) hanno un solo punto in comune (r1 ∩ r2 = {P}) ⇔ rgA = 2
Dimostrazione. Considerato il sistema lineare costituito dalle equazioni delle due rette si ha che A
è la matrice incompleta (matrice dei coefficienti) del sistema mentre C è quella completa.
Da (a1, b1) ≠ (0, 0) e (a2, b2) ≠ (0, 0) si ha che rgA ≥ 1.
Poiché 1 ≤ rgA ≤ 2 e rgA ≤ rgC ≤ min{2, (1+rgA)}, i casi possibili sono:
I) rgC = 1 (quindi anche rgA = 1)
II) rgC = 2 et rgA = 1
III) rgA = 2 (quindi anche rgC = 2)
I) rgC = 1 ⇔ ∃α∈R – {0} : (a2, b2, c2) = α(a1, b1, c1) ⇔
⇔ le equazioni delle due rette differiscono per un fattore moltiplicativo non nullo ⇔
⇔ le due equazioni sono equivalenti ⇔ le due rette sono la stessa retta.
Per cui è completamente provata la (1).
II) rgA = 1 ≠ 2 = rgC ⇔ il sistema non ha soluzioni ⇔ le due rette non hanno punti in comune.
Quindi, è completamente provata la (2).
III) rgA = 2 = rgC ⇔ il sistema è di Cramer ⇔ il sistema ha una sola soluzione ⇔
⇔ le due rette hanno un solo punto in comune
Quindi, è completamente provata anche la (3). 

21.15. Corollario. (condizione di parallelismo di due rette nel piano).


Due rette r1 : a1x + b1y + c1 = 0 e r2 : a2x + b2y + c2 = 0 sono parallele se e solo se esiste un numero
reale non nullo α tale che (a2, b2) = α(a1, b1).
Dimostrazione. Per il Teorema 21.14 si ha che due rette r1 e r2 sono parallele se e solo se rgA = 1,
quindi, se e solo se le righe di A sono linearmente dipendenti ovvero sono proporzionali. 

176
21.16. Definizione. Diremo fascio (improprio) di rette parallele alla retta r la totalità delle rette del
piano parallele ad r. Col simbolo ϕ(r) indicheremo l’insieme delle equazioni delle rette appartenenti
al fascio di rette parallele alla retta r.

21.17. Teorema. (equazione di un fascio di rette parallele ad una retta r)


Se r1 : a1x + b1y + c1 = 0 allora ϕ(r1) = {a1x + b1y + t = 0 | t∈R}.

Dimostrazione. Sia r2 : a2x + b2y + c2 = 0 una generica retta del piano.


r2∈ϕ(r1) ⇒ r2//r1 ⇒ (per il Corollario 21.15) ⇒ ∃α∈R–{0} : (a2, b2) = α(a1, b1) ⇒
⇒ r2 : αa1x + αb1y + c2 =0 ⇒ r2 : a1x + b1y + (c2/α) = 0.
Viceversa, se una retta r2 ha un’equazione del tipo a1x + b1y + c1 = 0 allora (per il Corollario
21.15) la retta r2 è parallela alla retta r1 e, quindi, r2∈ϕ(r). 

21.18. Definizione. Sia P0 un punto del piano. Diremo fascio (proprio) di rette di centro P0 la
totalità delle rette “passanti” per il punto P0. Col simbolo F(P0) indicheremo l’insieme delle
equazioni delle rette appartenenti al fascio di rette di centro P0.

21.19. Teorema. (equazione di un fascio di rette di centro P0)


Se P0(x0, y0) allora F(P0) = {a(x – x0) + b(y – y0) = 0 | (a, b)∈R2–{(0, 0)}}.

Dimostrazione. Sia r : ax + by + c = 0 una generica retta del piano π. Quindi, (a, b) ≠ (0, 0). La
retta r appartiene al fascio di rette di centro P0 se e solo se il punto P0 appartiene alla retta r ovvero
se e solo se vale l’identità seguente ax0 + by0 + c = 0 e, quindi, se e solo se c = – (ax0 + by0). 

21.20. Definizione. Siano r1 : a1x + b1y + c1 = 0 e r2 : a2x + b2y + c2 = 0 due rette del piano.
Con il simbolo Ω(r1, r2) indicheremo lo spazio delle soluzioni del sistema lineare omogeneo

a1x + a 2 y = 0

b1x + b 2 y = 0
Si noti che se r1 non è parallela a r2 ovvero i vettori (a1, b1) e (a2, b2) sono linearmente indipendenti
allora tale sistema non ha autosoluzioni e, quindi, è Ω(r1, r2) = {(0, 0)}.

21.21. Osservazione. Siano r1 : a1x + b1y + c1 = 0 e r2 : a2x + b2y + c2 = 0 due rette del piano.
L’equazione ottenuta combinando linearmente le equazioni a1x + b1y + c1 = 0 e a2x + b2y + c2 = 0
λ(a1x + b1y + c1) + µ(a2x + b2y + c2) = (λa1 + µa2)x + (λb1 + µb2)y + (λc1 + µc2) = 0
è una retta del piano se e solo se (λa1 + µa2, λb1 + µb2) ≠ (0, 0) ovvero la coppia (λ, µ)∉Ω(r1, r2).

177
21.22. Teorema.
Siano r1 : a1x + b1y + c1 = 0 e r2 : a2x + b2y + c2 = 0 due rette distinte del piano.
L’insieme H = {λ(a1x + b1y + c1) + µ(a2x + b2y + c2) = 0  (λ, µ)∉Ω(r1, r2)} è un fascio di rette.

Dimostrazione. Per l’Osservazione 21.21, H è un insieme di rette. Proviamo che è un fascio.


Intanto, osserviamo che se ω una generica retta dell’insieme H, allora la sua equazione è
λ(a1x + b1y + c1) + µ(a2x + b2y + c2) = (λa1 + µa2)x + (λb1 + µb2)y + (λc1 + µc2) = 0
(1 Caso - r1 è parallela a r2). Proviamo che H = ϕ(r1).
Se r1 // r2 allora (a2, b2) = α(a1, b1) con α ≠ 0 e, quindi, l’equazione di una retta ω∈H diventa
(λ + µα)a1x + (λ + µα)b1y + (λc1 + µc2) = 0
ovvero, dividendo per il numero reale (λ + µα) non nullo (poiché ω è una retta)
a1x + b1y + [(λc1 + µc2)/(λ + µα)] = 0
Quindi, ω // r1 per cui ω∈ϕ(r1). Così è provato che H ⊆ ϕ(r1).
Sia, ora, r3∈ϕ(r1), cioè r3 : a1x + b1y + t3 = 0 con t3∈R. Da r1 ≠ r2 si ha che c2 ≠ αc1 e, quindi, il

 x + αy = 1
sistema lineare  è di Cramer. Se (λ, µ) ≠ (0, 0) è la sua unica soluzione si ha che
c1x + c 2 y = t 3
r3 : (λ + µα)a1x + (λ + µα)b1y + (λc1 + µc2) = 0. Cioè r3∈H. Così e provato che ϕ(r1) ⊆ H.
(2 Caso - r1 non è parallela a r2). Proviamo che H = F(P0) con r1 ∩ r2 = {P0}.
Osserviamo che se P0(x0, y0) allora la soluzione (x0, y0) comune alle equazioni a1x + b1y + c1 = 0 e
a2x + b2y + c2 = 0 è anche soluzione dell’equazione λ(a1x + b1y + c1) + µ(a2x + b2y + c2) = 0.
Quindi, se ω∈H allora ω passa per il punto P0 per cui ω∈F(P0). Così e provato che H ⊆ F(P0).
Sia, ora, r3 : a3x + b3y + c3 = 0 una retta del piano passante per P0 cioè r3∈F(P0). Consideriamo il
seguente sistema lineare non omogeneo (poiché (a3, b3) ≠ (0, 0)) nelle incognite (x, y)
a1x + a 2 y = a 3

b1x + b 2 y = b3
Poiché r1 non è parallela a r2 i vettori (a1, b1) e (a2, b2) sono linearmente indipendenti. Quindi, tale
sistema è di Cramer. Sia (α, β) ≠ (0, 0) la sua unica soluzione. Poiché (α, β)∉{(0, 0)} = Ω(r1, r2) la
retta di r3 equazione α(a1x + b1y + c1) + β(a2x + b2y + c2) = a3x + b3y + (αc1 + βc2) = 0 è una retta
di H parallela alla retta r3. Da H ⊆ F(P0) si ha che ω∈F(P0). Quindi, r3 = ω (essendo due rette
parallele passanti per lo stesso punto P0). Per cui r3∈H. Così e provato che F(P0) ⊆ H. 

21.23. Corollario. Siano r1 : a1x + b1y + c1 = 0 e r2 : a2x + b2y + c2 = 0 due rette non parallele.
Indicato con P0 il loro punto d’intersezione si ha che

F(P0) = {λ(a1x + b1y + c1) + µ(a2x + b2y + c2) = 0  (λ, µ) ≠ (0, 0)}

178
22. Geometria affine dello spazio.

22.1. Definizione. Siano O un punto dello spazio e (i, j, k) una base dello spazio dei vettori liberi.
Diremo che la quaterna ordinata (O, i, j, k) è un riferimento affine dello spazio e la indicheremo col
simbolo RA(O, i, j, k).

22.2. Osservazione. Per il Teorema di caratterizzazione di una base, si ha che per ogni punto P1
dello spazio esiste un’unica terna ordinata di numeri reali (x1, y1, z1) tali che il vettore libero
[OP1] = x1i+ y1j + z1k. Inoltre, per ogni terna ordinata (x2, y2, z2) esiste un unico vettore libero
t = x2i+ y2j + z2k e, nello spazio, esiste un unico punto P2 tale che il vettore [OP2] = t.

Tenendo conto dell’Osservazione 22.2 è ben posta la seguente

22.3. Definizione. La funzione biettiva che ad ogni punto P1 dello spazio associa l’unica terna
(x1, y1, z1) ordinata di numeri reali tali che [OP1] = x1i+ y1j + z1k si dice coordinatizzazione dei
punti dello spazio rispetto al riferimento affine RA(O, i, j, k).

22.4. Definizione. L’unica terna ordinata di numeri reali (x1, y1, z1) associata al punto P1 tramite la
funzione di coordinatizzazione viene detta terna delle coordinate del punto P1 rispetto al riferimento
affine RA(O, i, j, k). Il primo, secondo e terzo elemento della terna (x1, y1, z1) vengono detti
rispettivamente ascissa, ordinata e quota del punto P1.
Inoltre, scriveremo brevemente P1(x1, y1, z1) invece che “il punto P1 di coordinate (x1, y1, z1)”.

22.5. Osservazione. Se P1(x1, y1, z1) e P2(x2, y2, z2) sono due punti dello spazio, allora

[P1P2] = (x2 – x1)i + (y2 – y1)j + (z2 – z1)k

Dimostrazione. Si ha che [OP1] = x1i + y1j + z1k e [OP2] = x2i + y2j + z2k.
Dalla relazione vettoriale [OP1] + [P1P2] = [OP2] si ottiene [P1P2] = [OP2] – [OP1] da cui la tesi. 

Ovviamente, essendo sottointesa la base (i, j, k), possiamo identificare il vettore [P1P2] con la terna
ordinata delle sue componenti, per cui scriveremo brevemente [P1P2] = (x2 – x1 , y2 – y1 , z2 – z1)

179
22.6. Lemma. (complanarità di 4 punti).
Siano P1(x1, y1, z1), P2(x2, y2, z2), P3(x3, y3, z3) e P4(x4, y4, z4) quattro punti dello spazio.
 x 4 − x1 y 4 − y1 z 4 − z1 
P1, P2, P3 e P4 sono complanari ⇔ det  x 3 − x1 y3 − y1 z3 − z1  = 0
 x 2 − x1 y 2 − y1 z 2 − z1 

Dimostrazione. Si ha che [P1P2] = (x2 – x1, y2 – y1, z2 – z1), [P1P3] = (x3 – x1, y3 – y1, z3 – z1) e
[P1P4] = (x4 – x1, y4 – y1, z4 – z1).
Sia H la matrice avente come righe le componenti dei tre vettori [P1P2], [P1P3] e [P1P4], cioè
 x 4 − x1 y 4 − y1 z 4 − z1 
H =  x 3 − x1 y3 − y1 z3 − z1 
 x 2 − x1 y 2 − y1 z 2 − z1 

I quattro punti P1, P2, P3 e P4 sono complanari ⇔


⇔ i tre vettori [P1P2], [P1P3] e [P1P4] sono complanari ⇔
⇔ i tre vettori [P1P2], [P1P3] e [P1P4] linearmente dipendenti ⇔
⇔ le tre righe di H sono linearmente dipendenti ⇔ rg(H) < 3 ⇔ detH = 0. 

22.7. Osservazione. Tenendo conto delle seguenti uguaglianze


 x 4 − x1 y 4 − y1 z 4 − z1 0 x 4 y4 z4 1
 x 4 − x1 y 4 − y1 z 4 − z1  x − x y − y z − z  x
0 y3 z3 1
det  x 3 − x1 
y3 − y1 z3 − z1  = det  3 1 = det  3
3 1 3 1
 x 2 − x1 y 2 − y1 z 2 − z1 0 x 2 y2 z2 1
 x 2 − x1 y 2 − y1 z 2 − z1     
 x1 y1 z1 1  x1 y1 z1 1

(si osservi ad essere uguali non sono le matrici ma solo i loro determinanti) si ha anche che
x 4 y4 z4 1
x y3 z3 1
P1, P2, P3 e P4 sono complanari ⇔ det 
3
=0
x 2 y2 z2 1
 
 x1 y1 z1 1

22.8. Teorema. (equazione cartesiana di un piano)


Per ogni piano π dello spazio esiste un’equazione lineare del tipo (♥) ax + by + cz + d = 0 nelle
incognite (x, y, z) con (a, b, c) ≠ (0, 0, 0) tale che un punto P4(x4, y4, z4) dello spazio appartiene al
piano π se e solo se la terna (x4, y4, z4) è una soluzione dell’equazione (♥).L’equazione (♥), che
caratterizza i punti di π si dice equazione cartesiana del piano π. Inoltre, diremo brevemente “il
piano π : ax + by + cz + d = 0” invece che “ il piano π di equazione ax + by + cz + d = 0”.

180
Dimostrazione. Siano P1(x1, y1, z1), P2(x2, y2, z2) e P3(x3, y3, z3) tre punti non allineati di π.
Sia P4(x4, y4, z4) un punto dello spazio e sia H la matrice del Lemma 22.6.
Sviluppando il determinante di H secondo la sua prima riga si ottiene che
detH = (x4 – x1)detH11 – (y4 – y1)detH12 + (z4 – z1)detH13
Ponendo a := detH11 , b : –detH12 e c := detH13 si ha che
detH = a(x4 – x1) + b(y4 – y1) + c(z4 – z1)
da cui
detH = ax4 + by4 + cz4 + (– ax1 – by1 – cz1)
Ponendo d := – (ax1 + by1 + cz1) si ha infine
detH = ax4 + by4 + cz4 + d
Poichè, per ipotesi, i tre punti P1, P2 e P3 non sono allineati si ha che i vettori liberi [P1P2] e [P1P3]
non sono paralleli e, quindi, sono linearmente indipendenti. Per cui la matrice
 x 3 − x1 y3 − y1 z3 − z1 
x − x y − y z − z 
 2 1 2 1 2 1

ha rango uguale a due. Quindi, (detH11, detH12, detH13) ≠ (0, 0, 0) da cui (a, b, c) ≠ (0, 0, 0).
Ora, si osservi che
P4(x4, y4, z4)∈π ⇔ P1, P2, P3 e P4 sono complanari ⇔ (per il Lemma 22.6) ⇔ detH = 0 ⇔
⇔ ax4 + by4 + cz4 + d = 0 ⇔ (x4, y4, z4) è una soluzione di ax + by + cz + d = 0. 

Viceversa, si potrebbe provare (omettiamo la dimostrazione) il seguente

22.9. Teorema. Per ogni equazione lineare del tipo (♥) ax + by + cz + d = 0 con (a, b, c) ≠ (0, 0, 0)
esiste un piano π tale che la sua equazione cartesiana è proprio l’equazione (♥).

22.10. Osservazione. Se (♥) ax + by + cz + d = 0 con (a, b, c) ≠ (0, 0, 0) è l’equazione cartesiana


di un piano π, allora per ogni scalare α non nullo l’equazione αax + αby + αcz + αd = 0 è
equivalente all’equazione (♥). Quindi, ognuna di esse rappresenta sempre lo stesso piano.

22.11. Osservazione. (equazione di un piano passante per tre punti non allineati)
Sia π il piano passante per i tre punti non allineati P1(x1, y1, z1), P2(x2, y2, z2) e P3(x3, y3, z3).

 x − x1 y − y1 z − z1 
L’equazione cartesiana π è data da det  x 3 − x1 y3 − y1 z3 − z1  = 0

 x 2 − x1 y2 − y1 z 2 − z1 

181
22.12. Definizione. Sia P0 un punto dello spazio. Diremo stella di piani di centro P0 la totalità dei
piani “passanti” per il punto P0. Col simbolo S(P0) indicheremo l’insieme delle equazioni dei piani
della stella di piani di centro P0.

22.13. Osservazione. Un piano π appartiene alla stella di piani di centro P0 se e solo se il punto P0
appartiene al piano π.

22.14. Teorema. (equazione di una stella di piani)


Se P0(x0, y0, z0) allora S(P0)= {a(x – x0) + b(y – y0) + c(z – z0) = 0 | (a,b,c)∈R3–{(0,0,0)}}.

Dimostrazione. Sia π : ax + by + cz + d = 0 un generico piano dello spazio. Il piano π appartiene


alla stella S(P0) se e solo se il punto P0 appartiene al piano π ovvero se e solo se vale l’identità
seguente ax0 + by0 + cz0 + d = 0 e, quindi, se e solo se d = – (ax0 + by0 + cz0). 

22.15. Teorema. (mutua posizione di due piani)


Siano π1 : a1x + b1y + c1z + d1 = 0 e π2 : a2x + b2y + c2z + d2 = 0 due piani.

a b1 c1  a b1 c1 d1 
Ponendo A =  1  e C=  1 si ha che
a 2 b2 c2  a 2 b2 c2 d 2 

1) i due piani sono lo stesso piano (π1 ≡ π2) ⇔ rgC = 1


2) i due piani non hanno alcun punto in comune (π1 ∩ π2 = ∅) ⇔ rgC = 2 et rgA = 1
3) i due piani hanno una retta in comune (π1 ∩ π2 = r) ⇔ rgA = 2

Dimostrazione. Considerato il sistema lineare costituito dalle equazioni dei due piani si ha che A è
la matrice incompleta (matrice dei coefficienti) del sistema mentre C è quella completa.
Da (a1, b1, c1) ≠ (0, 0, 0) e (a2, b2, c2) ≠ (0, 0, 0) si ha che rgA ≥ 1.
Poiché 1 ≤ rgA ≤ 2 e rgA ≤ rgC ≤ min{2, (1+rgA)}, i casi possibili sono:
I) rgC = 1 (quindi anche rgA = 1)
II) rgC = 2 et rgA = 1
III) rgA = 2 (quindi anche rgC = 2)
I) rgC = 1 ⇔ ∃α∈R – {0} : (a2, b2, c2, d2) = α(a1, b1, c1, d1) ⇔
⇔ le equazioni dei due piani differiscono per un fattore moltiplicativo non nullo ⇔
⇔ le due equazioni sono equivalenti ⇔ i due piani sono lo stesso piano.
Per cui è completamente provata la (1).
II) rgA = 1 ≠ 2 = rgC ⇔ il sistema non ha soluzioni ⇔ i piani non hanno punti in comune.
Quindi, è completamente provata la (2).

182
III) Se rgA = 2 = rgC, allora il sistema ha infinite soluzioni. Quindi, i due piani hanno infiniti punti
in comune. Inoltre, essendo rgC ≠ 1, per la (1) i due piani sono distinti per cui sono incidenti in una
retta. Viceversa, se due piani hanno una retta in comune, allora (avendo già provato completamente
i casi precedenti) deve per forza essere rgA = 2. Quindi, è completamente provata anche la (3). 

22.16. Definizione. Diremo che due piani π1 e π2 sono paralleli se sono lo stesso piano (π1 ≡ π2)
oppure non hanno alcun punto in comune (π1 ∩ π2 = ∅).

22.17. Corollario. Due piani π1 : a1x + b1y + c1z + d1 = 0 e π2 : a2x + b2y + c2z + d2 = 0 sono
paralleli se e solo se esiste un numero reale non nullo α tale che (a2, b2, c2) = α(a1, b1, c1).

Dimostrazione. Per il Teorema 22.15 si ha che i piani π1 e π2 sono paralleli se e solo se rgA = 1,
quindi, se e solo se le righe di A sono linearmente dipendenti ovvero sono proporzionali. 

22.18. Definizione. Diremo fascio (improprio) di piani paralleli al piano π1 la totalità dei piani
paralleli a π1. Col simbolo F(π1) indicheremo l’insieme delle equazioni dei piani del fascio di piani
paralleli a π1.

22.19. Teorema. (equazione di un fascio improprio di piani)


Se π1 : a1x + b1y + c1z + d1 = 0 allora F(π1) = {a1x + b1y + c1z + t = 0 | t∈R}.

Dimostrazione. Sia π2 : a2x + b2y + c2z + d2 = 0 un generico piano dello spazio.


π2∈F(π1) ⇒ π2//π1 ⇒ (per il Corollario 22.17) ⇒ ∃α∈R–{0} : (a2, b2, c2) = α(a1, b1, c1) ⇒
⇒ π2 : αa1x + αb1y + αc1z + d2 =0 ⇒ π2 : a1x + b1y + c1z + (d2/α) = 0.
Viceversa, se un piano π2 ha un’equazione del tipo a1x + b1y + c1z + t = 0 allora (per il Corollario
22.17) il piano π2 è parallelo al piano π1 e, quindi, π2∈F(π1). 

22.20. Osservazione. (equazioni cartesiane di una retta)


Tenendo conto della (3) del Teorema 22.15 si ha che nello spazio è possibile rappresentare tutti e
soli i punti di una retta (e, quindi, la retta stessa) come l’insieme delle soluzioni (punti) di un
sistema lineare costituito dalle equazioni di due piani π1 e π2 tali che rgA = 2.
Per cui scriveremo r : a1x + b1y + c1z + d1 = a2x + b2y + c2z + d2 = 0.
Le due equazioni lineari a1x + b1y + c1z + d1 = 0 e a2x + b2y + c2z + d2 = 0 vengono dette equazioni
cartesiane della retta r. Ovviamente, poiché sono infiniti i piani (e, quindi, le loro equazioni)
contenenti la retta r, ad una retta è possibile associare infinite coppie di equazioni cartesiane.

183
22.21. Teorema. (mutua posizione di una retta e un piano).
Siano r una retta di equazioni a1x + b1y + c1z + d1 = a2x + b2y + c2z + d2 = 0
e π un piano di equazione a3x + b3y + c3z + d3 = 0.

 a1 b1 c1   a1 b1 c1 d1 
Ponendo A = a 2 b2 c 2  e C = a
 2 b2 c2 d 2  si ha che
a 3 b3 c3  a 3 b3 c3 d3 

1) r è contenuta in π (r ⊂ π) ⇔ rgC = 2
2) r e π non hanno alcun punto in comune (r ∩ π = ∅) ⇔ rgA = 2 et 3 = rgC
3) r è incidente π in un punto (r ∩ π = {P}) ⇔ rgA = 3

Dimostrazione. Considerato il sistema lineare costituito dalle due equazioni lineari della retta e
dall’equazione lineare del piano si ha che A è la matrice incompleta (matrice dei coefficienti) del
sistema mentre C è quella completa.
Poiché 2 ≤ rgA ≤ 3 e rgA ≤ rgC ≤ min{3, 1 + rgA} i casi possibili sono:
1) rgA = 2 = rgC ⇔ il sistema ha infinite soluzioni ⇔
⇔ r e π hanno infiniti punti in comune ⇔ r è contenuta in π;
2) rgA = 2 ≠ 3 = rgC ⇔ il sistema non ha alcuna soluzione ⇔
⇔ r e π non hanno alcun punto in comune;
3) rgA = 3 = rgC ⇔ il sistema è di Cramer ⇔ il sistema ha una sola soluzione ⇔
⇔ r e π hanno un solo punto P in comune ⇔ r è incidente π in un punto P. 

22.22. Definizione. Diremo che una retta r e un piano π sono paralleli se non hanno alcun punto in
comune (r ∩ π = ∅) oppure la retta è contenuta nel piano (r ⊂ π).

22.23. Corollario. (condizione di parallelismo retta-piano con le equazioni cartesiane)


Una retta r : a1x + b1y + c1z + d1 = a2x + b2y + c2z + d2 = 0 e un piano π : a3x + b3y + c3z + d3 = 0
sono paralleli se e solo se
 a1 b1 c1 
det a 2 b2 c 2  = 0
a 3 b3 c3 

22.24. Definizione. Diremo fascio (proprio) dei piani per la retta r la totalità dei piani contenenti la
retta r. Col simbolo F(r) indicheremo l’insieme delle equazioni di un fascio di piani per la retta r.

184
22.25. Lemma. Se π1 : a1x + b1y + c1z + d1 = 0 e π2 : a2x + b2y + c2z + d2 = 0 sono due piani non
paralleli, allora per ogni coppia (λ, µ)∈R2–{(0, 0)} l’equazione
ω : λ(a1x + b1y + c1z + d1) + µ(a2x + b2y + c2z + d2) = 0
rappresenta sempre un piano.
Dimostrazione. Riscriviamo l’equazione ω nel modo seguente:
ω : (λa1 + µa2)x + (λb1 + µb2)y + (λc1 + µc2)z + (λd1 + µd2) = 0
Poiché i due piani non sono paralleli, i vettori (a1, b1, c1) e (a2, b2, c2) sono linearmente indipendenti.
Quindi, la matrice dei coefficienti del sistema lineare omogeneo nelle incognite (x, y)
a1x + a 2 y = 0

b1x + b 2 y = 0
c x + c y = 0
 1 2

ha rango 2 uguale al numero delle incognite. Per cui il sistema non ha autosoluzioni. Essendo
(λ, µ) ≠ (0, 0) si ha che (λa1 + µa2 , λb1 + µb2 , λc1 + µc2) ≠ (0, 0, 0). Dunque, ω è un piano. 

22.26. Teorema. (equazione di un fascio proprio di piani)


Se r è una retta di equazioni cartesiane a1x + b1y + c1z + d1 = a2x + b2y + c2z + d2 = 0 allora

F(r) = {λ(a1x + b1y + c1z + d1) + µ(a2x + b2y + c2z + d2) = 0  (λ, µ)∈R2–{(0, 0)}}.

Dimostrazione. Posto
H := {λ(a1x + b1y + c1z + d1) + µ(a2x + b2y + c2z + d2) = 0  (λ, µ)∈R2–{(0, 0)}}.
per il Lemma 22.25, H è un insieme di piani. Proviamo che H = F(r).
Sia ω∈H, cioè ω : λ(a1x + b1y + c1z + d1) + µ(a2x + b2y + c2z + d2) = 0.
Osserviamo che ogni soluzione (x0, y0, z0) comune alle equazioni della retta r è anche una soluzione
dell’equazione del piano ω, cioè ogni punto di r appartiene al piano ω. Quindi, la retta r è contenuta
nel piano ω. Per cui ω∈F(r). Abbiamo così provato che H ⊆ F(r).
Sia ora π : a3x + b3y + c3z + d3 = 0 l’equazione di un piano di F(r). Il seguente sistema lineare non

a1x + a 2 y = a 3 a1 a 2  a1 a 2 a3 



omogeneo b1x + b 2 y = b3 si ha rg b1 b 2  = 2 e rg b1 b 2
  b3  = 2 (poiché r ⊂ π). Quindi,
c x + c y = c c1 c 2  c1 c2 c3 
1 2 3

tale sistema è equivalente ad un sistema di Cramer. Sia (α, β) ≠ (0, 0) la sua unica soluzione. Sia ω
il piano di H di equazione (αa1 + βa2)x + (αb1 + βb2)y + (αc1 + βc2)z + (αd1 + βd2) = 0. Quindi,
ω : a3x + b3y + c3z + (αd1 + βd2) = 0. Per cui ω e π sono paralleli. Da r ⊂ π ∩ ω si ha che π ≡ ω.
Dunque, il piano π appartiene all’insieme H. Abbiamo così provato che F(r) ⊆ H. 

185
22.27. Osservazione. Siano π1 : a1x + b1y + c1z + d1 = 0 e π2 : a2x + b2y + c2z + d2 = 0 due piani
non paralleli e sia r = π1 ∩ π2 : a1x + b1y + c1z + d1 = a2x + b2y + c2z + d2 = 0. Poniamo
Ur := L((a1, b1, c1), (a2, b2, c2)) ≤ R3
Abbiamo già visto che per ogni coppia (λ, µ)∈R2–{(0, 0)} l’equazione
ω : (λa1 + µa2)x + (λb1 + µb2)y + (λc1 + µc2)z + (λd1 + µd2) = 0
rappresenta sempre un piano di F(r).
Se (a3, b3, c3) = λ(a1, b1, c1) + µ(a2, b2, c2) e (a4, b4, c4) = λ’(a1, b1, c1) + µ’(a2, b2, c2) allora i piani
π3 : a3x + b3y + c3z + (λd1 + µd2) = 0 e π4 : a4x + b4y + c4z + (λ’d1 + µ’d2) = 0 appartengono a F(r).
Se (a3, b3, c3) e (a4, b4, c4) sono linearmente indipendenti allora r può anche essere rappresentata
con le equazioni cartesiane r : a3x + b3y + c3z + (λd1 + µd2) = a4x + b4y + c4z + (λ’d1 + µ’d2) = 0

22.28. Lemma. Siano π1 : a1x + b1y + c1z + d1 = 0 e π2 : a2x + b2y + c2z + d2 = 0 due piani non
paralleli e sia r = π1 ∩ π2 : a1x + b1y + c1z + d1 = a2x + b2y + c2z + d2 = 0.
Siano π3 : a3x + b3y + c3z + d3 = 0 e π4 : a4x + b4y + c4z + d4 = 0 due piani non paralleli e sia
s = π3 ∩ π4 : a3x + b3y + c3z + d3 = a4x + b4y + c4z + d4 = 0.
Le rette r e s sono parallele se e solo se Us = Ur.
Dimostrazione. Poiché la retta r è parallela alla retta s = π3∩π4 esistono due piani distinti π5 e π6 di
F(r) tali che π5 // π3 e π6 // π4 cioè, π5 : a3x + b3y + c3z + d5 = 0 e π6 : a4x + b4y + c4z + d6 = 0. Da
r : a3x + b3y + c3z + d5 = a4x + b4y + c4z + d6 = 0 si ha che Ur = L((a3, b3, c3), (a4, b4, c4)) = Us.
Viceversa, se Us = Ur allora (a3, b3, c3),(a4, b4, c4)∈L((a1, b1, c1), (a2, b2, c2)). Quindi,
(a3, b3, c3) = λ(a1, b1, c1) + µ(a2, b2, c2) e (a4, b4, c4) = λ’(a1, b1, c1) + µ’(a2, b2, c2)
Poiché (a3, b3, c3) e (a4, b4, c4) sono linearmente indipendenti allora la retta r può anche essere
rappresentata come l’intersezione dei piani
π5 : a3x + b3y + c3z + (λd1 + µd2) = 0 e π6 : a4x + b4y + c4z + (λ’d1 + µ’d2) = 0
Da r = π5 ∩ π6 , s = π3 ∩ π4 , π5 // π3 e π6 // π4 si ha che r // s. 

22.29. Corollario. Due rette


r : a1x + b1y + c1z + d1 = a2x + b2y + c2z + d2 = 0
s : a3x + b3y + c3z + d3 = a4x + b4y + c4z + d4 = 0
a1 b1 c1 
a b2 c 2 
sono parallele se e solo se rg 
2
= 2.
a 3 b3 c3 
 
a 4 b4 c4 

186
22.30. Teorema. (mutua posizione di due rette nello spazio).
Consideriamo due rette r : a1x + b1y + c1z + d1 = a2x + b2y + c2z + d2 = 0 e
s : a3x + b3y + c3z + d3 = a4x + b4y + c4z + d4 = 0.
a1 b1 c1  a1 b1 c1 d1 
a b2 c 2  a b2 c2 d 2 
Ponendo A =   2
2
e C= si ha che le due rette sono
a 3 b3 c3  a 3 b3 c3 d3 
   
a 4 b4 c4  a 4 b4 c4 d4 

1) coincidenti ⇔ rgC = 2
2) parallele in senso stretto ⇔ rgA = 2 ≠ 3 = rgC
3) incidenti in un punto ⇔ rgA = 3 = rgC
4) sghembe ⇔ rgC = 4

Dimostrazione. Poichè 2 ≤ rgA ≤ 3 e rgA ≤ rgC ≤ (1 + rgA) i casi possibili sono:


1) rgA = 2 = rgC ⇔ il sistema ha infinite soluzioni ⇔
⇔ le due rette hanno infiniti punti in comune ⇔ le due rette sono la stessa retta.
2) rgA = 2 ≠ 3 = rgC ⇔ le rette sono parallele e il sistema non ha soluzioni ⇔
⇔ le rette sono parallele e non hanno punti in comune ⇔
⇔ le rette sono parallele in senso stretto.
3) rgA = 3 = rgC ⇔ il sistema è equivalente ad un sistema di Cramer ⇔
⇔ il sistema ha una sola soluzione ⇔ le due rette hanno un solo punto in comune.
4) rgA = 3 ≠ 4 = rgC ⇔ le rette non sono parallele e il sistema non ha soluzioni ⇔
⇔ le rette non sono parallele e non hanno punti in comune ⇔
⇔ le rette sono sghembe. 

22.31. Corollario. Due rette


r : a1x + b1y + c1z + d1 = a2x + b2y + c2z + d2 = 0
s : a3x + b3y + c3z + d3 = a4x + b4y + c4z + d4 = 0
a1 b1 c1 d1 
a b2 c2 d 2 
sono complanari se e solo se det  2 = 0.
a 3 b3 c3 d3 
 
a 4 b4 c4 d4 

187
22.32. Teorema. (equazioni parametriche di una retta nello spazio).
Per ogni retta r dello spazio esiste un sistema di equazioni lineari del tipo
x = lt + x 0

(♣)  y = mt + y0
z = nt + z
 0

nelle incognite (x, y, z; t) con (l, m, n) ≠ (0, 0, 0) tale che un punto P1(x1, y1, z1) appartiene alla
retta r se e solo se esiste t1∈R tale che la quaterna (x1, y1, z1; t1) è una soluzione del sistema (♣).
Le equazioni del sistema (♣) si dicono equazioni parametriche della retta r (il parametro è t).
(l, m, n) sono le componenti di un vettore parallelo ad r e si dicono parametri direttori della retta.

Dimostrazione. Sia P0(x0, y0, z0) un punto della retta r e sia v = li + mj + nk un vettore libero non
nullo parallelo alla retta r. Quindi, (l, m, n) ≠ (0, 0, 0). Se P1(x1, y1, z1) è un generico punto dello
spazio si ha che
P1∈r ⇔ [(P0P1)] e v sono paralleli ⇔ [(P0P1)] e v sono linearmente dipendenti ⇔
⇔ ∃t1∈R : [(P0P1)] = t1v ⇔ ∃t1∈R : (x1 – x0, y1 – y0, z1 – z0) = t1(l, m, n) ⇔

x − x 0 = lt1

⇔ ∃t1∈R : (x1 – x0, y1 – y0, z1 – z0) = (lt1, mt1, nt1) ⇔ ∃t1∈R :  y − y0 = mt1 ⇔
z − z = nt
 0 1

x = lt1 + x 0 x = lt + x 0
 
⇔ ∃t1∈R :  y = mt1 + y0 ⇔ la terna (x1, y1; t1) è una soluzione del sistema  y = mt + y0 
z = nt + z z = nt + z
 1 0  0

22.33. Corollario. (equazioni parametriche di una retta dello spazio per due punti distinti).
Siano P0(x0, y0, z0) e P1(x1, y1, z1) sono due punti distinti di una retta r. Poiché il vettore [P0P1] ≠ 0
è parallelo alla retta r, per la retta r si hanno subito le seguenti equazioni parametriche
x = ( x1 − x 0 ) t + x 0

r :  y = ( y1 − y0 ) t + y0
z = ( z − z ) t + z
 1 0 0

Tenendo conto del significato dei parametri direttori di una retta si ha subito il seguente

22.34. Corollario. (parallelismo tra due rette con i parametri direttori).


Due rette r e s aventi parametri direttori rispettivamente (lr, mr, nr) e (ls, ms, ns) sono parallele se e
solo se esiste un numero reale non nullo α tale che (lr, mr, nr) = α(ls, ms, ns).

188
22.35. Teorema. (condizione di parallelismo retta-piano con i parametri direttori della retta)
Sia π un piano di equazione ax + by + cz + d = 0 e sia r una retta di equazioni parametriche

x = lt + x 0

 y = mt + y0
z = nt + z
 0

La retta e il piano sono paralleli se e solo se al + bm + cn = 0.

Dimostrazione. Consideriamo il sistema formato dalle tre equazioni di r e dall’equazione di π.


x = lt + x 0
 y = mt + y
 0
(♥) 
z = nt + z 0
ax + by + cz + d = 0

Sostituendo x, y e z nella quarta equazione si ottiene la seguente equazione di primo grado in t


a(lt + x0) + b(mt + y0) + (nt + z0) + d = 0
da cui
(al + bm + cn)t + ax0 + by0 + cz0 + d = 0 (♣)
La retta e il piano sono paralleli ⇔ la retta è contenuta nel piano o non hanno alcun punto ⇔
⇔ il sistema (♥) ha infinite soluzioni o nessuna soluzione ⇔
⇔ l’equazione (♣) è indeterminata o impossibile ⇔ (al + bm + cn) = 0. 

22.36. Corollario. (parametri direttori di una retta dai coefficienti delle sue equazioni cartesiane)
Se r è una retta avente equazioni cartesiane a1x + b1y + c1z + d1 = a2x + b2y + c2z + d2 = 0, allora i
suoi parametri direttori (l, m, n) sono proporzionali alla terna
b c1  a c1  a b1 
(det  1  , − det  1  , det  1 )
b 2 c2  a 2 c2  a 2 b2 

a b1 c1 
ovvero sono proporzionali ai minori di ordine due della matrice A =  1 .
a 2 b2 c 2 

189
Dimostrazione. Un vettore non nullo v = (l, m, n) parallelo alla retta r è parallelo sia al piano π1 di
equazione a1x + b1y + c1z + d1 = 0 che al piano π2 di equazione a2x + b2y + c2z + d2 = 0. Quindi, per
il Teorema 22.35 si ha che
a1l + b1m + c1n = 0

a 2l + b 2m + c 2n = 0
quindi la terna non nulla (l, m, n) è un’autosoluzione del sistema lineare omogeneo
a1x + b1y + c1z = 0
(♦) 
a 2 x + b 2 y + c 2z = 0
Ora, consideriamo le seguenti due matrici:
 a1 b1 c1  a 2 b2 c2 
H1 =  a1 b1 c1  H2 =  a1 b1 c1 
a 2 b2 c 2  a 2 b2 c 2 

Sviluppando il loro determinante secondo la prima riga otteniamo


b c1  a c1  a b1 
detH1 = a1det  1  + b1(− det  1  ) + c1det  1
b 2 c2  a 2 c2  a 2 b2 

b c1  a c1  a b1 
detH2 = a2det  1  + b2(− det  1  ) + c2det  1
b 2 c2  a 2 c2  a 2 b2 

Siccome sia H1 che H2 hanno due righe uguali entrambe i loro determinanti sono nulli. Quindi,
 b1 c1  a c1  a b1 
a1det   + b1(− det  1  ) + c1det  1 =0
b 2 c2  a 2 c2  a 2 b2 

b c1  a c1  a b1 
a2det  1  + b2(− det  1  ) + c2det  1 =0
b 2 c2  a 2 c2  a 2 b2 

b c1  a c1  a b1 
Per cui la terna non nulla (det  1  , − det  1  , det  1 ) è un’altra autosoluzione
b 2 c2  a 2 c2  a 2 b2 

del sistema (♦). Dal momento che lo spazio delle soluzioni del sistema (♦) ha dimensione
n − rgA = 3 − 2 = 1

b c1  a c1  a b1 
si ha che le terne (l, m, n) e (det  1  , − det  1  , det  1 ) sono proporzionali. 
b 2 c2  a 2 c2  a 2 b2 

190
7.2) Determinare le coordinate del punto medio del segmento di estremi
P1(1/2, –1, 2/3) e P2(1, –1/2, 0).

7.15) Determinare l’equazione del piano passante per la retta


r : x – 2y + z – 1 = 3x – 2z = 0 e per il punto A(2, –3, 1).

7.16) Determinare l’equazione del piano della stella a(x – 2) + b(y – 1) + cz = 0


passante per la retta r : x – y = x – z = 0.

7.17) Determinare l’equazione del piano passante per il punto A(2, −1, 1) e per la
retta r : x + 2z − 1 = 0 del piano y = 0.

7.18) Determinare le equazioni del fascio di rette che appartiene al piano


π : x − 3y + z − 1 = 0 e ha centro nel punto P(2, 1, 2) di π.

7.19) Determinare le equazioni della retta passante per il punto P(1, 2, 3) che si
appoggia alle rette r : x − 3z −2 = y − z + 3 = 0 e all’asse Z.

7.20) Determinare le equazioni della retta passante per P(–1, 0, 0) che si appoggia
alle rette r : x – 2y + 1 = 2x – 3z – 1 = 0 e s : x – z + 3 = y – 2z + 2 = 0.

7.21) Determinare le equazioni della retta del piano π : x − 2y = 0 che si appoggia


alle rette r : x + y − z = x + 2y = 0 e s : x − 2 = y − z + 1 = 0.

7.22) Determinare l’equazione del piano passante per il punto A(2, 0, 1/2) e parallelo
al piano π : 3x – y + z – 1 = 0.

7.23) Determinare l’equazione del piano γ simmetrico del piano


α : 4x – 2y + 5z – 1 = 0 rispetto al piano β : 4x – 2y + 5z + 4 = 0. +9

191
7.24) Determinare l’equazione del piano passante per i punti P1(2, 1, 0) e P2(−1, 0, 1)
e parallelo alla retta r : x − z = y − 3z − 1 = 0.

7.25) Determinare l’equazione del piano passante per la retta


r : x − 2z = y − z + 3 = 0 e parallelo alla retta s : x − 2y + z = x − y = 0.

7.26) Determinare le equazioni della retta passante per il punto A(2, 1, 0) e parallela
alla retta r : x − y − z − 2 = 2x − y − 3z = 0.

7.27) Dopo aver verificato che le due rette r : x + y – 2z = x – y = 0 e


s : x + 2y – 3z – 7 = 2x + y – 3z + 1 = 0 sono parallele, determinare l’equazione
della mediana della striscia di piano compresa tra r e s.

7.28) Determinare h e k in modo che la retta


r : x + (k – 1)y + hz – 1 = 2x + ky + (k + 3)z + 1 = 0
risulti parallela alla retta s : x – y = x – z = 0.

7.29) Determinare le equazioni della retta passante per il punto A(1, 0, −2), parallela
al piano π : x − 2z + 3 = 0 e incidente la retta r : x − 2z = y + z + 3 = 0.

7.30) Determinare le equazioni della retta parallela all’asse Y e appoggiata alle rette
r : x − y = y − z + 2 = 0 e s : x − 3z − 1 = y + 2z − 3 = 0.

7.31) Determinare l’equazione del piano passante per il punto A(2, 1, 3) e parallelo
all’asse Z e alla retta r : 2x − z − 2 = y − 2z + 1 = 0.

7.32) Determinare l’equazione del piano che incontra l’asse X in P(3, 0, 0) ed è


parallelo a r : x − 2y + z = x + y − 2z − 1 = 0 e s : x − y = x + y − 3z + 1 = 0.

192
23. (cenni di) Geometria euclidea del piano.

23.1. Definizione. Diremo riferimento cartesiano ortonormale del piano, e lo indicheremo con il
simbolo RC(O, i, j), un riferimento affine RA(O, i, j) del piano con (i, j) base ortonormale, cioè tale
che i e j sono due versori ortogonali tra loro.

23.2. Ricordiamo che


23.2.1 u•v := ||u||||v||cos(u,v).
23.2.2 u•v = 0 ⇔ u ⊥ v;

23.2.3 u•u = ||u||2; ⇒ ||u|| = u•u ;


23.2.4 u ≠ 0 e v ≠ 0 ⇒ cos(u,v) = (u•v)/(||u||||v||)
23.2.5 ||v||u := lunghezza proiezione di v lungo direzione di u ≠ 0 ⇒ ||v||u = |u•v|/||u||;
Inoltre, se u = uxi + uyj , v = vxi + vyj con (i, j) base ortonormale allora
23.2.6 u•v = uxvx + uyvy ;

23.2.7 ||u|| = u•u = u 2x + u 2y ;


u x vx + u yvy
23.2.8 cos(u, v) =
u 2x + u 2y v 2x + v 2y

23.3. Osservazione. Siano r una retta, u un vettore libero non nullo e (OA) un rappresentante di u.
Se il segmento (OA) è perpendicolare alla retta r, allora ogni segmento orientato appartenente a
u = [(OA)] è perpendicolare alla retta r.

23.4. Definizione. Diremo che un vettore libero non nullo u è perpendicolare ad una retta r se un
rappresentante di u è perpendicolare ad r.

23.5. Teorema. (significato dei coefficienti delle incognite nell’equazione cartesiana di una retta)
Se ax + by + c = 0 con (a, b) ≠ (0, 0) è l’equazione cartesiana di una retta r, allora il vettore libero
non nullo u := ai + bj è perpendicolare alla retta r.

Dimostrazione. Siano P1(x1, y1) e P2(x2, y2) due punti distinti della retta r. Si hanno le seguenti
identità ax1 + by1 + c = 0 e ax2 + by2 + c = 0. Inoltre, [P1P2] = (x2 – x1)i + (y2 – y1)j. Si ha che
u • [P1P2] = a(x2 – x1) + b(y2 – y1) = (ax2 + by2) + (– ax1 – by1) = – c + c = 0
Da u • [P1P2] = 0 si ha che u ⊥ [P1P2] ovvero u ⊥ r. 

193
23.6. Corollario. Sia r una retta di equazione cartesiana ax + by + c = 0. Se (l, m) è una coppia di
parametri direttori di r, allora si ha che al + bm = 0.

Dimostrazione. u := ai + bj ⊥ r e v :=li + mj // r ⇒ u ⊥ v ⇒ u•v = 0 ⇒ al + bm = 0. 

23.7. Corollario. Se r è una retta di equazione cartesiana ax + by + c = 0, allora i suoi parametri


direttori sono tutte e sole le coppie α(b, – a) con α ≠ 0.

23.8. Lemma. (condizioni di perpendicolarità fra due rette)


Sia r una retta di equazione cartesiana a1x + b1y + c1 = 0 e parametri direttori e (l1, m1).
Sia s una retta di equazione cartesiana a2x + b2y + c2 = 0 e parametri direttori e (l2, m2).
23.8.1. Le due rette r e s sono perpendicolari se e solo se a1a2 + b1b2 = 0.
23.8.2. Le due rette r e s sono perpendicolari se e solo se l1l2 + m1m2 = 0.

Dimostrazione. Siano ur := a1i + b1j , vr := l1i + m1j , us := a2i + b2j e vs := l2i + m2j.
Tenendo conto che ur ⊥ r , us ⊥ s , vr // r e vs // s si ha subito che:
1) r ⊥ s ⇔ ur ⊥ us ⇔ ur•us = 0 ⇔ a1a2 + b1b2 = 0;
2) r ⊥ s ⇔ vr ⊥ vs ⇔ vr•vs = 0 ⇔ l1l2 + m1m2 = 0. 

Come immediata conseguenza del Lemma 23.8 si ha subito il seguente:

23.9. Teorema. (retta per un punto perpendicolare ad un’altra retta)


Sia r una retta di equazione cartesiana ax + by + c = 0 e parametri direttori (l, m).
La retta s perpendicolare a r e passante per un punto P0(x0, y0) ha
equazione cartesiana l(x – x0) + m(y – y0) = 0 ovvero b(x – x0) – a(y – y0) = 0
x = at + x 0 x = − mt + x 0
equazioni parametriche  ovvero 
 y = bt + y0  y = lt + y0

23.10. Teorema. (distanza fra due punti)


Se P1(x1, y1) e P2(x2, y2) sono due punti del piano, allora la loro distanza è data

d(P1 ,P2) = ( x 2 − x1) 2 + ( y 2 − y1 )2

Dimostrazione. Si ha che la distanza tra P1 e P2 è uguale alla lunghezza del vettore libero [P1P2].
Da [P1P2] = (x2 – x1)i + (y2 – y1)j e [P1P2]•[P1P2] = ||[P1P2]||2 si ha che

d(P1 ,P2) = ||[P1P2]|| = [P1P2 ] • [P1P2 ] = ( x 2 − x1) 2 + ( y 2 − y1 )2 

194
23.11. Teorema. (distanza fra una retta e un punto)
La distanza tra un punto P0(x0, y0) e una retta r di equazione cartesiana ax + by + c = 0 è data da
ax 0 + by0 + c
d(P0, r) =
a 2 + b2

Dimostrazione. Sia A un punto (qualsiasi) della retta r. Si vede subito che la distanza tra P0 e r è
uguale alla lunghezza della proiezione del vettore libero [AP0] lungo la direzione perpendicolare a r.

Se utilizziamo il vettore libero non nullo u := ai + bj perpendicolare alla retta r si ha che

d(P0, r) = ||[AP0]||u = |u•[AP0]|/||u||.

Dall’identità axA + byA + c = 0 si ha che c = – axA – byA. Per cui

u•[AP0] = a(x0 – xA) + b(y0 – yA) = ax0 + by0 + (– axA – byA) = ax0 + by0 + c

Quindi, d(P0, r) = ||[AP0]||u = |u•[AP0]|/||u|| = |ax0 + by0 + c|/ a 2 + b 2 . 

23.12. Corollario. (distanza fra due rette parallele)


Se r e s sono due rette parallele di equazioni rispettivamente ax + by + c = 0 e αax + αby + d = 0
(dove ovviamente α ≠ 0), allora la distanza tra r e s è data da
c − (d / α )
d(r s) =
a 2 + b2

Dimostrazione. Si vede subito che la distanza tra r e s è uguale alla distanza tra r e un (qualsiasi)

punto P0(x0, y0) della retta s. Per cui, d(r s) = d(P0, r) = |ax0 + by0 + c|/ a 2 + b 2 . Dall’identità

αax0 + αby0 + d = 0 si ha che ax0 + by0 = – d/α. Quindi, d(r s) = |c – (d/α)|/ a 2 + b 2 . 

23.13. Corollario.
Se r e s sono due rette parallele di equazioni rispettivamente ax + by + c = 0 e ax + by + d = 0,
allora la distanza tra r e s è data da
c−d
d(r s) =
a 2 + b2

195
23.14. Osservazione. Due rette r e s non parallele dividono il piano in 4 angoli convessi.
r

A
4
2

Si noti che:
- angolo(1) = angolo(3) e angolo(2) = angolo(4) in quanto opposti al vertice A;
- angolo(1) + angolo(2) = angolo piatto = angolo(3) + angolo(4);
Quindi, cos(1) = cos(3), cos(2) = cos(4), cos(1) = – cos(2) e cos(3) = – cos(4).

23.15. Definizione. Siano r e s due rette del piano. Se r e s non sono parallele, allora diremo angolo
tra le rette r e s ciascuno dei quattro angoli in cui il piano è diviso da r e s. Se r e s sono parallele,
allora stabiliamo che gli angoli tra r e s siano l’angolo nullo e l’angolo piatto.
Un angolo tra due rette r e s lo indicheremo con il simbolo (r, s).

23.16. Osservazione. Se vr = l1i+m1j e vs = l2i+m2j sono due vettori paralleli rispettivamente a due
rette r e s, allora l’angolo tra i vettori vr e vs è uguale ad uno degli angoli formati da r e s.

Tenendo conto dell’Osservazione 23.16 si ha il seguente:

23.17. Teorema. Se r e s sono due rette di parametri direttori rispettivamente (l1, m1) e (l2, m2) si ha
l1l 2 + m1m 2
cos(r, s) = ± cos(v1, v2) = ±
l12 + m12 l 22 + m 22

23.18. Osservazione. Se ur = a1i+b1j e us = a2i+b2j sono due vettori perpendicolari rispettivamente


a due rette r e s, allora l’angolo tra i vettori ur e us è uguale ad uno degli angoli formati da r e s.

Tenendo conto dell’Osservazione 23.18 si ha il seguente:

23.19. Teorema. Se r e s sono due rette di equazioni a1x + b1y + c1 = 0 e a2x + b2y + c2 = 0 allora
a1a 2 + b1b 2
cos(r, s) = ± cos(u1, u2) = ±
a12 + b12 a 22 + b 22

196
24. (cenni di) Geometria euclidea dello spazio.

24.1. Definizione. Diremo riferimento cartesiano ortonormale dello spazio, e lo indicheremo con il
simbolo RC(O, i, j, k), un riferimento affine RA(O, i, j, k) dello spazio con (i, j, k) base
ortonormale, cioè tale che i, j e k sono tre versori a due a due ortogonali tra loro.

24.2. Ricordiamo che


24.2.1 u•v := ||u||||v||cos(u,v).
24.2.2 u•v = 0 ⇔ u ⊥ v;

24.2.3 u•u = ||u||2; ⇒ ||u|| = u•u ;


24.2.4 u ≠ 0 e v ≠ 0 ⇒ cos(u,v) = (u•v)/(||u||||v||)
24.2.5 ||v||u := lunghezza proiezione di v lungo direzione di u ≠ 0 ⇒ ||v||u = |u•v|/||u||;
Inoltre, se u = uxi + uyj + uzk , v = vxi + vyj + vzk con (i, j, k) base ortonormale allora
24.2.6 u•v = uxvx + uyvy + uzvz ;

24.2.7 ||u|| = u•u = u 2x + u 2y + u 2z ;


u x v x + u y v y + u z vz
24.2.8 cos(u, v) =
u 2x + u 2y + u 2z v 2x + v 2y + v 2z

24.3. Definizione. Diremo che un vettore libero non nullo u è perpendicolare ad un piano π se u è
perpendicolare ad ogni retta del piano π.

24.4. Teorema. (significato dei coefficienti delle incognite nell’equazione cartesiana di un piano)
Se ax + by + cz + d = 0 con (a, b, c) ≠ (0, 0, 0) è l’equazione cartesiana di un piano π, allora il
vettore libero non nullo u := ai + bj + ck è perpendicolare al piano π.

Dimostrazione. Sia r una (qualsiasi) retta di π. Siano P1(x1, y1, z1) e P2(x2, y2, z2) due punti distinti
della retta r. Si hanno le seguenti identità ax1 + by1 + cz1 + d = 0 e ax2 + by2 + cz2 + d = 0. Inoltre,
[P1P2] = (x2 – x1)i + (y2 – y1)j + (z2 – z1)k. Si ha che
u • [P1P2] = a(x2 – x1) + b(y2 – y1) + c(z2 – z1) = (ax2 + by2 + cz2) + (– ax1 – by1 – cz1) = – d + d = 0
Da u • [P1P2] = 0 si ha che u ⊥ [P1P2] ovvero u ⊥ r. Quindi, u ⊥ π. 

197
24.5. Corollario. (perpendicolarità retta-piano)
Sia π un piano di equazione ax + by + cz + d = 0 e sia r una retta di parametri direttori (l, m, n).
La retta e il piano π sono perpendicolari tra loro se e solo se esiste un numero reale α ≠ 0 tale che
(a, b, c) = α(l, m, n)
Dimostrazione. Siano u := ai + bj + ck e v := li + mj + nk. Tenendo conto che u ⊥ π e v // r si ha
r ⊥ π ⇔ u // v ⇔ (a, b, c) // (l, m, n) ⇔ ∃α∈R–{0} : (a, b, c) = α(l, m, n). 

24.6. Corollario. (piano per un punto perpendicolare ad una retta)


Sia π il piano passante per il punto P0(x0, y0, z0) e perpendicolare ad una retta di parametri direttori
(l, m, n). Il piano π ha equazione cartesiana
l(x – x0) + m(y – y0) + n(z – z0) = 0

24.7. Corollario. (retta per un punto perpendicolare ad un piano)


Sia r la retta passante per il punto P0(x0, y0, z0) e perpendicolare al piano ax + by + cz + d = 0.
x = at + x 0

La retta r ha equazioni parametriche  y = bt + y0
z = ct + z
 0

24.8. Corollario. (perpendicolarità fra due piani)


Sia π1 un piano di equazione cartesiana a1x + b1y + c1z + d1 = 0.
Sia π2 un piano di equazione cartesiana a2x + b2y + c2z + d2 = 0.
I due piani sono perpendicolari fra loro se e solo se a1a2 + b1b2 + c1c2 = 0

Dimostrazione. Siano u1 := a1i + b1j + c1k e u2 := a2i + b2j + c2k


Tenendo conto che u1 ⊥ π1 e u2 ⊥ π2 si ha subito che:
π1 ⊥ π2 ⇔ u1 ⊥ u2 ⇔ u1•u2 = 0 ⇔ a1a2 + b1b2 + c1c2 = 0. 

24.9. Teorema. (distanza fra due punti)


Se P1(x1, y1, z1) e P2(x2, y2, z2) sono due punti dello spazio, allora la loro distanza è data

d(P1 ,P2) = ( x 2 − x1) 2 + ( y 2 − y1) 2 + (z 2 − z1) 2

Dimostrazione. Si ha che la distanza tra P1 e P2 è uguale alla lunghezza del vettore libero [P1P2].
Da [P1P2] = (x2 – x1)i + (y2 – y1)j + (z2 – z1)k e [P1P2]•[P1P2] = ||[P1P2]||2 si ha che

d(P1 ,P2) = ||[P1P2]|| = [P1P2 ] • [P1P2 ] = ( x 2 − x1) 2 + ( y 2 − y1) 2 + (z 2 − z1) 2 

198
24.10. Osservazione. (distanza fra una retta e un punto)
Dati un punto A e una retta r, siano π il piano passante per A e perpendicolare a r e B il punto
d’intersezione tra la retta r e il piano π. La distanza tra A e r è uguale alla distanza fra i punti A e B.

d(A, r) = d(A, B)
r A

24.11. Osservazione. (distanza fra due rette parallele)


La distanza fra due rette parallele è uguale alla distanza di un punto di una delle due dall’altra.

d(s, r) = d(A, r) = d(A, B)


r A

s π

24.12. Definizione. (proiezione ortogonale di un punto su di un piano)


Siano A un punto e π un piano. Sia r la retta passante per il punto P0 e perpendicolare al piano π. Il
punto H d’intersezione di r con π si dice proiezione ortogonale del punto P0 sul piano π.

P0
r

24.13. Definizione. (distanza fra un punto e un piano)


Se H è la proiezione ortogonale di un punto P0 su di un piano π, allora la distanza di P0 dal piano π è
uguale alla distanza del punto P0 dal punto H, cioè d(P0, π) = d(P, H).

199
24.14. Teorema. (calcolo della distanza fra un punto e un piano)
La distanza tra un punto P0(x0, y0, z0) e un piano π di equazione ax + by + cz + d = 0 è data da
ax 0 + by0 + cz0 + d
d(P0, π) =
a 2 + b2 + c2
Dimostrazione. Sia H la proiezione ortogonale del punto P0 sul piano π e sia A un punto (qualsiasi)
del piano π. Si vede subito che la distanza tra P0 e π è uguale alla lunghezza della proiezione AB
del vettore [AP0] lungo la direzione perpendicolare a π.

Se utilizziamo il vettore libero non nullo u := ai + bj + ck perpendicolare al piano π si ha che

d(P0, π) = d(P0, H) = d(A, B) = ||[AB]|| = ||[AP0]||u = |u•[AP0]|/||u||.

Dall’identità axA + byA + czA + d = 0 si ha che d = – axA – byA – czA. Per cui

u•[AP0] = a(x0 – xA) + b(y0 – yA) + c(z0 – zA) = ax0 + by0 + cz0 + (– axA – byA – zA)

Quindi, d(P0, r) = ||[AP0]||u = |u•[AP0]|/||u|| = |ax0 + by0 + cz0 + d|/ a 2 + b 2 + c 2 . 

P0

π A

24.15. Definizione. (distanza fra una retta e un piano paralleli)


La distanza fra una retta e un piano paralleli è uguale alla distanza di un punto (qualsiasi) della retta
dal piano. Quindi, basta prendere un punto (a piacere) della retta e calcolarne la distanza dal piano.
P0
r

H
π

200
24.16. Definizione. (distanza fra due piani paralleli)
La distanza fra due piani paralleli è uguale alla distanza di un punto di uno di essi dall’altro.

P0
π'

24.17. Corollario. (calcolo della distanza fra due piani paralleli)


Se π e π’ sono due piani paralleli di equazioni rispettivamente ax + by + cz + d = 0 e
αax + αby + αcz + d’ = 0 (dove ovviamente α ≠ 0), allora la distanza tra π e π’ è data da
d − (d ' / α )
d(π, π’) =
a 2 + b2 + c2

Dimostrazione. Si vede subito che la distanza tra π e π’ è uguale alla distanza tra π e un (qualsiasi)

punto P0(x0, y0, z0) del piano π’. Per cui, d(π, π’) = d(P0, π) = |ax0 + by0 + cz0 + d|/ a 2 + b 2 + c 2 .
Dall’identità αax0 + αby0 + αcz0 + d’ = 0 si ha che (ax0 + by0 + cz0) = – d’/α. 

24.18. Corollario.
Se π : ax + by + cz + d = 0 e π’ : ax + by + cz + d’ = 0, allora la distanza tra π e π’ è data da
d − d'
d(π, π’) =
a 2 + b 2 + c2

24.19. Definizione. (proiezione ortogonale di un insieme di punti)


Siano π un piano e Ω un insieme di punti. L’insieme Ωπ delle proiezioni ortogonali di tutti e soli i
punti di Ω su π si dice proiezione ortogonale dell’insieme Ω sul piano π.

Ωπ

201
24.20. Osservazione. Siano r una retta e π un piano.
24.20.1. Se la retta r è perpendicolare al piano π, allora la proiezione ortogonale dell’insieme dei
punti di r su π coincide con il punto P0 d’intersezione di r con π.
24.20.2. Se la retta r non è perpendicolare al piano π allora esiste un unico piano π⊥ contenente r
che sia perpendicolare al piano π. Siccome i piani π e π⊥ non sono paralleli, la loro intersezione è
sempre una retta. La proiezione ortogonale dell’insieme dei punti della retta r sul piano π coincide
con l’insieme dei punti della retta rπ := π ∩ π⊥.

P0 rπ
π

24.21. Definizione. (proiezione ortogonale di una retta su di un piano)


Siano r una retta e π un piano. Se la retta è perpendicolare al piano, allora diremo che il punto
P0 = r∩π è la proiezione ortogonale della retta r sul piano π. Se la retta non è perpendicolare al
piano, allora diremo che la retta rπ := π ∩ π⊥ è la proiezione ortogonale della retta r sul piano π.

24.22. Osservazione. Una retta r coincide con la sua proiezione ortogonale rπ su di un piano π se e
solo se la retta r è contenuta nel piano π.

24.23. Osservazione. (distanza fra due rette sghembe)


Siano r e s due rette sghembe. Si scelga (a piacere) una di esse, ad esempio s. Sia π il piano che
contiene s ed è parallelo ad r. Si vede subito che la distanza fra le due rette sghembe r e s è uguale
alla distanza tra la retta r e il piano π, cioè alla distanza di un punto (qualsiasi) P0 di r da π.

A P0

B rπ H
s
π

202
24.24. Definizione. (retta di minima distanza fra due rette sghembe)
Siano r e s due rette sghembe. Sia π un piano (qualsiasi) parallelo ad entrambe le rette. Sia π1 il
piano contenente la retta r e perpendicolare a π. Sia π2 il piano contenente la retta s e perpendicolare
a π. Sia t la retta che si ottiene come intersezione dei due piani π1 e π2 . La retta t è incidente e
perpendicolare sia alla retta r che alla retta s. Indicati con A e B i punti d’intersezione di t con le
rette r e s rispettivamente si vede subito che la distanza tra r e s è uguale alla distanza tra A e B.

t
π2 π1

r Α

Β
s

La retta t viene detta retta di minima distanza tra le rette sghembe r e s.


Nella pratica, come piano π si prende il piano che contiene una di esse ed è parallelo all’altra.

24.25. Definizione. (angolo tra due rette nello spazio)


Siano r e s due rette (dello spazio). Sia π un piano parallelo ad entrambe. Siano rπ e sπ le proiezioni
ortogonali di r e s sul piano π. Diremo angolo fra le due rette r e s (dello spazio), e lo indicheremo
con il simbolo (r, s), l’angolo fra le due rette rπ e sπ nel piano π (secondo la Definizione 23.15).
Si osservi che se le due rette r e s appartengono ad uno stesso piano π allora quel piano π è parallelo
ad entrambe e, inoltre, rπ ≡ r e sπ ≡ s.



π

24.26. Osservazione. Se vr = l1i + m1j + n1k e vs = l2i + m2j + n2k sono due vettori paralleli a due
rette r e s, allora l’angolo tra i vettori vr e vs è uguale ad uno degli angoli formati da r e s.

203
Tenendo conto dell’Osservazione 24.26 si ha il seguente:

24.27. Teorema. (calcolo del coseno dell’angolo fra due rette)


Se r e s sono due rette di parametri direttori (l1, m1, n1) e (l2, m2, n2) si ha
l1l 2 + m1m 2 + n1n 2
cos(r, s) = ± cos(v1, v2) = ±
l12 + m12 + n12 l 22 + m 22 + n 22

24.28. Corollario. (perpendicolarità fra due rette)


Siano r e s due rette di parametri direttori rispettivamente (l1, m1, n1) e (l2, m2, n2).
Le due rette sono perpendicolari fra loro se e solo se l1l2 + m1m2 + n1n2 = 0

24.29. Osservazione. Sia t la retta intersezione di due piani π1 e π2 non paralleli. Un piano π è
perpendicolare ad entrambe i piani π1 e π2 se e solo se il piano π è perpendicolare alla retta t.

24.30. Definizione. (angolo tra due piani)


Siano π1 e π2 due piani e sia π un piano perpendicolare ad entrambe i piani π1 e π2.
Siano r la retta intersezione di π e π1 e s la retta intersezione di π e π2.
Diremo angolo fra i due piani π1 e π2, e lo indicheremo con il simbolo (π1, π2), l’angolo fra le due
rette r e s nel piano π (secondo la Definizione 23.15).

π2 t
π2

π1
π1

s
s
r
π r π

24.31. Osservazione. Se u1 = a1i + b1j + c1k e u2 = a2i + b2j + c2k sono due vettori perpendicolari
a due piani π1 e π2 rispettivamente, allora l’angolo tra i vettori u1 e u2 è uguale ad uno degli angoli
formati da π1 e π2.

Tenendo conto dell’Osservazione 24.31 si ha subito il seguente:


24.32. Teorema. (calcolo del coseno dell’angolo fra due piani)
Se π1 : a1x + b1y + c1z + d1 = 0 e π2 : a2x + b2y + c2z + d2 = 0, allora
a1a 2 + b1b 2 + c1c 2
cos(π1, π2) = ± cos(u1, u2) = ±
a12 + b12 + c12 a 22 + b 22 + c22

204
24.33. Definizione. (angolo fra una retta e un piano). Siano r una retta e π un piano.
Sia π’ un piano contenente r e perpendicolare a π e sia rπ := π ∩ π’. Si osservi che:
- se r non è perpendicolare a π allora rπ è la proiezione ortogonale di r su π;

r r
π' π'

rπ rπ

π π

- se r è perpendicolare a π allora rπ è una delle rette di π appartenenti al fascio di rette di centro P0.

r
π'


P0
π

Diremo angolo fra la retta r e il piano π, e lo indicheremo con il simbolo (r, π), l’angolo minore o
uguale all’angolo retto formato dalle due rette r e rπ nel piano π’ (secondo la Definizione 23.15).

24.34. Osservazione. Se v := li + mj + nk è un vettore parallelo alla retta r e u := ai + bj + ck è


un vettore perpendicolare al piano π, allora si vede subito che sin(r, π) = |cos(u, v)|.
r
v

(r, π ) = angolo retto - (u,v)


r
sin(r, π ) = cos(u,v) (r, π )
v rπ
u
π (u,v)
(r, π ) = (u,v) - angolo retto
(u,v) (r, π ) rπ sin(r, π ) = - cos(u,v)
π u

Tenendo conto dell’Osservazione 24.35 si ha il seguente:

24.35. Teorema. (calcolo del seno dell’angolo fra una retta e un piano)
Sia π un piano di equazione ax + by + cz + d = 0 e sia r una retta di parametri direttori (l, m, n).
al + bm + cn
sin(r, π) = |cos(u, v)| =
a 2 + b2 + c2 l2 + m 2 + n 2

205
2.2) Determinare il coseno dell’angolo formato dalle due rette

r : x − z + 1 = y − z − 3 = 0 s : x − y − 2z + 1 = x − 3z − 3 = 0.

2.3) Determinare il coseno dell’angolo formato dai due piani α : x + 2y = 0 e

β : 3x – 2y + z = 0

2.4) Determinare le equazioni delle rette passanti per il punto A(1, 2, 1) incidenti

l’asse z e formanti con esso un angolo di π/4.

2.5) Determinare le equazioni delle rette passanti per l’origine, parallele al piano

α : x – 2y + z – 1 = 0 e formanti un angolo π/6 col piano z = 0.

2.6) Determinare le equazioni dei piani passanti per la retta r : 2x − 3z + 2 = y = 0 e

formanti un angolo di π/6 col piano α : x – z = 0.

2.7) Determinare le equazioni dei piani passanti per l’asse Z e formanti un angolo di

π/4 con la retta r : x − 3z + 1 = y − 2z − 1 = 0.

2.8) Determinare le equazioni della retta passante per A(–1, 2, 1) e perpendicolare al

piano α : x + 2y – z + 1 = 0.

2.9) Determinare l’equazione del piano passante per il punto A(−3, 2, –1) e

perpendicolare alla retta r : x + 2z − 1 = y − 3z + 2 = 0.

2.10) Determinare l’equazione del piano passante per l’asse X e perpendicolare al

piano π : x − 2y + 3z + 5 = 0.

2.11) Determinare le equazioni della retta passante per l’origine O(0, 0, 0), incidente

e perpendicolare alla retta passante per i punti A(2, 1, 1) e B(0, −1, 0).

2.12) Determinare le equazioni della retta proiezione ortogonale sul piano

α : 2x – z – 1 = 0 della retta r : x = y = z.

206
2.13) Determinare l’equazione del piano passante per il punto A(0, 0, 3), parallelo

alla retta r : x + y – 1 = 2x – 3z – 1 = 0 e perpendicolare al piano

π : x − 2y + 3z = 0.

2.14) Determinare le equazioni della retta perpendicolare al piano

π : 3x + 2y − 4z + 1 e incidente l’asse Z e la retta r : x − 2z + 1 = y − z − 3 = 0.

2.15) Determinare l’equazione del piano perpendicolare al segmento di estremi

A(3, −1, 2) e B(−1, 2, 3) nel suo punto medio.

2.16) Determinare la distanza fra i due piani paralleli α : x – 2y + z = 0 e

β : x – 2y + z – 3 = 0

2.17) Determinare le equazioni dei piani perpendicolari alla retta

r : x + z = y − 2z = 0 e aventi distanza 2 dall’origine.

2.18) Determinare la distanza del punto A(–1, 3, 1) dalla retta

r : x + y − 1 = 2x − y − z = 0

2.19) Determinare la distanza fra le due rette parallele r : x – 2z = y – 3z = 0 e

s : x – 2z + 1 = y – 3z – 1 = 0.

2.20) Determinare la minima distanza delle due rette sghembe r : x = y = 0 e

s : x − z − 2 = y − z − 3 = 0.

2.21) Determinare le equazioni della retta di minima distanza delle due rette

sghembe r : asse Y e s : y = x + z − 1 = 0.

2.22) Determinare le equazioni delle bisettrici degli angoli formati dalle due rette

incidenti r : x + z = y + z + 1 = 0 e s : x − y − 1 = 2x − z − 1 = 0.

207
25. La classificazione delle coniche del piano euclideo.

RICORDIAMO CHE

(Capitolo 15)
• Sia ω un (qualsiasi) numero reale e siano w1 = (cosω, sinω) e w2 = (−sinω, cosω). Poiché

cos ω − sin ω
det   = cos2ω + sin2ω = 1
 sin ω cos ω 
le colonne (cosω, sinω) e (−sinω, cosω) di tale matrice sono (sempre) linearmente indipendenti.

Quindi, l’insieme B = (w1, w2) è (sempre) una base di R2.

• Siano u1 = (cosα, sinα), u2 = (−sinα, cosα), v1 = (cosβ, sinβ) e v2 = (−sinβ, cosβ).

Considerate le basi B = (u1, u2), B = (v1, v2) e C = ((1, 0), (0, 1)) di R2 si ha che:

cos α − sin α  cos β − sin β cos(α − β) − sin(α − β)


A(B→C) =   A(B→C) =   A(B→B)=  .
 sin α cos α   sin β cos β   sin(α − β) cos(α − β) 

(Capitolo 20)
• Definizione. Una matrice C ad elementi reali quadrata C si dice ortogonale se CT = C−1.

• Teorema. Una matrice C ad elementi reali quadrata di ordine 2 è ortogonale se e solo se

cosθ − sin θ  cosθ sin θ 


∃!θ∈(−π, π] : C =  aut C =
 sin θ cos θ   sin θ
 − cos θ 

Si osservi che nel primo caso è detC = 1 mentre nel secondo caso è detC = −1.
Si osservi, inoltre, che cambiando il segno della seconda colonna di una matrice del primo tipo si
ottiene una matrice del secondo tipo e viceversa.

• Definizione. Una matrice A ad elementi reali quadrata si dice simmetrica se AT = A.

• Teorema. Una matrice A ad elementi reali quadrata di ordine 2 simmetrica è diagonalizzabile


tramite una matrice ortogonale C con detC = 1.

208
25.1. Lemma. Sia RA(O, u, v) un riferimento affine del piano.
Sia RC(O’, i, j) un riferimento cartesiano ortonormale del piano.
Sia C la matrice del cambiamento di base dalla base (u, v) alla base (i, j).
Il RA(O, u, v) è un riferimento cartesiano ortonormale se e solo se C è una matrice ortogonale.
α γ 
Dimostrazione. Se u = αi + βj e v = γi + δj allora C =  .
 β δ
Il RA(O, u, v) è un riferimento cartesiano ortonormale se e solo se (u, v) è una base ortonormale,
cioè se e solo se ||u|| = 1, ||v|| = 1 e u•v = 0, ovvero α2 + β2 = 1, γ2 + δ2 = 1 e αγ + βδ = 0. Queste
ultime relazioni sono equivalenti a CTC = I, cioè al fatto che C sia una matrice ortogonale. 

25.2. Teorema. Siano RC(O, i, j) e RC(O, i’, j’) due riferimenti cartesiani ortonormali del piano
aventi la stessa origine O. Sia C la matrice del cambiamento di base dalla base (i’, j’) alla base (i, j).
Il RC(O, i’, j’) si può “ottenere tramite un’opportuna rotazione” del RC(O, i, j), attorno al punto O,
SE E SOLO SE la matrice C (ortogonale per il Lemma 25.1) ha detC = 1.
α γ  α β 
Dimostrazione. Se i’ = αi + βj e j’ = γi + δj allora C =   e C-1 = CT =  γ δ .
 β δ  
i j k
Se poniamo k := i∧j allora i’∧j’ = α β 0 = (detCT)k = (detC)k .
γ δ 0

Il RC(O, i’, j’) si può ottenere tramite una rotazione (attorno ad O) del RC(O, i, j) se e solo se
i∧j = i’∧j’ (poiché la rotazione non cambia il verso del prodotto vettoriale), cioè se e solo se
cosθ − sin θ
k = (detC)k ovvero se e solo se detC = 1. Quindi, esiste un unico θ∈(−π, π] : C =  .
sin θ cos θ 
Da i•i’ = cosθ = j•j’ si ha che |θ| è proprio l’ampiezza dell’angolo convesso compreso tra i e i’ e
tra j e j’. Quindi, |θ| è proprio l’ampiezza della rotazione che porta la base (i, j) sulla base (i’, j’).
Se sinθ > 0, allora θ∈(0, π]. Quindi, il verso della rotazione è quello antiorario.
Se sinθ < 0, allora θ∈(−π, 0). Quindi, il verso della rotazione è quello orario. 

Tenendo conto del Teorema 25.2 è ben posta la seguente:

cosθ − sin θ 
25.3. Definizione. Una matrice del tipo  si dice matrice associata ad una rotazione.
 sin θ cos θ 

209
anti
orario anti
j j
j' i' orario

θ i'
θ i
θ θ
O i j' O
(1) rotazione della base (i, j) in senso ANTIORARIO (1) rotazione della base (i, j) in senso ANTIORARIO
(1a) angolo ACUTO tra i versori i e i' (1b) angolo OTTUSO tra i versori i e i'

j orario j orario

j'
−θ
−θ i
O
O −θ i −θ
(2) rotazione della base (i, j) in senso ORARIO
j'
(2a) angolo ACUTO tra i versori i e i'
(2) rotazione della base (i, j) in senso ORARIO
i'
i' (2b) angolo OTTUSO tra i versori i e i'

α γ 
25.4. Corollario. Sia RC(O, i, j) un riferimento cartesiano ortonormale del piano. Se C =   è
 β δ
una matrice ortogonale con detC = 1, allora ponendo i’ := αi + βj e j’ := γi + δj si ha che:
• la terna (O, i’, j’) è un riferimento cartesiano ortonormale del piano;
• il riferimento RC(O, i’, j’) si ottiene “ruotando attorno al punto O” il riferimento RC(O, i, j);
• l’ampiezza della rotazione è data da |θ| dove θ∈(−π, π] è l’angolo tale che cosθ = α e sinθ = β;
• il verso della rotazione è antiorario/orario a seconda che β = sinθ sia positivo/negativo;
• C è proprio la matrice del cambiamento di base dalla base B’ = (i’, j’) alla base B = (i, j).

25.6. Osservazione. Sia P un punto generico del piano.


Se (x, y) sono le coordinate di P rispetto a RC(O, i, j), allora [OP]B = xi + yj.

Se (x’, y’) sono le coordinate di P rispetto a RC(O, i’, j’), allora [OP]B’ = x’i’ + y’j’.

Ponendo X = [x y]T e Y = [x’ y’]T le equazioni del cambiamento di base sono X = CY, ovvero
x = x ' cos θ + y' sin θ
 (equazioni della rotazione)
 y = − x ' sin θ + y' cos θ

210
Y Y'
P
y y'

j
δ
O i x X
j

γ
O' i x' X'

25.7. Osservazione. Sia RC(O, i, j) un riferimento cartesiano ortonormale del piano.


Sia O’ un punto del piano avente coordinate (δ, γ) rispetto al riferimento RC(O, i, j), cioè
[OO’] = δi + γj
Ovviamente, anche la terna (O’, i, j) è un riferimento cartesiano ortonormale del piano.
Il riferimento RC(O’, i, j) si ottiene dal riferimento RC(O, i, j) tramite la “traslazione” che porta il
punto O sul punto O’. Sia ora P un (generico) punto del piano.
Se il punto P ha coordinate (x, y) rispetto al RC(O, i, j), allora [OP] = xi + yj.
Se il punto P ha coordinate (x’, y’) rispetto al RC(O’, i, j), allora [O’P] = x’i + y’j.
Per cui l’identità vettoriale [OP] = [OO’] + [O’P]
è equivalente all’identità vettoriale xi + yj = (δi + γj) + (x’i + y’j)
che è equivalente all’identità vettoriale xi + yj = (δ + x’)i + (γ + y’)j
Quest’ultima identità vettoriale, per l’unicità della scrittura di un vettore rispetto alla base (i, j), è
equivalente alle due identità seguenti
x = δ + x '

 y = γ + y'
che vengono dette, per la genericità del punto P, equazioni della traslazione.

211
25.8. Definizione. Sia RC(O, i, j) un riferimento cartesiano ortonormale del piano. Diremo curva
l’insieme F di tutti e soli i punti del piano (ovvero il luogo dei punti del piano) le cui coordinate
soddisfano un’equazione del tipo F(x, y) = 0. Diremo anche che F(x, y) = 0 è l’equazione cartesiana
della curva F e scriveremo, brevemente, F : F(x, y) = 0.

25.9. Definizione. Se F(x, y) è un polinomio in x e y (a coefficienti costanti) di grado n, allora si


dice che la curva F : F(x, y) = 0 è una curva algebrica di ordine n.

25.10. Esempi. La curva F : 2x − 3y − 9 = 0 è una retta;


la curva F : 4x2 + 9y2 − 1 = 0 è un’ellisse;
la curva F : x2 + y2 − 4 = 0 è una circonferenza di centro l’origine e raggio 2;
la curva F : x2 + y + 3 = 0 è una parabola;
la curva F : x2 + y2 + 5 = 0 non ha punti reali;
la curva F : 3(x − 1)2 + (y + 2)2 = 0 ha il punto (1, −2) come suo unico punto reale;
la curva F : [(x − 1)(x + 1)]2 + (y − 3)2 = 0 ha i punti (1, 3) e (−1, 3)) come suoi unici punti reali.

25.11. Osservazione. Sia RC(O, i, j) un riferimento cartesiano ortonormale del piano.


Una curva F di equazione F(x, y) = 0 è
25.11. 1. simmetrica rispetto all’asse X se per ogni (x, y)∈R2 si ha che: F(x, y) = 0 ⇒ F(x, −y) = 0;
25.11.2. simmetrica rispetto all’asse Y se per ogni (x, y)∈R2 si ha che: F(x, y) = 0 ⇒ F(−x, y) = 0;
25.11.3. simmetrica rispetto ad O se se per ogni (x, y)∈R2 si ha che: F(x, y) = 0 ⇒ F(−x, −y) = 0.

25.12. Definizione. Date due curve F : F(x, y) = 0 e G : G(x, y) = 0 del piano, diremo
25.12.1. curva intersezione di F e G,e la indicheremo col simbolo F ∩ G, l’insieme di tutti e soli i
punti del piano che appartengono ad entrambe le curve;
25.12.2. curva unione di F e G, e la indicheremo col simbolo F ∪ G, l’insieme di tutti e soli i punti
del piano che appartengono ad almeno una delle due curve.

25.13. Osservazione. Date due curve F : F(x, y) = 0 e G : G(x, y) = 0 del piano, si ha che
 F( x , y) = 0
25.13.1. F ∩ G : 
G ( x , y) = 0
25.13.2. F ∪ G : F(x, y)G(x, y) = 0

25.14. Esempio. Date le curve (rette) F(x, y) = 2x − 3y − 9 = 0 e G(x, y) = 2x + y − 5 = 0 si ha che


F ∩ G = {(3, −1)} F ∪ G : (2x − 3y − 9)(2x + y − 5) = 4x2 − 4xy − 3y2 − 28x + 6y + 45 = 0

212
25.15. Definizione. Diremo conica ogni curva algebrica di ordine 2.
Quindi, una conica è il luogo dei punti del piano le cui coordinate soddisfano un’equazione del tipo
ax2 + bxy + cy2 + dx + ey + f = 0 con (a, b, c) ≠ (0, 0, 0)

25.16. Lemma. Se rispetto ad un riferimento RC(O, i, j) del piano C è una conica di equazione
(♥) ax2 + bxy + cy2 + dx + ey + f = 0 con (a, b, c) ≠ (0, 0, 0)
allora esiste un riferimento RC(O, i’, j’) tale che rispetto ad esso la la conica C ha equazione
(♣) λ1(x’)2 + λ2(y’)2+ gx’+ hy’+ f = 0 con (λ1, λ2) ≠ (0, 0)

Inoltre, il riferimento RC(O, i’, j’) si ottiene tramite una rotazione del riferimento RC(O, i, j).
Dimostrazione. Ponendo
 a b/2 x 
A :=   ≠ 0 , X :=  y  e G := [ d e ]
b/2 c   
si verifica subito che:
(1) XTAX = ax2 + bxy + cy2
(2) GX = dx + ey
per cui la (♥) si può riscrivere così
(♠) XTAX + GX + f = 0

λ1 0 
Poiché A è simmetrica, esistono una matrice diagonale Λ =   ed una matrice ortogonale
 0 λ2 

α γ 
 con detC = 1 tali che A = CΛC . Se consideriamo i vettori i’ := αi + βj e j’ := γi + δj,
T
C= 
 β δ 
allora la terna (O, i’, j’) un riferimento cartesiano ortonormale che si ottene “ruotando” RC(O, i, j).
 x'
Ponendo Y :=   le equazioni della rotazione sono X = CY, da cui Y = C-1X = CTX. Si ha che:
 y'
(I) XTAX = XT(CΛCT)X = (XTC)Λ(CTX) = (CTX)TΛ(CTX) = YTΛY = λ1(x’)2 + λ2(y’)2.

Inoltre, ponendo H = GC ovvero


[ g h ] = [ d e ]C
si ha che
(II) GX = G(CY) = (GC)Y = HY = gx’+ hy’.
Tenendo conto di (I) e (II) la (♠) diventa YTΛY + HY + f = 0 ovvero
(♣) λ1(x’)2 + λ2(y’)2+ gx’+ hy’+ f = 0 (λ1, λ2) ≠ (0, 0)

213
25.17. Teorema. (classificazione delle coniche nel piano euclideo)
Sia RC(O, i, j) un riferimento cartesiano ortonormale del piano. Se C è una conica

ax2 + bxy + cy2 + dx + ey + f = 0 con (a, b, c) ≠ (0, 0, 0)

allora esiste un riferimento RC(O’, i’, j’), ottenuto con una rototraslazione di RC(O, i, j), tale che
rispetto ad esso la la conica C ha una delle seguenti nove equazioni:
1) (x’’)2+ n = 0 con n > 0 conica senza punti reali
2) (x’’)2 = 0 due rette reali e coincidenti
3) (x’’− p)(x’’+ p) = 0 con p ≠ 0 due rette reali distinte parallele
4) y’’= q(x’’)2 parabola
5) |λ1|(x’’)2 + |λ2|(y’’)2= 0 con λ1λ2 ≠ 0 conica con un solo punto reale

6) ( λ1 x’’+ λ2 y’’)( λ1 x’’− λ2 y’’) = 0 con λ1λ2 ≠ 0 due rette reali distinte incidenti

(x' ' ) 2 (y' ' )2


7) + = 1 con αβ ≠ 0 ellisse
α2 β2

(x' ' ) 2 (y' ' )2


8) + = −1 con αβ ≠ 0 ellisse immaginaria
α2 β2

(x' ' ) 2 (y' ' )2


9) − = 1 con αβ ≠ 0 iperbole
α2 β2
Dimostrazione. Per il Lemma 25.16 esiste un riferimento RC(O, i’, j’) tale che rispetto ad esso la
conica C ha equazione
(♣) λ1(x’)2 + λ2(y’)2+ gx’+ hy’+ f = 0 con (λ1, λ2) ≠ (0, 0)

Inoltre, il riferimento RC(O, i’, j’) si ottiene tramite una rotazione del riferimento RC(O, i, j).
• Se uno dei due autovalori è zero, allora sia λ2 = 0. Ovviamente, λ1 ≠ 0.

Ponendo δ := g/2λ1 , m := (h/λ1) e n := (f/λ1) − δ2 l’equazione (♣) della conica C diventa

(♠) (x’+ δ)2 + my’ + n = 0


 x ' ' = x '+ δ
Se m = 0, allora effettuando la traslazione  dal RC(O, i’, j’) si ottiene un RC(O’, i’, j’)
 y ' ' = y '

tale che rispetto ad esso l’equazione (♠) della conica C diventa (x’’)2 + n = 0.
1) Se n > 0, allora l’equazione (x’’)2 + n = 0 non ha soluzioni reali. Quindi, C non ha punti reali.
1) Se n = 0, allora l’equazione diventa (x’’)2 = 0. Quindi, C è l’unione di due rette reali coincidenti.
3) Se n < 0, allora ponendo n := −p2 con p ≠ 0 l’equazione diventa (x’’− p)(x’’+ p) = 0.
Quindi, C è l’unione di due rette reali distinte parallele.

214
4) Se m ≠ 0, allora ponendo q := −(1/m) e γ = (n/m) l’equazione (♠) della conica C diventa
y’ + γ = q(x’+ δ)2
 x ' ' = x '+ δ
Effettuando la traslazione  dal RC(O, i’, j’) si ottiene un RC(O’, i’, j’) tale che rispetto
 y' ' = y'+ γ
ad esso l’equazione (♠) della conica C diventa y’’ = q(x’’)2. Quindi, C è una parabola.
• Se λ1λ2 ≠ 0, allora ponendo δ := g/2λ1 , γ := h/2λ2 e n = f − λ1δ2− λ2γ2 l’equazione (♣) diventa

λ1(x’+ δ)2 + λ2(y’+ γ)2 + n = 0

 x ' ' = x '+ δ


Effettuando la traslazione  dal RC(O, i’, j’) si ottiene un RC(O’, i’, j’) tale che rispetto
 y' ' = y'+ γ
ad esso l’equazione (♣) della conica C diventa
(♦) λ1(x’’)2 + λ2(y’’)2 + n = 0

Se n = 0, allora l’equazione (♦) diventa λ1(x’’)2 + λ2(y’’)2 = 0.

5) Se λ1λ2 > 0, allora l’equazione diventa |λ1|(x’’)2 + |λ2|(y’’)2 = 0 che ha la coppia (0, 0) come

unica soluzione reale. Quindi, la conica ha un solo punto reale.


6) Se λ1λ2 < 0, allora l’equazione diventa |λ1|(x’’)2 − |λ2|(y’’)2 = 0 ovvero

( λ1 x’’+ λ2 y’’)( λ1 x’’− λ2 y’’) = 0

Quindi, la conica è l’unione di due rette reali distinte incidenti.


Se n ≠ 0, allora l’equazione (♦) diventa (−λ1/n)(x’’)2 + (−λ2/n)(y’’)2 = 1. Si osservi che se λ1λ2 > 0,

allora (−λ1/n)(−λ2/n) = λ1λ2 /n2 > 0. Invece, se λ1λ2 < 0, allora (−λ1/n)(−λ2/n) = λ1λ2 /n2 < 0.

7) Se (−λ1/n) > 0 e (−λ2/n) > 0, allora ponendo α2 := (−n/λ1) e β2 := (−n/λ2) l’equazione (♦)

(x' ' ) 2 (y' ' )2


diventa + = 1. Quindi, la conica è un’ellisse.
α2 β2

8) Se (−λ1/n) < 0 e (−λ2/n) < 0, allora ponendo α2 := (n/λ1) e β2 := (n/λ2) l’equazione (♦) diventa

(x' ' ) 2 (y' ' )2


+ = −1. Quindi, la conica non ha punti reali. Tale conica si dice ellisse immaginaria.
α2 β2
9) Se λ1λ2 < 0, allora poiché (−λ1/n)(−λ2/n) < 0 possiamo scegliere λ1 e λ2 in modo tale che sia

(−λ1/n) > 0 e (−λ2/n) < 0. Ponendo α2 := (−n/λ1) e β2 := (n/λ2) l’equazione (♦) diventa

(x' ' ) 2 (y' ' )2


− = 1. Quindi, la conica è un’iperbole. 
α2 β2

215
Esercizio 1. Classificare la conica: x2 − 10xy + y2 + 10x − 2y + 1 = 0.

a=1 b = −10 c=1 d = 10 e = −2 f=1


 a b/2  1 − 5
A :=   =   ⇒ pA(λ) = λ2 − 2λ − 24 = (λ − 6)(λ + 4) ⇒ λ1 = 6 e λ2 = −4
b/2 c  − 5 1 
Troviamo gli autovettori relativi a λ1 = 6 (cioè le autosoluzioni del sistema (A − 6I)X = 0)
 − 5 − 5 − 5 x − 5 y = 0
(A − 6I) =   ⇒  ⇒ x + y = 0 ⇒ (x, y) = t(1, −1) ∀t∈R−{0}
 − 5 − 5 − 5 x − 5 y = 0

1 2
Dato che ||(1, −1)|| = 2 , prendendo t = ± =± otteniamo un autoVERSORE.
2 2
Per il Teorema 20.20, esiste una matrice ortogonale C con detC = 1 che diagonalizza A. Le colonne

2
di C sono autoversori di A. Se scegliamo i’ = (i − j) come primo autoversore (cioè scegliamo le
2
sue componenti come prima colonna di C) è semplice vedere che il secondo autoversore (cioè

2
quello relativo a λ2 = −4) è necessariamente j’ = (i + j).
2
Infatti, si vede subito che la matrice C che ha le loro componenti come colonne

2  1 1 cosθ − sin θ 
C= − 1 1 =  sin θ cos θ 
2   
è ortogonale con detC = 1. Si osservi anche che θ = −π/4 radianti. Cioè, il RC(O, i’, j’) si ottiene
“ruotando” il RC(O, i, j) attorno ad O di 45° in senso orario.
x   x'
Posto X :=   e Y :=   le equazioni della rotazione sono X = CY.
 y  y'
La rotazione trasforma il complesso dei termini di secondo grado
ax2 + bxy + cy2 = x2 − 10xy + y2
nel complesso
λ1(x’)2 + λ2(y’)2 = 6(x’)2 − 4(y’)2

La rotazione trasforma il complesso dei termini di primo grado dx + ey = 10x − 2y


nel complesso gx’+ hy’ dove (ricordiamo) è [ d e ]C = [ g h ]. Quindi,

2  1 1 2  1 1 2
[ 10 −2 ] − 1 1 = 2 [ 10 −2 ] − 1 1 = 2 [ 12 8 ] = [ 6 2 4 2 ].
2    
Quindi, la rotazione trasforma il complesso dei termini di primo grado 10x − 2y

nel complesso 6 2 x’ + 4 2 y’.

216
Per cui, rispetto al RC(O, i’, j’) la conica ha equazione
6(x’)2 − 4(y’)2 + 6 2 x’ + 4 2 y’ + 1 = 0

6(x’)2 + 6 2 x’ − 4(y’)2 + 4 2 y’ + 1 = 0

2 2 2 2
6(x’ + ) − 3 − 4(y’ − ) +2+1=0
2 2

2 2 2 2
6(x’ + ) − 4(y’ − ) + 2 + 1 −3 = 0
2 2

2 2 2 2
6(x’ + ) − 4(y’ − ) =0
2 2
 2
x ' ' = x '+
Effettuando la traslazione  2 otteniamo l’equazione
 y' ' = y'− 2
 2
6(x’’)2 − 4(y’’)2 = 0

( 6 x’’)2 − (2y’’)2 = 0

( 6 x’’ + 2y’’)( 6 x’’ − 2y’’) = 0

Quindi, la conica è unione di due rette reali distinte incidenti.

217
Esercizio 2. Classificare la conica: 8x2 − 12xy + 17y2 + 60x − 70y + 105 = 0.

a=8 b = −12 c = 17 d = 60 e = −70 f = 105


 a b/2  8 − 6
A=   =   ⇒ pA(λ) = λ2 − 25λ + 100 = (λ − 5)(λ − 20) ⇒ λ1 = 5 , λ2 = 20
b/2 c  − 6 17 
Troviamo gli autovettori relativi a λ1 = 5 (cioè le autosoluzioni del sistema (A − 5I)X = 0)
 3 − 6  3x − 6 y = 0
(A − 5I) =   ⇒  ⇒ x − 2y = 0 ⇒ (x, y) = t(2, 1) ∀t∈R−{0}
− 6 12  − 6 x + 12 y = 0

1 5
Dato che ||(2, 1)|| = 5 , prendendo t = ± =± otteniamo un autoVERSORE.
5 5
Per il Teorema 20.20, esiste una matrice ortogonale C con detC = 1 che diagonalizza A. Le colonne

5
di C sono autoversori di A. Se scegliamo i’ = (2i + j) come primo autoversore (cioè scegliamo
5
le sue componenti come prima colonna di C) è semplice vedere che il secondo autoversore (cioè

5
quello relativo a λ2 = 20) è necessariamente j’ = (− i + 2j).
5
Infatti, si vede subito che la matrice C che ha le loro componenti come colonne

5 2 − 1
C= 1 2 
5  
è ortogonale con detC = 1.
x   x'
Posto X :=   e Y :=  y' le equazioni della rotazione sono X = CY.
 y  
La rotazione trasforma il complesso dei termini di secondo grado
ax2 + bxy + cy2 = 8x2 − 12xy + 17y2
nel complesso
λ1(x’)2 + λ2(y’)2 = 5(x’)2 + 20(y’)2

La rotazione trasforma il complesso dei termini di primo grado dx + ey = 60x − 70y


nel complesso gx’+ hy’ dove (ricordiamo) è [ d e ]C = [ g h ]. Quindi,

5 2 − 1 5 2 − 1 5
[ 60 −70 ]   = [ 60 −70 ]   = [50 −200 ] = [ 10 5 −40 5 ].
5 1 2  5 1 2  5

Quindi, la rotazione trasforma il complesso dei termini di primo grado 60x − 70y

nel complesso 10 5 x’ − 40 5 y’ .

218
Per cui, rispetto al RC(O, i’, j’) la conica ha equazione
5(x’)2 + 20(y’)2 + 10 5 x’ − 40 5 y’ + 105 = 0

5(x’)2 + 10 5 x’ + 20(y’)2 − 40 5 y’ + 105 = 0

5(x’ + 5 )2 − 25 + 20(y’ − 5 )2 − 100 + 105 = 0

5(x’ + 5 )2 + 20(y’ − 5 )2 + 105 − 25 − 100 = 0

5(x’ + 5 )2 + 20(y’ − 5 )2 − 20 = 0

x ' ' = x '+ 5


Effettuando la traslazione  otteniamo l’equazione
 y ' ' = y '− 5

5(x’’)2 + 20(y’’)2 = 20
1
(x’’)2 + (y’’)2 = 1
4

Quindi, la conica è un’ellisse.

219
Esercizio 3. Classificare la conica: 3x2 + 10 3 xy − 7y2 + 4 3 x − 44y − 52 = 0.

a=3 b = 10 3 c = −7 d=4 3 e = −44 f = −52

 a b/2  3 5 3
 ⇒ pA(λ) = λ + 4λ − 96 = (λ − 8)(λ + 12) ⇒ λ1 = 8 , λ2 = −12
2
A=   = 
 b/2 c  5 3 − 7 

Troviamo gli autovettori relativi a λ1 = 8 (cioè le autosoluzioni del sistema (A − 8I)X = 0)

 − 5 5 3 − 5 x + 5 3 y = 0
(A − 8I) =   ⇒  ⇒ x− 3 y = 0 ⇒ (x, y) = t( 3 , 1) ∀t∈R−{0}
5 3 − 15  5 3x − 15 y = 0
1
Dato che ||( 3 , 1)|| = 2, prendendo t = ± otteniamo un autoVERSORE.
2
Per il Teorema 20.20, esiste una matrice ortogonale C con detC = 1 che diagonalizza A. Le colonne
1
di C sono autoversori di A. Se scegliamo i’ = ( 3 i + j) come primo autoversore (cioè scegliamo
2
le sue componenti come prima colonna di C) è semplice vedere che il secondo autoversore (cioè
1
quello relativo a λ2 = −12) è necessariamente j’ = (−i + 3 j).
2
Infatti, si vede subito che la matrice C che ha le loro componenti come colonne

1  3 − 1 cosθ − sin θ 
C=   = 
2 1 3   sin θ cos θ 

è ortogonale con detC = 1. Si osservi anche che θ = π/6 radianti. Cioè, il RC(O, i’, j’) si ottiene
“ruotando” il RC(O, i, j) attorno ad O di 30° in senso antiorario.
x   x'
Posto X :=   e Y :=  y' le equazioni della rotazione sono X = CY.
 y  
La rotazione trasforma il complesso dei termini di secondo grado
ax2 + bxy + cy2 = 3x2 + 10 3 xy − 7y2
nel complesso
λ1(x’)2 + λ2(y’)2 = 8(x’)2 − 12(y’)2

220
La rotazione trasforma il complesso dei termini di primo grado dx + ey = 4 3 x − 44y
nel complesso gx’+ hy’ dove (ricordiamo) è [ d e ]C = [ g h ]. Quindi,

1  3 − 1 1  3 − 1 1
[ 4 3 − 44]   = [ 4 3 − 44]   = [ −32 − 48 3 ] = [ − 16 −24 3 ].
2 1 3 2 1 3 2

Quindi, la rotazione trasforma il complesso dei termini di primo grado 4 3 x − 44y

nel complesso − 16x’ − 24 3 y’.


Per cui, rispetto al RC(O, i’, j’) la conica ha equazione
8(x’)2 − 12(y’)2 −16x’ − 24 3 y’ − 52 = 0

8(x’)2 −16x’ − 12(y’)2 − 24 3 y’ − 52 = 0

8(x’ − 1)2 − 8 − 12(y’ + 3 )2 + 36 − 52 = 0

8(x’ − 1)2 − 12(y’ + 3 )2 + 36 − 52 − 8 = 0

8(x’ − 1)2 − 12(y’ + 3 )2 − 24 = 0

x ' ' = x '−1


Effettuando la traslazione  otteniamo l’equazione
 y' ' = y'+ 3
8(x’’)2 − 12(y’’)2 = 24
1 1
(x’’)2 − (y’’)2 = 1
3 2

Quindi, la conica è un’iperbole.

221
Esercizio 4. Classificare la conica: 3x2 − 4 3 xy + 4y2 + 2 3 x − 4y + 1 = 0.

a=3 b = −4 3 c=4 d=2 3 e = −4 f=1

 a b/2  3 − 2 3
 ⇒ pA(λ) = λ − 7λ = λ(λ − 7) ⇒ λ1 = 7 , λ2 = 0
2
A=   = 
 b/2 c  − 2 3 4 

Troviamo gli autovettori relativi a λ1 = 7 (cioè le autosoluzioni del sistema (A − 7I)X = 0)

 −4 − 2 3 − 4 x − 2 3 y = 0
(A − 7I) =   ⇒  ⇒ 2x + 3 y = 0 ⇒ (x, y) = t( 3 , −2) ∀t≠0
− 2 3 −3   − 2 3x − 3 y = 0

1 7
Dato che ||( 3 , −2)|| = 7 , prendendo t = ± =± otteniamo un autoVERSORE.
7 7

Per il Teorema 20.20, esiste una matrice ortogonale C con detC = 1 che diagonalizza A. Le colonne

7
di C sono autoversori di A. Se scegliamo i’ = ( 3 i − 2j) come primo autoversore (cioè
7
scegliamo le sue componenti come prima colonna di C) è semplice vedere che il secondo

7
autoversore (cioè quello relativo a λ2 = 0) è necessariamente j’ = (2i + 3 j).
7
Infatti, si vede subito che la matrice C che ha le loro componenti come colonne

7  3 2
C=  
7 − 2 3

è ortogonale con detC = 1.


x   x'
Posto X :=   e Y :=  y' le equazioni della rotazione sono X = CY.
 y  
La rotazione trasforma il complesso dei termini di secondo grado
ax2 + bxy + cy2 = 3x2 − 4 3 xy + 4y2
nel complesso (ricordiamo che λ2 = 0)
λ1(x’)2 + λ2(y’)2 = 7(x’)2

222
La rotazione trasforma il complesso dei termini di primo grado dx + ey = 2 3 x − 4y
nel complesso gx’+ hy’ dove (ricordiamo) è [ d e ]C = [ g h ]. Quindi,

7  3 2 7  3 2 7
[ 2 3 − 4]   = [ 2 3 − 4]   = [ 14 0 ] = [ 2 7 0 ].
7 − 2 3 7 − 2 3 7

Quindi, la rotazione trasforma il complesso dei termini di primo grado 2 3 x − 4y

nel complesso 2 7 x’.


Per cui, rispetto al RC(O, i’, j’) la conica ha equazione
7(x’)2 + 2 7 x’ + 1 = 0

7 2
7(x’ + ) =0
7

7 2
(x’ + ) =0
7

x ' ' = x '+ 7
Effettuando la traslazione  7 otteniamo l’equazione
 y' ' = y'

(x’’)2 = 0

Quindi, la conica è unione di due rette reali coincidenti.

223
Esercizio 5. Classificare la conica: 4x2 + 4xy + y2 + 2 5 x + 6 5 y + 5 + 2 3 = 0.

a=4 b=4 c=1 d=2 5 e=6 5 f=5+2 3


 a b/2 4 2
A=   =   ⇒ pA(λ) = λ2 − 5λ = λ(λ − 5) ⇒ λ1 = 5 , λ2 = 0
b/2 c  2 1 
Troviamo gli autovettori relativi a λ1 = 5 (cioè le autosoluzioni del sistema (A − 5I)X = 0)
− 1 2  − x + 2 y = 0
(A − 5I) =   ⇒  ⇒ x − 2y = 0 ⇒ (x, y) = t(2, 1) ∀t≠0
 2 − 4  2x − 4 y = 0

1 5
Dato che ||(2, 1)|| = 5 , prendendo t = ± =± otteniamo un autoVERSORE.
5 5
Per il Teorema 20.20, esiste una matrice ortogonale C con detC = 1 che diagonalizza A. Le colonne

5
di C sono autoversori di A. Se scegliamo i’ = (2i + j) come primo autoversore (cioè scegliamo
5
le sue componenti come prima colonna di C) è semplice vedere che il secondo autoversore (cioè

5
quello relativo a λ2 = 0) è necessariamente j’ = (−i + 2j).
5
Infatti, si vede subito che la matrice C che ha le loro componenti come colonne

5 2 − 1
C= 1 2 
5  
è ortogonale con detC = 1.
x   x'
Posto X :=   e Y :=  y' le equazioni della rotazione sono X = CY.
 y  
La rotazione trasforma il complesso dei termini di secondo grado
ax2 + bxy + cy2 = 4x2 + 4xy + y2
nel complesso (ricordiamo che λ2 = 0)
λ1(x’)2 + λ2(y’)2 = 5(x’)2

224
La rotazione trasforma il complesso dei termini di primo grado dx + ey = 2 5 x + 6 5 y
nel complesso gx’+ hy’ dove (ricordiamo) è [ d e ]C = [ g h ]. Quindi,

5 2 − 1 5 2 − 1 2 − 1
[2 5 6 5] 1 2  = 5 [ 2 5 6 5 ] 1 2  = [ 2 6 ] 1 2  = [ 10 10 ].
5      
Quindi, la rotazione trasforma il complesso 2 5 x + 6 5 y
nel complesso 10x’ + 10y’.
Per cui, rispetto al RC(O, i’, j’) la conica ha equazione
5(x’)2 + 10x’ + 10y’ + 5 + 2 3 = 0

5(x’ + 1)2 − 5 + 10y’ + 5 + 2 3 = 0

5(x’ + 1)2 + 10y’ + 2 3 = 0

10y’ + 2 3 = − 5(x’ + 1)2

3 1
y’ + = − (x’ + 1)2
5 2
x ' ' = x '+1
Effettuando la traslazione  3 otteniamo l’equazione
y ' ' = y '+
 5
1
y’’ = − (x’’)2
2

Quindi, la conica è una parabola.

225
Esercizio 6. Classificare la conica: 5x2 − 2 3 xy + 7y2 − 12 3 x + 20y + 36 = 0.

a=5 b = −2 3 c=7 d = 12 3 e = 20 f = 36

 a b/2  5 − 3
 ⇒ pA(λ) = λ − 12λ + 32 = (λ − 4)(λ − 8) ⇒ λ1 = 4 , λ2 = 8
2
A=   = 
 b/2 c  − 3 7 

Troviamo gli autovettori relativi a λ1 = 5 (cioè le autosoluzioni del sistema (A − 4I)X = 0)

 1 − 3  x − 3y = 0
(A − 4I) =   ⇒  ⇒ x− 3 y = 0 ⇒ (x, y) = t( 3 , 1) ∀t∈R−{0}
 − 3 3   − 3 x + 3 y = 0

1
Dato che ||( 3 , 1)|| = 2, prendendo t = ± otteniamo un autoVERSORE.
2
Per il Teorema 20.20, esiste una matrice ortogonale C con detC = 1 che diagonalizza A. Le colonne
1
di C sono autoversori di A. Se scegliamo i’ = ( 3 i + j) come primo autoversore (cioè scegliamo
2
le sue componenti come prima colonna di C) è semplice vedere che il secondo autoversore (cioè
1
quello relativo a λ2 = 8) è necessariamente j’ = (− i + 3 j).
2
Infatti, si vede subito che la matrice C che ha le loro componenti come colonne

1  3 − 1
C=  
2 1 3

è ortogonale con detC = 1.


x   x'
Posto X :=   e Y :=  y' le equazioni della rotazione sono X = CY.
 y  
La rotazione trasforma il complesso dei termini di secondo grado
ax2 + bxy + cy2 = 5x2 − 2 3 xy + 7y2
nel complesso
λ1(x’)2 + λ2(y’)2 = 4(x’)2 + 8(y’)2

La rotazione trasforma il complesso dei termini di primo grado dx + ey = − 12 3 x + 20y


nel complesso gx’+ hy’ dove dove (ricordiamo) è [ d e ]C = [ g h ]. Quindi,

1  3 − 1 1  3 − 1 1
[ −12 3 20 ]   = [ −12 3 20 ]   = [ −16 32 3 ] = [ −8 16 3 ]
2 1 3 2 1 3 2

Quindi, la rotazione trasforma il complesso dei termini di primo grado − 12 3 x + 20y

nel complesso − 8x’ + 16 3 y’.

226
Per cui, rispetto al RC(O, i’, j’) la conica ha equazione
4(x’)2 + 8(y’)2 − 8x’ + 16 3 y’ + 36 = 0

4(x’)2 − 8x’ + 8(y’)2 + 16 3 y’ + 36 = 0

4(x’ − 1)2 − 4 + 8(y’ + 3 )2 − 24 + 36 = 0

4(x’ − 1)2 + 8(y’ + 3 )2 + 36 − 4 − 24 = 0

4(x’ − 1)2 + 8(y’ + 3 )2 + 8 = 0

x ' ' = x '−1


Effettuando la traslazione  otteniamo l’equazione
 y ' ' = y '+ 3
4(x’’)2 + 8(y’’)2 = − 8
1
(x’’)2 + (y’’)2 = − 1
2

Quindi, la conica è un’ellisse immaginaria.

227
Esercizio 7. Classificare la conica: 9x2 + 6xy + y2 − 6x − 2y − 39 = 0.

a=9 b=6 c=1 d = −6 e = −2 f = −39


 a b/2 9 3
A=   =   ⇒ pA(λ) = λ2 − 10λ = λ(λ − 10) ⇒ λ1 = 10 , λ2 = 0
b/2 c  3 1
Troviamo gli autovettori relativi a λ1 = 10 (cioè le autosoluzioni del sistema (A − 10I)X = 0)
− 1 3  − x + 3 y = 0
(A − 10I) =   ⇒  ⇒ x − 3y = 0 ⇒ (x, y) = t(3, 1) ∀t∈R−{0}
 3 − 9  3x − 9 y = 0

1 10
Dato che ||(3, 1)|| = 10 , prendendo t = ± =± otteniamo un autoVERSORE.
10 10
Per il Teorema 20.20, esiste una matrice ortogonale C con detC = 1 che diagonalizza A. Le colonne

10
di C sono autoversori di A. Se scegliamo i’ = (3i + j) come primo autoversore (cioè scegliamo
10
le sue componenti come prima colonna di C) è semplice vedere che il secondo autoversore (cioè

10
quello relativo a λ2 = 0) è necessariamente j’ = (− i + 3j).
10
Infatti, si vede subito che la matrice C che ha le loro componenti come colonne

10 3 − 1
C= 1 3 
10  
è ortogonale con detC = 1.
x   x'
Posto X :=   e Y :=  y' le equazioni della rotazione sono X = CY.
 y  
La rotazione trasforma il complesso dei termini di secondo grado
ax2 + bxy + cy2 = 9x2 + 6xy + y2
nel complesso (ricordiamo che λ2 = 0)
λ1(x’)2 + λ2(y’)2 = 10(x’)2

La rotazione trasforma il complesso dei termini di primo grado dx + ey = − 6x − 2y


nel complesso gx’+ hy’ dove dove (ricordiamo) è [ d e ]C = [ g h ]. Quindi,

10 3 − 1 10 3 − 1 10
[ −6 −2 ] 1 3  = 10 [ −6 −2 ] 1 3  = 10 [ −20 0 ] = [ −2 10 0]
10    
Quindi, la rotazione trasforma il complesso dei termini di primo grado − 6x − 2y

nel complesso −2 10 x’.

228
Per cui, rispetto al RC(O, i’, j’) la conica ha equazione
10(x’)2 − 2 10 x’ − 39 = 0

10 2
10(x’ − ) − 1 − 39 = 0
10

10 2
10(x’ − ) − 40 = 0
10

10 2
(x’ − ) −4=0
10

 10

Effettuando la traslazione x ' ' = x '− 10 otteniamo l’equazione
 y' ' = y'

(x’’)2 − 4 = 0

(x’’ − 2)(x’’ + 2) = 0

Quindi, la conica è unione di due rette reali distinte parallele.

229
Esercizio 8. Classificare la conica: 3x2 + 2xy + 3y2 − 4x − 12y + 12 = 0.

a=3 b=2 c=3 d = −4 e = −12 f = 12


 a b/2 3 1
A=   =   ⇒ pA(λ) = λ2 − 6λ + 8 = (λ − 4)(λ − 2) ⇒ λ1 = 4 , λ2 = 2
b/2 c  1 3
Troviamo gli autovettori relativi a λ1 = 4 (cioè le autosoluzioni del sistema (A − 4I)X = 0)
− 1 1  − x + y = 0
(A − 4I) =   ⇒  ⇒ x − y = 0 ⇒ (x, y) = t(1, 1) ∀t∈R−{0}
 1 − 1  x−y=0

1 2
Dato che ||(1, 1)|| = 2 , prendendo t = ± =± otteniamo un autoVERSORE.
2 2
Per il Teorema 20.20, esiste una matrice ortogonale C con detC = 1 che diagonalizza A. Le colonne

2
di C sono autoversori di A. Se scegliamo i’ = (i + j) come primo autoversore (cioè scegliamo le
2
sue componenti come prima colonna di C) è semplice vedere che il secondo autoversore (cioè

2
quello relativo a λ2 = 2) è necessariamente j’ = (−i + j).
2
Infatti, si vede subito che la matrice C che ha le loro componenti come colonne

2 1 − 1 cosθ − sin θ 
C= =
2 1 1   sin θ cos θ 

è ortogonale con detC = 1. Si osservi anche che θ = π/4 radianti. Cioè, il RC(O, i’, j’) si ottiene
“ruotando” il RC(O, i, j) attorno ad O di 45° in senso antiorario.
x   x'
Posto X :=   e Y :=  y' le equazioni della rotazione sono X = CY.
 y  
La rotazione trasforma il complesso dei termini di secondo grado
ax2 + bxy + cy2 = 3x2 + 2xy + 3y2
nel complesso
λ1(x’)2 + λ2(y’)2 = 4(x’)2 + 2(y’)2

230
La rotazione trasforma il complesso dei termini di primo grado dx + ey = −4x − 12y
nel complesso gx’+ hy’ dove (ricordiamo) è [ d e ]C = [ g h ]. Quindi,

2 1 − 1 2 1 − 1 2
[ −4 − 12 ] 1 1  = 2 [ −4 − 12] 1 1  = 2 [ −16 −8 ] = [ −8 2 −4 2 ].
2    
Quindi, la rotazione trasforma il complesso dei termini di primo grado −4x − 12y

nel complesso − 8 2 x’ − 4 2 y’.


Per cui, rispetto al RC(O, i’, j’) la conica ha equazione
4(x’)2 + 2(y’)2 − 8 2 x’ − 4 2 y’ + 12 = 0

4(x’)2 − 8 2 x’ + 2(y’)2 − 4 2 y’ + 12 = 0

4(x’− 2 )2 − 8 + 2(y’− 2 )2 − 4 + 12 = 0

4(x’− 2 )2 + 2(y’− 2 )2 − 4 + 12 − 8 = 0

4(x’− 2 )2 + 2(y’− 2 )2 = 0

2(x’− 2 )2 + (y’− 2 )2 = 0

 x ' ' = x '− 2


Effettuando la traslazione  otteniamo l’equazione
 y' ' = y'− 2

2(x’’)2 + (y’’)2 = 0

Quindi, la conica ha un solo punto reale.

Utilizzando i numeri complessi, indicata con i l’unità immaginaria (tale che i2 = −1, ovvero −i2 = 1)
possiamo scrivere l’equazione 2(x’’)2 + (y’’)2 = 0 come segue
2(x’’)2 − i2(y’)2 = 0

( 2 x’’)2 − (iy’)2 = 0

( 2 x’’ − iy’)( 2 x’’ + iy’) = 0


Quindi, la conica è unione di due rette immaginarie coniugate incidenti in un punto reale.

231
Esercizio 9. Classificare la conica: 4x2 − 12xy + 9y2 − 4x + 6y + 53 = 0.

a=4 b = −12 c=9 d = −4 e=6 f = 53


 a b/2  4 − 6
A=   =   ⇒ pA(λ) = λ2 − 13λ = λ(λ − 13) ⇒ λ1 = 13 , λ2 = 0
b/2 c  − 6 9 
Troviamo gli autovettori relativi a λ1 = 13 (cioè le autosoluzioni del sistema (A − 13I)X = 0)
− 9 − 6 − 9x − 6 y = 0
(A − 13I) =   ⇒  ⇒ 3x + 2y = 0 ⇒ (x, y) = t(2, −3) ∀t∈R−{0}
 − 6 − 4 − 6 x − 4 y = 0

1 13
Dato che ||(2, −3)|| = 13 , prendendo t = ± =± otteniamo un autoVERSORE.
13 13
Per il Teorema 20.20, esiste una matrice ortogonale C con detC = 1 che diagonalizza A. Le colonne

13
di C sono autoversori di A. Se scegliamo i’ = (2i − 3j) come primo autoversore (cioè
13
scegliamo le sue componenti come prima colonna di C) è semplice vedere che il secondo

13
autoversore (cioè quello relativo a λ2 = 0) è necessariamente j’ = (3i + 2j).
13
Infatti, si vede subito che la matrice C che ha le loro componenti come colonne

13  2 3 cosθ − sin θ 
C= − 3 2 =  sin θ cos θ 
13   
è ortogonale con detC = 1.
x   x'
Posto X :=   e Y :=  y' le equazioni della rotazione sono X = CY.
 y  
La rotazione trasforma il complesso dei termini di secondo grado
ax2 + bxy + cy2 = 4x2 − 12xy + 9y2
nel complesso (ricordiamo che λ2 = 0)
λ1(x’)2 + λ2(y’)2 = 13(x’)2

232
La rotazione trasforma il complesso dei termini di primo grado dx + ey = −4x + 6y
nel complesso gx’+ hy’ dove (ricordiamo) è [ d e ]C = [ g h ]. Quindi,

13  2 3 13  2 3 13
[ −4 6 ] − 3 2 = 13 [ −4 6 ] − 3 2 = 13 [ −26 0 ] = [ −2 13 0 ].
13    
Quindi, la rotazione trasforma il complesso dei termini di primo grado −4x + 6y

nel complesso − 2 13 x’.


Per cui, rispetto al RC(O, i’, j’) la conica ha equazione
13(x’)2 − 2 13 x’ + 53 = 0

13 2
13(x’− ) − 1 + 53 = 0
13

13 2
13(x’− ) + 52 = 0
13

13 2
(x’− ) +4=0
13

 13

Effettuando la traslazione x ' ' = x '− 13 otteniamo l’equazione
 y' ' = y'

(x’’)2 + 4 = 0

Poiché questa equazione non ha soluzioni reali, la conica non ha alcun punto reale.

Utilizzando i numeri complessi, indicata con i l’unità immaginaria (tale che i2 = −1, ovvero −i2 = 1)
possiamo scrivere l’equazione (x’’)2 + 4 = 0 come segue
(x’’)2 − 4i2 = 0
(x’’)2 − (2i)2 = 0
(x’’ − 2i)(x’’ + 2i) = 0
Quindi, la conica è unione di due rette immaginarie coniugate non aventi punti (propri) in comune.
Per cui le possiamo pensare come ”parallele”.

233
26. La sfera e la circonferenza nello spazio.

26.1. Definizione. Diremo sfera l’insieme di tutti e soli i (il luogo dei) punti dello spazio che hanno
la stessa distanza R > 0 (detta raggio della sfera) da un fissato punto (detto centro della sfera).

26.2. Lemma. Sia RC(O, i, j, k) un riferimento cartesiano ortonormale dello spazio.


Se Σ è una sfera di centro C(xC, yC, zC) e raggio R > 0, allora un punto P0(x0, y0, z0) dello spazio
appartiene alla sfera se e solo se la terna delle sue coordinate è una soluzione dell’equazione

(♥) (x − xC)2 + (y − yC)2 + (z − zC)2 = R2

Dimostrazione. P0(x0, y0, z0)∈Σ ⇔ d(P0, C) = R > 0 ⇔ [d(P0, C)]2 = R2 ⇔


⇔ (x0 − xC)2 + (y0 − yC)2 + (z0 − zC)2 = R2 ⇔ (x0, y0, z0) è una soluzione di (♥). 

26.3. Teorema. Sia RC(O, i, j, k) un riferimento cartesiano ortonormale dello spazio.


Il luogo Σ dei punti dello spazio le cui coordinate soddisfano un’equazione del tipo
(♣) x2 + y2 + z2 + ax + by + cz + d = 0
è una sfera se e solo se a2 + b2 + c2 − 4d > 0.
a b c 1 2
Inoltre, tale sfera ha il centro nel punto C(− , − , − ) e raggio R = a + b 2 + c 2 − 4d .
2 2 2 2
Dimostrazione. L’equazione (♣) è equivalente ad ognuna delle equazioni seguenti
x2 + ax + y2 + by + z2 + cz + d = 0
[x + (a/2)]2 − (a/2)2 + [y + (b/2)]2 − (b/2)2 + [z + (c/2)]2 − (c/2)2 + d = 0
[x − (−a/2)]2 + [y − (−b/2)]2 + [z − (−c/2)]2 = (a2 + b2 + c2 − 4d)/4
Quest’ultima, postoo xC := −a/2, yC := −b/2, zC := −c/2 e δ = (a2 + b2 + c2 − 4d)/4 si riscrive così
(♠) (x − xC)2 + (y − yC)2 + (z − zC)2 = δ
Ora, si osservi che per ogni terna (x, y, z) di numeri reali il primo membro dell’equazione (♠) è
sempre maggiore o uguale a zero. Quindi, l’equazione (♠) ha infinite soluzioni se e solo se δ > 0.
Per cui, l’equazione (♠) rappresenta una sfera se e solo se δ > 0 ovvero (a2 + b2 + c2 − 4d) > 0.
1 2
Essendo δ > 0, possiamo porre R := δ= a + b 2 + c 2 − 4d e l’equazione (♠) si riscrive così
2
(♥) (x − xC)2 + (y − yC)2 + (z − zC)2 = R2
1 2
che è l’equazione della sfera di centro C(−a/2, −b/2, −c/2) e raggio R = a + b 2 + c 2 − 4d . 
2

234
26.4. Osservazione. Per ogni numero reale δ non nullo, l’equazione
δx2 + δy2 + δz2 + (δa)x + (δb)y + (δc)z + (δd) = 0
è equivalente (cioè ha le stesse soluzioni) all’equazione
x2 + y2 + z2 + ax + by + cz + d = 0.

Tenendo conto del Teorema 26.3 e dell’Osservazione 26.4 è ben posta la seguente

26.5. Definizione. Sia RC(O, i, j, k) un riferimento cartesiano ortonormale dello spazio.


Se Σ è una sfera i cui punti hanno coordinate che sono tutte e sole le soluzioni dell’equazione
(♣) x2 + y2 + z2 + ax + by + cz + d = 0 con a2 + b2 + c2 − 4d > 0
allora diremo che (♣) è l’equazione cartesiana della sfera Σ.

26.6. Osservazione. (mutua posizione di un piano e una sfera).


Sia RC(O, i, j, k) un riferimento cartesiano ortonormale dello spazio. Siano π un piano e Σ una sfera
di centro C(xC, yC, zC) e raggio R > 0. Si ha che:
(1) d(C, π) > R ⇔ π∩Σ=∅ il piano è esterno alla sfera;
(2) d(C, π) = R ⇔ π ∩ Σ = {P0} il piano è tangente alla sfera in un punto P0;
(3) d(C, π) < R ⇔ π∩Σ=C il piano incide la sfera in una circonferenza C.

π P0
π

Σ R
C

C
π

26.7. Corollario. (piano tangente ad una sfera in un suo punto)


Il piano tangente nel punto P0(x0, y0, z0) ad una sfera di centro C(xC, yC, zC) ha equazione
(xC − x0)(x − x0) + (yC − y0)(y − y0) + (zC − z0)(z − z0) = 0
Dimostrazione. Il piano appartiene alla stella a(x − x0) + b(y − y0) + c(z − z0) = 0 di piani per P0.
Poiché il vettore [P0C] è perpendicolare al piano, scegliamo (a, b, c) = (xC − x0, yC − y0, zC − z0). 

235
26.8. Osservazione. (mutua posizione di un retta e una sfera).
Sia RC(O, i, j, k) un riferimento cartesiano ortonormale dello spazio. Siano s una retta e Σ una sfera
di centro C(xC, yC, zC) e raggio R > 0. Si ha che:
(1) d(C, s) > R ⇔ s∩Σ=∅ la retta è esterna alla sfera;
(2) d(C, s) = R ⇔ s ∩ Σ = {P0} la retta è tangente alla sfera in un punto P0;
(3) d(C, s) < R ⇔ s ∩ Σ = {A, B} la retta incide la sfera in due punti A e B.

P0 s
s
Σ
C
R
A

B
s

26.9. Osservazione. (mutua posizione di due sfere aventi lo stesso raggio).


Sia RC(O, i, j, k) un riferimento cartesiano ortonormale dello spazio. Siano Σ e Σ’ due sfere aventi
lo stesso raggio R > 0. Indicati con C(xC, yC, zC) e C’(xC’, yC’, zC’) i loro centri, si ha che:
(1) d(C, C’) = 0 ⇔ le due sfere coincidono;
(2) 0 < d(C, C’) < 2R ⇔ l’intersezione delle due sfere è una circonferenza C;
(3) d(C, C’) = 2R ⇔ le sfere sono tangenti esternamente in un punto P0;
(4) d(C, C’) > 2R ⇔ le sfere sono esterne fra loro.

Σ C
R
R R R R
(2) C C C C
C P0
R
Σ Σ Σ (4) Σ
(3)
C
Σ

236
26.10. Osservazione. (mutua posizione di due sfere aventi due raggi diversi).
Sia RC(O, i, j, k) un riferimento cartesiano ortonormale dello spazio. Siano Σ e Σ’ due sfere aventi
raggi R e R’ tali che R > R’ > 0. Indicati con C(xC, yC, zC) e C’(xC’, yC’, zC’) i loro centri, si ha che:
(1) d(C, C’) = 0 ⇔ la sfera Σ’ è interna e concentrica alla sfera Σ;
(2) 0 < d(C, C’) < R − R’ ⇔ la sfera Σ’ è interna alla sfera Σ;
(3) d(C, C’) = R − R’ ⇔ la sfera Σ’ è interna e tangente in P0 alla sfera Σ;
(4) R − R’ < d(C, C’) < R + R’ ⇔ l’intersezione delle due sfere è una circonferenza C;
(5) d(C, C’) = R + R’ ⇔ le sfere sono tangenti esternamente in un punto P0;
(6) d(C, C’) > R + R’ ⇔ le sfere sono esterne fra loro.

Σ Σ Σ

R
Σ R
Σ
Σ C C' R' C C' R'
P0

(1) (2) (3)

Σ Σ

R R'
C R R'
Σ P0 Σ
C C' C C'

(4) (5)

R R'
C C'
Σ

(6)

237
26.11. Osservazione. (equazioni cartesiane di una circonferenza nello spazio).
Nell’Osservazione 26.6 abbiamo visto che l’intersezione di una sfera Σ di centro C e raggio R > 0
ed un piano π tale che d(C, π) < R è una circonferenza C. Per cui se a’x + b’y + c’z + d’ = 0 è
l’equazione del piano π e x2 + y2 + z2 + ax + by + cz + d = 0 è l’equazione della sfera Σ allora i
punti della circonferenza C sono tutti e soli i punti le cui coordinate soddisfano il sistema
x 2 + y 2 + z 2 + ax + by + cz + d = 0
(♥) 
a ' x + b' y + c' z + d ' = 0

Le equazioni (♥) vengono dette equazioni cartesiane di una circonferenza nello spazio.

Il raggio r della circonferenza C è r = R 2 − [d (C, π)]2 .

La retta s passante per il centro C della sfera Σ e perpendicolare a π ha equazioni parametriche

x = a ' t + x c

s :  y = b' t + y c .
 z = c' t + z
 c

Il centro C’ della circonferenza è il punto d’intersezione della retta s con il piano π.


x = a ' t + x C
 y = b' t + y
 C
{C’} = s ∩ π : 
z = c' t + z C
a ' x + b' y + c' z + d ' = 0

Σ (a',b',c')

(a',b',c')
C
R d(C, π )

r C' C
π
s

238
26.12. Osservazione. (retta tangente ad una circonferenza nello spazio).
Sia C una circonferenza dello spazio avente equazioni cartesiane
x 2 + y 2 + z 2 + ax + by + cz + d = 0
C: 
a ' x + b' y + c' z + d ' = 0

intersezione della sfera


Σ : x2 + y2 + z2 + ax + by + cz + d = 0
e del piano
π : a’x + b’y + c’z + d’ = 0.
Siano P0(x0, y0, z0) un punto della circonferenza C e t è la retta tangente in P0 alla circonferenza C.
Se C(xC, yC, zC) è il centro della sfera, allora il piano π’ tangente in P0 alla sfera Σ ha equazione
π’ : (xC − x0)(x − x0) + (yC − y0)(y − y0) + (zC − z0)(z − z0) = 0
Si vede subito che la retta t si può rappresentare come intersezione del piano π col piano π’, per cui
la retta t tangente in P0 alla circonferenza C ha equazioni cartesiane

a ' x + b' y + c' z + d' = 0


t: 
( x C − x 0 )( x − x 0 ) + ( yC − y0 )( y − y0 ) + (z C − z 0 )(z − z 0 ) = 0

Σ
π'
C

C P0
π t

239
26.13. Osservazione. (ancora sull’intersezione di due sfere).
Siano Σ : x2 + y2 + z2 + ax + by + cz + d = 0 e Σ’ : x2 + y2 + z2 + a’x + b’y + c’z + d’ = 0 due sfere.
Se le sfere sono concentriche (cioè hanno lo stesso centro), allora o coincidono (se hanno lo stesso
raggio) o non hanno punti in comune (se hanno raggi diversi). Supponiamo, ora, che le due sfere
non siano concentriche, cioè (a, b, c) ≠ (a’, b’, c’). I punti che appartengono all’intersezione delle
due sfere sono tutti e soli i punti le cui coordinate soddisfano il sistema
x 2 + y 2 + z 2 + ax + by + cz + d = 0
Σ ∩ Σ’ :  2
x + y 2 + z 2 + a ' x + b' y + c' z + d ' = 0

Sottraendo membro a membro le due equazioni otteniamo


(♣) (a’− a)x + (b’− b)y + (c’− c)z + (d’− d) = 0
Essendo (a’− a, b’− b, c’− c) ≠ (0, 0, 0), l’equazione (♣) rappresenta sempre un piano.

Tenendo conto dell’Osservazione 26.13 possiamo dare la seguente

26.14. Definizione.
Se Σ : x2 + y2 + z2 + ax + by + cz + d = 0 e Σ’ : x2 + y2 + z2 + a’x + b’y + c’z + d’ = 0 sono due
sfere non concentriche, allora diremo che il piano (a’− a)x + (b’− b)y + (c’− c)z + (d’− d) = 0 è il
piano radicale delle sfere Σ e Σ’

26.15. Osservazione. (circonferenza intersezione di due sfere).


Se Σ : x2 + y2 + z2 + ax + by + cz + d = 0 e Σ’ : x2 + y2 + z2 + a’x + b’y + c’z + d’ = 0 sono due
sfere la cui intersezione è una circonferenza, allora la circonferenza può anche essere rappresentata
come intersezione di una delle due sfere con il loro piano radicale. Per cui possiamo scrivere
x 2 + y 2 + z 2 + ax + by + cz + d = 0
C: 
(a '−a ) x + (b'− b) y + (c'−c)z + (d '−d ) = 0

26.16 Teorema. (sfere contenenti una data circonferenza).


Sia C la circonferenza ottenuta come intersezione della sfera Σ : x2 + y2 + z2 + ax + by + cz + d = 0
e del piano π : a’’x + b’’y + c’’z + d’’ = 0. Un’altra sfera Σ’ : x2 + y2 + z2 + a’x + b’y + c’z + d’ = 0
contiene la circonferenza C se e solo se la quaterna (a’− a, b’− b, c’− c, d’− d) è proporzionale alla
quaterna (a’’, b’’, c’’, d’’).
Dimostrazione. C ⊂ Σ’ ⇔ Σ ∩ Σ’= C ⇔ il loro piano radicale coincide proprio con π ⇔
⇔ (a’− a)x + (b’− b)y + (c’− c)z + (d’− d) = 0 è equivalente a a’’x + b’’y + c’’z + d’’ = 0. 

240
8.1. Esercizio. Trovare le coordinate del centro e il raggio delle seguenti sfere:
a) x2 + y2 + z2 − 12x + 4y − 1 = 0.
b) x2 + y2 + z2 − 6y + 8z − 3 = 0.
c) 2x2 + 2y2 + 2z2 − 16x + 6y − 14z + 61 = 0.

8.2. Esercizio. Trovare per quali valori del parametro reale k il piano 2x − z + k’ = 0 risulta
rispettivamente secante, tangente o esterno alla sfera x2 + y2 + z2 − 2x + 6z − 3 = 0.

8.3. Esercizio. Verificare che il piano 3x − y − 2z + 5 = 0 è tangente alla sfera


x2 + y2 + z2 − 6x − 5 = 0, e trovare le coordinate del punto di contatto.

1
8.4. Esercizio. Scrivere l’equazione del piano tangente nel punto A( , 1, 2 3 ) alla sfera
2
4x2 + 4y2 + 4z2 − 48x − 16y − 13 = 0

8.5. Esercizio. Scrivere l’equazione della sfera di centro C(1, 0, −2) e raggio R = 1.

8.6. Esercizio. Scrivere l’equazione della sfera di centro C(−2, 1, 3) e passante per l’origine .

8.7. Esercizio. Scrivere l’equazione della sfera passante per i quattro punti A(0, 0, 1), B(1, −1, 1),
C(−1, 2, 0) e D(2, 1, −1).

8.8. Esercizio. Scrivere l’equazione della sfera passante per l’origine e per il punto P(2, −3, −1) e
con il centro sull’asse Z.

8.9. Esercizio. Scrivere l’equazione della sfera tangente all’asse X nel punto A(2, 0, 0) e tangente
alla retta x − z + 1 = y − 2z + 1 = 0 nel punto B(−1, −1, 0).

8.10. Esercizio. Scrivere l’equazione della sfera tangente al piano 2x + 3y − 7z = 0 nel suo punto
A(2, 1, 1) e passante per il punto B(1, −2, 3).

8.11. Esercizio. Scrivere l’equazione della sfera tangente al piano x − z − 1 = 0 nel suo punto
A(0, 1, −1) e avente il centro sul piano XY.

241
8.12. Esercizio. Scrivere l’equazione della sfera tangente nell’origine O(0, 0, 0) al piano x − 2y = 0
e passante per il punto A(2, 3, 1).

8.13. Esercizio. Scrivere le equazioni delle sfere di raggio R = 2 e passanti per la circonferenza
x2 + y2 + z2 − 1 = x + 2y − z = 0

8.14. Esercizio. Scrivere l’equazione della sfera passante per la circonferenza comune alle due sfere
x2 + y2 + z2 − 2 = 0 e x2 + y2 + z2 + 4x = 0 e con il centro C sul piano x + 2y − 3z − 1 = 0.

8.15. Esercizio. Scrivere l’equazione della sfera passante per il punto A(2, −3, −1) e passante per la
circonferenza di equazioni x2 + y2 + z2 − x + 2y = 3x − z = 0.

8.16. Esercizio. Scrivere l’equazione della sfera tangente al piano x + 2y + 3z − 7 = 0 nel suo
punto P(2, 1, 1) e passante per l’origine.

8.17. Esercizio. Scrivere l’equazione della sfera tangente alla sfera x2 + y2 + z2 − 4x + 2y − 1 = 0


nel suo punto P(0, 0, 1) e passante per l’origine.

8.18. Esercizio. Determinare le coordinate del centro C’ e il raggio r della circonferenza


x2 + y2 + z2 − 2x − 4y − 1 = x − 2y = 0

8.19. Esercizio. Determinare le coordinate del centro C’ e il raggio r della circonferenza


x2 + y2 + z2 − 4x − 6y − 2z + 13 = y + 3 = 0

8.20. Esercizio. Scrivere le equazioni della circonferenza appartenente al piano 2x − 3y − 2z = 0 e


avente centro in C(1, 0, 1) e raggio r = 3.

8.21. Esercizio. Scrivere le equazioni della circonferenza passante per i tre punti A(1, 0, 0),
B(0, 2, 0) e C(0, 0, 3).

8.22. Esercizio. Scrivere le equazioni della circonferenza tangente alla retta x = y = z nel suo
punto A(1, 1, 1) e passante per il punto P(3, 1, 0).

242

You might also like