You are on page 1of 160

Algebra lineare e

Geometria analitica
Fausto De Mari

Appunti per il corso di Geometria e Algebra


Universit`
a degli Studi di Napoli Federico II
Corso di Studi in Ingegneria Meccanica (canali A-De e Di-M)
a.a. 2015/16 versione 14 marzo 2016

Indice

1 Strutture Algebriche
1.1 Cenni di teoria degli insiemi
1.2 Corrispondenze tra insiemi .
1.3 Applicazioni . . . . . . . . .
1.4 Gruppi, Anelli e Campi . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

2 Spazi vettoriali
2.1 Vettori liberi . . . . . . . . . . . . . . . . . .
2.2 Spazi vettoriali . . . . . . . . . . . . . . . .
2.3 Sottospazi . . . . . . . . . . . . . . . . . . .
2.4 Dipendenza e indipendenza lineare . . . . .
2.5 Spazi vettoriali di dimensione finita . . . . .
2.6 Applicazioni lineari tra spazi vettoriali . . .
2.7 Immagine e nucleo di unapplicazione lineare
3 Matrici e Sistemi lineari
3.1 Generalit`a e operazioni tra matrici . . . . .
3.1.1 Lanello delle matrici . . . . . . . . .
3.1.2 Lo spazio vettoriale delle matrici . .
3.2 Matrici a scala . . . . . . . . . . . . . . . .
3.3 Determinante di una matrice . . . . . . . . .
3.4 Matrici Invertibili . . . . . . . . . . . . . . .
3.5 Dipendenza lineare e rango di una matrice .
3.6 Generalit`a sui sistemi lineari . . . . . . . . .
3.7 Metodi di risoluzione . . . . . . . . . . . . .
3.8 Sitemi lineari omogenei . . . . . . . . . . . .
3.9 Matrice associata ad unapplicazione lineare
3.10 Matrice del cambio di base . . . . . . . . . .

.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.

1
1
3
5
7

.
.
.
.
.
.
.

11
11
17
19
23
26
32
38

.
.
.
.
.
.
.
.
.
.
.
.

40
40
42
43
44
48
52
55
61
63
69
72
76

4 Diagonalizzazione di endomorfismi e matrici


79
4.1 Autovalori, autovettori e autospazi . . . . . . . . . . . . . . . . . . . 79
4.2 Endomorfismi diagonalizzabili . . . . . . . . . . . . . . . . . . . . . . 83
4.3 Matrici diagonalizzabili . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5 Spazi euclidei reali
89
5.1 Spazi euclidei reali . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.2 Diagonalizzazione ortogonale . . . . . . . . . . . . . . . . . . . . . . 95

Indice

iii

6 Geometria analitica
6.1 Spazi affini . . . . . . . . . . . . . . . . . . . . . . .
6.2 Geometria nel piano . . . . . . . . . . . . . . . . .
6.2.1 Rappresentazione della retta . . . . . . . . .
6.2.2 Posizione reciproca e ortogonalit`a tra rette .
6.2.3 Fasci di rette nel piano . . . . . . . . . . . .
6.2.4 Distanze nel piano . . . . . . . . . . . . . .
6.3 Geometria nello spazio . . . . . . . . . . . . . . . .
6.3.1 Rappresentazione del piano . . . . . . . . .
6.3.2 Posizione reciproca e ortogonalit`a tra piani .
6.3.3 Rappresentazione della retta . . . . . . . . .
6.3.4 Posizione reciproca e ortogonalit`a tra rette .
6.3.5 Posizione reciproca e ortogonalit`a tra retta e
6.3.6 Fasci di piani nello spazio . . . . . . . . . .
6.3.7 Comune perpendicolare a due rette . . . . .
6.3.8 Distanze nello spazio . . . . . . . . . . . . .

. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
piano
. . . .
. . . .
. . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

98
98
103
104
106
108
109
110
112
114
116
119
121
123
124
127

7 Le coniche
7.1 Le coniche come luogo geometrico . . .
7.1.1 Circonferenza . . . . . . . . . .
7.1.2 Ellisse . . . . . . . . . . . . . .
7.1.3 Iperbole . . . . . . . . . . . . .
7.1.4 Parabola . . . . . . . . . . . . .
7.2 Ampliamento del piano affine euclideo
7.3 Le coniche . . . . . . . . . . . . . . . .
7.4 Classificazione delle coniche . . . . . .
7.5 Polarit`a definita da una conica . . . . .
7.5.1 Esempi . . . . . . . . . . . . . .
7.6 Riduzione a forma canonica . . . . . .
7.7 Esempi . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

130
130
130
131
133
134
135
137
139
142
145
148
152

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

CAPITOLO 1

Strutture Algebriche
1.1

Cenni di teoria degli insiemi

Assumiamo come primitivi i concetti di ente, di insieme e di propriet`a. In maniera


intuitiva, un insieme `e una collezione di enti, o oggetti, di natura arbitraria. Gli
insiemi si indicano con le lettere maiuscole dellalfabeto ed i loro elementi con le
lettere minuscole. Per indicare che un ente x `e un elemento di un insieme S si scrive
x S e si legge x appartiene ad S, la scrittura x 6 S indica invece che x non
appartiene ad S ossia che x non `e un elemento di S. Se P `e una propriet`a e x `e
un ente per il quale la propriet`a P `e vera si usa una delle scritture x : P o x|P e si
legge x tale che P. Esistono delle propriet`a che risultano false per ogni ente, come
ad esempio la propriet`a x 6= x; una propriet`a che `e falsa per ogni ente determina
un insieme privo di elementi chiamato insieme vuoto che si denota col simbolo .
Un insieme pu`o essere definito elencando i suoi elementi oppure specificando le
propriet`a soddisfatte dai suoi elementi. Ad esempio possiamo scrivere
{0, 1, 2, 3, 1, 2}

oppure

{n Z | 2 n 3}

per indicare linsieme dei numeri interi compresi tra 2 e 3. Nella precedente scrittura Z sta ad indicare linsieme dei numeri interi relativi, pi`
u in generale per gli
insiemi numerici le notazioni usuali sono:
N0 = {0, 1, 2, 3, . . . } numeri naurali incluso lo 0;
N numeri naturali escluso lo 0;
Z numeri interi relativi (ossia positivi e negativi, incluso lo 0);
Q numeri razionali (ovvero i quozienti di interi);
R numeri reali.

In un insieme lordine degli elementi `e irrilevante, ad esempio {x, y} = {y, x},


inoltre leventuale presenza di ripetizioni non modifica la natura dellinsieme, ad
esempio i simboli {x, y}, {y, x} e {x, y, y} rappresentano tutti lo stesso insieme.
Siano S e T insiemi. Si dice che S `e contenuto in T , o che T contiene S, se ogni
elemento di S `e anche un elemento di T ; in tal caso si scrive S T e si dice anche
che S `e una parte di T , o che S `e un sottoinsieme di T , o che S `e incluso in T oppure
che T contiene S. In simboli si scrive

S T x x S x T .
Nella precendente scrittura compaiono i simboli (equivalenza), (implicazione) e . Se P e Q sono due proposizioni si scrive P Q, e si legge P

Strutture Algebriche

implica Q, per indicare che Q `e conseguenza di P , mentre si scrive P Q, e si


legge P se e solo se Q, per indicare che P Q e che Q P . Invece il simbolo
traduce la parola per ogni e si chiama quantificatore universale. Un altro
simbolo di cui si far`a uso `e che si chiama quatificatore esistenziale e traduce in
simbolo la parola esiste; talvolta il quantificatore esistenziale preceder`a un punto
esclamativo ! e in tal caso questo simbolo tradurr`a la parola esiste ed `e unico.
Chiaramente linsieme vuoto `e contenuto in ogni insieme, mentre qualsiasi sia
linsieme S `e sempre vero che S S. Quindi, detto insieme delle parti di S linsieme
P (S) = {X | X S},
si ha che P (S) non `e mai vuoto perch`e contiene sempre gli insiemi e S. Si osservi
anche che S = T se e solo se S T e T S. Si dice che linsieme S `e contenuto
propriamente nellinsieme T se S T e S 6= T ; in tal caso si scrive S T e si dice
anche che S `e una parte propria di T , o che `e un sottoinsieme proprio di T . Infine,
la scrittura S 6 T indica che S non `e contenuto in T .
Siano S e T insiemi. Si dice intersezione di S e T linsieme S T i cui elementi
appartengono sia ad S che T ; in particolare, due insiemi la cui intesezione `e linsieme
vuoto si dicono disgiunti. Si dice unione di S e T linsieme S T i cui elementi sono
in S oppure in T ; infine, si dice differenza di S e T linsieme S \T di tutti gli elementi
che sono in S ma non in T . Quindi:
S T = {x | x S e x T },

S T = {x | x S o x T }

e
S \ T = {x | x S e x 6 T }.
Se S, T e V sono insiemi, alcune delle propriet`a dellunione e dellintersezione
sono qui di seguito elencate:
(i) S S = S e S S = S (propriet`a iterativa);
(ii) S T = T S e S T = T S (propriet`a commutativa);
(iii) (S T ) V = S (T V ) e (S T ) V = S (T V ) (propriet`a associativa);
(iv) (S T )V = (S V )(T V ) (propriet`a distributiva dellintersezione rispetto
allunione);
(v) (S T ) V = (S V ) (T V ) (propriet`a distributiva dellunione rispetto
allintersezione).
Le nozioni di unione e intersezione si possono generalizzare come segue. Sia F
un insieme non vuoto di insiemi. Si dice intersezione degli elementi di F linsieme

1.2 Corrispondenze tra insiemi

X i cui elementi appartengono a ciascuno degli elementi di F. Si dice unione


XF
[
degli elementi di F linsieme
X i cui elementi appartengono ad almeno un
XF

elemento di F.
In particolare, dato un[
insieme S, un insieme F di parti non vuote di S a due a
due disgiunte e tale che
X = S si dice essere una partizione di S. Ad esempio,
XF

qualsiasi sia linsieme non vuoto S sono sue partizioni gli insiemi {S} e {{x} | x S}.

1.2

Corrispondenze tra insiemi

Siano x ed y enti. Si dice coppia di prima coordinata x e di seconda coordinata y


linsieme
(x, y) = {{x}, {x, y}}
Sostanzialmente la coppia (x, y) indica un insieme in cui lordine degli elementi ha un
peso, quindi `e per questo differente dallinsieme {x, y}, e precisamente `e un insieme
in cui il primo elemento `e x e il secondo elemento `e y. E infatti semplice
accorgersi che
(x1 , y1 ) = (x2 , y2 ) x1 = x2 e y1 = y2
Il concetto di coppia si estende al concetto di terna (x, y, z), che potrebbe essere
definita formalmente come la coppia di prima coordinata (x, y) e seconda coordinata
z, e cos` via possono essere definite le quadruple, le quintuple, o pi`
u in generale le
n-uple (con n 2). In maniera informale possiamo dire che una n-upla `e un insieme
ordinato di n elementi (x1 , x2 , . . . , xn ) in cui x1 `e il primo elemento, x2 `e il secondo
elemento, e cos` via xn `e ln-simo elemento, ed `e inoltre un insieme che gode della
seguente propriet`a
(x1 , x2 , . . . , xn ) = (y1 , y2 , . . . , yn ) x1 = y1 , x2 = y2 ,. . . , xn = yn .
Se S e T sono due insiemi, si dice prodotto cartesiano di S e T linsieme
S T = {(x, y) | x S e y T };
nel caso particolare in cui S = T invece che di prodotto cartesiano si parla di
quadrato cartesiano e linsieme S S si denota anche con S 2 . Si noti che S T =
se e soltanto se S oppure T `e linsieme vuoto, ed inoltre S T = T S se e solo se
S = T . Ad esempio, considerati gli insiemi S = {F, N} e T = {], [, \} si ha che
S T = {(F, ]), (F, [), (F, \), (N, ]), (N, [), (N, \)}.
E abbastanza naturale estendere il concetto di prodotto cartesiano al caso di un
numero arbitrario n 2 di insiemi S1 , . . . , Sn , ponendo
S1 Sn = {(x1 , . . . , xn ) | xi Si i = 1, . . . , n};

Strutture Algebriche

inoltre, in analogia col quadrato cartesiano, il simbolo S n indicher`a il prodotto


cartesiano dellinsieme S per se stesso n volte.
Siano S e T insiemi non vuoti. Una corrispondenza di S in T `e una coppia
R = (S T, G) dove G `e un sottoinsieme dellinsieme S T che viene detto grafico
della corrispondenza; inoltre, un elemento x S si dice nella corrispondenza R con
un elemento y T , e si scrive xRy, se risulta (x, y) G. Ad esempio, cosniderati gli
insiemi S = {F, N} e T = {], [, \} del precedente esempio, una corrispondenza R di
S in T si ottiene in corrispondenza della scelta dellinsieme {(F, \), (N, ]), (N, \)}: in
questo caso si ha che FR\, NR] e NR\. Si noti che in una corrispondenza `e possibile
che un elemento sia in corrispondenza con pi`
u elementi, cos` come in questo esempio
accade per lelemento N che `e nella corrispondenza R sia con ] che con \. Si noti
anche che la scelta dellinsieme vuoto come grafico definisce una corrispondenza in
S T , dunque in una corrispondenza `e possibile pure che elementi di S non abbiano
nessun corrispondente in T .
Una corrispondenza di S in se si dice pure relazione (binaria) in S. Una relazione R = (S 2 , G) si dice poi relazione di equivalenza se sono verificate le seguenti
propriet`a:
1E Riflessiva: per ogni x S risulta xRx.
2E Simmetrica: se x ed y sono elementi di S e se xRy allora anche yRx.
3E Transitiva: se x, y e z sono elementi di S e se xRy e yRz allora anche xRz.
Se R `e una relazione di equivalenza ed x S, si dice classe di equivalenza di x
modulo R il sottoinsieme degli elementi di S che sono nella relazione R con x
[x]R = {y S | yRx}
Si noti che la propriet`a riflessiva assicura che x [x]R , in particolare le classi di
equivalenza sono sottoinsiemi non vuoti di S e risulta
[
S=
[x]R
xS

Si potrebbe inoltre provare che se x ed y sono elementi di S allora [x]R = [y]R oppure
[x]R [y]R = ; in particolare si ha che linsieme S/R delle classi di equivalenza, che
`e detto anche insieme quoziente di S rispetto ad R, `e una partizione dellinsieme S.
Ad esempio, se S = {, 3, 4} e
G = {(, ), (3, 3), (4, 4)(, 4), (4, )}
allora R = (S 2 , G) `e una relazione di equivalenza e risulta
[]R = {, 4} = [4]R e [3]R = {3}.

1.3 Applicazioni

Un altro esempio `e il seguente. Nellinsieme delle rette (del piano o dello spazio)
della geometria elementare, la relazione k definita dalla posizione rks se e solo se r
ed s sono complanari e non incidenti (cio`e parallele) `e una relazione di equivalenza;
in tal caso la classe di equivalenza [r]k consiste in r e in tutte le rette ad r parallele
e viene detta direzione della retta r.

1.3

Applicazioni

Considerati due insiemi non vuoti S e T , unapplicazione (o funzione) f di S in T


`e una corrispondenza f = (S T, G) tale che per ogni elemento x S esiste un
unico elemento y T per cui (x, y) G; in tal caso si usa scrivere f : S T , inoltre
linsieme S si dice dominio, linsieme T si dice codominio, linsieme G si dice grafico
e, per ogni x in S, lunico elemento y di T per cui (x, y) G si denota col simbolo
f (x) e si dice immagine di x mediante f (talvolta si dice pure che y corrisponde
ad x rispetto ad f ). Con queste notazioni, quindi, risulta G = {(x, f (x)) | x S};
inoltre si scrive pure
f : x S f (x) T.
Se X S si dice immagine di X mediante f il sottoinsieme di T
f (X) = {f (x) | x X};
in particolare, si pone Im f = f (S) e si parla semplicemente di immagine di f . Se invece Y T , si dice antiimagine (o controimmagine) di Y mediante f il sottoinsieme
di S
f 1 (Y ) = {x S | f (x) Y }.
Tra tutte le applicazioni di un insieme non vuoto S in s`e, una che spesso incontreremo `e lapplicazione identica ovvero lapplicazione
S : x S x S.
Se S = {201, 5, 73}, T = {a, b} e G = {(201, a), (5, a), (73, a)} allora `e semplice
accorgersi che f = (S T, G) `e unapplicazione, cos` com`e evidente che gli insiemi
{(5, a), (73, b)} e {(201, a), (5, a), (5, b), (73, a)} non possono essere il grafico di nessuna applicazione di S in T , il primo perch`e non contiene nessuna coppia di prima
coordinata 201, il secondo perch`e contiene due coppie distinte di prima coordinata
5. Inoltre, ad esempio, se X = {201, 5} allora f (X) = {a}, mentre se Y = {b} allora
f 1 (Y ) = .
Sia f : S T unapplicazione tra gli insiemi non vuoti S e T . Si dice che f `e:
- Iniettiva: se elementi distinti del dominio hanno immagini distinte, il che equivale a richiedere che se f (x) = f (y) allora x = y.

Strutture Algebriche
- Suriettiva: se ogni elemento del codominio `e immagine di qualche elemento
del dominio; in simboli, y T x S tale che f (x) = y.
- Biettiva: se `e sia iniettiva che suriettiva e quindi se y T !x S tale che
f (x) = y.

Unapplicazione biettiva di un insieme non vuoto S in se `e detta anche permutazione di S.


Ad esempio, nellinsieme Z dei numeri interi relativi, lapplicazione definita dalla
posizione f (x) = x2 non `e ne iniettiva, perch`e f (x) = f (x), ne suriettiva, perch`e
i numeri negativi non sono immagine di alcun elemento di Z mediante f ; invece
lapplicazione definita dalla posizione g(x) = 2x `e evidentemente iniettiva ma non `e
suriettiva, perch`e i numeri dispari non sono immagine mediante g di alcun numero
intero. Ancora, sempre in Z, lapplicazione definita da h(x) = x + 1 `e biettiva ed
infine

x se x `e positivo o nullo
k(x) =
x + 1 se x `e negativo
`e evidentemente suriettiva ma non `e iniettiva essendo k(0) = 0 = k(1). Si noti
esplicitamente pure che lapplicazione identica `e banalmente biettiva.
Siano S, T ed U insiemi non vuoti e siano f : S T e g : T U applicazioni.
Se x S allora f (x) T ed ha senso valutare g(f (x)), `e possibile quindi definire
unapplicazione g f : S U mediante la posizione (g f )(x) = g(f (x)) per ogni
x S. Lapplicazione g f si dice applicazione composta di f e g. E opportuno sottolineare che, affinch`e si possano comporre due applicazioni, il codomio di quella pi`
u
a destra deve coincidere con (o almeno essere contenuto in) quello dellapplicazione
pi`
u a sinistra. Ad esempio, riferendoci alle applicazioni di Z in s`e degli esempi di
cui sopra, si ha che (g h)(x) = g(h(x)) = g(x + 1) = 2(x + 1) = 2x + 2 mentre
(h g)(x) = h(g(x)) = h(2x) = 2x + 1. Si noti che questo esempio prova che la composizione di applicazioni non gode della propriet`a commutativa, ovvero in generale
si ha che f g 6= g f ; invece, quando possibile, la composizione di applicazioni gode
della propriet`a associativa ovvero se f , g ed h sono tre applicazioni di cui `e possibile
considerarne le composte, risulta
(f g) h = f (g h),
infatti qualsiasi sia lelemento x nel dominio di h risulta
((f g) h)(x) = (f g)(h(x)) = f (g(h(x))) = f ((g h)(x)) = (f (g h))(x).
Unapplicazione f : S T si dice invertibile quando esiste unapplicazione
g : T S tale che f g = T e g f = S ; in tal caso `e semplice accorgersi che una

1.4 Gruppi, Anelli e Campi

tale applicazione g `e unica, infatti se h : T S `e anchessa tale da essere f h = T


e h f = S si ha che
h = h T = h (f g) = (h f ) g = S g = g.
Dunque una tale applicazione g se esiste `e unica; essa viene detta applicazione
inversa di f e si usa denotarla col simbolo f 1 .
Evidentemente `e sempre invertibile, e coincide con la sua inversa, lapplicazione
identica. Un altro esempio di applicazione invertibile `e lapplicazione h(x) = x + 1
di Z in se, considerata sopra, che ha per inversa lapplicazione h1 (x) = x 1.
Proposizione 1.3.1 Siano S e T insiemi non vuoti e sia f : S T unapplicazione.
Allora f `e invertibile se e soltanto se f `e biettiva.
Dimostrazione Sia f invertibile e sia g : T S tale che f g = T e g f = S .
Allora per ogni y T si ha che y = f (g(y)) con g(y) S e quindi f `e suriettiva,
inoltre se f (x) = f (x0 ) allora risulta x = g(f (x)) = g(f (x0 )) = x0 sicch`e f `e anche
iniettiva e quindi `e biettiva. Viceversa, supponiamo che f sia biettiva. Allora per
ogni y T esiste un unico xy S tale che y = f (xy ), cos` la posizione g(y) = xy
definisce unapplicazione g : T S. Se y T allora f (g(y)) = f (xy ) = y e quindi
f g = T . Daltra parte se x S risulta g(f (x)) = xf (x) = x essendo f iniettiva e
f (xf (x) ) = f (x), cos` g f = S . Pertanto f `e invertibile.
t
u
Se f : S T `e unapplicazione biettiva tra gli insiemi non vuoti S e T si ha
quindi che f `e invertibile. Evidentemente, anche la sua inversa f 1 `e invertibile
e ha per inversa proprio f ; in particolare anche f 1 `e biettiva. Dunque se esiste
unapplicazione biettiva di S in T allora ne esiste anche una di T in S. Due insiemi
non vuoti S e T si dicono equipotenti se esiste unapplicazione biettiva di S in T (o
di T in S).

1.4

Gruppi, Anelli e Campi

Sia S un insieme non vuoto. Unoperazione (interna) nellinsieme S `e unapplicazione


: S S S. Unoperazione esterna in S con dominio di operatori in un insieme
non vuoto A `e invece unapplicazione A S S. Se `e unoperazione (interna o
esterna) in S, in luogo di (x, y) si usa scrivere x y; inoltre la coppia (S, ) si dice
struttura algebrica e S si dice sostegno della struttura algebrica. Spesso, se omettere
loperazione non crea ambiguit`a, la struttua algebrica si denota semplicemente col
suo sostegno.
Una struttura algebrica (G, ), dove `e unoperazione interna nellinsieme non
vuoto G, si dice gruppo se loperazione gode delle seguenti propriet`a:
1G Associativa: per ogni x, y, z G risulta (x y) z = x (y z).

Strutture Algebriche
2G Esiste un elemento neutro u G tale che x u = x = u x per ogni x G;
in tal caso, lelemento u si dice unit`a.
3G Per ogni elemento x G esiste un elemento x0 G, detto simmetrico di x
(rispetto a ), tale che x x0 = u = x0 x.
Il gruppo (G, ) si dice poi abeliano se gode anche della propriet`a:
4G Commutativa: per ogni x, y G risulta x y = y x.

Si noti che se (G, ) `e un gruppo allora lelemento neutro `e unico, infatti se u0 `e


un altro elemento neutro del gruppo allora u = u u0 = u0 ; allo stesso modo se x0
e x00 sono simmetrici di uno stesso elemento x di G, allora
x0 = x0 u = x0 (x x00 ) = (x0 x) x00 = u x00 = x00 ;
sicch`e il simmetrico di un elemento `e unico. Lunicit`a dellelemento neutro e del
simmetrico sono anche casi particolari della seguente:
Proposizione 1.4.1 Sia (G, ) un gruppo e siano a e b due elementi di G. Allora
esite un unico elemento x di G tale che a x = b, ed esiste un unico elemento y di
G tale che y a = b.
Dimostrazione Sia a0 il simmetrico di a rispetto a . Allora, denotato con u
lelemento neutro del gruppo, si ha che
b = u b = (a a0 ) b = a (a0 b);
daltra parte se c `e un elemento di G tale che a c = b, si ha
c = u c = (a0 a) c = a0 (a c) = a0 b.
Laltro caso si prova in modo analogo e quindi si omette.

t
u

Sia G un gruppo e siano x, y ed a elementi di G. Dalla proposizione 1.4.1 segue


che se a x = a y allora x = y (e si dice che a `e cancellabile a sinistra), cos`
come x = y se x a = y a (ovvero a `e anche cancellabile a destra). Questa
propriet`a si esprime dicendo che loperazione `e regolare o anche che vale la legge di
cancellazione. Quindi in un gruppo loperazione `e sempre regolare.
In un gruppo (non abeliano), in genere, si usa denotare loperazione moltiplicativamente, cio`e col simbolo di prodotto , in tal caso lunit`a si denota col simbolo 1 e
il simmetrico di un elemento x si indica con x1 e si dice pure inverso. Nel caso di
gruppi abeliani invece `e solita la notazione additiva, cio`e col simbolo di somma +,
in tal caso lunit`a si denota col simbolo 0 e si dice zero, il simmetrico di un elemento
x si dice opposto e si denota col simbolo x ed inoltre in luogo di x + (y) si usa
scrivere x y.

1.4 Gruppi, Anelli e Campi

Un esempio di gruppo ci `e fornito dallinsieme Z dei numeri interi relativi con


loperazione di somma ordinaria, ma sempre con la somma ordinaria sono gruppi
abeliani linsieme Q dei numeri razionali e linsieme R dei numeri reali. Si noti
che linsieme N dei numeri naturali con la somma ordinaria non `e un gruppo, essendo 0 lunico elemento dotato di opposto. Si noti pure che, sebbene rispetto alla
somma non sia un gruppo, in N la somma `e regolare. In particolare, in un gruppo
loperazione `e sempre regolare, ma unoperazione pu`o essere regolare pur non rendendo una struttura algebrica un gruppo.
Evidentemente, poi, non sono gruppi n`e Z n`e Z \ {0} rispetto alloperazione
di prodotto ordinario, perch`e 1 `e lunico elemento invertibile; differentemente il
prodotto ordinario rende gli insiemi Q \ {0} ed R \ {0} gruppi abeliani. Un altro
esempio di gruppo `e il seguente. Considerato un insieme non vuoto S sia Sym(S)
linsieme delle permutazioni su S. La composizione di applicazioni definisce evidentemente unoperazione interna in Sym(S) che, per quanto osservato in precendenza,
`e associativa; inoltre `e evidente che la permutazione identica `e unit`a e che ogni permutazione f ha per simmetrico f 1 . Dunque Sym(S) `e un gruppo. In generale,
Sym(S) `e non abeliano. Infatti, supposto che S contenga (almeno) tre elementi
distinti a, b e c e considerate in S le applicazioni definite dalle seguenti posizioni:

a se x = b
a se x = c
b se x = a
c se x = a
f (x) =
e g(x) =

x se x S \ {a, b}
x se x S \ {a, c}
`e facile accorgersi che f e g sono permutazioni su S ma risulta f (g(c)) = f (a) = b
e g(f (c)) = g(c) = a, dunque f g 6= g f .
Supponiamo ora di avere un insieme non vuoto R su cui sono definite due operazioni interne, che denotiamo con + e . La struttura algebrica (R, +, ) si dice anello
se:
1R (R, +) `e un gruppo abeliano.
2R gode della propriet`a associativa, ovvero (xy)z = x(yz) per ogni x, y, z R.
3R gode della propriet`a distributiva rispetto a + ovvero se per ogni x, y e z in R
risulta (x + y) z = xz + yz e x (y + z) = xy + xz.
Lanello R si dice poi commutativo se loperazione di prodotto gode anche della
propriet`a commutativa (ossia xy = y x per ogni x, y R), si dice invece unitario se
anche il prodotto ha un elemento neutro ovvero se esiste un elemento, che solitamente
`e detto unit`a e si denota col simbolo 1, tale che 1 x = x = x 1 per ogni x R.
Un anello commutativo unitario R si dice campo se ogni elemento non nullo `e
invertibile (ovvero dotato di simmetrico rispetto al prodotto) e quindi se per ogni

10

Strutture Algebriche

x R esiste in R un elemento, che si denota con x1 , tale che xx1 = 1 = x1 x.


Spesso nel seguito si user`a la lettera K per denotare un campo.
Evidentemente la somma e il prodotto ordinario rendono linsieme Z dei numeri
interi relativi un anello commutativo unitario; mentre somma e prodotto unitario
rendono sia linsieme Q dei numeri razionali che linsieme R dei numeri reali, un
campo.
Proposizione 1.4.2 Sia K un campo. Si ha:
(i) Per ogni elemento a di K risulta a 0 = 0.
(ii) Se a, b K risulta (a)b = (ab) = a(b).
(iii) Se a, b K con a 6= 0, allora da ab = 0 segue b = 0.
Dimostrazione Se a K, usando le propriet`a di anello valide in K si ha:
a0 = a(0 + 0) = a0 + a0

a0 = a0 + 0

quindi a0 = 0 per la proposizione 1.4.1 e la (i) `e provata. Per provare la (ii) si noti
che
0 = a0 = a(b b) = ab + a(b) e 0 = ab + ((ab))
quindi sempre la proposizione 1.4.1 assicura che (ab) = a(b). In modo simile si
ha pure che (ab) = (a)b. Infine per provare la (iii) si noti che essendo a 6= 0
esiste linverso a1 di a e risulta
b = 1b = (a1 a)b = a1 (ab) = a1 0 = 0
t
u

come si voleva.

Si noti che, nella precendete, per le condizioni (i) e (ii) non serve che K sia un
campo, ma basta che K sia un anello; invece per la (iii) `e essenziale che K sia un
campo e questa condizione `e anche detta legge di annullamento del prodotto.
Concludiamo questa sezione sottolineando che esistono anche campi il cui sostegno
`e un insieme con un numero finito di elementi. Giusto per citarne uno, ma senza
soffermarci nella verifica che effettivamente questo sia un campo, si consideri un
insieme K formato da due elementi qualsiasi, ad esempio K = {, 4}; se in questo
insieme defininamo due operazioni interne ponendo
 +  = ,

 + 4 = 4,

4 +  = 4,

4+4=

e
  = ,

 4 = ,

si ottiene che (K, +, ) `e un campo.

4  = ,

44=4

CAPITOLO 2

Spazi vettoriali
2.1

Vettori liberi

Consideriamo linsieme E2 formato dai punti del piano o linsieme E3 dei punti dello
spazio della geometria elementare; si user`a qui il simbolo E per indicare uno qualsiasi
tra gli insiemi E2 ed E3 . Gli elementi di E, i punti, si indicano con le lettere maiuscole
dellalfabeto. Dati due punti P e Q distinti di E, si denoter`a con P Q il segmento di
estremi P e Q, e con rP Q la retta per P e Q. Dalla geometria elementare sappiamo
che assegnati due punti P e Q di una retta r `e possibile assegnare alla retta r, e
di conseguenza anche al segmento P Q, un verso di percorrenza quello secondo cui
P precede Q (che `e la stessa cosa che dire Q segue P ) oppure quello secondo
cui Q precede P . Un segmento P Q su cui si `e fissato uno dei due possibili versi
di percorrenza `e detto segmento orientato oppure vettore applicato, in tal caso si
dice che P `e il punto di applicazione (o anche primo estremo) se nel verso fissato
`e P che precede Q (altrimenti il punto di applicazione `e Q). Un vettore applicato
in cui punto di applicazione `e P si dice anche vettore applicato in P e si denota col

simbolo P Q oppure Q P , in tal caso Q `e laltro estremo del segmento orientato e

di dice anche secondo estremo. Il vettore applicato P Q pu`o essere interpretato come
lo spostamento del punto P sul punto Q e si pu`o rappresentare mediante una freccia
orientata da P a Q.

La definizione di vettore applicato si estende anche al caso in cui il primo estremo

coincide col secondo estremo. Se P `e un punto, il vettore applicato P P coincide col


punto P e viene detto vettore nullo applicato in P .

Considerato il vettore applicato P Q, si dice modulo di P Q la misura del segmento

P Q, in particolare il vettore nullo ha modulo nullo; si dice invece direzione di P Q



la direzione della retta rP Q . Due vettori applicati P Q e P 0 Q0 si dicono paralleli se le
rette rP Q e rP 0 Q0 hanno la stessa direzione (cio`e sono rette parallele), quindi i vettori

applicati P Q e P 0 Q0 sono paralleli se e soltanto se hanno la stessa direzione. Se la
retta rP Q coincide con la retta rP 0 Q0 e su questa retta esiste un verso di percorrenza

secondo cui P precede Q e P 0 precede Q0 , allora si dice che i vettori applicati P Q

12

Spazi vettoriali

e P 0 Q0 hanno lo stesso verso. Se invece le rette rP Q e rP 0 Q0 sono distinte ma i



vettori applicati P Q e P 0 Q0 sono comunque paralleli, allora le rette rP Q e rP 0 Q0 sono
contenute in uno stesso piano che la retta rP P 0 divide in due semipiani: in tal caso,

si dice che i vettori applicati P Q e P 0 Q0 hanno lo stesso verso se i punti Q e Q0
cadono in uno stesso semipiano. Se due vettori liberi hanno lo stesso verso, si usa
dire anche che i vettori hanno verso concorde.

Due vettori applicati paralleli che non hanno lo stesso verso si dicono avere verso
opposto o verso discorde.

Dunque ad ogni vettore applicato (non nullo) corrispondono un punto di applicazione, un numero reale positivo (il modulo), una direzione e un verso. Viceversa,
fissato un punto P , un numero reale positivo a, la direzione di una retta r e un verso
su r, esiste un unico vettore applicato di primo estremo P , modulo a, direzione e
verso quelli di r: infatti, per lassioma di Euclide per P passa ununica retta parallela ad r sulla quale `e chiaramente possibile individuare un solo punto Q tale che il
segmento P Q abbia misura a e verso concorde a quello fissato su r.
Sia VE linsieme dei vettori applicati con primo e secondo estremo in E. Definiamo
in VE una relazione dicendo che due vettori applicati sono equipollenti se hanno
stesso modulo, direzione e verso. Tale relazione `e evidentemente una relazione di
equivalenza, e si dice vettore libero (o semplicemente vettore) ogni classe di equivalenza rispetto alla relazione di equipollenza (in maniera compatta, ogni classe
di equipollenza). I vettori applicati nulli formano una classe di equipollenza detta
vettore nullo e denotata con 0. In generale, quando il contesto non crea ambiguit`a,

si usa indicare con lo stesso simbolo P Q (oppure Q P ) anche il vettore libero

ottenuto come classe di equipollenza del vettore applicato P Q; per`o per quello che
qui segue `e necessario fissare una notazione diversa e si user`a denotare, in questa

2.1 Vettori liberi

13

sezione, con PQ (oppure Q P) la classe di equipollenza del vettore applicato P Q.


Se v `e un vettore libero, il modulo, la direzione e il verso di v sono il modulo, la
direzione e il verso di un suo rappresentante (e quindi di ogni suo rappresentante).
In particolare, due vettori liberi sono paralleli se hanno uguale direzione.
Denotiamo con V2 linsieme dei vettori liberi di E2 e con V3 linsieme dei vettori
liberi di E3 , o semplicemente con con V linsieme dei vettori liberi di E. Gli elementi
di con V si indicano con le lettere minuscole in grassetto.

Proposizione 2.1.1 Dati un vettore v ed un punto P di E, esiste un unico punto

Q E tale che v =PQ.

Dimostrazione Se v = 0, allora v = PP e quindi basta scegliere Q = P .

Sia invece v 6= 0 e sia AB un vettore applicato la cui classe di equipollenza sia v.


Lassioma di Euclide assicura che esiste ununica retta r per P parallela alla retta
rAB , ed `e poi chiaro che su r esiste un unico punto Q tale che il vettore applicato

P Q abbia stesso modulo e stesso verso di AB. Cos` v =PQ.


t
u
Andiamo ora a definire unoperazione, che chiameremo somma, nellinseme V
dei vettori liberi. La somma di due vettori liberi v e w `e il vettore libero che si

denota con v + w e che `e definito come segue. Se v = PQ, la proposizione 2.1.1

assicura che esite un unico punto T tale che w = QT: allora per definizione si pone

v + w = PT.

Nella figura a sinistra, `e raffigurata la somma di vettori. Osservando la figura a


destra, possiamo riformulare la somma di vettori: due vettori non nulli e non paralleli
v e w sono rappresentati con segmenti orientati aventi entrambi come primo estremo
uno stesso punto P 0 : tali segmenti individuano un parallelogramma e la somma dei
vettori `e rappresentata dalla diagonale uscente da P 0 , con origine in P 0 .
Il primo problema che si pone consiste nello stabilire che la definizione data non
dipende dalla scelta dei rappresentati per i vettori liberi. Se v = 0 (rispettivamente,
w = 0), la somma di vettori `e ben definita e coincide con w (rispettivamente, con
v). Supponiamo quindi che sia v che w non sono il vettore nullo e analizziamo la
figura che segue:

14

Spazi vettoriali

Se P 0 Q0 `e un altro vettore applicato che rappresenta v e T 0 `e lunico punto tale

che Q0 T 0 rappresenti w, allora il segmento P Q `e parallelo al segmento P 0 Q0 e il


segmento QT `e parallelo al segmento Q0 T 0 , cos` le propriet`a dei triangoli assicurano

che i triangoli P QT e P 0 Q0 T 0 sono congruenti. Pertanto i vettori P T e P 0 T 0 sono
equipollenti e la definizione di somma `e ben posta.
La struttura (V, +) `e un gruppo abeliano, infatti la somma tra vettori liberi `e sia
associativa che commutativa

inoltre il vettore nullo 0 `e lelemento neutro rispetto alla somma, cio`e


v+0=v =0+v

v V,

e ogni vettore v =PQ ha per opposto (cio`e simmetrico rispetto alla somma) il vettore

v =QP (che `e il vettore che ha stesso modulo e direzione di v, ma verso opposto).

Andiamo ora a definire unaltra operazione, questa volta si vuole definire in V `e


unoperazione esterna con dominio di operatori in R. Se v `e un vettore di V e a R,
si definisce prodotto del vettore v per lo scalare a, il vettore libero av definito come
segue. Se v = 0 oppure a = 0, allora av = 0, se invece v 6= 0 e a 6= 0, allora av `e
il vettore libero che ha stessa direzione di v, modulo pari al prodotto tra il valore
assoluto |a| di a e il modulo di v, e verso concorde o discorde con v a seconda che
a sia positivo o negativo.

2.1 Vettori liberi

15

In dettaglio, se v `e un vettore non nullo e P Q `e un suo rappresentante, sulla retta


rP Q esistono due punti T1 e T2 tali che i segmenti P T1 e P T2 abbiano lunghezza pari
al prodotto tra il valore assoluto |a| di a e la lunghezza del segmento P Q, per`o esiste

solo un i {1, 2} tale che il vettore P Ti abbia lo stesso verso di P Q: il vettore libero

rappresentato da P Ti sar`a per definizione il vettore av.


Se v e w sono vettori di V e risulta v = aw per qualche a R, si dice pure che
v e w sono proporzionali. Si potrebbe provare che loperazione di prodotto di un
vettore per un numero reale gode delle seguenti propriet`a:
(i) a(v + w) = av + aw v, w V e a R.
(ii) (a + b)v = av + bv v V e a, b R.
(iii) (ab)v = a(bv) v V e a, b R.
(iv) 1v = v v V.
Proposizione 2.1.2 Due vettori liberi non nulli sono proporzionali se e solo se
sono paralleli.
Dimostrazione Siano v e w vettori liberi. Fissato un punto P , la propo
sizione 2.1.1 assicura che esiste un unico punto Q tale che v =PQ e che esiste un

unico punto T tale che w =PT. Allora si ha che v e w sono paralleli se e solo i
segmenti P Q e P T giacciono su una stessa retta e quindi se e solo se v e w sono
proporzionali.
t
u
Tre vettori dello spazio u, v e w si dicono complanari se possono essere rappresentati con segmenti orientati giacenti su uno stesso piano; in particolare, tre vettori
sono complanari se uno dei tre `e nullo.

Proposizione 2.1.3 Siano u e v vettori non paralleli di E, e sia w un vettore


complanare con u e v. Allora esistono dei numeri reali a e b tali che w = au + bv.

16

Spazi vettoriali

Dimostrazione I vettori u e v non sono paralleli per la proposizione 2.1.2,

e quindi possiamo fissare un punto P tale che u = P Q, v = P R e w = P T , per


opportuni punti Q, R e T (cfr. proposizione 2.1.1). Si noti che, essendo non paralleli,
i vettori sono non nulli, quindi i punti P, Q e R sono a due a due distinti e pertanto
a due a due generano rette: sia r1 la retta per P e Q e sia r2 la retta per P e

R. Siano poi Q0 r1 e R0 r2 tali che w = P Q0 + P R0 . Allora esistono degli

opportuni numeri reali a e b tali che P Q0 = au e P R0 = bv. Sicch`e w = au + bv


come volevamo.
t
u

Proposizione 2.1.4 Siano u, v e w tre vettori non complanari di E3 allora ogni


altro vettore e si esprime come e = au + bv + cw per opportuni a, b, c R.

Dimostrazione Fissato un punto P , sia u = P Q, v = P R e w = P T per


opportuni punti Q, R e T (cfr. proposizione 2.1.1). Si noti che nessuno dei tre
vettori `e nullo - altrimenti i vettori sarebbero complanari - quindi i punti P, Q, R e
T sono a due a due distinti e pertanto a due a due generano rette: sia r1 la retta
per P e Q, r2 la retta per P ed R ed r3 la retta per P e T . Poich`e i vettori u, v e
w sono non complanari, la proposizione 2.1.2 garantisce che essi sono a due a due
non paralleli, quindi i punti P, Q, R e T sono a tre a tre non allineati e pertanto
generano dei piani. Siano 12 il piano per P, Q e R, 13 il piano per P, Q e T e

23 il piano per P, R e T . Sia E un punto di E3 tale che e = P E. Il piano per E


parallelo al piano 23 interseca la retta r1 in un punto E1 , analogamente il piano
per E parallelo al piano 13 interseca la retta r2 in un punto E2 ed il piano per E
parallelo al piano 12 interseca la retta r3 in un punto E3 . Se poi E12 `e il punto di

intersezione di 12 con la retta per E parallela ad r3 si ha che P E 12 = P E 1 + P E 2 ,


e quindi

P E = P E 12 + P E 3 = P E 1 + P E 2 + P E 3 .

Ora, essendo E1 r1 deve essere P E 1 = au per un opportunto a R, e analoga

mente `e anche P E 2 = bv e P E 3 = cw per opportuni b, c R. Pertanto si ha che


e = au + bv + cw come si voleva.
t
u
Concludiamo con la seguente definzione che ci torner`a utile in seguito. Siano v e

w due vettori liberi. Fissato un punto del piano P e supposto sia v = P Q e w = P T


d
(cfr. proposizione 2.1.1), indichiamo con v,
w langolo tra v e w, ovvero langolo
d
convesso tra le semirette P Q e P T , quindi v,
w [0, ]. Si pu`o provare che langolo
cos` definito `e indipendente dal punto P fissato. Inoltre, i vettori non nulli v e w si
d
dicono ortogonali, e si scrive v w, se v,
w = 2 (ovvero se sono rappresentati da
segmenti che giacciono su rette ortogonali). Per convenzione, infine, si assume che
il vettore nullo `e ortogonale ad ogni altro vettore.

2.2 Spazi vettoriali

17

2.2

Spazi vettoriali

Abbiamo visto che nellinsieme vettori liberi V del piano o dello spazio `e possibile
definire unoperazione interna di somma, rispetto alla quale `e un gruppo abeliano,
e unoperazione esterna con dominio di operatori in R che seppure in maniera impropria, ma in un modo che `e sicuramente pi`
u semplice da ricordare, possiamo dire
essere distributiva rispetto alla somma, associativa e dotata di elemento neutro.
Questa struttura algebrica suggerisce la seguente definizione.
Siano (V, +) un gruppo abeliano, (K, +, ) un campo e
: (, v) K V v V
unoperazione esterna in V con dominio di operatori in K. La struttura algebrica
(V, +, ) si dice uno spazio vettoriale su K (o un K-spazio vettoriale) se qualsiasi
siano gli elementi , K e u, v V risulta:
1V (u + v) = (u) + (v);
2V ( + )v = (v) + (v);
3V (v) = ()v;
4V 1v = v.
In tal caso, gli elementi di V si dicono vettori e quelli di K scalari. Nel seguito
loperazione esterna sar`a denotata moltiplicativamente; inoltre, salvo avviso contrario, si parler`a semplicemente di spazio vettoriale ritenendo fissato il campo K.
Proposizione 2.2.1 Sia V uno spazio vettoriale. Se e sono elementi di K ed
u e v sono elementi di V , risulta:
(i) v = 0 se e solo se = 0 oppure v = 0;
(ii) (v) = ()v = (v);
(iii) ( )v = v v;
(iv) (u v) = u v.
Dimostrazione (i)

Usando la condizione 2V della definizione, si ha


0v = (0 + 0)v = 0v + 0v

da cui 0v = 0 per la regolarit`a della somma; mentre usando la condizione 1V della


definizione si ha
0 = (0 + 0) = 0 + 0

18

Spazi vettoriali

da cui 0 = 0 sempre per la regolarit`a della somma. Viceversa, se v = 0 e 6= 0


allora dalle condizioni 3V e 4V della definzione segue
v = 1v = (1 )v = 1 (v) = 1 0
e quindi la prima parte della dimostrazione garantisce che v = 0.
(ii) Dalla (i) e dalla condizione 1V della definizione, segue che
0 = 0 = (v + (v)) = v + (v)
sicch`e (v) = (v); daltra parte sempre la (i) e questa volta la condizione 2V
della definizione assicurano che
0 = 0v = ( + ())v = v + ()v
sicch`e ()v = (v).
(iii) Usando la condizione 2V della definzione, come conseguenza della (ii) si
ha che
( )v = v + ()v) = v v.
(iv)

Dalla condizione 1V della definizione e dalla (ii) segue che


(u v) = u + (v) = u v.
t
u

Evidentemente, linsieme dei vettori liberi del piano o dello spazio ha una struttura di spazio vettoriale sul campo reale, e ci si riferisce ad esso come allo spazio
vettoriale dei vettori geometrici. Altri esempi di spazi vettoriali sono i seguenti.
Spazio vettoriale numerico Se K `e un campo e n `e un intero positivo, allora
qualsiasi siano gli elementi (k1 , . . . , kn ) e (h1 , . . . , hn ) di Kn e di K, le posizioni
(k1 , . . . , kn ) + (h1 , . . . , hn ) = (k1 + h1 , . . . , kn + hn )
e
(k1 , . . . , kn ) = (k1 , . . . , kn )
definiscono due operazioni e la struttura (Kn , +, ) `e un K-spazio vettoriale.
Spazio dei polinomi Siano K un campo e K[x] linsieme dei polinomi a coefficienti
in K (qui per semplicit`a, cos` da ritrovare in K[x] un insieme gi`a noto, si pu`o pensare
a K come al campo reale o complesso); allora K[x] `e un altro esempio di spazio
vettoriale su K. Infatti, lusuale operazione di addizione tra polinomi rende K[x] un
gruppo abeliano ed inoltre, considerati il generico polinomio a0 + a1 x + + an xn
a coefficienti in K e K, la posizione
(a0 + a1 x + + an xn ) = a0 + a1 x + + an xn

2.3 Sottospazi

19

definisce unoperazione esterna in K[x] con dominio di operatori in K e la struttura


algebrica (K[x], +, ) `e un K-spazio vettoriale.
Spazio delle funzioni Siano V uno spazio vettoriale su un campo K ed S un
insieme non vuoto qualsiasi. Si denoti con V S linsieme di tutte le applicazioni con
dominio S e codominio V . Se f, g V S e K, siano f + g e f le applicazioni di
S in V definite rispettivamente dalle posizioni
(f + g)(x) = f (x) + g(x)

( f )(x) = f (x)

x S.

Si definisce cos` unoperazione interna + in V S ed unoperazione esterna in V S con


dominio di operatori in K, rispetto alle quali `e semplice accorgersi che V S risulta
essere uno spazio vettoriale su K. In particolare, quindi, linsieme KK di tutte le
applicazioni di K in se `e dotato di una struttura di K-spazio vettoriale.
Spazio dei vettori geometrici applicati Sia O un punto (del piano o dello
spazio) della geometria elementare. Indichiamo con VO linsieme di tutti i vettori

applicati in O ovvero dei segmenti orientati OA con primo estremo (o punto di


applicazione) in O e secondo estremo in un punto A. Analogamente a quanto fatto

per i vettori liberi, se OA e OB sono due elementi di VO definiamo come loro

somma il segmento orientato OA + OB = OC dove C `e lunico punto sulla retta per
A parallela alla retta per O e per B, tale che il segmento orientato di primo estremo

in A e secondo estremo in C ha la stessa misura e lo stesso verso di OB. Resta


cos` definita unoperazione + interna a VO . Per definire poi un prodotto esterno

poniamo 0 OA = OO, mentre se `e un numero reale non nullo, diciamo OA

essere il segmento orientato OB che giace sulla retta OA, che ha primo estremo in O
e secondo estremo nel punto B tale che la misura del segmento OB sia || volte quella

del segmento OA, inoltre il verso del segmento OB `e concorde o discorde a quello

di OA a differenza che sia positivo o negativo. Resta cos` definita unoperazione


esterna in VO con dominio di operatori in R. Si pu`o poi provare che la struttura

algebrica (VO , +, ) `e un R-spazio vettoriale di elemento nullo il segmento nullo OO

e in cui lopposto del vettore OA `e il vettore OA0 che giace sulla retta OA, ha per

misura quella del segmento OA e verso opposto a quello di OA.

2.3

Sottospazi

Sia V uno spazio vettoriale. Una parte W di V si dice K-sottospazio vettoriale di


V , o semplicemente sottospazio vettoriale di V , e si scrive W V , se:
1S W 6= ;
2S per ogni u, v W risulta u + v W (cio`e W `e stabile rispetto alla somma di
V );

20

Spazi vettoriali

3S per ogni u W e per ogni K risulta u W (cio`e W `e stabile rispetto al


prodotto esterno di V ).
In tal caso, le operazioni definite in V inducono delle operazioni in W rispetto alle
quali anche W `e uno spazio vettoriale; inoltre considerato un qualsiasi elemento
w di W si ha che 0w = 0 W e per ogni v W `e v = (1)v W (cfr.
proposizione 2.2.1) . Chiaramente, V e {0} sono sottospazi di V detti banali. In
particolare, {0} `e detto sottospazio nullo, mentre i sottospazi di V diversi da V sono
detti sottospazi propri. E semplice inoltre accorgersi che
W V

se e solo se u, v W e , K risulta u + v W .

Nello spazio vettoriale numerico R3 , il sottoinsieme X = {(x, y, z) R3 | y = 0}


`e un sottospazio. Infatti, se (x1 , 0, z1 ) e (x2 , 0, z2 ) sono elementi di X e , R
allora
(x1 , 0, z1 ) + (x2 , 0, z2 ) = (x1 + x2 , 0, z1 + z2 ) X.
Invece Y = {(x, y, z) R3 | x 0} non `e un sottospazio di R3 perch`e esso non `e
stabile rispetto alloperazione esterna, infatti (1, 1, 1) Y ma (1) (1, 1, 1) 6 Y .
Ancora, se K `e un campo e n N, linsieme Kn [x] dei polinomi di grado al pi`
u n `e
un sottospazio di K[x], infatti se si considerano due polinomi f = a0 +a1 x+ +an xn
e g = b0 + b1 x + + bn xn di grado al pi`
u n, comunque si scelgano , K si ha
che
f + g = (a0 + b0 ) + (a1 + b1 )x + + (an + bn )xn
`e ancora un polinomio di Kn [x].
Nello spazio vettoriale RR su R di tutte le funzioni di R in se, il sottoinsieme C 0 (R)
delle funzioni continue `e un esempio di sottospazio. E inoltre semplice accorgersi
che, fissata una parte non vuota X di R, linsieme {f RR | f (x) = 0 x X} `e
un sottospazio mentre non `e un sottospazio linsieme {f RR | f (x) Q x R}.
Consideriamo infine lo spazio vettoriale VO dei vettori applicati nel punto O

ed i sottoinsiemi H1 = {OP VO | P r} e H2 = {OP VO | P s} dove


r ed s sono rette distinte per O. Allora si ha facilmente che H1 e H2 sono stabili rispetto ad entrambe le operazioni definite in VO e dunque sono sottospazi.
Invece linsieme

H1 H2 = {OP VO | P r s}
non `e un sottospazio perch`e non `e stabile rispetto
alloperazione di somma. Infatti, se si conside
rano due segmenti orientati non nulli OP H1


e OQ H2 allora OR = OP + OQ non `e in H1 H2 perch`e R non `e n`e su r n`e su s.

2.3 Sottospazi

21

In generale lunione di sottospazi pu`o non essere un sottospazio come mostra


lesempio precedente; un altro un esempio si ottiene in R2 considerando i sottospazi
X = {(t, 2t) | t R} e Y = {(t, t) | t R}, infatti (1, 2) X e (1, 1) Y ma
(2, 3) = (1, 2) + (1, 1) non appartiene a X Y , sicch`e X Y non `e stabile rispetto
alla somma e quindi non `e un sottospazio di R2 . Differente `e il caso dellintersezione
di sottospazi.

Proposizione\2.3.1 Siano V uno spazio vettoriale ed F un insieme di sottospazi


di V . Allora
W `e un sottospazio di V .
W F

Dimostrazione Chiaramente

W `e un parte non vuota di V perch`e contiene


\
sicuramente lelemento 0. Siano , K e u, v
W . Allora u, v W , e
W F
\
conseguentemente anche u + v W , per ogni W F. Cos` u + v
W e
W
F
\
pertanto
W `e un sottospazio di V .
t
u
W F

W F

Se V `e uno spazio vettoriale e X una parte di V ; posto


FX = {W | W `e sottospazio di V e X W },
segue dalla proposizione 2.3.1 che linsieme
\
L[X] =
W
W FX

`e un sottospazio detto sottospazio di V generato da X. Quindi L[X] `e, rispetto


allinclusione, il pi`
u piccolo sottospazio di V che contiene X. Evidentemente, se W
`e un sottospazio di V risulta L[W ] = W , inoltre L[] = {0}. Se X = {x1 , . . . , xn }
`e una parte finita di V , allora il sottospazio generato da X si denota anche con
L[x1 , . . . , xn ].

Proposizione 2.3.2 Siano V uno spazio vettoriale e X una parte non vuota di V .
Allora L[X] = {1 x1 + + n xn | n N; 1 , . . . , n K; x1 , . . . , xn X}.
Dimostrazione Linsieme L di tutte le somme (finite) 1 x1 + + n xn con
ogni i K e ogni xi X, `e evidentemente un sottospazio di V che contiene X,
sicch`e L[X] L. Daltra parte se W `e un sottospazio di V contenente X, allora W
contiene L e quindi L L[X]. Pertanto L = L[X].
t
u

22

Spazi vettoriali

Se V `e uno spazio vettoriale, una combinazione lineare degli elementi v1 , . . . , vn


di V `e una somma del tipo 1 v1 + + n vn dove 1 , . . . , n K sono degli scalari
detti coefficienti della combinazione lineare. Quindi se X `e una parte non vuota di
V la precendente proposizione afferma, in altre parole, che L[X] `e linsieme di tutte
le combinazioni lineari di elementi di X a coefficienti in K.
Se V `e uno spazio vettoriale e W1 , W2 , . . . , Wn sono sottospazi di V , come semplice
conseguenza dalla proposizione 2.3.2 si ha che il sottospazio generato dallunione
W1 W2 Wn `e linsieme di tutte le somme del tipo w1 + w2 + + wn con
ogni wi elemento del rispettivo Wi . Tale sottospazio si chiama sottospazio somma
di W1 , W2 , . . . , Wn e si denota col simbolo W1 + W2 + + Wn , dunque
W1 + W2 + + Wn = {w1 + w2 + + wn | wi Wi i = 1, . . . , n}.
Un sottospazio W di V si dice somma diretta dei sottospazi W1 , W2 , . . . , Wn se
(a) W = W1 + W2 + + Wn ;
(b) Wi (W1 + + Wi1 + Wi+1 + + Wn ) = {0} per ogni i = 1, . . . , n;
in questo caso si scrive
W = W1 W2 Wn .

Proposizione 2.3.3 Siano V uno spazio vettoriale e W1 , . . . , Wn sottospazi di V .


Un sottospazio W di V `e somma diretta dei sottospazi W1 , . . . , Wn se e solo se ogni
elemento di W si scrive in modo unico come somma w1 + + wn con wi Wi per
ogni i = 1, . . . , n.
Dimostrazione Supponiamo che W sia somma diretta dei sottospazi W1 , . . . , Wn ,
sicch`e ogni elemento di W si esprime come una somma del tipo w1 + + wn con
ogni wi Wi . Supponiamo che si abbia poi
w1 + + wn = w10 + + wn0 ,
dove ogni wi0 Wi . Per ogni i = 1, . . . , n, usando le propriet`a delle operazioni di V ,
possiamo scrivere
0
0
wi wi0 = (w10 w1 ) + + (wi1
wi1 ) + (wi+1
wi+1 ) + + (wn0 wn )

e quindi, essendo
Wi (W1 + + Wi1 + Wi+1 + + Wn ) = {0},
risulta wi wi0 = 0, ovvero wi = wi0 come volevamo.

2.4 Dipendenza e indipendenza lineare

23

Viceversa, supponiamo che ogni elemento di W si esprima in modo unico come


somma di elementi dei Wi , in particolare W = W1 + + Wn . Sia i {1, . . . , n}.
Se
wi Wi (W1 + + Wi1 + Wi+1 + + Wn )
allora esistono w1 W1 , . . . , wi1 Wi1 , wi+1 Wi+1 , . . . , wn Wn tali che
0 + + 0 + wi + 0 + + 0 = w1 + + wi1 + 0 + wi+1 + + wn
e quindi, per lunicit`a di scrittura
w1 = = wi1 = wi = wi+1 = = wn = 0.
Pertanto
Wi (W1 + + Wi1 + Wi+1 + + Wn ) = {0}
t
u

come volevamo.
Consideriamo, ad esempio, lo spazio vettoriale numerico R3 e gli insiemi
X = {(2t, 0, t) | t R} ed Y = {(0, s, 0) | s R}.

E semplice accorgersi che X e Y sono sottospazi, inoltre la proposizione 2.3.2 assicura che X = L[(2, 0, 1)], Y = L[(0, 1, 0)] e
X + Y = L[(2, 0, 1), (0, 1, 0)] = {(2s, t, s) | s, t R}.
Essendo evidente che X Y = {0}, si ha che X + Y = X Y .

2.4

Dipendenza e indipendenza lineare

Siano V uno spazio vettoriale ed X una parte non vuota di V . Si dice che un
elemento v di V dipende da X se v `e combinazione lineare di un numero finito di
elementi di X (a coefficienti in K), e quindi se esistono degli elementi x1 , . . . , xn X
tali che v = 1 x1 + + n xn con 1 , . . . , n K. Evidentemente se v dipende da
X allora v dipende da una parte finita di X. Si osservi che se v X, allora v = 1 v
dipende da X; inoltre, se Y `e una parte non vuota di X, ogni elemento di V che
dipende da Y dipende anche da X. E anche chiaro che il vettore nullo dipende da
ogni parte non vuota di V , essendo 0 = 0 v per ogni v V .
I vettori v1 , v2 , . . . , vn a due a due distinti di V si dicono linearmente dipendenti
se esistono 1 , 2 , . . . , n K non tutti nulli tali che 1 v1 + 2 v2 + + n vn = 0;
differentemente, i vettori v1 , v2 , . . . , vn si dicono linearmente indipendenti se non
sono linearmente dipendenti, cio`e se da 1 v1 + 2 v2 + + n vn = 0 segue che
1 = 2 = = n = 0. Si osservi che i vettori a due a due distinti v1 , . . . , vn
sono linearmente dipendenti se e solo se (almeno) uno di essi dipende dallinsieme
formato dai restanti vettori, ovvero se e solo se (almeno) uno di essi `e combinazione
lineare dei restanti, infatti risulta essere

24

Spazi vettoriali
1 v1 + 2 v2 + + n vn = 0

con

i 6= 0,

se e solo se
1
1
1
vi = 1
i 1 v1 i i1 vi1 i i+1 vi+1 i n vn ,

ovvero se e solo se
vi L[v1 , . . . , vi1 , vi+1 , . . . vn ].
In particolare, nel caso di due vettori v1 e v2 si ottiene che essi sono dipendenti se e
solo se esiste uno scalare K tale che v1 = v2 e v2 = 1 v1 , o in altre parole, se
e solo se ciascuno di essi appartiene al sottospazio vettoriale generato dallaltro.
Se V `e uno spazio vettoriale, una sua parte X si dice libera o indipendente se
`e vuota oppure se comunque si considerano degli elementi a due a due distinti
x1 , . . . , xn in X, essi sono linearmente indipendenti. Se X non `e libera, allora si
dice che X `e legata o dipendente. Quindi X `e legata se X `e non vuota ed esiste
una combinazione lineare nulla 1 x1 + + n xn = 0 di elementi x1 , . . . , xn di X
con scalari 1 , . . . , n non tutti nulli. Chiaramente X `e libera se e solo se `e libera
ogni sua parte finita, ed `e anche chiaro che ogni sottoinsieme di V che contiene
una parte legata `e legato. Sicch`e essendo 1 0 = 0, ogni parte che contiene {0} `e
legata. Invece, se v V \ {0}, allora la (i) della proposizione 2.2.1 assicura che
{v} `e una parte libera di V . Si noti inoltre che i vettori v1 , . . . , vn sono linearmente
indipendenti (rispettivamente dipendenti) se e solo se la parte {v1 , . . . , vn } `e libera
(rispettivamente legata).
Proposizione 2.4.1 Sia V uno spazio vettoriale sul campo K e sia X una parte di
V . Allora
(i) X `e legata se e solo se esiste un elemento v di X che dipende da X \ {v}.
(ii) X `e libera se e solo se non esiste alcun elemento v in X che dipenda da X \{v}.
Dimostrazione Essendo (ii) la negazione della (i), basta provare la (i). Sia X
una parte legata, allora X `e non vuota ed esistono x1 , . . . , xn X e 1 , . . . , n K
tali che 1 x1 + +n xn = 0 e i 6= 0 per qualche i {1, . . . , n}. Allora xi dipende da
{x1 , . . . , xi1 , xi+1 , . . . , xn } e quindi anche da X \{xi }. Reciprocamente, supponiamo
esita un elemento v di X che dipenda da X \ {v}. Allora esistono degli elementi
x1 , . . . , xn in X \ {v} e degli scalari 1 , . . . , n in K tali che v = 1 x1 + + n xn .
Cos` 1 v 1 x1 n xn = 0 `e una combinazione lineare nulla di elementi di X
con coefficienti non tutti nulli e pertanto X `e legata.
t
u
Sia V uno spazio vettoriale. Una parte X di V si dice sistema di generatori di V
se si ha che V = L[X]. Chiaramente linsieme vuoto `e un sistema di generatori di
{0}, mentre la proposizione 2.3.2 assicura che un insieme non vuoto X `e un sistema

2.4 Dipendenza e indipendenza lineare

25

di generatori di V se e solo se ogni elemento di V dipende da X, in particolare V `e


un sistema di generatori per V . Lo spazio vettoriale V si dice finitamente generato
se ha un sistema di generatori finito. In particolare, se X `e una parte finita di V
allora il sottospazio L[X] `e uno spazio vettoriale finitamente generato.
Una parte X si dice base per V se X `e una parte libera ed un sistema di generatori
per V . Quindi linsieme vuoto `e una base per lo spazio nullo {0}, ed evidentemente
lo spazio nullo `e lunico ad avere per base linsieme vuoto.
Consideriamo in R3 i sottospazi X = L[(2, 0, 1)] e Y = L[(0, 1, 0)]. Chiaramente
{(2, 0, 1)} `e una base per X e {(0, 1, 0)} `e una base per Y . Se , K sono tali che
0 = (2, 0, 1) + (0, 1, 0) = (2, , )
allora = = 0. Quindi (2, 0, 1) e (0, 1, 0) sono linearmente indipendenti e cos`
{(2, 0, 1), (0, 1, 0)} `e una base per X Y .
Siano V uno spazio vettoriale ed X una sua parte. Si dir`a che X `e una parte
libera massimale se X `e libera e se ogni parte di V che contiene propriamente X `e
legata. Si dir`a invece che X `e un sistema minimale di generatori se X `e un sistema
di generatori e X non contiene propriamente alcun sistema di generatori per V .
Teorema 2.4.2 Siano V uno spazio vettoriale ed X una parte di V . Sono equivalenti le seguenti affermazioni:
(i) X `e una base per V .
(ii) X `e una parte libera massimale di V .
(iii) X `e un sistema minimale di generatori di V .
Dimostrazione (i) (ii) Sia X una base di V e supponiamo che esitste una
parte Y di V che contiene propriamente X. Se y Y \ X, essendo V = L[X] si ha
che y dipende da X e quindi y dipende anche da Y \ {y}. Cos` la proposizione 2.4.1
assicura che Y `e una parte legata e questo prova che X `e una parte libera massimale.
(ii) (iii) Sia v V \ X, allora X {v} contiene propriamente X e quindi `e
una parte legata. Siano , 1 , . . . , n elementi non tutti nulli di K e siano x1 , . . . , xn
elementi di X tali che v + 1 x1 + + n xn = 0. Poich`e 0v = 0 ed X `e una
parte libera, segue che 6= 0 e quindi v = 1 1 x1 1 n xn . Sicch`e v
dipende da X e quindi X `e un sistema di generatori di V . Per assurdo X contenga
propriamente un sistema Y di generatori di V e sia x X \ Y . Allora x dipende
da Y e quindi anche da X \ {x} e ci`o `e assurdo per la proposizione 2.4.1 essendo X
una parte libera. Cos` X `e un sistema minimale di generatori di V .
(iii) (i) Poich`e X genera V , se v `e un elemento di V allora v dipende da
X. Se X fosse legato, esisterebbe un elemento x che dipende da X \ {x}, quindi v

26

Spazi vettoriali

dipenderebbe anchesso da X \ {x} e pertanto V = L[X] = L[X \ {x}] contro la


minimalit`a di X. Segue che X `e libero e quindi `e una base.
t
u
Concludiamo enunciando il seguente importante risultato la cui dimostrazione
richiede delle conoscenze di teoria degli insiemi pi`
u approfondite e che pertanto si
omette; nel prossimo paragrafo se ne dar`a una dimostrazione in un caso particolare.

Teorema 2.4.3 Ogni spazio vettoriale possiede una base ed inoltre tutte le basi di
uno spazio vettoriale sono equipotenti tra loro.

2.5

Spazi vettoriali di dimensione finita

Si vogliono qui di seguito analizzare le propriet`a degli spazi vettoriali che hanno una
base finita.

Lemma 2.5.1 (Lemma di Steinitz) Siano X = {x1 , . . . , xn } ed Y = {y1 , . . . , ym }


due parti finite di uno spazio vettoriale V . Se X `e libero ed `e contenuto in L[Y ],
allora n m.
Dimostrazione Senza ledere le generalit`a, si pu`o supporre V = L[Y ]. Per
assurdo sia n > m. Per la proposizione 2.3.2, ogni vettore in X `e combinazione
lineare degli elementi di Y e quindi si pu`o scrivere
x1 = 1,1 y1 + + 1,m ym
con ogni 1,i K e con almeno un 1,i 6= 0, altrimenti sarebbe x1 = 0 e X sarebbe
una parte legata. A meno di rinominare gli indici, supponiamo sia 1,1 6= 0. Allora
1
1
y1 = 1
1,1 x1 1,1 1,2 y2 1,1 1,m ym ,

e cos` y1 dipende da {x1 , y2 , . . . , ym }. Pertanto L[Y ] L[x1 , y2 , . . . , ym ], quindi


V = L[x1 , y2 , . . . , ym ] e come prima si pu`o ottenere che
x2 = 2,1 x1 + 2,2 y2 + + 2,m ym
per opportuni scalari 2,1 , . . . , 2,m . Poich`e x2 `e non nullo, qualche 2,i deve essere
non nullo. Daltra parte, se fosse 2,2 = = 2,m = 0, allora 2,1 6= 0 e {x1 , x2 }
sarebbe una parte legata contenuta nella parte libera X. Questa contraddizione
prova che esiste i {2, . . . , m} tale che 2,i 6= 0. Anche questa volta, a meno di
rinominare gli indici, possiamo supporre sia 2,2 6= 0. Quindi
1
1
1
y2 = 1
2,2 2,1 x1 + 2,2 x2 2,2 2,3 y3 2,2 2,m ym .

2.5 Spazi vettoriali di dimensione finita

27

e pertanto V = L[x1 , x2 , y3 , . . . , ym ]. Iterando questo ragionamento, si ottiene che


V = L[x1 , x2 , . . . , xm ] e pertanto xm+1 dipende da {x1 , . . . , xm }. Conseguentemente
{x1 , . . . , xm , xm+1 } `e una parte legata, il che `e assurdo essendo essa contenuta nella
parte libera X. Questa contraddizione prova che n m.
t
u
Proviamo ora il teorema 2.4.3 nel caso particolare di spazi vettoriali finitamente
generabili.

Teorema 2.5.2 Sia V uno spazio vettoriale generato da un numero finto n di elementi. Allora V contiene una base finita di ordine m n e ogni sua base ha m
elementi.
Dimostrazione Sia S un sistema di generatori per V con n elementi. Linsieme
F = {G P (S) | L[G] = V }
`e non vuoto, perch`e contiente S, ed ha un numero finito di elementi, perch`e S ha
evidentemente un numero finito di sottoinsiemi; daltra parte ogni elemento di F `e
un insieme con al pi`
u n elementi e quindi `e chiaro che tra gli elementi di F se ne
pu`o scegliere uno, diciamolo B, con il numero minore m di elementi. Per tale scelta,
ogni parte di S contenuta propriamente in B non pu`o generare V e quindi B `e un
sistema minimale di generatori di V nonche una un base per V , per il teorema 2.4.2.
Sia B1 unaltra base per V . Se X `e una parte finita di B1 allora X `e libera e quindi,
essendo V = L[B], il lemma di Steinitz 2.5.1 assicura che X ha al pi`
u m elementi.
Pertanto necessariamente B1 `e finito e contiene un numero di elementi k con k m.
Daltra parte B `e contenuto in V = L[B1 ], e quindi ancora il lemma di Steinitz 2.5.1
assicura che m k, pertanto k = m ed il risultato `e provato.
t
u
Sia V uno spazio vettoriale non nullo. Si dice che V ha dimensione finita (su
K), se V ha una base finita. Se V ha una base finita B di ordine m, allora B `
e un

sistema di generatori finito di V e il teorema 2.5.2 assicura che ogni altra base di V
ha esattamente m elementi. E lecito allora definire lintero m come la dimensione
di V (su K); in tal caso, si scrive dimK (V ) = m o semplicemente dim(V ) = m.
Per convenzione, anche lo spazio vettoriale nullo ha dimensione finita pari a 0.
Evidentemente uno spazio vettoriale ha dimensione 0 se e solo se esso `e lo spazio
vettoriale nullo.
Il teorema 2.4.3, o se si preferisce il teorema 2.5.2, assicura che ogni spazio vettoriale (finitamente generato) `e dotato di basi. Lutilit`a della nozione di base `e
espressa nellenunciato del prossimo risultato il quale, in un certo senso (e come poi
si vedr`a formalmente in seguito), mostra che i vettori dello spazio possono essere
individuati, una volta fissata una base, mediante vettori numerici.

28

Spazi vettoriali

Teorema 2.5.3 Siano V uno spazio vettoriale ed X = {x1 , . . . , xn } una parte finita
di V . Allora X `e una base per V se e solo se ogni elemento v di V si scrive come
combinazione lineare v = 1 x1 + + n xn in cui i coefficienti 1 . . . , n K sono
univocamente determinati.
Dimostrazione Se X `e una base per V e v V , la proposizione 2.3.2 assicura che
v = 1 x1 + +n xn con 1 , . . . , n K. Supponiamo sia anche v = 1 x1 + +n xn
con 1 , . . . , n K. Allora
(1 1 )x1 + + (n n )xn = 0
e quindi, essendo X una parte libera, per ogni i = 1, . . . , n deve essere i i = 0.
Pertanto i = i per ogni i = 1, . . . , n e quindi i coefficienti i sono univocamente
determinati.
Reciprocamente, poich`e ogni elemento di V `e combinazione lineare di elementi
di X si ha che X `e un sistema di generatori di V . Inoltre se 1 x1 + + n xn = 0
allora `e
1 x1 + + n xn = 0x1 + + 0xn
e quindi lunicit`a dei coefficienti assicura che 1 = = n = 0. Pertanto X `e anche
una parte libera e dunque `e una base per V .
t
u
Corollario 2.5.4 Sia V uno spazio vettoriale. La parte {x1 , . . . , xn } di V `e una
base per V se e solo se V = L[x1 ] L[xn ].
Dimostrazione Segue subito dal teorema 2.5.3 e dalla proposizione 2.3.3.

t
u

Sia V uno spazio vettoriale di dimensione finita. Un riferimento di V `e una base


B = (x1 , . . . , xn ) vista come n-upla ordinata. Se v un elemento di V , il teorema 2.5.3
assicura che esistono e sono univocamente determinati degli elementi 1 , . . . , n K
tali che v = 1 x1 + + n xn . Questi elementi 1 , . . . , n si dicono compomenti del
vettore v nel riferimento B, e si dice anche che il vettore numerico (1 , . . . , n ) `e il
vettore coordinato (o delle componenti) di v in B. Osserviamo esplicitamente che se
u `e un altro vettore di componenti (1 , . . . , n ) allora risulta
v + u = (1 + 1 )x1 + + (n + n )xn
e cos` lunicit`a delle componenti, espressa nel teorema 2.5.3, assicura che il vettore
v + u ha per componenti (1 + 1 , . . . , n + n ). Allo stesso modo se K allora il
vettore v ha componenti (1 , . . . , n ).
Proposizione 2.5.5 Sia V uno spazio vettoriale e siano S un sistema finito di
generatori per V e L una parte libera di V contenuta in S. Allora esiste una base
B per V tale che L B S.

2.5 Spazi vettoriali di dimensione finita

29

Dimostrazione Essendo S finito, tra i sottoinsiemi liberi di S che contengono


L ne esiste uno B con il numero maggiore di elementi. Allora B `e libero e per ogni
v S \ B linsieme B {v} `e legato; cos` V = L[S] = L[B] e B `e base.
t
u
Corollario 2.5.6 Sia V uno spazio vettoriale di dimensione finita n. Allora:
(i) Ogni parte libera di V `e finita e contiene al pi`
u n elementi.
(ii) Ogni parte libera di V pu`o essere completata ad una base; in particolare, ogni
parte libera con n elementi `e una base.
(iii) Da ogni insieme finito di generatori di V si pu`o estrarre una base; in particolare, ogni insieme di generatori con n elementi `e una base.
Dimostrazione (i)
Sia L una parte libera, allora ogni parte finita X di
L `e libera ed essendo V generato da un numero finito n di elementi, il lemma di
Steinitz 2.5.1 ci assicura che X ha al pi`
u n elementi; in particolare, L `e finito di
ordine al pi`
u n.
(ii) Poich`e V ha dimensione finita, esso possiede una base finita B e applicando
la proposizione 2.5.5 ad una parte libera L (che ha un numero finito di elementi per
(i)), prendendo B L come sistema di generatori, si ottiene che L `e contenuto in
una base di V . Poich`e le basi di V hanno tutte n elementi si ha, in particolare, che
L `e una base se esso ha ordine n.
(iii) Supponendo chiaramente V non nullo, basta applicare la proposizione 2.5.5
con S un qualsiasi sistema di generatori finito e L = {v}, dove v `e un vettore non
nullo di S. Poich`e poi le basi di V hanno tutte ordine n, si ottiene subito che se S
ha ordine n allora S `e base.
t
u
Il precedente corollario assicura, in particolare, che da ogni sistema di generatori
finito si pu`o estrarre una base. Se S `e un sistema di generatori finito per uno spazio
vettoriale non nullo V , un modo per cercare un sottoinsieme di S che sia una base
per V `e il seguente. Evidentemente anche S \{0} genera V , sicch`e possiamo supporre
che S non contenga il vettore nullo. Posto S = {v1 , . . . , vm }, sia X1 = {v1 }. Si noti
che essendo v1 non nullo, la parte X1 di S `e libera. Se ogni elemento di S \ X1
dipende da X1 , allora V = L[S] = L[X1 ] e quindi X1 `e la base cercata. Supponiamo
quindi che esiste un elemento di S \X1 che non dipende da X1 . A meno di rinominare
gli elementi di S possiamo supporre che sia v2 a non dipendere da X1 , in particolare
quindi X2 = X1 {v2 } = {v1 , v2 } `e una parte libera contenuta in S. Se ogni elemento
di S \ X2 dipende da X2 , allora V = L[S] = L[X2 ] e X2 `e la base cercata, altrimenti
esiste un elemento di S \ X2 che, a meno di rinominare gli elementi di S `e lecito
supporre essere v3 , tale da aversi che X3 = X2 {v3 } sia libero. E allora chiaro che
iterando questo ragionamento e ricordando che S `e finito, dopo un numero finito di
passi si ottiene che Xi = {v1 , . . . , vi } `e una parte libera contenuta in S che genera
V , ossia `e una base di V contenuta in S.

30

Spazi vettoriali

Ancora in realzione al precedente corollario, e precisamente al punto (ii), osserviamo che si pu`o dire qualcosa in pi`
u: se X `e una parte libera dello spazio vettoriale
V e B `e una base finita di V , allora X si pu`o completare ad una base di V mediante
elementi di B. Infatti se ogni elemento di B dipende da X, allora V = L[B] = L[X]
e cos` X `e una base di V ; altrimenti esite un elemento b1 di B che non dipende da X
ed `e semplice accorgersi che X1 = X {b1 } `e libero. Se ogni elemento di B dipende
da X1 , allora come prima X1 `e una base per V , altrimenti esiste un elemento b2 di
B (distinto da b1 ) che non dipende da X1 , e in tal caso X2 = X1 {b2 } `e libero.
Iterando questo ragionamento e ricordando che B `e finito, dopo un numero finito di
passi, si ha che esistono b1 , . . . , bi elementi di B tali che Xi = X {b1 , . . . , bi } `e una
base di V .
Andiamo ora a determinare la dimensione di alcuni spazi vettoriali. Iniziamo ad
analizzare quella dello spazio dei vettori liberi. La proposizione 2.1.2 assicura che
due vettori liberi del piano E2 sono indipendenti se e solo se sono non paralleli; daltra
parte, la proposizione 2.1.3 assicura che due vettori non paralleli di V2 costituiscono
un sistema di generatori. Pertanto una base per V2 `e costituita da due vettori liberi
non paralleli; in particolare dim(V2 ) = 2. Nello spazio E3 , invece, tre vettori non
complanari sono un sistema di generatori per V3 per la proposizione 2.1.4. Daltra
parte richedere che tre vettori sono non complanari, significa richedere che nessuno
dei tre appartenga al sottospazio generato dagli altri due. Quindi tre vettori non
complanari sono indipendenti per la proposizione 2.4.1 e pertanto sono una base per
V3 ; in particolare, dim(V3 ) = 3.
Siano poi K un campo ed n un intero positivo. Posto, per ogni i = 1, . . . , n,
ei = (0, ..., 0, 1, 0, ..., 0)
i
`e immediato accorgersi che linsieme {e1 , . . . , en } `e una base per Kn ,detta base canonica (o anche naturale o standard); in particolare, dim(Kn ) = n. Evidentemente,
poi, rispetto al riferimento canonico (e1 , . . . , en ) il generico vettore (k1 , . . . , kn ) di
Kn ha per componenti k1 , . . . , kn .
Lo spazio dei polinomi K[x] su un campo K, invece, non `e finitamente generato e
quindi non ha dimensione finita. Infatti, comunque si prende una parte finita X di
K[x] detto m il massimo dei gradi dei polinomi che formano X il polinomio xm+1 ,
non essendo esprimibile come combinazione lineare di polinomi di grado al pi`
u m,
non dipende da X e pertanto X non genera K[x]. Daltra parte per`o, se n N, il
sottospazio Kn [x] dei polinomi di grado al pi`
u n ha come sistema di generatori la
parte B = {1, x, x2 , . . . , xn }. Facilmente si prova che B `e anche una parte libera,
dunque `e una base e cos` dim(Kn [x]) = n + 1. Si noti che il generico polinomio
a0 + a1 x + + an xn di Kn [x] ha (a0 , a1 , . . . , an ) come vettore delle componenti
rispetto al riferimento (1, x, x2 , . . . , xn ).

2.5 Spazi vettoriali di dimensione finita

31

Passiamo ora a provare alcune relazioni tra la dimensione di uno spazio vettoriale
e la dimensione di un suo sottospazio.
Proposizione 2.5.7 Sia V uno spazio vettoriale di dimensione finita e sia W un
suo sottospazio. Allora W ha dimensione finita e risulta essere dim(W ) dim(V ).
Inoltre, dim(W ) = dim(V ) se e solo se W = V .
Dimostrazione Una base B1 di W `e una parte libera di V che pertanto si
pu`o completare ad una base B2 di V per il corollario 2.5.6. Poich`e B2 `e finita,
segue che W ha dimensione finita finita ed inoltre dim(W ) dim(V ). Ora, se
dim(W ) = dim(V ) si ha che B1 e B2 hanno lo stesso numero di elementi. Essendo
B1 contenuto in B2 segue che B1 = B2 e quindi V = L[B2 ] = L[B1 ] = W .
t
u
Teorema 2.5.8 (Formula di Grassmann) Sia V uno spazio vettoriale di dimensione finita e siano W1 e W2 suoi sottospazi. Allora
dim(W1 + W2 ) = dim(W1 ) + dim(W2 ) dim(W1 W2 ).
Dimostrazione Per la proposizione 2.5.7, i sottospazi W1 , W2 e W1 W2 hanno
tutti dimensione finita. Il corollario 2.5.6 assicura che `e possibile completare una
base B = {v1 , . . . , vr } di W1 W2 a basi
B1 = {v1 , . . . , vr , u1 , . . . , us } e B2 = {v1 , . . . , vr , w1 , . . . , wt }
di W1 e W2 , rispettivamente. Chiaramente ciascuno dei vettori vi , uj e wk appartiene
a W1 + W2 . Inoltre, poich`e ogni elemento di W1 `e combinazione lineare dei vettori
vi e uj mentre ogni elemento di W2 `e combinazione lineare dei vettori vi e wk , ne
segue che ogni elemento di W1 + W2 `e combinazione lineare dei vi , uj e wk . Dunque
i vettori in questione sono generatori di W1 + W2 , ovvero B1 B2 `e un sistema di
generatori per W1 + W2 e cos`, al fine di provare che B1 B2 `e una base per W1 + W2
resta da provare che B1 B2 `e libero. Considerando una combinazione lineare nulla
1 v1 + + r vr + 1 u1 + + s us + 1 w1 + + t wt = 0

(2.1)

si ha che
1 v1 + + r vr + 1 u1 + + s us = 1 w1 t wt W1 W2
dunque
1 v1 + + r vr + 1 u1 + + s us = 1 v1 + + r vr
e cos` il teorema 2.5.3 garantisce, in particolare, che 1 = = s = 0. Pertanto la
(2.1) diventa
1 v1 + + r vr + 1 w1 + + t wt = 0

32

Spazi vettoriali

ed essendo B2 libero, si ha che 1 = = r = 1 = = t = 0. Cos` B1 B2 `e


libero, come si voleva. Poich`e B1 B2 ha r + s + t elementi, segue che
dim(W1 +W2 ) = r+s+t = (r+s)+(r+t)r = dim(W1 )+dim(W2 )dim(W1 W2 ).
Nel caso sia invece W1 W2 = {0}, un ragionamento analogo al precedente prova
che lunione tra una base di W1 ed una base di W2 `e una base per W1 + W2 , cos`
anche in questo caso il risultato sussiste.
t
u
Sia V uno spazio vettoriale di dimensione finita su un campo K e siano W1
e W2 due sottospazi di V tali che il loro spazio somma W sia una somma diretta
W = W1 W2 . Allora W1 W2 = {0} e quindi la formula di Grassman 2.5.8 assicura
che dim(W ) = dim(W1 ) + dim(W2 ), inoltre procedendo come nella dimostrazione
del teorema 2.5.8 si ottiene che una base per W `e lunione tra una base di W1 e
una base di W2 . Pi`
u in generale, `e un semplice esercizio provare che se W `e somma
diretta dei sottospazi W1 , . . . , Wt , fissata una base Bi in ciascun Wi , una base per
W `e linsieme B = B1 Bt .

2.6

Applicazioni lineari tra spazi vettoriali

Siano V e W spazi vettoriali su un campo K. Unapplicazione


: V W
si dice applicazione lineare oppure omomorfismo se
(u + v) = (u) + (v)

(u) = (u)

u, v V e K.

Equivalentemente lapplicazione `e lineare se e solo se


(u + v) = (u) + (v)

u, v V e , K.

Unapplicazione lineare si dice monomorfismo se `e iniettiva, mentre si dice epimorfismo se `e suriettiva. Unomomorfismo biettivo invece si dice isomorfismo e
gli spazi vettoriali V e W si dicono isomorfi se esiste un isomorfismo di V in W .
Unapplicazione lineare di V in se si dice endomorfismo e un endomorfismo biettivo
si dice automorfismo.
Proposizione 2.6.1 Se : V W `e unapplicazione lineare tra gli spazi vettoriali V e W su un campo K, allora:
(i) (0) = 0;
(ii) (v) = (v) per ogni v V ;
(iii) (u v) = (u) (v) per ogni u, v V .

2.6 Applicazioni lineari tra spazi vettoriali

33

Dimostrazione Si ha che (0) = (0 + 0) = (0) + (0) e cos` (0) = 0. Se


v V allora 0 = (0) = (vv) = (v)+(v) e quindi (v) = (v). Segue che
se u `e un altro elemento di V allora risulta (uv) = (u)+(v) = (u)(v).u
t
Chiaramente, lapplicazione identica V e lapplicazione nulla v V 0 W
sono lineari. Ancora, lapplicazione (a, b, c) R3 ax R[x] `e evidentemente
lineare, invece : (x, y) R2 (y 2 , x) R2 non `e unapplicazione lineare infatti
(x, x) + (0, y) = (x2 , x) + (y 2 , 0) = (x2 + y 2 , x) e (x, x + y) = (x2 + 2xy + y 2 , x).
Il prossimo risultato fornisce un metodo per costruire applicazioni lineari; esso
mostra inoltre che unapplicazione lineare `e univocamente determinata dai trasformati dei vettori di una base del dominio.
Teorema 2.6.2 (Teorema fondamentale delle applicazioni lineari) Siano V
e W due spazi vettoriali non nulli su un campo K, con V di dimesione finita n.
Fissato un riferimento R = (e1 , . . . , en ) in V e scelti n vettori non necessariamente
distinti w1 , . . . , wn in W , esiste ununica applicazione lineare : V W tale che
(e1 ) = w1 , . . . , (en ) = wn .
Dimostrazione Se v `e un elemento di V e se (1 , . . . , n ) sono le componenti di v
rispetto ad R (che si ricorda qui sono univocamente determinate per il teorema 2.5.3)
la posizione (v) = 1 w1 + + n wn definisce unapplicazione : V W (essa
`e una applicazione proprio in virt`
u dellunicit`a delle componenti). Se u `e un altro
elemento di V di componenti (1 , . . . , n ), allora il vettore v + u ha componenti
(1 + 1 , . . . , n + n ) e cos`
(u + v) = (1 + 1 )w1 + + (n + n )wn =
= (1 w1 + + n wn ) + (1 w1 + + n wn ) =
= (u) + (v);
daltra parte se K allora il vettore v ha componenti (1 , . . . , n ) e quindi
(v) = (1 )w1 + + (n )wn =
= (1 w1 + + n wn ) = (v).
Pertanto `e lineare. Evidentemente poi (e1 ) = w1 , . . . , (en ) = wn .
Se : V W `e un altro omomorfismo tale che w1 = (e1 ), . . . , wn = (en ), e
v = 1 e1 + + n en `e il generico elemento di V , allora
(v) = (1 e1 + + n en ) =
= 1 (e1 ) + + n (en ) =
= 1 w1 + + n wn =
= 1 (e1 ) + + n (en ) =
= (1 e1 + + n en ) =
= (v)

34

Spazi vettoriali
t
u

e pertanto = .

Lapplicazione definita nella dimostrazione della precedente proposizione si dice


ottenuta estendendo per linearit`a le posizioni v1 = (e1 ), . . . , vn = (en ).
Ad esempio, consideriamo lR-spazio vettoriale R2 [x] dei polinomi di grado al
pi`
u 2 a coefficienti reali, e in esso fissiamo il riferimento R = (1, 1 + x, x + x2 ); in
particolare, il generico elemento di R2 [x]
a0 + a1 x + a2 x 2
si scrive rispetto ai vettori del riferimento R (in modo unico) come
(a0 a1 + a2 )1 + (a1 a2 )(1 + x) + a2 (x + x2 ).
Consideriamo poi lR-spazio vettoriale R2 e in esso i vettori
v1 = (1, 2)

v2 = (1, 3).

Poniamo
(1) = (x + x2 ) = v1

(1 + x) = v2

(2.2)

ed estendiamo per linearit`a


(a0 + a1 x + a2 x2 ) =((a0 a1 + a2 )1 + (a1 a2 )(1 + x) + a2 (x + x2 )) =
= (a0 a1 + a2 )v1 + (a1 a2 )v2 + a2 v1 =
= (a0 a1 + 2a2 )v1 + (a1 a2 )v2 =
= (a0 + a2 , 2a0 + a1 + a2 )
Lapplicazione : R2 [x] R2 cos` ottenuta `e lapplicazione lineare che estende per
linearit`a le posizioni (2.2).
Al fine di descrivere le applicazioni lineari tra spazi numerici, si premette la
seguente.
Proposizione 2.6.3 Siano : V W e : W U due applicazioni lineari
tra i K-spazi vettoriali U, V e W . Allora anche : V U `e lineare.
Dimostrazione Siano v1 , v2 V e , K allora
(v1 + v2 ) = ((v1 + v2 )) = ((v1 ) + (v2 )) =
= ((v1 )) + ((v2 )) = (( )(v1 )) + (( )(v2 )).
t
u

2.6 Applicazioni lineari tra spazi vettoriali

35

Si fissino un campo K e due interi positivi n ed m. Inannzitutto, unapplicazione


lineare di un qualsiasi spazio vettoriale numerico (su K) in K si dice forma lineare.
Per ogni i = 1, . . . , m definiamo unapplicazione i : Km K ponendo
i (k1 , . . . , km ) = ki .
Evidentemente, ogni i `e una forma lineare. Se
: Kn Km
`e unapplicazione, si dice componente i-esima di lapplicazione
i = i .
Osservando che per ogni u Kn risulta
(u) = (1 (u), . . . , m (u))
si ha subito che lapplicazione `e lineare se e solo se tutte le sue componenti i
sono forme lineari. Quindi per caratterizzare le applicazioni lineari tra spazi vettoriali numerici `e sufficiente caratterizzare le forme lineari. Esse sono completamente
descritte nella seguente.

Proposizione 2.6.4 Se K `e un campo ed n N, unapplicazione : Kn K `e


una forma lineare se e solo se esistono degli scalari 1 , . . . , n nel campo K tali che
(k1 , . . . , kn ) = 1 k1 + + n kn per ogni (k1 , . . . , kn ) Kn .
Dimostrazione Sia : Kn K una forma lineare. Fissiamo il riferimento
canonico R = (e1 , . . . , en ) di Kn e supponiamo sia (ei ) = i per ogni i = 1, . . . , n.
Allora se (k1 , . . . , kn ) Kn , usando la linearit`a di si ha che
(k1 , . . . , kn ) = (k1 e1 + + kn en ) = 1 k1 + + n kn .
Viceversa, si verifica facilmente che ogni applicazione per la quale vale la precendente
relazione `e lineare.
t
u
Andiamo ora ad evidenziare altre propriet`a delle applicazioni lineari.

Proposizione 2.6.5 Sia : V W unapplicazione lineare tra gli spazi vettoriali


V e W su un campo K. Se X `e un sottospazio vettoriale di V allora (X) `e un
sottospazio di W ; inoltre, se S `e un sistema di generatori per X allora (S) `e un
sistema di generatori per (X).

36

Spazi vettoriali

Dimostrazione Chiaramente, (X) 6= essendo X 6= . Se , K e se


u, v (X), allora esistiono x, y X tali che u = (x) e v = (y) e si ha che
u + v = (x) + (y) = (x + y) `e ancora un elemento di (X). Dunque
(X) `e un sottospazio di W . Se S genera X e u (X), allora u = (x) con x
in X, ma allora x `e combinazione lineare di alcuni elementi x1 , . . . , xt di S per la
proposizione 2.3.2, e quindi u `e combinazione lineare degli elementi (x1 ), . . . , (xt )
di (S); pertanto (X) L[(S)] nonche, evidentemente, (X) = L[(S)].
t
u

Proposizione 2.6.6 Se : V W `e un isomorfismo tra gli spazi vettoriali V e


W su un campo K, allora anche linversa 1 : W V `e un isomorfismo.
Dimostrazione Chiaramente `e sufficiente provare che 1 `e lineare. Siano
w1 , w2 W , allora la biettivit`a di assicura che esistono e sono univocamente
determinati gli elementi v1 , v2 V tali che w1 = (v1 ) e w2 = (v2 ). Pertanto se
, K
1 (w1 + w2 ) = 1 ((v1 ) + (v2 )) = 1 ((v1 + v2 )) =
= v1 + v2 = 1 (w1 ) + 1 (w2 )
e quindi 1 `e lineare.

t
u

Evidentemente ogni applicazione lineare trasforma vettori linearmente dipendenti


in vettori linearmente dipendenti, ma non `e detto che i trasformati di vettori linearmenti indipendenti siano ancora linearmente indipendenti basti pensare, ad esempio,
ai trasformati di due vettori indipendenti mediante lapplicazione lineare che manda
ogni vettore nel vettore nullo. Nel caso per`o lapplicazione lineare sia iniettiva, anche
vettori linearmente indipendenti sono trasformati in vettori indipendenti.
Proposizione 2.6.7 Sia : V W `e un monomorfismo tra spazi vettoriali sul campo K. Allora i vettori v1 , . . . , vt di V sono indipendenti se e solo se
(v1 ), . . . , (vt ) sono vettori indipendenti di W .
Dimostrazione Se v1 , . . . , vt V sono indipendenti e 1 , . . . , t K sono
tali che 1 (v1 ) + + t (vt ) = 0, allora `e (1 v1 + + t vt ) = 0 nonch`e
1 v1 + + t vt = 0 perch`e anche (0) = 0 per la proposizione 2.6.1 e perch`e
`e iniettiva. Pertanto 1 = = n = 0 e (v1 ), . . . , (vt ) sono indipendenti.
Viceversa, se (v1 ), . . . , (vt ) sono vettori indipendenti e 1 v1 + + t vt = 0 allora
`e (1 v1 + + t vt ) = 0 per la proposizione 2.6.1. Cos` 1 (v1 ) + + t (vt ) = 0
per la linearit`a di , quindi 1 = = n = 0 e v1 , . . . , vt di V sono indipendenti.u
t
Dalla proposizione 2.6.5 e dalla proposizione 2.6.7 discende il seguente.

2.6 Applicazioni lineari tra spazi vettoriali

37

Corollario 2.6.8 Sia : V W `e un monomorfismo tra spazi vettoriali sul


campo K. Se X `e un sottospazio di V e B `e una base per X, allora (B) `e una base
per il sottospazio (X).
Supponiamo che V sia uno spazio vettoriale non nullo di dimensione finita n sul
campo campo K. Fissiamo un riferimento R = (e1 , . . . , en ) in V e indichiamo con
(v)R il vettore delle componenti in R di v V . Lapplicazione
cR : v V (v)R Kn
`e iniettiva per lunicit`a delle componenti (cfr. teorema 2.5.3) ed `e evidentemente
anche suriettiva. E inoltre semplice provare che cR `e lineare, pertanto cR `e un
isomorfismo detto isomorfismo coordinato associato al riferimento R, o anche coordinazione di V associata a R, o talvolta detto sistema di coordinate su V rispetto
ad R.
Teorema 2.6.9 Sia V uno spazio vettoriale su un campo K di dimensione finita.
(i) Se n `e la dimensione di V , allora V e Kn sono isomorfi.
(ii) Se V 0 `e un altro K-spazio vettoriale di dimensione finita, si ha che V e V 0
sono isomorfi se e solo se V e V 0 hanno la stessa dimensione.
Dimostrazione Evidentemente lisomorfismo coordinato prova la (i). Per la (ii),
si supponga innanzitutto che V e V 0 abbiano entrambi dimensione finita n. Fissato
un riferimento R in V ed un riferimento R0 in V 0 , segue dalla proposizione 2.6.3 e
n
dalla proposizione 2.6.6 che lapplicazione c1
e un isomorfismo di V in
R0 K cR `
0
0
V . Viceversa se V e V sono K-spazi vettoriali di dimensione finita e sono isomorfi,
segue dalla proposizone 2.6.5 e dalla proposizione 2.6.7 che V e V 0 hanno la stessa
dimensione.
t
u
Dai risultati esposti in questa sezione si evince che attraverso lisomorfismo coordinato lo studio di un K-spazio vettoriale di dimensione n pu`o essere ricondotto
allo studio dello spazio vettoriale Kn . Ad esempio, nello spazio vettoriale R3 [x] dei
polinomi a coefficienti reali di grado al pi`
u 3, consideriamo i polinomi
f1 = x3 + 2x, f2 = x 1, f3 = 2x3 + 3x + 1, e f4 = x2 + 3x 2
e determinamo una base per il sottospazio W = L[f1 , f2 , f3 , f4 ]. Consideriamo il
riferimento R = (x3 , x2 , x, 1) e lisomorfismo coordinato ad esso associato
cR : ax3 + bx2 + cx + d R3 [x] (a, b, c, d) R4 .
Tramite cR il sottospazio W viene mandato nel sottospazio W 0 generato dai trasformati degli fi ovvero generato dai vettori
w1 = (1, 0, 2, 0), w2 = (0, 0, 1, 1), w3 = (2, 0, 3, 1), e w4 = (0, 1, 3, 2).

38

Spazi vettoriali

Dunque determiniamo una base per W 0 . Osservando che w3 = 2w1 w2 e che


w1 + w2 + w4 = 0 se e solo se = = = 0, si ottiene subito che {w1 , w2 , w4 }
`e una base per W 0 ; pertanto una base per W `e
1
1
3
2
{c1
R (w1 ), cR (w2 ), cR (w3 )} = {x + 2x, x 1, x + 3x 2} = {f1 , f2 , f4 }.

2.7

Immagine e nucleo di unapplicazione lineare

Sia : V W unapplicazione lineare tra gli spazi vettoriali V e W su un campo


K. Segue dalla proposizione 2.6.5 che il sottoinsieme di W
Im = {(v) | v V }
`e un sottospazio, detto sottospazio immagine di . Si noti che sempre la proposizione 2.6.5 garantisce che se B `e una base di V allora (B) `e un sistema di
generatori per Im ; per`o (B) potrebbe non essere una base per Im (come ci
si pu`o convincere considerando ad esempio come lomomorfismo nullo) ma, per il
corollario 2.6.8, lo `e sicuramente nel caso in cui sia iniettiva.
Si dice, invece, nucleo di linsieme
ker = {v V | (v) = 0}.
La proposizione 2.6.1 assicura che 0 ker , inoltre se u e v sono elementi di V tali
che (u) = (v) = 0 e , K allora (u + v) = (u) + (v) = 0 sicch`e ker
`e un sottospazio vettoriale di V .
Proposizione 2.7.1 Sia : V W unapplicazione lineare tra gli spazi vettoriali
V e W su un campo K. Allora `e iniettiva se e solo se ker = {0}.
Dimostrazione Se `e iniettiva, allora da (v) = 0 = (0) segue v = 0 e
dunque ker = {0}. Daltra parte, se ker = {0} e u e v sono elementi di V tali
che (u) = (v), allora (u v) = (u) (v) = 0, sicch`e u v ker = {0}.
Cos` u = v e `e iniettiva.
t
u
Teorema 2.7.2 (Teorema della Dimensione) Sia : V W unapplicazione
lineare tra gli spazi vettoriali V e W su un campo K. Se V ha dimensione finita,
allora
dim(V ) = dim(ker ) + dim(Im ).
Dimostrazione Se ker = {0} allora `e iniettiva per la proposizione 2.7.1 e
quindi i trasformati tramite degli elementi di una base di V formano una base
di Im per il corollario 2.6.8, sicch`e dim(V ) = dim(Im ) e lasserto `e vero. Supponiamo dunque che ker 6= {0}. Consideriamo {v1 , . . . , vt } una base per ker e

2.7 Immagine e nucleo di unapplicazione lineare

39

completiamo ad una base B = {v1 , . . . , vt , vt+1 , . . . , vn } per V (cfr. corollario 2.5.6).


Essendo (v1 ) = = (vt ) = 0, la proposizione 2.6.5 assicura che Im `e generato
dallinsieme B1 = {(vt+1 ), . . . , (vn )}. Se consideriamo una combinazione lineare
nulla degli elementi di B1 a coefficienti in K
0 = 1 (vt+1 ) + + nt (vn ) = (1 vt+1 + + nt vn )
otteniamo che 1 vt+1 + + nt vn ker e quindi, essendo B libero, si ha che
1 = = nt = 0. Pertanto B1 `e una base per Im e risulta
dim(ker ) + dim(Im ) = t + (n t) = n = dim(V ).
Lasserto `e provato.

t
u

Corollario 2.7.3 Siano V e W due spazi vettoriali su un campo K aventi uguale


dimensione (finita), e sia : V W unapplicazione lineare. Sono equivalenti le
seguenti affermazioni:
(i) `e iniettiva;
(ii) `e suriettiva;
(iii) `e biettiva.
Dimostrazione Per la proposizione 2.7.1, `e iniettiva se e solo se ker = {0},
e quindi se e solo se dim(V ) = dim(Im ) per il teorema 2.7.2, ovvero (essendo
dim(V ) = dim(W )) se e solo se W = Im per la proposizione 2.5.7. Pertanto (i) e
(ii) sono equivalenti tra loro e quindi sono equivalenti anche a (iii).
t
u

CAPITOLO 3

Matrici e Sistemi lineari


3.1

Generalit`
a e operazioni tra matrici

Si fissi, qui e per tutto il capitolo, un campo K. Una matrice ad m righe ed n colonne
su K (dove m ed n sono due interi positivi), o semplicemente una matrice m n su
K, `
e unapplicazione dellinsieme {1, . . . , m} {1, . . . , n} in K. Sia
A : {1, . . . , m} {1, . . . , n} K
una matrice m n su K. Per ogni elemento (i, j) di {1, . . . , m} {1, . . . , n} si pone
aij = A(i, j), e per indicare la matrice A si scrive

a11 a12 . . . a1n


a21 a22 . . . a2n

A = ..
..
.. ,
.
.
.
.
.
.
am1 am2 . . . amn
o semplicemente A = (aij ). Una matrice con tutti gli elementi uguali a 0 si dice
matrice nulla.
Se (i, j) {1, . . . ,
m} {1,
. . . , n}, indichiamo con Ai = (ai1 , . . . , ain ) la i-esima
a1j
..
j
riga di A e con A = . la j-esima colonna di A, chiaramente si tratta qui di
amj
una matrice 1 n nel caso delle righe e di una matrice m 1 nel caso delle colonne.
Talvolta sar`a utile pensare alle righe o alle colonne della matrice A come vettori
numerici dello spazio vettoriale Kn o Km , rispettivamente.
Se il numero di righe di A coincide col numero di colonne, cio`e m = n, si dice che
A `e una matrice quadrata di ordine n su K; in tal caso, linsieme {aii | i = 1, . . . , n}
si dice diagonale principale di A.
Linsieme delle matrici m n su K si denota con Mm,n (K); qualora poi m = n si
scrive semplicemente Mn (K) in luogo di Mn,n (K). Nellinsieme Mm,n (K) si definisce
unoperazione di somma ponendo
(aij ) + (bij ) = (aij + bij ).
Con loperazione cos` definita Mm,n (K) `e un gruppo abeliano in cui lo zero `e la
matrice nulla O (cio`e la matrice O = (oij ) i cui elementi oij sono tutti 0), e in cui
lopposto della matrice (aij ) `e la matrice (aij ) = (aij ).

3.1 Generalit`a e operazioni tra matrici

41

Inoltre, se K e A = (aij ) Mm,n (K), definiamo prodotto tra ed A la matrice


A = (aij ) di Mm,n (K).
Unaltra operazione tra matrici si definisce come segue. Si considerino le matrici
A = (ai,j ) Mm,n (K) e B = (bij ) Mn,p (K) e si ponga
Ai B j = ai1 b1j + ai2 b2j + + ain bnj
per ogni i = 1, . . . , m e per ogni j = 1, . . . , p. Si definisce prodotto righe per colonne
di A e B la matrice
AB = (Ai B j ) Mm,p (K).
Ad esempio, considerando le matrici


1 2
A=
e
3 4


B=

1 2 3
4 5 6

si ha che

AB =

11+24 12+25 13+26


31+44 32+45 33+46


=

9 12 15
19 26 33


.

Sia A = (aij ) una matrice m n sul campo K. Si dice matrice trasposta di A la


matrice At = (
aij ) a n righe ed m colonne su K che si ottiene da A scambiando le
righe con le colonne ovvero il cui generico elemento `e a
ij = aji . Se A `e una matrice
quadrata e A = At , si dice che A `e una matrice simmetrica. Ad esempio, se


1 2 1
A=
M2,3 (R)
0 5 1
allora

1 0
At = 2 5 M3,2 (R).
1 1

Di facile verifica `e la seguente:


Proposizione 3.1.1 Sia K un campo. Se A, B Mm,n (K) e C Mn,p (K), allora
(i) (At )t = A;
(ii) (A)t = At qualsiasi sia lelemento di K;
(iii) (A + B)t = At + B t e (AC)t = C t At .

42

3.1.1

Matrici e Sistemi lineari

Lanello delle matrici

Linsieme Mn (K) delle matrici quadrate di ordine n su K `e, rispetto alloperazione


di somma, un gruppo abeliano; se oltre alloperazione di somma si considera anche
loperazione di prodotto righe per colonne, la struttura algebrica che si ottiene `e
quella di anello, come mostra la seguente.
Proposizione 3.1.2 (i) Siano A Mm,n (K), B Mn,p (K) e C Mp,q (K). Allora
(AB)C = A(BC), cio`e il prodotto righe per colonne `e associativo.
(ii) Siano A, B Mm,n (K) e C, D Mn,p (K). Allora (A + B)C = AC + BC e
A(C + D) = AC + AD, cio`e il prodotto righe per colonne `e distributivo rispetto alla
somma.
Dimostrazione (i) Siano A = (aij ), B = (bij ) e C = (cij ). Poniamo D = AB =
(dij ), DC = (eij ), F = BC = (fij ) e AF = (gij ). Allora
dis =

n
X

air brs

r=1

e pertanto
eij =

p
X

dis csj =

s=1

p  n
X
X
s=1


air brs csj .

r=1

Analogamente
frj =

p
X

brs csj

s=1

e quindi
gij =

n
X
r=1

air frj =

n
X

air

r=1

p
X

brs csj =

s=1

p  n
X
X
s=1


air brs csj = eij .

r=1

Pertanto (AB)C = A(BC). La verfica di (ii) `e analoga e pertanto si omette.

t
u

Dunque Mn (K) con la somma e il prodotto righe per colonne `e un anello, tale
anello `e anche unitario di unit`a la matrice identica, ovvero la matrice

1 0 ... 0
0 1 ... 0

In = .. .. . . ..
. .
. .
0 0 ... 1
che si pu`o anche denotare come
In = (ij )

3.1 Generalit`a e operazioni tra matrici


dove


ij =

43

1 se i = j
0 se i 6= j

`e il cosiddetto simbolo di Kronecker. Si osservi che lanello Mn (K) non `e in generale


commutativo; ad esempio, se K `e un qualsiasi campo e si considerano le matrici di
M2 (K)




0 0
0 0
A=
e B=
1 0
1 1
si ha che

AB =

0 0
0 0


e BA =

0 0
1 0


.

Si noti che il precedente esempio mostra che in generale nellanello Mn (K) non vale
la legge di annullamento del prodotto. Inoltre considerando le matrici (reali)






3
9
5 10
8 7
A=
,B=
e C=
1 3
1
2
2
1
ed osservando che

B 6= C

ma AB = AC =

6 12
2
4

si ottiene che, in generale, nellanello Mn (K) non vale la legge di cancellazione.

3.1.2

Lo spazio vettoriale delle matrici

Linsieme Mm,n (K) delle matrici m n sul campo K ha, com`e semplice accorgersi,
una struttura di spazio vettoriale sul campo K quando si considera come operazione
interna la somma tra matrici e come operazione esterna con dominio di operatori in
K, loperazione di prodotto di una matrice per uno scalare.
Si noti che

a11 . . .
..
..
.
.
am1 . . .

a1n
1 ... 0
0 ... 1
.. = a .. . . .. + ... + a .. . . .. +
. .
. .
11 .
1n .
.
amn
0 ... 0
0 ... 0

0 ... 0
0 ...
.. . .
.. . . ..
+ + am1 .
. . + + amn .
.
1 ... 0
0 ...

0
..
.
1

44

Matrici e Sistemi lineari

sicch`e, detta Eij `e la matrice il cui unico elemento non nullo `e lelemento di posto
(i, j) che `e 1, si ha che linsieme
B = {Eij | i = 1, . . . , m e j = 1, . . . , n}
`e un sistema di generatori per lo spazio vettoriale Mm,n (K). Daltra parte `e semplice
accorgersi che B `e anche un insieme libero, pertato B `e una base per Mm,n (K), detta
talvolta base canonica di Mm,n (K); in particolare, dim(Mm,n (K)) = mn.

3.2

Matrici a scala

Una matrice non nulla A di Mm,n (K) si dice matrice a scala (o anche a gradini o a
scalini) se verifica le seguenti condizioni:
(a) Se una riga di A `e non nulla, allora il primo elemento non nullo di tale riga, che
`e detto pivot della riga in considerazione, `e pi`
u a sinistra del primo elemento
non nullo delle righe ad essa successive.
(b) Se una riga di A `e nulla, tutte le righe ad essa successive sono nulle.
Ad esempio, sono a scala le seguenti matrici



1 2 3
1 2
e 0 0 4 .
0 4
0 0 0
Sia A un matrice m n su un campo K. Una operazione elementare (sulle righe)
in A `e una dei seguenti tipi di operazioni (dette mosse di Gauss):
Tipo 1) Moltiplicazione di una riga per un elemento non nullo di K: ri ri (con
K \ {0}).
Tipo 2) Scambio di due righe: ri rj .
Tipo 3) Aggiunta di un multiplo di una riga ad unaltra riga: ri ri +rk (con K).
Se A e B sono matrici m n sul campo K, `e chiaro che se B si ottiene da A
moltiplicando la riga i-esima per lo scalare non nullo , allora A si ottiene da B
moltiplicando la riga i-esima per lo scalare non nullo 1 . Analogamente se da
A passo a B mediante loperazione ri rj , allora tramite la stessa operazione
passo anche da B ad A; ed infine se da A passo a B mediante loperazione del
tipo ri ri + rk , allora da B passo ad A mediante loperazione ri ri rk .
In un certo senso, quindi, ad ogni operazione elementare corrisponde unoperazione

3.2 Matrici a scala

45

elementare inversa, alla quale nel seguito ci si riferir`a appunto con operazione
elementare inversa.
Pertanto se in Mm,n (K) definiamo la relazione A B se e solo se B si ottiene
da A mediante un numero finito di operazioni elementari, si ottiene una relazione di
equivalenza. Le matrici A e B si dicono matrici equivalenti se A B.
Teorema 3.2.1 Ogni matrice (su un campo) `e equivalente ad una matrice a scala.
La dimostrazione del precedente teorema `e un algoritmo detto Algoritmo di
Gauss. Tale algoritmo trasfoma una matrice nella sua forma detta forma a scala,
esso si basa sulluso di operazioni elementari di tipo 2) e 3) ed `e illustrato come
segue. Sia A = (aij ) la generica matrice m n sul campo K.
Passo 1 Se A `e la matrice nulla, lalgoritmo termina. Supponiamo quindi che
A sia non nulla.
Passo 2 Partendo da sinistra individuiamo la prima colonna non nulla e poi,
partendo dallalto, il primo elemento non nullo in questa colonna; quindi scambiamo
eventualmente le righe in modo tale da spostare lelemento individuato alla prima
riga. Formalmente: sia j il minimo intero in {1, . . . , n} tale che la colonna Aj di A
sia non nulla e sia i il minimo intero in {1, . . . , m} tale che a = aij 6= 0; inolte, se
i 6= 1 effettuiamo loperazione elementare ri r1 .
Passo 3 Per ogni riga h successiva alla prima e tale che ahj 6= 0, effettuiamo
loperazione elementare rj rh ahj a1 rj . Cos` facendo si rendono nulli tutti gli
elementi della j-sima colonna che si trovano nelle righe successive alla prima (cio`e
sotto ad a).
Passo 4 Se A `e costituita da ununica riga lagoritmo termina, altrimenti si considera la matrice che si ottiene da A cancellando la prima riga e si applica lalgoritmo
(ricominciando dal passo 1) a tale matrice.
Ad esempio, determiniamo una matrice a
di M3,4 (R)

0 5

1
1
A=
3 2

scala equivalente alla seguente matrice

0 2
1 1 .
1 1

Si parte dalla prima riga e si vede che la colonna contenente elementi non nulli con
indice pi`
u piccolo `e la prima. Essendo a11 = 0 e a21 6=
0 la prima cosa da
fare `e
1
1 1 1
scambiare la prima riga con la seconda ottenendo cos` 0 5 0 2 . Al
3 2 1 1
fine di annullare anche il primo elemento
della
terza
riga,
effettuiamo
loperazione

1 1 1 1
r3 r3 + 3r1 ottendendo la matrice 0 5 0 2 . Una volta che abbiamo
0 5 4 4

46

Matrici e Sistemi lineari

annullato tutti gli elementi della prima colonna nelle righe successive alla prima,
dobbiamo considerare la matrice che si ottiene cancellando la prima riga, in altre
parole dobbiamo ripetere lalgoritmo tralasciando la prima riga. In questo caso il
pivot si trova gi`a nella posizione giusta e quindi dobbiamo solo annullare gli elementi
al di sotto del pivot della seconda riga, ovvero
la trasformazione
dobbiamo applicare

1 1 1 1
r3 r3 + r2 cos` da ottenere la matrice 0 5 0 2 che `e una matrice a
0 0 4 2
scala equivalente ad A.
Come altro esempio, consideriamo la seguente matrice di M4 (R)

1 2 2 1
0 0 0 5

A=
0 0 4 2 .
0 0 8 6
Come
prima cosa effettuiamo
uno scambio tra le seconda e la terza riga otte
1 2 2 1
0 0 4 2

nendo
0 0 0 5 e poi per annullare gli elementi della terza colonna nelle
0 0 8 6
righe
successive
alla

seconda effettuiamo loperazione r4 r4 2r2 e otteniamo


1 2 2 1
0 0 4 2

0 0 0 5 , quindi loperazione r4 r4 + 2r3 riduce la matrice A nella


0 0 0 10

1 2 2 1
0 0 4 2

matrice a scala ad essa equivalente


0 0 0 5 .
0 0 0 0
Una matrice a scala in cui tutti i pivot sono uguali ad 1 e in cui il pivot `e lunico
elemento non nullo della corrispondente colonna, si chiama matrice a scala ridotta.
Applicato lalgoritmo di Gauss ad una matrice A, si pu`o fare anche in modo che
la matrice a scala ottenuta possa essere trasformata in una matrice a scala ridotta
ottendendo cos` quella che si dice la forma a scala ridotta della matrice A.
Teorema 3.2.2 Ogni matrice (su un campo) `e equivalente ad ununica matrice a
scala ridotta.
Senza affrontare il problema dellunicit`a, in seguito si illustrer`a lalgoritmo su cui
si basa la dimostrazione dellesistenza della matrice a scala ridotta, tale algoritmo
`e detto Algoritmo di Gauss-Jordan. Sia A = (aij ) la generica matrice m n sul

3.2 Matrici a scala

47

campo K e supponiamo che A sia a scala (ovvero che ad essa sia stato applicato gi`a
lalgoritmo di Gauss).
Passo 1 Se A `e la matrice nulla, lalgoritmo termina. Si assuma quindi che A
non sia nulla.
Passo 2 Sia i il massimo intero di {1, . . . , n} tale che la i-esima riga di A sia
non nulla (cio`e si considera lultima riga non nulla della matrice). Detto j lindice
relativo alla colonna di A tale che a = aij `e il pivot della riga i-esima, si effettua
loperazione elementare ri a1 ri cos` da rendere il pivot uguale ad 1.
Passo 3 Si rendono ora nulli gli elementi che si trovano al di sopra del pivot della
riga i-esima, ovvero per ogni riga di indice h < i si effettua loperazione elementare
rh rh ahj ri .
Passo 4 Se i = 1 lalgoritmo termina, altrimenti si considera la matrice che si
ottiene da A cancellando la i-esima riga e si applica ad essa il procedimento a partire
dal passo 1.
Ad esempio, trasformiamo nella forma a scala ridotta la matrice su R

1 1 0 2
1 1 1 .
A= 2
3 2 1 2
Mediante lalgoritmo di Gauss essa `e equivalente alla matrice a scala

1 1 0 2
0 3 1 5 .
0 0 43 37
Rendiamo ora uguale ad 1 il pivot della terza
riga, occoorrequindi moltiplicare la
1 1 0 2
3

0 3 1 5 alla quale si applica


terza riga per 4 . Si ottiene cos` la matrice
0 0 1 74
poi loperazione r2 r2
r3 cos` da renderenulli tutti gli elementi nella colonna
1 1 0 2
. Si deve ora considerare la matrice

0 3 0 27
del pivot della terza riga
4
7
0 0 1 4
che si ottiene da questultima cancellando lultima riga, in altre parole applichiamo
lo stesso procedimento focalizzando lattenzione sulla seconda riga (e quella ad essa
precedente). Rendiamo uguale
ad 1 il pivot della seconda riga dividendo per 3
1 1 0 2
questa riga 0 1 0 94 , a questo punto si effettua loperazione r1 r1 + r2
7
0 0 1 14
1 0 0 4

0 1 0 94 . Lalgoritmo di Gauss-Jordan quindi termina, e la


e si ottiene
0 0 1 74
matrice ottenuta `e la forma a scala ridotta della matrice A.

48

Matrici e Sistemi lineari

3.3

Determinante di una matrice

Sia A Mm,n (K). Se i1 , . . . , is {1, . . . , m} e j1 , . . . , jt {1, . . . , n} (con s m e


t n), poniamo

A(i1 , . . . , is | j1 , . . . , jt ) =

ai1 j1 ai1 j2 . . . ai1 jt


ai2 j1 ai2 j2 . . . ai2 jt
..
..
..
..
.
.
.
.
ais j1 ais j2 . . . ais jt

ovvero A(i1 , . . . , is | j1 , . . . , jt ) `e la matrice che si ottiene da A considerando gli elementi che si trovano simultaneamente sulle righe di posto i1 , . . . , is e sulle colonne
di posto j1 , . . . , jt . In generale, gli indici considerati non sono necessariamente distinti; qualora invece si suppone che gli indici sono distinti, che i1 < < is e che
j1 < < jt , la matrice A(i1 , . . . , is | j1 , . . . , jt ) prende il nome di sottomatrice. Se
poi s = t la sottomatrice A(i1 , . . . , is | j1 , . . . , js ) prende il nome di minore di ordine
s di A. In particolare, quando A `e quadrata di ordine n, il minore di ordine n 1
di A ottenuto escludendo dalle righe di A solo una riga, diciamo la i-sima, ed escludendo solo una delle colonne, diciamo la j-sima, si dice minore complementare
dellelemento aij e si denota, per semplicit`a, col simbolo Aij .
Ad esempio, data la matrice

2
0 3 4
1
0
A = 5 6
4 5 1
1
si ha

2
2
A(1, 2, 1 | 1, 1) = 5 5
2
2


e A(1, 3 | 2, 4) =

0 4
5 1

mentre

A32 =

2 3 4
5 1
0


.

Vogliamo definire il determinante di una matrice quadrata A, esso sar`a un elemento di K che si indicher`a con det(A) (o anche con |A|).
Se A = (a) M1 (K) poniamo det(A) = a. Sia A = (aij ) Mn (K) con n 2 e
supponiamo di aver definito il determinante delle matrici di Mn1 (K). Poniamo
det(A) =

n
n
X
X
(1)1+j a1j det(A1j ) =
a1j a01j ,
j=1

j=1

3.3 Determinante di una matrice

49

dove si `e posto a01j = (1)1+j det(A1j ). Resta cos` definito un elemento det(A) di K,
detto determinante di A, per ogni matrice A di Mn (K), qualsiasi sia lintero positivo
n. Lelemento di K
a0ij = (1)i+j det(Aij ),
si dice talvolta complemento algebrico di aij . Inoltre, la matrice A si dice singolare
oppure degenere quando det(A) = 0. Si osservi che nel caso particolare di matrici
2 2, se


a11 a12
A=
,
a21 a22
si ha det(A) = a11 a22 a12 a21 .
Ad esempio, calcoliamo il determinante della matrice di M3 (R)

2 1 3
A = 0 1 1 .
4 3 5





0 1
1 1 0 1




= 20.

3
Allora det(A) = 2
3 5 4 5
4 3
Si osservi che nella definizione di determinante si `e fissata implicitamente la
prima riga, ma in realt`a sussiste il seguente notevole risultato, di cui si omette la
dimostrazione, il quale ci dice che il determinate di una matrice pu`o essere calcolato
avendo fissato una quasiasi riga o colonna.
Teorema 3.3.1 (Primo Teorema di Laplace) Sia A = (aij ) una matrice quadrata
di ordine n sul campo K. Se h {1, . . . , n} allora
n
n
X
X
h+j
det(A) =
(1) ahj det(Ahj ) =
ahj a0hj
j=1

e
det(A) =

n
X
i=1

j=1

(1)

i+h

aih det(Aih ) =

n
X

aih a0ih .

i=1

Seguono immediatamente dal precedente teorema le seguenti propriet`a di calcolo


del determinante.
Corollario 3.3.2 Sia A una matrice quadrata su un campo K. Si ha:
(i) det(A) = det(At ).
(ii) Se A ha una riga o una colonna nulla, allora det(A) = 0.

50

Matrici e Sistemi lineari

(iii) Se A ha due righe o due colonne proporzionali, allora det(A) = 0.


Dimostrazione Per provare (i) basta sviluppare il determinare di A secondo
una fissta riga i e il determinante di At secondo la colonna i. Per provare (ii) invece
basta sviluppare il determinante di A secondo la riga o la colonna nulla. Infine per
provare (iii) basta osservare che





a b a b a a a a

=
=
=

a b a b b b b b = ab ab = 0.
e procedere per induzione.

t
u

Al fine di illustrare leffetto che le operazioni elementari producono sul calcolo


del determinante, si premette il seguente.
Teorema 3.3.3 (Secondo Teorema di Laplace) Se A = (aij ) `e una matrice
quadrata sul campo K e h 6= k, allora
ah1 a0k1 + ah2 a0k2 + + ahn a0kn = 0
e
a1h a01k + a2h a02k + + anh a0nk = 0.
Dimostrazione Consideriamo la matrice B = (bij ) che si ottiene da A sostituendo la k-esima riga con la h-esima. Allora bhj = bkj = ahj e b0kj = a0kj . Pertanto
applicando il primo teorema di Laplace 3.3.1 e sviluppando il determinate secondo
la riga k-esima si ha che det(B) = ah1 a0k1 + ah2 a0k2 + + ahn a0kn . Daltra parte in B
la h-esima riga e la k-esima sono uguali, quindi det(B) = 0 per il corollario 3.3.2 e
pertanto ah1 a0k1 + ah2 a0k2 + + ahn a0kn = 0. Analogamente, considerando la matrice
che si ottiene sostituendo la k-esima colonna di A con la h-esima e sviluppando
il determinante della matrice cos` ottenuta secondo la k-esima colonna, si ottiene
a1h a01k + a2h a02k + + anh a0nk = 0 ed il teorema `e provato.
t
u
Il prossimo risultato mostra leffetto che le operazioni elementari producono sul
determinante di una matrice.
Proposizione 3.3.4 Sia A una matrice quadrata sul campo K. Allora:
(i) Se la matrice B si ottiene da A moltiplicando tutti gli elementi di una fissata
riga (rispettivamente colonna) di A per una costante K, allora si ha che
det(B) = det(A);
(ii) Se B `e la matrice che si ottiene da A scambiando due righe (rispettivamente
colonne), allora risulta det(B) = det(A);

3.3 Determinante di una matrice

51

(iii) Se la matrice B si ottiene da A aggiungendo ad una riga (rispettivamente


colonna) il multiplo di unaltra riga (rispettivamente colonna), allora si ha che
det(B) = det(A).
(iv) Se la matrice B si ottiene da A sommando ad una riga una combinazione
lineare delle restanti righe, allora det(B) = det(A).
In particolare, se la matrice B `e equivalente ad A allora det(B) = 0 se e solo se
det(A) = 0.
Dimostrazione Proviamo la proposizone nel caso delle righe, gli asserti per le
colonne seguono dalla (i) del corollario 3.3.2.
(i) Supponiamo di aver ottenuto la matrice B = (bij ) moltiplicato la riga iesima di A = (aij ) per . Allora bij = aij e b0ij = a0ij e pertanto, sviluppando il
determinante secondo la i-esima, si ottiene subito det(B) = det(A).
(ii) Per matrici di ordine 2 si ha




a b
c d




c d = ad bc = (bc ad) = a b .
Supposto lasserto vero per matrici di ordine n 1 (con n 3), si ha subito lasserto
per quelle di ordine n sviluppando il determinante secondo una riga diversa da quelle
che si scambiano.
(iii) Sia B = (bij ) la matrice ottenuta da A = (aij ) mediante la trasformazione
ri ri + rk (con K). Allora bij = aij + akj mentre b0ij = a0ij , dunque
bij b0ij = aij a0ij + akj aij e quindi, applicando il secondo teorema di Laplace 3.3.3, si
ottiene
X
X
X
X
det(B) =
bij b0ij =
aij a0ij +
akj a0ij = det(A) +
akj a0ij = det(A).
j

(iv) Sia B ottenuta da A mediante loperazione ri ri 1 r1 n rn .


Consideriamo la matrice B1 che si ottiene da A mediante loperazione ri ri 1 r1 ,
la matrice B2 che si ottiene da B1 mediante loperazione ri ri 2 r2 , e cos` via
fino alla matrice Bn che si ottiene da Bn1 mediante loperazione ri ri n rn .
Allora la (iii) garantisce che det(A) = det(B1 ) = det(B2 ) = = det(Bn ); ma
evidentemente Bn = B e quindi det(B) = det(A).
t
u
Una matrice quadrata A = (aij ) si dice triangolare superiore se tutti gli elementi
sotto la diagonale principale sono nulli, cio`e se aij = 0 se i > j. Si dice invece
triangolare inferiore se tutti gli elementi che si trovano al di sopra della diagonale
principale sono nulli, ovvero se aij = 0 se i < j. La matrice A si dice poi matrice
diagonale se gli eventuali elementi non nulli in A si trovano solo sulla diagonale
principale, e quindi quando aij = 0 se i 6= j.
Proposizione 3.3.5 Il determinante di una matrice (su un campo) triangolare superiore, o triangolare inferiore o diagonale `e il prodotto degli elementi della diagonale
principale.

52

Matrici e Sistemi lineari

Dimostrazione Se

A=

a11 a12 a13


0 a22 a23
0
0 a33
..
..
..
.
.
.
0
0
0

`e triangolare superiore, sviluppando det(A)



a22

0

det(A) = a11 ..
.

0

...
...
...
..
.

a1n
a2n
a3n
..
.

...

ann

secondo la prima colonna otteniamo



a23 . . . a2n
a33 . . . a3n
.. . .
..
.
.
.
0 . . . ann

e iterando lo sviluppo dei determinanti sempre secondo la prima colonna, si ottiene


che det(A) = a11 a22 . . . ann . Un analogo ragionamento prova il risultato quando A `e
triangolare inferiore o diagonale.
t
u
La precedente proposizione fornisce un utile modo per il calcolo del determinate.
Se A `e una matrice quadrata di ordine n su un campo K, mediante lalgoritmo di
Gauss sappiamo trasformare A in una matrice a scala B = (bij ) ad essa equivalente.
Poich`e anche B `e una matrice quadrata, essa `e una matrice triangolare superiore
di ordine n e quindi la proposizione 3.3.5 assicura che det(B) = b11 . . . bnn . Poich`e
lalgoritmo di Gauss non prevede luso di operazioni di tipo 1), se per passare da
A a B ci sono stati s N0 scambi di righe, la proposizione 3.3.4 assicura che
det(A) = (1)s b11 . . . bnn .
Unaltra utile propriet`a del determinante `e fornita dal seguente teorema di cui si
omette la dimostrazione.

Teorema 3.3.6 (Teorema di Binet) Siano A e B matrici quadrate di ordine n


sul campo K. Allora det(AB) = det(A)det(B) = det(BA).

3.4

Matrici Invertibili

Siano K un campo e n un intero positivo. Una matrice quadrata A di ordine n su K si


dice invertibile se A `e un elemento simmetrizzabile di Mn (K) rispetto alloperazione
di prodotto righe per colonne, ossia se esite una matrice B Mn (K) tale che AB = In
e BA = In ; in questo caso, la matrice B `e univocamente determinata (si ricordi che
Mn (K) con il prodotto righe per colonne `e un monoide): questa unica matrice B si
dice matrice inversa di A e si denota con A1 . Chiaramente, (A1 )1 = A, ed `e

3.4 Matrici Invertibili

53

inoltre semplice accorgersi che (At )1 = (A1 )t . Si osservi che esistono matrici
che


0 0
non sono invertibili, ad esempio qualsiasi sia il campo K, la matrice A =
0 1
di M2 (K) non `e invertibile perch`e qualsiasi sia la matrice B, la matrice AB ha la
prima riga nulla e quindi AB 6= I2 . Si noti che pi`
u in generale, e per lo stesso motivo,
una matrice quadrata di ordine arbitrario n su un campo non `e mai invertibile se
ha una riga nulla.
Proposizione 3.4.1 Sia K un campo. Se A e B sono matrici invertibili di Mn (K),
allora anche AB `e invertibile e (AB)1 = B 1 A1 .
Dimostrazione Si ha
(AB)(B 1 A1 ) = A(BB 1 )A1 = A In A1 = AA1 = In
e
(B 1 A1 )AB = B 1 (A1 A)B = B 1 In B = B 1 B = In ,
pertanto AB `e invertibile e (AB)1 = B 1 A1 .

t
u

Fissato un campo K ed un intero positivo n, la precedente proposizione assicura


che linsieme GLn (K) delle matrici invertibili di Mn (K) `e stabile rispetto al prodotto
righe per colonne e si ha facilmente che, rispetto a questa operazione, GLn (K) `e un
gruppo detto gruppo lineare delle matrici quadrate dordine n su K. Si vuole qui di
seguito caratterizzare gli elementi di GLn (K).
Sia A = (aij ) una matrice quadrata di ordine n sul campo K. Chiamiamo aggiunta
di A la trasposta della matrice i cui elementi sono i complementi algebrici di A ovvero
la seguente matrice

a011 a021 . . . a0n1

..
.. .
..
agg(A) = ...
.
.
.
0
0
0
a1n a2n . . . ann
Poich`e il primo teorema di Laplace 3.3.1 e il secondo teorema di Laplace 3.3.3 insieme
permettono di scrivere
ai1 a0j1 + ai2 a0j2 + + ain a0jn = ij det(A) = a1i a01j + a2i a02j + + ani a0nj ,
dove ij `e il simbolo di Kronecker, si ha che
A agg(A) = agg(A) A = (ij det(A)) = det(A) In =

det(A)
0
...
0

0
det(A) . . .
0

=
.
..
..
..
.
.

.
.
.
.
0
0
. . . det(A)

54

Matrici e Sistemi lineari

Teorema 3.4.2 Sia A una matrice quadrata di ordine n sul campo K. Se det(A) 6= 0
allora A `e invertibile e la sua inversa `e A1 = det(A)1 agg(A).
Dimostrazione Utilizzando la precente osservazione e lassociativit`a del prodotto
righe per colonne, otteniamo
A (det(A)1 agg(A)) = (det(A))1 (A agg(A)) =
= det(A)1 (det(A) In ) =
= (det(A)1 det(A)) In = In .
Allo stesso modo, (det(A)1 agg(A)) A = In e quindi il risultato `e provato.

t
u

Osserviamo esplicitamente che se A Mn (K) `e una matrice invertibile, allora


AA1 = In ed il teorema di Binet 3.3.6 assicura che
det(A)det(A1 ) = det(AA1 ) = det(In ) = 1;
quindi det(A) 6= 0 ed inoltre
det(A1 ) =

1
.
det(A)

Corollario 3.4.3 Sia A una matrice dordine n sul campo K. Allora A `e invertibile
se e solo se det(A) 6= 0. In particolare, GLn (K) `e linsieme delle matrici non
singolari di Mn (K).
Dimostrazione Per il teorema 3.4.2 se det(A) 6= 0, la matrice A `e invertibile.
Viceversa, se A `e invertibile allora det(A) 6= 0 per quanto osservato sopra.
t
u
Diamo ora un esempio di calcolo della matrice inversa usando il teorema 3.4.2.
Consideriamo la matrice a coefficienti reali


1 2
A=
,
3 4
allora det(A) = 2 e considerando la matrice dei complementi algebrici, otteniamo
che


4 3
t
agg(A) =
.
2 1
Dunque,
A

1
1
=
agg(A) = =
det(A)
2

4 2
3 1


=

2
3
2

1
12


.

3.5 Dipendenza lineare e rango di una matrice

3.5

55

Dipendenza lineare e rango di una matrice

Se A `e una matrice di ordine m n sul campo K, allora le righe A1 , . . . , Am di A


sono vettori di Kn mentre le colonne A1 , . . . , An di A sono vettori di Km . Si dice
spazio delle righe di A il sottospazio di Kn
R(A) = L[A1 , . . . , Am ]
generato dalle righe di A; si dice invece spazio delle colonne di A il sottospazio di
Km

C(A) = L[A1 , . . . , An ]
generato dalle colonne di A. Ha senso quindi determinare insiemi liberi di righe
o di colonne di A, e definire rango di riga di A il massimo numero r (A) di righe
indipendenti di A, ovvero
r (A) = dim R(A),
e rango di colonna di A il numero
c (A) = dim C(A),
ovvero il massimo numero di colonne indipendenti di A.
Sussiste il seguente di cui si omette la dimostrazione.
Teorema 3.5.1 Sia A una matrice su un campo K. Allora r (A) = c (A).
Considerata A una matrice di ordine mn su un campo K, il precedente teorema
permette di definire rango di A come il massimo numero (A) di righe (o colonne)
indipendenti di A, ovvero (A) = r (A) = c (A); in particolare, (A) = 0 se e
solo se A `e la matrice nulla. Evidentemente, (A) min{m, n}; inoltre, essendo
chiaramente r (A) = c (At ), si ha anche che (A) = (At ).
Proposizione 3.5.2 Siano A e B matrici m n sul campo K. Se A e B sono
matrici equivalenti, allora R(A) = R(B); in particolare, (A) = (B).
Dimostrazione Poich`e B `e equivalente ad A, possiamo ottenere B a partire da
A attraverso una sequenza finita di operazioni elementari. Quindi i vettori riga di
B sono combinazioni lineari dei vettori riga di A ed appartengono quindi tutti allo
spazio generato dalle righe di A. Ne consegue che lo spazio generato dalle righe di B
`e un sottospazio dello spazio generato dalle righe di A. Ma anche A `e equivalente a
B e quindi lo spazio generato dalla righe di A `e contenuto nello spazio generato dalle
righe di B e pertanto coincide con esso. Quindi R(A) = R(B) e conseguentemente
(A) = (B).
t
u
Lalgoritmo di Gauss assicura che ogni matrice A su un campo `e equivalente ad
una matrice a scala B, poich`e A e B hanno stesso rango per la proposizione 3.5.2,
il seguente risultato fornisce un metodo per il calcolo del rango di una matrice.

56

Matrici e Sistemi lineari

Proposizione 3.5.3 Sia A una matrice m n su un campo K. Se A `e a scala,


allora il rango di A coincide con numero di righe non nulle (ovvero coincide col
numero dei pivot).
Dimostrazione Sia S = {Ai1 , . . . , Aip } linsieme delle righe non nulle di A e
supponiamo sia con 1 i1 < i2 < < ip m. Evidentemente basta provare
che S `e libero. Siano ai1 ,j1 , . . . , aip ,jp i pivot delle righe Ai1 , . . . , Aip , rispettivamente,
sicch`e 1 j1 < j2 < < jp n. Se
1 Ai1 + + p Aip = 0
`e una combinazione lineare nulla delle righe che formano S, si ricava che
1 ai1 ,j1 = 0
1 ai1 ,j2 + 2 ai2 ,j2 = 0
e cos` via fino a
1 ai1 ,jp + 2 ai2 ,jp + + p aip ,jp = 0.
Poich`e i pivot sono non nulli, dalla prima delle precedenti equazioni ricaviamo
1 = 0, quindi dalla seconda ricaviamo 2 = 0 e cos` proseguendo ricaviamo che
per ogni i = 1, . . . , p risulta p = 0. Pertanto S `e libero come volevamo.
t
u

1 1 0 1
Ad esempio, la forma a scala della matrice A = 0 1 1 0 `e la ma1 0 1 1

1 1 0 1

0 1 1 0 . Pertanto la proposizione 3.5.3 e la proposizione 3.5.2


trice
0 0 0 0
assicurano che (A) = 2.
Per le matrici quadrate sussiste la seguente proposizione dalla quale discende, in
particolare, che una matrice quadrata dordine n ha rango massimo (cio`e n) se e
solo se `e non singolare.
Proposizione 3.5.4 Sia A una matrice quadrata sul campo K. Allora det(A) = 0
se e solo se una riga (rispettivamente colonna) di A `e combinazione lineare delle
restanti righe (rispettivamente colonne).
Dimostrazione Per il corollario 3.3.2, det(A) = det(At ) e quindi `e sufficiente
provare lasserto per le righe. Supponiamo dapprima che A Mn (K) sia una
matrice singolare e per assurdo supponiamo che linsieme {A1 , . . . , An } sia libero.
Considerata la forma a scala ridotta B di A, la proposizione 3.5.2 assicura che
L[A1 , . . . , An ] = L[B1 , . . . , Bn ], cos` linsieme {B1 , . . . , Bn } `e un sistema di generatori di uno spazio vettoriale di dimensione n e quindi deve essere una base, in

3.5 Dipendenza lineare e rango di una matrice

57

particolare `e un insieme libero. Dunque B `e una matrice a scala ridotta, quadrata e


priva di righe nulle, e quindi B `e necessariamente la matrice identica. In particolare,
det(B) 6= 0 e cos` anche det(A) 6= 0 per la proposizione 3.3.4. Questa contraddizione
prova che linsieme {A1 , . . . , An } `e legato e dunque una riga di A deve dipendere
dalle restanti.
Viceversa, supponiamo che la riga i-esima di A sia combinazione lineare delle
restanti righe: Ai = 1 A1 + + n An (con ogni i K), e sia B la matrice che
si ottiene da A sottraendo alla riga i-esima tale combinazione lineare, ovvero B si
ottiene da A mediante unoperazione del tipo ri ri 1 r1 n rn . Per la
proposizione 3.3.4 risulta det(B) = det(A); daltra parte la i-esima riga di B `e nulla
e pertanto il suo determinante `e nullo per il corollario 3.3.2. Cos` det(A) = 0.
t
u
Come gi`a osservato, la proposizione 3.5.4 assicura che una matrice quadrata ha
rango massimo se e solo se ha determinante non nullo; questo suggerisce inoltre che
deve esserci un legame tra il concetto di rango e quello di determinante: al fine di
stabilire tale legame premettiamo la seguente definizione.
Considerato un minore M di ordine p di una matrice A, si dice orlato di M un
minore di ordine p + 1 di A che ha M come minore di ordine p. Invece, un minore
fondamentale di A `e un minore di A che `e non singolare ma `e tale che ogni suo orlato
`e singolare. Praticamente, un orlato di M in A si ottiene aggiungendo una riga e
una colonna di A ad M . Ad esempio un minore della matrice

1
2 5 0 1
7
4 9 2 3

A=
2 1 6 2
5
0 5 2 1
4
`e


A(1, 2 | 2, 5) =

2 1
4 3


.

Un suo orlato `e ad esempio il minore di A

2
0 1
A(1, 2, 4 | 2, 4, 5) = 4 2 3 .
5 1
4

Questultimo possiede due soli orlati il primo relativo alle righe 1, 2, 4, 3 e alle colonne
1, 2, 4, 5 e il secondo relativo alle righe 1, 2, 4, 3 e alle colonne 2, 4, 5, 3 ed essi sono le
matrici

1
2
0 1
7
4 2 3
e
A(1, 2, 3, 4 | 1, 2, 4, 5) =
2 1
2
5
0 5 1
4

58

Matrici e Sistemi lineari

2
4
A(1, 2, 3, 4 | 2, 3, 4, 5) =
1
5

5 0 1
9 2 3
.
6 2
5
2 1
4

Lemma 3.5.5 Sia A una matrice mn sul campo K e sia M un minore fondamentale di A. Allora linsieme delle righe (rispettivamente, colonne) di A coinvolte nel
minore M `e una base per il sottospazio di Kn generato dalle righe (rispettivamente,
colonne) di A.
Dimostrazione Proviamo il risultato per le righe, da questo seguir`a il risultato
per le colonne considerando la trasposta di A. Per fissare le idee, supponiamo
sia M = A(i1 , . . . , ip | j1 , . . . , jp ). Se le righe Ai1 , . . . , Aip di A fossero linearmente
dipendenti, allora anche le righe Mi1 , . . . , Mip di M sarebbero dipendenti e quindi
si avrebbe det(M ) = 0 per la proposizione 3.5.4. Questa contraddizione prova che
le righe Ai1 , . . . , Aip sono indipendenti e pertanto resta da provare che tutte le altre
righe di A dipendono da queste. Fissiamo quindi un indice di riga i 6 {i1 , . . . , ip }
e proviamo che Ai `e combinazione lineare di Ai1 , . . . , Aip . Per ogni j = 1, . . . , n si
consideri la matrice

ai1 j1 . . . ai1 jp ai1 j


..
..
..
...

.
.
M (j) = .
.
ai p j 1 . . . a i p j p ai p j
aij1 . . . aijp aij
Se j {j1 . . . , jp } allora M (j) ha due colonne uguali e quindi `e singolare per la proposizione 3.3.2, altrimenti (a meno di scambiare righe) M (j) `e un orlato di M e quindi
M (j) `e singolare anche in questo caso (si veda pure la proposizione 3.3.4). Pertanto
det(M (j)) = 0 per ogni j = 1, . . . , n. Osserviamo che le matrici M (1), . . . , M (n)
hanno le prime p colonne uguali, sicch`e i complementi algebrici degli elementi
dellultima colonna coincidono, siano essi 1 , 2 , . . . , p+1 K; si osservi inoltre
che p+1 `e a meno del segno uguale a det(M ) e quindi p+1 6= 0. Sviluppando il
determinante di M (j) rispetto allultima colonna ricaviamo
det(M (j)) = ai1 j 1 + + aip j p + aij p+1 = 0.
Poich`e la precedente relazione vale per ogni j = 1, . . . , n, sussiste la seguente relazione vettoriale (in Kn )

ai 1 1
ai p 1
ai1
ai 2
ai 2
ai2
1
p

.. 1 + + .. p + .. p+1 = 0
.
.
.
ai 1 n
ai p n
ain

3.5 Dipendenza lineare e rango di una matrice

59

dove riconosciamo che i primi p vettori sono le righe Ai1 , . . . , Aip di A mentre lultimo
vettore `e la riga i-esima Ai . Pertanto, essendo p+1 6= 0, ricaviamo che
1
Ai = 1
p+1 1 Ai1 p+1 p Aip ,

come volevamo.

t
u

Il lemma 3.5.5 assicura quindi che se una matrice A ha un minore fondamentale


di ordine p allora (A) = p. In realt`a questa propriet`a si inverte, ovvero sussiste la
seguente caratterizzazione.

Teorema 3.5.6 (Teorema degli Orlati) Sia A una matrice m n su un campo


K. Allora A ha un minore fondamentale di ordine p se e solo se (A) = p.
Dimostrazione Abbiamo gi`a osservato che se A ha un minore fondamentale
di ordine p allora (A) = p. Viceversa, sia (A) = p e sia = {Ai1 , . . . , Aip } un
sistema massimale di righe indipendenti di A. La matrice di ordine p n

A i1
Ai
2
B = ..
.
Aip
ha p righe indipendenti e quindi (B) = p. Allora c (B) = p e cos` `e possibile individuare un sistema massimale di colonne indipendenti {B j1 , . . . , B jp } di B. Allora
la proposizione 3.5.4 assicura che la matrice M = (B j1 , . . . , B jp ) `e non singolare.
Evidentemente M = A(i1 , . . . , ip | j1 , . . . , jp ), e quindi A possiede un minore non
singolare di ordine p. Poich`e per orlare M abbiamo bisogno di aggiungere elementi
di unaltra riga di A e `e una base per lo spazio delle righe di A, segue ancora dalla
la proposizione 3.5.4 che ogni orlato di M `e singolare. Pertanto M `e un minore
fondamentale di A e la dimostrazione `e conclusa.
t
u
Ad esempio, calcoliamo il rango della matrice

1 1 0 1
A = 0 1 1 0
1 0 1 1
la stessa di cui prima abbiamo calcolato il rango usando lalgoritmo di Gauss. Iniziamo col considerare il minore M1 = A(1 | 1) = (1)che `e ovviamente
non singolare.

1 1
Orliamo M1 considerando M2 = A(1, 2 | 1, 2) =
che `e non singolare
0 1

60

Matrici e Sistemi lineari

avendo per determinante 1. A questo punto consideriamo i possibili


ovvero le matrici

1 1 0
1 1
A(1, 2, 3 | 1, 2, 3) = 0 1 1 e A(1, 2, 3 | 1, 2, 4) = 0 1
1 0 1
1 0

orlati di M2

1
0 .
1

Poich`e queste matrici sono singolari, il teorema degli orlati 3.5.6 ci permette di
concludere che (A) = 2.
La nozione di rango di una matrice `e una nozione importante e molto utile per
valutare la lineare (in)dipendenza di vettori numerici. Ad esempio, supponiamo di
voler stabilire vettori v1 = (1, 0, 1, 2), v2 = (2, 1, 0, 1) e v3 = (1, 1, 1, 1) di R4
sono linearmente dipendenti o indipendenti. Considerata la matrice che ha questi
vettori come righe

1
0 1 2
A = 2 1 0 1
1 1 1 1
e osservando che la sua forma a scala `e la matrice

1 0 1 2
0 1 2 3
0 0
0
0
si ha che (A) = 2. Un minore fondamentale di A `e ad esempio A(1, 2 | 1, 2), e
dunque il lemma 3.5.5 assicura che i vettori v1 e v2 sono indipendenti e che v3
dipende da essi (come cera da aspettarsi visto che v3 = v1 v2 ).
Il rango di una matrice `e stato definito a partire dal concetto di lineare indipendenza ed `e stato poi evidenziato il legame con il concetto di determinate. Nella
parte finale di questa sezione, si mostrer`a come si potrebbe introdurre il concetto di
rango di una matrice partendo dal concetto di determinante.
Se A Mm,n (K) `e una matrice non nulla, si dice rango dei minori di A il massimo
ordine di un minore non singolare di A, tale numero si indicher`a con m (A). Quindi
dire che la matrice A ha rango dei minori p significa dire che A ha un minore non
singolare di ordine p e che ogni (eventuale) minore di A di ordine maggiore di p ha
determinante nullo. Evidentemente m (A) min{m, n} ed inoltre essendo A non
nulla, A possiede sicuramente un minore non singolare di ordine 1 e quindi (A) 1.
Per convenzione, la matrice nulla `e lunica matrice di rango dei minori 0. Si noti
infine che se A `e quadrata di ordine n allora m (A) = n se e solo se det(A) 6= 0.
Ad esempio, la matrice su R

1 3 2 5
A = 6 2 4 3
2 6 4 10

3.6 Generalit`a sui sistemi lineari

61


3 2
ha rango dei minori pari a 2 perch`e il minore A(2, 3 | 1, 2) =
2 4
minante diverso da 0 e tutti i minori di ordine 3 di A sono singolari.


ha deter-

Il prossimo risultato mostra, in particolare, che la matrice A Mm,n (K) ha


rango dei minori p se e solo se ha un minore non singolare di ordine p ed inoltre o
p = min{m, n} oppure risulta singolare ogni minore di A di ordine p + 1.

Lemma 3.5.7 Sia A una matrice m n sul campo K e sia p min{m, n} un


intero. Se tutti i minori di ordine p + 1 di A sono singolari, allora m (A) p.
Dimostrazione Il determinante di un minore di ordine p+2 `e una combinazione
lineare di determinanti di minori di ordine p + 1, sicch`e ogni minore di ordine p + 2
`e singolare. Allora anche il determinante di un minore di ordine p + 3 `e nullo perch`e
combinazione lineare di determinanti di matrci di ordine p + 2, e cos` via si ottiene
che ogni minore di ordine maggiore di p + 1 `e singolare. Quindi m (A) p.
t
u

Teorema 3.5.8 Sia A una matrice su un campo K. Allora m (A) = (A).


Dimostrazione Sia dapprima m (A) = p. Allora A possiede un minore M non
singolare di ordine p ed ogni altro eventuale minore di ordine p + 1 `e singolare, in
particolare quindi M `e un minore fondamentale di A e pertanto (A) = p per il
teorema degli Orlati 3.5.6. Viceversa, supponiamo sia invece (A) = p allora ancora
il teorema degli Orlati 3.5.6 assicura che A ha un minore non singolare di ordine p
e quindi m (A) p; daltra parte p + 1 righe di A sono dipendenti e quindi ogni
minore di ordine p + 1 di A `e singolare per la proposizione 3.5.4. Pertanto segue dal
lemma 3.5.7 che m (A) = p e la dimostazione `e conclusa.
t
u

3.6

Generalit`
a sui sistemi lineari

Sia f un polinomio di grado m in n indeterminate sul campo K. Lespressione f = 0


prende il nome di equazione algebrica di grado m e rappresenta il problema della
ricerca delle radici del polinomio f ovvero delle n-uple y = (y1 , . . . , yn ) di elementi
di K tali che f (y1 , . . . , yn ) = 0. Le indeterminate x1 , . . . , xn si dicono incognite
dellequazione e la radice y di f si dice soluzione dellequazione f = 0. Se m = 1,
lequazione f = 0 si dice equazione lineare; in tal caso, dovendo essere un polinomio
di grado 1, si ha che f = a1 x1 + + an xn b per opportuni a1 , . . . , an , b K e
quindi lequazione lineare si scrive come a1 x1 + + an xn b = 0 o anche come
a1 x1 + + an xn = b.

62

Matrici e Sistemi lineari

Un sistema lineare di m equazioni in n incognite su K, o a coefficienti in K, `e un


insieme di equazioni lineari su K

a11 x1 + + a1n xn = b1
..
(3.1)
.

a x + + a x = b
m1 1
mn n
m
Dato il sistema lineare (3.1), la matrice di Mm,n (K)

A=

a11
a21
..
.

a12
a22
..
.

...
...
...

a1n
a2n
..
.

am1 am2 . . .

amn

si dice matrice incompleta o matrice dei coefficienti del sistema, mentre la matrice
di Mm,n+1 (K)

a11 a12 . . . a1n b1


a21 a22 . . . a2n b2

..
..
..
.. ,
.
.
.
.
.
.
.
am1 am2 . . . amn bm
si dice matrice completa del sistema. Inoltre, spesso
(3.1) si scrive
la
il sistema
usando

x1
b1
..
..
n
notazione matriciale come AX = B dove X = . K e B = . Km
xn
bm
e AX indica il prodotto righe per colonne tra A ed X. Nel seguito la matrice
completa del sistema AX = B si indicher`a con (A|B). Un sistema lineare del tipo
AX = 0 (dove 0 `e il vettore colonna nullo) si dice omogeneo; inoltre dato un sistema
lineare AX = B, il sistema AX = 0 si dice sistema lineare omogeneo associato ad
esso.
Una soluzione di (3.1) `e una n-upla (y1 , . . . , yn ) di elementi di K che `e soluzione per
ciascuna equazione che forma il sistema (3.1). Un sistema lineare si dice compatibile
se ha almeno una soluzione, incompatibile altrimenti. Un sistema compatibile che
ammette una sola soluzione si dice determinato. Determinare le soluzioni o risolvere
un sistema significa determinare se `e compatibile o meno e, nel caso sia compatibile,
scrivere linsieme delle sue soluzioni. Si noti che essendo A0 = 0 ogni sistema lineare
omogeneo `e compatibile, avendo esso almeno la soluzione nulla.

Lemma 3.6.1 Un sistema lineare AX = B a coefficienti nel campo K `e compatibile


se e solo se il vettore B dipende linearmente dai vettori colonna di A.

3.7 Metodi di risoluzione

63

Dimostrazione Il sistema lineare AX = B ha una soluzione (y1 , . . . , yn ) Kn


se e solo se y1 A1 + . . . yn An = B, ovvero se e solo se il vettore numerico colonna B
dipende dallinsieme delle colonne di A.
t
u
Teorema 3.6.2 (Teorema di Rouch
e Capelli) Un sistema lineare AX = B
di m equazioni in n incognite a coefficienti in un campo K `e compatibile se e solo se
le matrici A e (A|B) hanno lo stesso rango.
Dimostrazione Supponiamo che (A) = p e sia C = {Aj1 , . . . , Ajp } un sistema
massimale di colonne indipendenti di A. Se il sistema AX = B `e compatibile, allora
B dipende dalle colonne di A per il lemma 3.6.1 e quindi dallinsieme C, cos` C `e un
sistema massimale di colonne indipendenti anche per la matrice (A|B) e pertanto
(A|B) = p. Reciprocamente, se (A) = (A|B), le colonne (di A) che formano
un sistema massimale di colonne per A, formano un sistema massimale di colonne
anche per (A|B), e quindi, poich`e tra esse non c`e B, il vettore B dipende da esse.
Cos` AX = B `e compatibile per il lemma 3.6.1.
t
u

3.7

Metodi di risoluzione

Due sistemi lineari in n incognite si dicono equivalenti se hanno le stesse soluzioni,


cio`e se ogni soluzione delluno `e anche soluzione dellaltro e viceversa.
Teorema 3.7.1 Sia AX = B un sistema lineare di m equazioni in n incognite su
un campo K. Allora ogni sistema lineare la cui matrice completa `e equivalente ad
(A|B) `e ad esso equivalente.
Dimostrazione Supponiamo che AX = B sia il sistema (3.1): `e sufficiente
provare che unoperazione elementare sulla matrice completa di questo sistema porta
ad una matrice che pu`o pensarsi come matrice completa di un sistema equivalente al sistema di partenza. Poich`e se K \ {0}, ai1 x1 + + ain xn = bi e
ai1 x1 + + ain xn = bi sono equazioni che hanno le stesse soluzioni, applicare
unoperazione elementare di tipo 1) alla matrice completa non altera le soluzioni del
sistema. E inoltre evidente che anche invertire due righe in (A|B) non produce nessun cambiamento nel sistema AX = B. Supponiamo allora di effettuare loperazione
ri ri +rj , con K, alla matrice (A|B) ottenendo la matrice C. Allora a partire
dal sistema (3.1) se ne ottiene un altro in cui lequazione ai1 x1 + + ain xn = bi `e
sostituita dallequazione
(ai1 + aj1 )x1 + + (ain + ajn )xn = bi + bj .
Ma se (y1 , . . . , yn ) Kn `e una soluzione di AX = B, allora ah1 y1 + + ahn yn = bh
per ogni h = 1, . . . , m, e quindi (ai1 + aj1 )y1 + + (ain + ajn )yn = bi + bj .
Pertanto (y1 , . . . , yn ) `e soluzione anche del sistema di cui C `e la matrice completa.u
t

64

Matrici e Sistemi lineari

Se AX = B `e un sistema lineare, allora alla matrice completa (A|B) si pu`o


applicare lalgoritmo di Gauss-Jordan ottenendo una matrice C che pu`o pensarsi
come la matrice completa di un sistema equivalente ad AX = B per il teorema 3.7.1.
Evidentemente nel il sistema cos` ottenuto la ricerca delle soluzioni sar`a pi`
u semplice,
e nel caso particolare che il sistema AX = B sia determinato lultima colonna della
matrice C fornir`a direttamente una soluzione del sistema.
Esempio 1

Sistema incompatibile Consideriamo il sistema (in R)

2x1 + x2 = 1
x1 + x2 + x3 x4 = 2

x1 x3 + x 4 = 1

2 1 0
0 1
La sua matrice completa `e 1 1 1 1 2 la quale `e equivalente alla matrice
1 0 1 1 1

1 1 1 1 2
0 1 2 2 3 . Questa seconda matrice `e la matrice completa del sistema
0 0 0 0 2
lineare

x1 + x2 + x3 x4 = 2
x2 + 2x3 2x4 = 3

0x4 = 2
che `e incompatibile, infatti la matrice incompleta del sistema ha rango 2 mentre la
matrice completa ha rango 3 (cfr. teorema 3.6.2).
Esempio 2

Sistema determinato Consideriamo il sistema (in R)

x 1 x2 = 2
2x1 + x2 + x3 = 1

3x1 + 2x2 + x3 = 2

1 0 2
1 1 1 la quale, come abbiamo visto in
2 1 2
lalgoritmo
di Gauss-Jordan,
si trasforma nella

1 0 0 41
seguente matrice ad essa equivalente 0 1 0 49 . Questa seconda matrice `e
0 0 1 74
la matrice completa del sistema lineare

x1 = 41
x2 = 94

x3 = 74
1

2
che ha per matrice completa
3
un esempio in precedenza, mediante

3.7 Metodi di risoluzione

65

che ha per soluzione ( 41 , 94 , 74 ).


Esempio 3
tema (in R)

Sistema compatibile ma indeterminato Consideriamo il sis

2x1 + x2 = 1
x1 + x 2 x3 = 2


2 1 0 1
La sua matrice completa `e
la quale viene trasformata mediante
1 1 1 2


1 0 1 1
lalgoritmo di Gauss-Jordan nella matrice ad essa equivalente
.
0 1 2 3
Questa seconda matrice `e la matrice completa del sistema lineare

x1 + x3 = 1
x2 2x3 = 3
che `e compatibile ma non `e determinato perch`e le sue soluzioni si ottengono al
variare di x3 in R, ovvero ha per soluzioni tutti gli infiniti elementi dellinsieme
{(x3 1, 2x3 + 3, x3 ) | x3 R}.
Nel caso particolare di sistemi lineari in cui il numero di equazioni e il numero
di incognite `e lo stesso, sussiste il seguente risultato: esso fornisce una regola per
determinare le soluzioni di un tale sistema detta talvolta Regola di Cramer.
Teorema 3.7.2 (Teorema di Cramer) Sia AX = B un sistema lineare di n
equazioni in n incognite su un campo K. Se det(A) 6= 0 allora il sistema `e compatibile
e determinato e la sua unica soluzione (x1 , . . . , xn ) si ottiene come segue. Per ogni
i = 1, . . . , n, considerata la matrice che si ottiene da A sostituendo la sua i-esima
colonna con B
Ai = (A1 , . . . , Ai1 , B, Ai+1 , . . . , An ),
si ha che xi = (det(A))1 det(Ai ).
Dimostrazione Poich`e det(A) 6= 0, il corollario 3.4.3 assicura che la matrice A
`e invertibile. Allora
X = (A1 A)X = A1 (AX) = A1 B
`e lunica soluzione del sistema AX = B e cos`, ricordando il teorema 3.4.2, otteniamo
che lunica soluzione del sistema AX = B `e

a011

a021
a0n1
.
.
.
b1
x1
det(A)
det(A)
det(A)
..
..
..
..
..
..
. .
. =
.
.
.

0.
0
0
a
a
a
1n
2n
nn
bn
xn
. . . det(A)
det(A)
det(A)

66

Matrici e Sistemi lineari

Pertanto per ogni i = 1, . . . , n risulta


xi =

b1 a01i + b2 a02i + + bn a0ni


det(Ai )
=
,
det(A)
det(A)

dove quesultima uguaglianza si ottiene sviluppando det(Ai ) rispetto alla i-esima


colonna.
t
u
Un sistema lineare AX = B di n equazioni in n incognite tale che det(A) 6= 0 si
dice sistema di Cramer. Il precendente teorema assicura quindi che ogni sistema di
Cramer `e determinato.
Consideriamo, ad esempio, il sistema lineare

x1 x2 = 4
2x1 + x2 = 0
la cui matrice dei coefficienti ha determinante 3. Dunque tale sistema `e di Cramer
e il teorema di Cramer 3.7.2 assicura che le soluzioni sono




4 1
1 4




0 1
2 0
4
8
=
e
x2 =
= .
x1 =
3
3
3
3
Considerato invece il sistema

4x1 5x2 + 3x3 = 1


x1 3x2 + x3 = 1

2x1 + x2 5x3 = 1
la cui matrice dei coefficienti

4 5 3
A = 1 3 1
2 1 5
ha determinante uguale a 42, detta Ai (con i = 1, 2, 3) la matrice che si ottiene da
A rimpiazzando la i-esima colonna con la colonna dei termini noti si ha che




1 5 3
4 1

3




det(A1 ) = 1 3 1 = 40,
det(A2 ) = 1 1 1 = 32 e
1
2 1 5
1 5


4 5 1


det(A3 ) = 1 3 1 = 14;
2 1
1

3.7 Metodi di risoluzione

67

dunque il teorema di Cramer 3.7.2 assicura che la soluzione del sistema lineare `e
data dalla terna (x1 , x2 , x3 ) dove
x1 =

det(A1 )
40
20
=
= ;
det(A)
42
21
x3 =

x2 =

det(A2 )
32
16
=
=
det(A)
42
21

14
1
det(A3 )
=
= .
det(A)
42
3

Un sistema lineare AX = B di m equazioni in n incognite sul campo K si


dice ridotto in forma normale se (A) = m n. Evidentemente in tal caso anche (A|B) = m e quindi il sistema `e compatibile per il teorema di Rouche
Capelli 3.6.2. Daltra parte se AX = B `e un sistema lineare (qualsiasi) compatibile in cui (A) = (A|B) = p, scelte p righe indipendenti Ri0 1 , . . . , Ri0 p di (A|B),
ogni altra riga di (A|B) `e combinazione lineare di queste e quindi il sistema lineare
AX = B `e equivalente al sistema lineare che ha come matrice completa quella le
cui righe sono Ri0 1 , . . . , Ri0 p , questultimo sistema evidentemente `e ridotto a forma
normale. Quindi ogni sistema lineare compatibile `e equivalente ad un sistema in
forma normale.
Sia AX = B un sistema lineare compatibile di m equazioni in n incognite su
un campo K. Al fine di illustrare un altro metodo di risoluzione di un sistema
lineare, detto metodo dei determinanti (o dei minori), per quanto detto sopra `e
lecito supporre che il sistema AX = B sia gi`a ridotto in forma normale, sicch`e
(A) = (A|B) = m n. Se m = n il sistema `e di Cramer, infatti det(A) 6= 0 per la
proposizione 3.5.4, e quindi la regola di Cramer ci permette di determinare lunica
soluzione del sistema lineare. Sia allora m < n e siano Aj1 , . . . , Ajm le m colonne
indipendenti di A. Posto q = n m e
{k1 , . . . , kq } = {1, . . . , n} \ {j1 , . . . , jm },
il sistema pu`o essere riscritto come

a1,j1 xj1 + + a1,jm xjm = b1 a1,k1 xk1 a1,kq xkq


...

am,j1 xj1 + + am,jm xjm = bm am,k1 xk1 am,kq xkq

(3.2)

e qui le incognite xk1 , . . . , xkq vengono dette parametri. Fissato arbitrariamente un


valore per ciascun parametro, questo sistema lineare, visto come sistema nelle sole
incognite xj1 , . . . , xjm , `e un sistema di Cramer per la proposizione 3.5.4 e pu`o essere
risolto applicando la regola di Cramer. Segue cos` che le soluzioni del sistema (3.2),
e quindi anche del sitema lineare AX = B, dipendono da q = n m = n (A)
parametri (o come si dice, il sistema ha n(A) soluzioni).

68

Matrici e Sistemi lineari

Ad esempio, applichiamo il metodo dei determinanti per risolvere il seguente


sistema lineare a coefficienti reali:

3x1 + 8x2 4x3 = 2


x1 + x2 x3 = 1
(3.3)

x1 + 6x2 2x3 = 0
E semplice accorgersi che tale sistema `e compatibile e che un minore fondamentale
della matrice dei coefficienti (e anche della matrice completa) del sistema (3.3) `e
M = A(1, 2 | 1, 2), sicch`e il sistema `e equivalente a quello che si pu`o riscrivere come

3x1 + 8x2 = 2 + 4x3
x1 + x2 = 1 + x3
Considerando questultimo come un sistema nelle sole incognite x1 e x2 , otteniamo
un sistema che ha come matrice dei coefficienti M . Essendo M non singolare,
possiamo applicare la regola di Cramer e ottenere




3 2 + 4x2
2 + 4x3 8




1 1 + x2
1 + x3 1
4x3 + 6
x3 1




=
e x2 =
=
.
x1 =
3 8


5
5


3 8
1 1
1 1
In definiva linsieme delle soluzioni del sistema (3.3) `e



4x3 + 6 x3 1
,
, x 3 | x3 R .
5
5
Prima di concludere questa sezione, mostriamo come luso dei sistemi lineari
permette di calcolare la matrice inversa di una matrice invertibile. Sia dunque A
una matrice quadrata di ordine n sul campo K e supponiamo che A sia invertibile.
Gli elementi della matrice B = A1 possono essere pensati come delle incognite
e precisamente, dovendo essere AB = In , le colonne B 1 , B 2 , . . . , B n di B possono
rivedersi come le incognite dei seguenti n sistemi lineari



1
0
0
0
1
..



AB 1 = .. , AB 2 = .. , . . . , AB n = .
.
.
0
0
0
1
Poich`e det(A) 6= 0 per il corollario 3.4.3, il teorema di Cramer 3.7.2 assicura che
i precedenti sistemi sono determinati. Inoltre, tali sistemi possono essere risolti
usando lalgoritmo di Gauss-Jordan, per`o, invece che risolverli singolarmente, possiamo risolverli simultaneamente cio`e possiamo applicare lalgoritmo di Gauss-Jordan

3.8 Sitemi lineari omogenei

69

alla matrice (A|In ) che si ottiene affiancando alla matrice A la matrice identica, si
otterr`a cos` la matrice (In |C) e risulter`a C = B = A1 .
Ad esempio, supponiamo di voler determinare linversa della matrice a coefficienti
reali


1 2
A=
.
3 4
Consideriamo quindi la matrice


1 2 1 0
3 4 0 1

e applichiamo
di Gauss-Jordan. Con operazione r2 r2 3r1
 ad essa lalgoritmo

1 2
1 0
otteniamo
, poi mediante loperazione r2 21 r2 otteniamo
3
1
0
2


1 2 1 0
. Operando infine la trasformazione r1 r1 2r2 otteniamo la
0 1 32 12

1 0 2 1
matrice
. Pertanto
0 1 32 21


2 1
1
.
A =
3
12
2

3.8

Sitemi lineari omogenei

Si consideri una matrice A Mm,n (K). A partire da A resta definita lapplicazione


LA : X Kn AX Km ;
si noti che, poich`e AX rappresenta il prodotto righe per colonne di A per X, qui
si `e scelto di rappresentare i vettori di Kn come vettori colonna. Lapplicazione
LA `e evidentemente unapplicazione lineare, ed `e chiamata applicazione lineare associata ad A. Si osservi che considerato il riferimento canonico (e1 , . . . , en ) di Kn
risulta LA (ei ) = Ai e dunque Im LA = C(A) `e lo spazio delle colonne di A per la
proposizione 2.6.5, in particolare, dim(Im LA ) = (A). Invece, ker LA rappresenta
linsieme delle soluzioni del sistema lineare omogeneo AX = 0.
Proposizione 3.8.1 Sia AX = 0 un sistema lineare omogeneo in n incognite a
coefficienti in un campo K e sia S0 linsieme delle sue soluzioni. Allora S0 `e un
sottospazio dello spazio vettoriale numerico Kn di dimensione n (A).
Dimostrazione Linsieme S0 `e un sottospazio essendo S0 = ker LA e quindi,
essendo dim(Im LA ) = (A), segue dal teorema della dimensione 2.7.2 che la dimensione di S0 `e n (A).
t
u

70

Matrici e Sistemi lineari

Segue dalla precedente che il sistema lineare AX = 0 ha solo la soluzione nulla


se e solo se n = (A) e quindi se e solo se det(A) 6= 0 (cfr. proposizione 3.5.4).
Consideriamo il sistema lineare omogeneo a coefficienti reali seguente

x1 x2 + x3 x4 = 0
2x1 x2 = 0
e determiniamo una base per lo spazio delle soluzioni. La matrice dei coefficienti di
questo sistema `e


1 1 1 1
A=
2 1 0 0
essa evidentemente ha rango 2 e un minore fondamentale `e ad esempio A(1, 2 | 1, 2),
sicch`e il metodo dei determinanti ci suggerisce di rivedere il sistema come un sistema
nelle sole incognite x1 e x2

x1 x2 = x3 + x4
2x1 x2 = 0
e applicare ad esso la regola di Cramer. Pertanto



x3 + x4 1






0
1


x1 =
=
x
e
x
3 x4
2 =
1 1


2 1


1 x3 + x4

2
0


= 2x3 + 2x4 .
1 1


2 1

Si ricava cos` che lo spazio delle soluzioni del sistema lineare `e


S0 = {(x3 x4 , 2x3 + 2x4 , x3 , x4 ) | x3 , x4 R}.
Essendo
(x3 x4 , 2x3 + 2x4 , x3 , x4 ) = x3 (1, 2, 1, 0) + x4 (1, 2, 0, 1)
posto
s1 = (1, 2, 1, 0)

s2 = (1, 2, 0, 1)

si ha che S0 = L[s1 , s2 ]. Evidentemente {s1 , s2 } `e una parte libera, e quindi {s1 , s2 }


`e una base per S0 .
Come altro esempio si consideri li sistema lineare fatto dalla sola equazione a
coefficienti reali
x1 + x2 + x3 + x4 = 0.
In tal caso, evidentemente, lo spazio delle soluzioni `e
S0 = {(x2 x3 x4 , x2 , x3 , x4 ) | x2 , x3 , x4 R}.

3.8 Sitemi lineari omogenei

71

Ma
(x2 x3 x4 , x2 , x3 , x4 ) = x2 (1, 1, 0, 0) + x3 (1, 0, 1, 0) + x4 (1, 0, 0, 1)
da cui si ha facilmente che
{(1, 1, 0, 0), (1, 0, 1, 0), (1, 0, 0, 1)}
`e una base di S0 .
Un sistema lineare qualsiasi AX = B potrebbe non avere il vettore nullo come
soluzione, quindi in generale le soluzioni di un sistema lineare non omogeneo non
sono un sottospazio vettoriale dello spazio numerico; per`o le soluzioni del sistema
AX = B sono sempre legate a quelle del sistema lineare omogeneo AX = 0 ad esso
associato, infatti sussiste la seguente.
Proposizione 3.8.2 Sia AX = B un sistema lineare di m equazioni in n incognite
`e una sua soluzione,
su un campo K. Se il sistema AX = B `e compatibile e X
+ Y con Y soluzione del sistema lineare
allora tutte le altre soluzioni sono del tipo X
omogeno associato.
Dimostrazione Se Z `e una soluzione del sistema AX = B, allora AZ = B.
= B, quindi A(Z X)
=0eZ=X
+ (Z X).
Viceversa,
Daltra parte anche AX
+ Y ) = AX
+ AY = B + 0 = B e quindi
se Y `e soluzione di AX = 0, allora A(X

X + Y `e soluzione del sistema AX = B.


t
u
Usiamo il primo dei precedenti esempi per mostrare come la proposizione 3.8.2
rappresenti un ulteriore metodo di risoluzione di un sistema lineare qualsiasi. Consideriamo il sistema lineare

x1 x2 + x 3 x4 = 2
2x1 x2 = 1
Una sua soluzione `e evidentemente (1, 1, 2, 0) e cos`, essendo il sistema lineare omogeneo ad esso associato il primo sistema incontrato nei precedenti esempi di questa
sezione il cui spazio delle soluzioni `e
S0 = {(x3 x4 , 2x3 + 2x4 , x3 , x4 ) | x3 , x4 R},
la proposizione 3.8.2 assicura che tutte e sole le soluzioni del sistema lineare sono
del tipo
(1, 1, 2, 0) + (x3 x4 , 2x3 + 2x4 , x3 , x4 ) = (1 + x3 x4 , 1 2x3 + 2x4 , 2 + x3 , x4 )
al variare di x3 , x4 R.

72

Matrici e Sistemi lineari

Concludiamo con la seguente importante osservazione, che caratterizza i sottospazi dello spazio vettoriale numerico. Abbiamo visto che le soluzioni di un sistema
lineare omogeneo sono un sottospazio vettoriale dello spazio vettoriale numerico di
cui sappiamo calcolarne la dimensione (cfr. proposizione 3.8.1). In realt`a, dato
un campo K e un intero positivo n, i sottospazi di Kn sono sempre lo spazio delle
soluzioni di un sistema lineare omogeneo. Sia W un sottospazio di Kn . Se W = {0}
allora esso `e lo spazio delle soluzioni del sistema lineare omogeneo In X = 0 (dove
come al solito In dentota la matrice identica su K di ordine n). Supponiamo quindi
che W 6= {0} e sia {w1 , . . . , wr } una sua base. Un vettore w `e un elemento di W
se e solo se linsieme {w1 , . . . , wr , w} `e legato e quindi se e solo se la matrice A su
K le cui righe (o colonne) sono i vettori w1 , . . . , wr , w ha rango r. Fissato in A un
minore non singolare di ordine r, imponendo a tutti agli orlati di questo minore di
essere singolari, si ottiene un sistema lineare omogeneo il cui spazio delle soluzioni
`e proprio W : questo sistema lineare omogeneo si dice essere una rappresentazione
cartesiana di W .
Ad esempio, consideriamo il sottospazio W di R4 generato dai vettori (1, 0, 1, 0)
e (1, 0, 0, 1). Sia w = (x1 , x2 , x3 , x4 ) il generico elemento di W e imponiamo alla
matrice

1 1 x1
0
0 x2

A=
1
0 x3
0
1 x4


1 0
di avere rango 2. Scelto M = A(3, 4 | 1, 2) =
come minore non singolare
0 1
di ordine 2, il torema degli orlati 3.5.6 garantisce che A ha rango 2 se e solo se gli
orlati di M sono singolari ovvero se e solo se



0 0 x2 1 1 x1



= 0.
1 0 x3 = 1
0
x
3



0 1 x4 0
1 x4
Otteniamo cos` il sistema lineare omogeneo

x2 = 0
x1 + x3 + x4 = 0
il cui spazio delle soluzioni coincide con W .

3.9

Matrice associata ad unapplicazione lineare

Se A `e una matrice mn su un campo K, `e stata definita in precedenza lapplicazione


lineare LA : X Kn AX Km ed `e stato osservato che Im LA `e lo spazio delle
colonne di A mentre ker LA `e lo spazio delle soluzioni del sistema lineare omogeneo

3.9 Matrice associata ad unapplicazione lineare

73

AX = 0. Se poi si considerano due spazi vettoriali non nulli V e W sul campo K


di dimensione finita n ed m, rispettivamente, fissato un riferimento R in V ed un
riferimento R0 in W , si pu`o considerare lapplicazione lineare
0

R,R
= c1
A
R0 LA cR : V W.
E semplice accorgersi che questa volta le0 colonne di A rappresentano le compo0
nenti in R0 dei trasformati mediante R,R
degli elementi di R, sicch`e Im R,R
corA
A
0
risponde attraverso lisomorfismo
coordinato cR allo 0 spazio delle colonne di A e
0
quindi risulta dim(Im R,R
)
=
(A).
Invece, ker R,R
`e costituito da quei vettori
A
A
di V le cui componenti in R sono soluzione
del sistema lineare AX = 0, sicch`e
0
attraverso lisomorfismo coordinato ker R,R
corrisponde
allo spazio delle soluzioni
A
R,R0
del sistema lineare omogeneo AX = 0 e quindi dim(ker A ) = n (A).
Partendo ora da unapplicazione lineare tra due spazi vettoriali, un riferimento
R del dominio e un riferimento
R0 del codominio, si vuole associare a una matrice
0
A tale da aversi che R,R
= . Siano dunque V e W due spazi vettoriali non nulli
A
sul campo K di dimensione finita, e si fissi un riferimento R = (e1 , . . . , en ) in V
ed un riferimento R0 = (e01 , . . . , e0m ) in W ; in particolare, quindi, si sta supponendo
che dim(V ) = n e che dim(W ) = m. Consideriamo inoltre unapplicazione lineare
: V W . Per ogni j = 1, . . . , n, siano (a1j , . . . , amj ) le componenti del vettore
(ej ) nella base R0 , e sia A = (aij ) la matrice m n su K le cui colonne sono le
componenti dei trasformati mediante dei vettori della base R nella base R0 . Se
v = 1 e1 + + n en `e il generico elemento di V (con ogni i K) allora
(v) = 1 (e1 ) + + n (en ) =
= 1 (a11 e01 + + am1 e0m ) + + n (a1n e01 + + amn e0m ) =
= (1 a11 + + n a1n )e01 + + (1 am1 + + n amn )e0m
e pertanto, per lunicit`a delle componenti (in R0 ), si ottiene
[(v)]R0 = A[v]R

(3.4)

dove [v]R indica il vettore colonna delle componenti di v in R e [(v)]R0 il vettore colonna delle componenti di (v) in R0 . La matrice A si dice matrice associata allapplicazione lineare rispetto ai riferimenti R e R0 , e si scrive anche
A = MR,R0 (). Se V = W e R = R0 , si parla semplicemente di matrice associata a
nel riferimento R e si scrive MR ().
La propriet`a (3.4) caratterizza la matrice associata, infatti se A Mm,n (K) `e tale
R per ogni v V , `e evidente che [(ej )]R0 = A[e
j ]R `e la j-esima
che [(v)]R0 = A[v]
dunque A = MR,R0 () e quindi A = A.
colonna di A;
Sempre la propriet`a (3.4) assicura che due applicazioni lineari e di V in W
coincidono se e soltanto se risulta MR,R0 () = MR,R0 (). Cos` A = MR,R0 () se e
0
0
soltanto se = R,R
, quindi R,R
`e lunica applicazione lineare di V in W che ha A
A
A

74

Matrici e Sistemi lineari

come matrice associata nei riferimenti R ed R0 . In particolare, fissata una qualsiasi


matrice A in Mm,n (K), lapplicazione LA : Kn Km `e lunica applicazione lineare
che ha A come matrice associata quando sia in Kn che Km `e stato fissato come
riferimento quello canonico.
Teorema 3.9.1 Siano V e W due spazi vettoriali non nulli sul campo K di dimensione finita. Siano inoltre : V W unapplicazione lineare, R un riferimento
di V , R0 un riferimento di W e A = MR,R0 ().
(i) Il sottospazio Im `e generato dai vettori che in R0 hanno per componenti le
colonne di A, cio`e Im corrisponde attraverso lisomorfismo coordinato cR0
allo spazio delle colonne di A, in particolare dim(Im ) = (A).
(ii) Il sottospazio ker corrisponde attraverso lisomorfismo coordinato cR allo
spazio S0 delle soluzioni del sistema lineare omogeneo AX = 0; in particolare, una base per ker `e formata dai vettori le cui componenti in R formano
una base per S0 . Inoltre, dim(ker ) = dim(V ) (A).
Dimostrazione La proposizione 2.6.5 garantisce che Im `e generato dai trasformati dei vettori di R, le cui componenti in R0 , per definizione di matrice associata,
sono le colonne di A e quindi, attraverso lisomorfismo coordinato cR0 , lo spazio
Im corrisponde allo spazio delle colonne di A. In particolare, dim(Im ) = (A)
e cos` dim(ker ) = dim(V ) (A) per il teorema 2.7.2. Inoltre, v ker se e
solo se [(v)]R0 = 0 e quindi, per (3.4), se e solo se A[v]R = 0; pertanto mediante lisomorfismo coordinato cR il sottospazio ker corrisponde al sottospazio delle
soluzioni del sistema lineare omogeneo AX = 0.
t
u
Corollario 3.9.2 V e W due spazi vettoriali non nulli sul campo K di dimensione
finita. Siano inoltre : V W unapplicazione lineare, R un riferimento di V ,
R0 un riferimento di W e A = MR,R0 (). Allora `e isomorfismo se e solo se A `e
una matrice quadrata e det(A) 6= 0.
Dimostrazione Se `e isomorfismo allora W = Im , per la suriettivit`a di ,
e quindi dim(V ) = dim(W ) per il teorema della dimensione 2.7.2 ed essendo ker
nullo per la proposizione 2.7.1, in particolare, quindi, A `e una matrice quadrata.
Daltra parte se A `e quadrata vuol dire che V e W hanno la stessa dimensione, quindi
posto n = dim(V ) = dim(W ) (da cui A Mn (K)) proviamo che `e isomorfismo
se e solo se det(A) 6= 0. Per il corollario 2.7.3 `e isomorfismo se e solo se `e
iniettiva e quindi, per la proposizione 2.7.1, se e solo se ker = {0}. Daltra parte
il teorema 3.9.1 assicura che lo spazio ker `e nullo se e solo se (A) = dim(V ) = n
e quindi se e solo se det(A) 6= 0 per la proposizione 3.5.4.
t
u
Consideriamo, ad esempio, la seguente applicazione lineare
: (x, y) R2 (2x 3y, x + y, 0) R3 .

3.9 Matrice associata ad unapplicazione lineare

75

Fissiamo i riferimenti R = ((1, 0), (0, 1)) e R0 = ((1, 0, 1), (0, 1, 0), (0, 0, 1)) in R2 e
R3 rispettivamente, e andiamo a determinare A = MR,R0 (). Essendo
(1, 0) = (2, 1, 0) = 2(1, 0, 1) 1(0, 1, 0) 2(0, 0, 1)
e
(0, 1) = (3, 1, 0) = 3(1, 0, 1) + 1(0, 1, 0) + 3(0, 0, 1)
otteniamo subito che

2 3
A = 1 1 .
2 3

La matrice A ha rango 2, quindi ker ha dimensione 22 = 0 e pertanto ker = {0}.


Inoltre Im = C(A) = L[(2, 1, 0), (3, 1, 0)].
Si consideri, come altro esempio, lapplicazione lineare


a b
:
M2 (R) a + cx2 R2 [x]
c d
Posto









1 1
1 0
0 1
0 0
M1 =
, M2 =
, M3 =
, M4 =
0 0
1 0
0 0
0 1

fissiamo R = (M1 , M2 , M3 , M4 ) come riferimento per M2 (R). Invece in R2 [x] fissiamo


il riferimento R0 = (1 + x2 , x, x2 ). Essendo
(M1 ) = 1 = 1(1 + x2 ) + 0(x) 1(x2 )
(M2 ) = 1 + x2 = 1(1 + x2 ) + 0(x) + 0(x2 )
(M3 ) = 0 = 0(1 + x2 ) + 0(x) + 0(x2 )
(M4 ) = 0 = 0(1 + x2 ) + 0(x) + 0(x2 )
risulta

1 1 0 0
A = MR,R0 () = 0 0 0 0 .
1 0 0 0

Una base per C(A) `e costituita dalle colonne A1 e A2 di A e queste colonne sono le
componenti in R0 di (M1 ) = 1 e (M2 ) = 1 + x2 , rispettivamente, sicch`e
Im = L[1, 1 + x2 ].
Inoltre, poich`e una base per il sistema lineare omogeneo AX = 0 `e cositituita dai
vettori (0, 0, 1, 0) e (0, 0, 0, 1), che sono le componenti in R di M3 e M4 , si ha che

 
 


0 1
0 0
0 x
ker = L[M3 , M4 ] = L
,
=
: x, y R .
0 0
0 1
0 y

76

Matrici e Sistemi lineari

Proposizione 3.9.3 Siano V, V 0 e V 00 spazi vettoriali non nulli di dimensione finita


sul campo K e si fissino dei riferimenti R, R0 e R00 per essi. Se : V V 0
e : V 0 V 00 sono applicazioni lineari, allora anche `e lineare. Inoltre,
considerate le matrici A = MR,R0 () e B = MR0 ,R00 (), si ha che BA = MR,R00 ().
Dimostrazione Lapplicazione `e lineare per la proposizione 2.6.3; inoltre
per ogni v V si ha che [((v))]R00 = B[(v)]R0 = BA[v]R , da cui la tesi.
t
u
Corollario 3.9.4 Siano V e W spazi vettoriali non nulli di dimensione finita su
un campo K e sia : V W un isomorfismo. Fissato un riferimento R per V
ed un riferimento R0 per W e considerata A = MR,R0 () si ha che A `e invertibile e
A1 = MR0 ,R (1 ).
Dimostrazione Lapplicazione 1 `e un isomorfismo per la proposizione 2.6.6,
in particolare dim(V ) = dim(W ). Poich`e la matrice associata allendomorfismo
identico (in un fissato riferimento) `e la matrice identica, se B = MR0 ,R (1 ), segue
dalla proposizione 3.9.3 che AB e BA sono la matrice identica. Cos` B = A1 . t
u

3.10

Matrice del cambio di base

Sia V uno spazio vettoriale non nullo su un campo K di dimensione finita n, e consideriamo due riferimenti R = (e1 , . . . , en ) ed R0 = (e01 , . . . , e0n ) di V . Se esprimiamo
ogni ej come combinazione lineare dei vettori di R0 scrivendo
ej = p1j e01 + p2j e02 + + pnj e0n ,
dove gli scalari p1j , p2j , . . . , pnj K sono univocamente determinati, si viene a formare una matrice P = (pij ) quadrata di ordine n su K le cui colonne sono le
componenti dei vettori di R nella base R0 ; pertanto P = MR,R0 (V ) `e la matrice
associata allendomorismo identico V di V nei riferimenti R e R0 . La matrice P si
chiama matrice di passaggio dal riferimento R al riferimento R0 .

Teorema 3.10.1 Sia V uno spazio vettoriale non nullo su un campo K di dimensione finita n. Siano inoltre R e R0 due riferimenti di V e P Mn (K) la matrice
di passaggio da R a R0 . Allora
(i) P `e invertibile e P 1 `e la matrice di passaggio da R0 a R;
(ii) per ogni elemento v di V si ha che [v]R0 = P [v]R e [v]R = P 1 [v]R0 ;
(iii) se P 0 `e la matrice di passaggio da R0 ad un terzo riferimento R00 , allora P 0 P
`e la matrice di passaggio da R a R00 .

3.10 Matrice del cambio di base

77

Dimostrazione Sia Q = MR0 ,R (V ) la matrice di passaggio da R0 a R e sia v un


arbitrario elemento di V . Il teorema 3.9.1 assicura che [v]R0 = P [v]R e [v]R = Q[v]R0 ,
sicch`e [v]R0 = P [v]R = P Q[v]R0 e [v]R = Q[v]R0 = QP [v]R e lunicit`a delle componenti garantisce dunque che P Q = In = QP . Pertanto P `e invertibile e P 1 = Q,
cos` (i) e (ii) sono provate. Infine, essendo [v]R00 = P 0 [v]R0 = P 0 P [v]R ancora il
teorema 3.9.1 assicura che P 00 = P 0 P e quindi anche (iii) `e provata.
t
u
La relazione che intercorre tra le matrici del cambio di riferimento in uno spazio
vettoriale e la matrice associata ad un endomorfismo nei riferimenti in questione, e
descritta nel seguente.
Teorema 3.10.2 Sia V uno spazio vettoriale su un campo K di dimensione finita
e siano R e R0 due riferimenti di V . Se `e un endomorfismo di V e A = MR (),
allora MR0 () = P 1 AP dove P `e la matrice di passaggio da R0 a R.
Dimostrazione Sia v V . Allora il teorema 3.10.1 assicura che P `e invertibile
ed inoltre che [v]R = P [v]R0 e [(v)]R0 = P 1 [(v)]R . Daltra parte [(v)]R = A[v]R
per il teorema 3.9.1, per cui [(v)]R0 = P 1 [(v)]R = P 1 A[v]R = P 1 AP [v]R0 .
Pertanto, per il teorema 3.9.1, P 1 AP `e la matrice di in R0 .
t
u
Due matrici quadrate A e B di ordine n su un campo K si dicono simili (o talvolta
anche coniugate) se esiste una matrice invertibile P in Mn (K) tale che B = P 1 AP .
Tale relazione, com`e facile verificare, `e una relazione di equivalenza. Il precedente
teorema assicura quindi che matrici associate ad uno stesso endomorfismo, in due
riferimenti diversi, sono simili.
Ad esempio, si consideri lendomorfismo
: (a, b) R2 (b, a) R2
e fissiamo
R = ((1, 0), (0, 1)) e R0 = ((1, 1), (1, 1))
come riferimenti di R2 . Essendo
(1, 0) = (0, 1) e (0, 1) = (1, 0)
risulta


A = MR () =


0 1
.
1 0

La matrice di passaggio da R0 ad R ha per colonne le componenti in R dei vettori


di R0 , e quindi ha per colonne i vettori di R0 essendo R il riferimento canonico


1 1
P = MR0 ,R (R2 ) =
;
1 1

78

Matrici e Sistemi lineari

ed `e semplice rendersi conto che


1 1 
1
P = 21 2 1
2
2

e che P



1 0
AP =
.
0 1

Dunque il teorema 3.10.2 assicura che




1 0
MR0 () =
0 1
ed infatti
(1, 1) = (1, 1) = 1(1, 1) + 0(1, 1) e (1, 1) = (1, 1) = 0(1, 1) 1(1, 1).

CAPITOLO 4

Diagonalizzazione di endomorfismi
e matrici
4.1

Autovalori, autovettori e autospazi

Sia K un campo e supponiamo fissati un K-spazio vettoriale V di dimensione finita


n ed un endomorfismo di V . Un vettore non nullo v di V si dice autovettore di
, se esiste uno scalare K tale che (v) = v; in tal caso, `e detto essere un
autovalore di relativo allautovettore v. Osserviamo che se `e un altro autovalore
relativo a v, allora v = (v) = v sicch`e ( )v = 0 e quindi = 0 essendo
v 6= 0, pertanto = . Questo prova che per ogni autovettore esiste un unico
autovalore.
Lemma 4.1.1 Sia V uno spazio vettoriale di dimensione finita sul campo K e siano
v1 , . . . , vt autovettori associati ad autovalori distinti di uno stesso endomorfismo
di V . Allora v1 , . . . , vt sono linearmente indipendenti.
Dimostrazione Siano v1 , . . . , vt autovettori di un endomorfismo associati,
rispettivamente, agli autovalori distinti 1 , . . . , t . Un autovettore `e un vettore non
nullo e quindi {vk } `e una parte libera per ogni k = 1, . . . , t. Supponiamo che
comunque si considerano i 1 (con i > 1) autovettori relativi ad autovalori distinti,
tali autovettori formano una parte libera; consideriamo poi una combinazione lineare
nulla c1 v1 + + ci vi = 0 (con ogni ck K), allora
0 = t (c1 v1 + + ci vi ) = c1 i v1 + + ci i vi
e
0 = (c1 v1 + + ci vi ) = c1 (v1 ) + + ci (vi ) = c1 1 v1 + + ci i vi
quindi
c1 i v1 + + ci i vi = c1 1 v1 + + ci i vi
e cos`
c1 (1 i )v1 + + ci1 (i1 i )vi1 = 0.
Poich`e stiamo supponendo che i 1 autovettori relativi ad autovalori distinti sono
linearmente indipendenti, segue che c1 = = ci1 = 0. Allora ci vi = 0 e pertanto
anche ci = 0. Questo prova che v1 , . . . , vi sono linearmente indipendenti ma, pi`
u in
generale, lo stesso argomento prova che comunque si prendono i vettori tra v1 , . . . , vt
questi sono linearmente indipendenti. Cos` proseguendo, si ottiene che v1 , . . . , vt sono
linearmente indipendenti.
t
u

80

Diagonalizzazione di endomorfismi e matrici

Fissato un autovalore per , sia V () linsieme costituito dal vettore nullo e


dai vettori di V che sono autovettori di relativi allautovalore , ovvero
V () = {v V | (v) = v}.
Se h, k K e v, w V (), allora
(hv + kw) = h(v) + k(w) = hv + kw = (hv + kw),
sicch`e hv + kw V () e pertanto V () `e un K-sottospazio di V detto autospazio
relativo allautovalore . Si osservi che se `e un autovalore per , allora esiste un
autovettore che ha per autovalore e pertanto, essendo un autovettore un vettore
non nullo, risulta
dim(V ()) 1.
Proposizione 4.1.2 Sia V uno spazio vettoriale di dimensione finita sul campo K
e sia un endomorfismo di V . Se 1 , . . . , t sono autovalori distinti di , allora
V (1 ) + + V (t ) = V (1 ) V (t ).
Dimostrazione Si deve provare che per ogni i = 1, . . . , t risulta


V (i ) V (1 ) + + V (i1 ) + V (i+1 ) + + V (t ) = {0}.
P
Se vi `e un vettore di V (i ) tale da aversi che vi = j6=i vj con ogni vj V (j ),
allora risulta v1 + + vi1 vi + vi+1 + + vt = 0. Segue cos` dal lemma 4.1.1
che v1 = = vt = 0 e pertanto la proposizione `e provata.
t
u
Sia A = MR () la matrice associata allendomorfismo in un fissato riferimento
R di V , e sia
p () = det(A In ).
E semplice accorgersi (sviluppando il determinante rispetto alla prima colonna o,
se si preferisce, facendo induzione sullordine n di A) che
p () = (1)n n + + det(A)
`e un polinomio di grado n a coefficienti in K: esso `e detto polinomio caratteristico
di . Lequazione
det(A In ) = 0
`e invece detta equazione caratteristica di . Il polinomio caratteristico si definisce
a partire dalla matrice associata allendomorfismo in un fissato riferimento di V ,
ma se anche si scegliesse un altro rifermento per V , il polinomio caratteristico che
si verrebbe a determinare sarebbe sempre lo stesso. Sussiste infatti la seguente.

4.1 Autovalori, autovettori e autospazi

81

Proposizione 4.1.3 Sia V uno spazio vettoriale di dimensione finita n sul campo
K e sia un endomorfismo di V . Allora il polinomio caratteristico di non dipende
dal riferimento che si fissa in V .
Dimostrazione Se A e B sono matrici associate a in due riferimenti distinti
di V , allora il teorema 3.10.2 assicura che esiste una matrice invertibile P di Mn (K)
tale che B = P 1 AP . Si ha cos` che
B In = P 1 AP In = P 1 AP P 1 P =
= P 1 AP P 1 (In )P = P 1 (A In )P
e quindi per il teorema di Binet 3.3.6 si ha
det(B In ) = det(P 1 (A In )P ) = det(P 1 )det(A In )det(P ) = det(A In ),
essendo det(P 1 )det(P ) = 1.

t
u

La dimostrazione della proposizione 4.1.3 prova, in particolare, che matrici simili


danno origine allo stesso polinomio caratteristico. Questo non `e vero per matrici
equivalenti, infatti le matrici (su R)




1 1
1 1
M1 =
e M2 =
1 1
0 0
sono equivalenti ma det(M1 I) = ( 2) mentre det(M2 I) = ( 1).
Teorema 4.1.4 Sia V uno spazio vettoriale di dimensione finita sul campo K e sia
un endomorfismo di V , sia inoltre A = MR () la matrice associata a rispetto
ad un fissato riferimento R di V .
(i) Uno scalare 0 K `e un autovalore se e solo se 0 `e una radice del polinomio
caratteristico p ().
(ii) Un vettore non nullo v V `e un autovettore per relativo ad un autovalore
0 se e solo se le componenti [v]R di v rispetto ad R sono una soluzione non
nulla del sistema lineare omogeneo (A 0 In )X = 0.
Dimostrazione Per ogni v V si ha che [(v)]R = A[v]R e quindi, se v `e un
autovettore per relativo allautovalore 0 , risulta
A[v]R = [(v)]R = [0 v]R = 0 [v]R ,
ovvero
(A 0 In )[v]R = 0
e pertanto [v]R `e soluzione del sistema lineare omogeneo (A0 In )X = 0. Viceversa,
se v `e un vettore di V e le sue componenti [v]R sono una soluzione non nulla del

82

Diagonalizzazione di endomorfismi e matrici

sistema lineare omogeneo (A 0 In )X = 0, allora A[v]R = 0 [v]R e quindi, essendo


anche [(v)]R = A[v]R , si ha [(v)]R = 0 [v]R nonch`e (v) = 0 v per lunicit`a delle
componenti nel fissato riferimento R.
Ora, lo scalare 0 `e un autovalore per se e solo se esiste un vettore v non nullo
in V (0 ) e quindi, per quanto provato sopra, se e solo se le componenti [v]R sono
una soluzione non nulla del sistema lineare omogeneo (A 0 In )X = 0. Poich`e la
matrice (A 0 In ) `e quadrata, il sistema (A 0 In )X = 0 ha soluzioni non nulle
se e soltanto se la matrice (A 0 In ) `e singolare. Dunque 0 `e un autovalore per
se e solo se 0 `e una radice del polinomio det(A In ) = 0.
t
u
Gli autovalori di un endomorfismo sono quindi tutti e soli gli elementi di K
che sono soluzioni dellequazione caratteristica p () = 0. Il precedente teorema
assicura inoltre che lautospazio V (0 ), relativo allautovalore 0 , `e costituito da
tutti e soli i vettori le cui componenti sono le soluzioni del sistema lineare omogeneo
(A 0 In )X = 0, dunque lautospazio V (0 ) corrisponde, attraverso lisomorfismo
coordinato, allo spazio delle soluzioni del sistema lineare omogeno (A 0 In )X = 0.
Segue cos` dalla proposizione 3.8.1 che lautospazio V (0 ) ha dimensione np, dove
p `e il rango della matrice (A 0 In ) e n `e la dimensione di V .
La dimensione dellautospazio V (0 ) si dice molteplicit`a geometrica di 0 ; invece
la molteplicit`a algebrica di 0 `e la molteplicit`a di 0 come radice del polinomio
caratteristico. Indicheremo con mg (0 ) la molteplicit`a geometrica e con ma (0 ) la
molteplicit`a algebrica di 0 . Dunque mg (0 ) = n p dove p `e il rango di (A 0 In ).
Si ha inoltre il seguente.
Teorema 4.1.5 Sia V uno spazio vettoriale su un campo K di dimensione finita
e sia un endomorfismo di V . Se 0 `e una radice del polinomio caratteristico
p (), allora mg (0 ) ma (0 ). In particolare, mg (0 ) = ma (0 ) se 0 `e una radice
semplice.
Dimostrazione Supponiamo sia mg (0 ) = t. Fissata una base {v1 , . . . , vt } per
V (0 ), il corollario 2.5.6 assicura che questa si pu`o completare ad un riferimento
R = (v1 , . . . , vt , vt+1 , . . . , vn ) di V . Essendo (vi ) = 0 vi per ogni i = 1, . . . , t, la
matrice A associata a nel riferimento R ha la seguente forma

0 0 . . . 0
0 0 . . . 0 B

.. . .
..
A = ...

. .
.

0 0 . . . 0
O
C
dove B `e una matrice t (n t), O `e la matrice nulla (n t) t e C `e una matrice
quadrata dordine n t. Si ha allora che det(A In ) = (0 )t det(C Int ),
e pertanto ma (0 ) t = mg (0 ).
t
u

4.2 Endomorfismi diagonalizzabili

4.2

83

Endomorfismi diagonalizzabili

Sia V uno spazio vettoriale di dimensione finita su un campo K. Un endomorfismo


di V si dice diagonalizzabile (oppure semplice) se V ammette una base di autovettori
di ; in tal caso, la base di autovettori `e detta anche base spettrale.
Teorema 4.2.1 Sia V uno spazio vettoriale di dimensione finita sul campo K e
sia un endomorfismo di V . Allora `e diagonalizzabile se e solo se esiste un
riferimento R di V tale che A = MR () `e diagonale.
Dimostrazione Evidentemente, se V ammette una base R = (v1 , . . . , vt ) di
autovettori di , essendo (vi ) = i vi (con i K), `e chiaro che MR () `e la
matrice diagonale che ha sulla diagonale principale i i . Reciprocamente, se esite
un riferimento R = (v1 , . . . , vt ) per V tale che la matrice A = (aij ) associata a
in R `e una matrice diagonale, allora per ogni i = 1, . . . , t si ha che (vi ) = aii vi e
quindi vi `e un autovettore relativo allautovalore aii , come volevamo.
t
u
Sia V uno spazio vettoriale di dimensione finita. Abbiamo gi`a visto nella proposizione 4.1.2 che lo spazio somma W degli autospazi relativi ad un endomorfismo
di V , `e una somma diretta; se poi W = V `e evidente che V possiede una base fatta
di autovettori e `e dunque diagonalizzabile. Pi`
u in generale sussiste la seguente
caratterizzazione.
Teorema 4.2.2 (Teorema Spettrale) Sia V uno spazio vettoriale su un campo
K di dimensione finita e sia un endomorfismo di V . Sono equivalenti:
(i) `e diagonalizzabile;
(ii) V `e somma diretta di autospazi;
(iii) Se 1 , . . . , t sono gli autovalori a due a due distinti di , allora si ha che
ma (i ) = mg (i ) per ogni i = 1, . . . , t e ma (1 ) + + ma (t ) = dim(V ).
Dimostrazione (i) (ii) Se `e diagonalizzabile allora V ha una base fatta
da autovettori di ; pertanto V `e generato da autospazi e quindi `e somma diretta
di autospazi per la proposizione 4.1.2.
(ii) (iii) Siano 1 , . . . , t autovalori distinti di tali che
V = V (1 ) V (t );
in particolare, fissata una base Bi in ciascun autospazio V (i ), si ha che linsieme
B = B1 Bt `e una base di V . Poniamo mi = mg (i ) per ogni i = 1, . . . , t.
La matrice A associata a in B `e evidentemente la matrice diagonale in cui sulla
diagonale si ripetono gli autovalori e precisamente `e la matrice diagonale che ha

84

Diagonalizzazione di endomorfismi e matrici

sulla diagonale prima m1 valori uguali a 1 , poi m2 valori uguali a 2 e cos` via. Ne
consegue che
p () = det(A I) = (1 )m1 (2 )m2 (t )mt

(4.1)

cos` 1 , . . . , t sono tutte e sole le radici distinte del polinomio caratteristico, quindi
ma (i ) = mi per ogni i = 1, ..., t e m1 + + mt = gr(p ()) = dim(V ).
(iii) (i) Siano 1 , . . . , t gli autovalori distinti di di molteplicit`a m1 , . . . , mt ,
rispettivamente. Lo spazio somma W degli autospazi `e somma diretta per la proposizione 4.1.2 e quindi segue dalle ipotesi e dalla formula di Grassmann 2.5.8 che
W ha dimensione pari a m1 + + mt = dim(V ); pertanto segue dalla proposizione 2.5.7 che V = W e cos`, fissata una base Bi in ciascun autospazio V (i ),
linsieme B = B1 Bt `e una base per V fatta di autovettori di e `e quindi
diagonalizzabile.
t
u
Se `e un endomorfismo del K-spazio vettoriale V , con V di dimensione n, la condizione (iii) nel precedente teorema si pu`o esprimere dicendo che il polinomio caratteristico ha n radici in K ciascuna contata con la propria molteplicit`a, e se 1 , . . . , t
sono le radici distinte allora per ciascuna di esse la molteplicit`a algebrica coincide
con quella geometrica. In maniera alternativa si potrebbe anche dire che tutte le
radici del polinomio caratteristico sono in K e per ciascuna di esse la molteplicit`a
algebrica coincide con quella geometrica; questo assicura che il polinomio caratteristico di un endomorfismo diagonalizzabile `e completamente riducibile ovvero ha una
fattorizzazione come in (4.1). Dunque, ad esempio, un endomorfismo di Q3 se ha
2
come polinomio caratteristico
( 2) (che ha solo 0 come radice razionale, e poi

ha due radici reali 2 e 2) non `e diagonalizzabile.


Quindi, nelle ipotesi del precedente teorema, per stabilire se lendomorfismo
`e diagonalizzabile occorre quindi studiare le radici del polinomio caratteristico: si
deve verificare che queste sono tutte nel campo K e che, per le radici che non sono
semplici (si ricordi qui il teorema 4.1.5), la molteplicit`a geometrica coincide con la
molteplicit`a algebrica. Inoltre, se `e diagonalizzabile, una base per V di autovettori
per si ottiene dallunione tra le basi fissate in ciascun autospazio.
Si noti infine che, come immediata conseguenza del teorema 4.1.5 e del teorema 4.2.2, si ha il seguente.
Corollario 4.2.3 Sia V uno spazio vettoriale di dimensione finita n sul campo K.
Se il polinomio caratteristico di un endomorfismo di V ha n radici distinte, allora
`e diagonalizzabile.
Come primo esempio, consideriamo lendomorfismo
: (x, y) R2 (x + 2y, x 2y) R2

4.2 Endomorfismi diagonalizzabili

85

e studiamone leventuale diagonalizzabilit`a. Considerando il riferimento canonico


R = ((1, 0), (0, 1)), la matrice che rappresenta ha per colonne (1, 0) = (1, 1) e
(0, 1) = (2, 2)


1
2
A=
1 2
e quindi lequazione caratteristica

1
2
0 = det(A I2 ) =
1 2



= (1 )(2 ) + 2 = 2 +

ha 2 radici reali, 1 e 0, sicch`e il corollario 4.2.3 assicura che `e diagonalizzabile.


Inoltre, lautospazio relativo a 1 `e lo spazio delle soluzioni del sistema omogeneo
(A + I2 )X = 0, cio`e del sistema

2x + 2y = 0
x y = 0
dunque V (1) = {(x, x) | x R} = L[(1, 1)]. Invece V (0) = ker `e lo spazio
delle soluzioni del sistema lineare AX = 0 ovvero del sistema

x + 2y = 0
x 2y = 0
sicch`e V (0) = {(2y, y) | y R} = L[(2, 1)]. Una base di R2 formata da autovettori di `e dunque {(1, 1), (2, 1)}.
Come altro esempio, consideriamo lendomorfismo
(x, y, z) R3 (y, x, z) R3
che nel riferimento canonico `e rappresentato

0 1
1 0
0 0

dalla matrice

0
0
1

sicch`e il polinomio caratteristico, com`e semplice accorgersi, `e (1 )(2 + 1) il quale


ha solo una radice reale, pertanto lendomorfismo considerato non `e diagonalizzabile
per il teorema 4.2.2.
Studiamo infine la diagonalizzabilit`a del seguente endomorfismo
: a + bx + cx2 R2 [x] 3a + 3cx + 3bx2 R2 [x].
La matrice associata a nel riferimento canonico R = (1, x, x2 ) ha per colonne le
componenti in R dei vettori (1) = 3, (x) = 3x2 e (x2 ) = 3x e quindi `e la matrice

3 0 0
A= 0 0 3
0 3 0

86

Diagonalizzazione di endomorfismi e matrici

sicch`e il polinomio caratteristico `e



3 0
0

0
3

0
3




= (3 )(2 9)

che ha per radici 3, con molteplicit`a algebrica 2, e 3, con molteplicit`a algebrica 1.


Andiamo ora a determinare gli autospazi. Per determinare V (3), consideriamo
il sistema lineare omogeneo (A 3I3 )X = 0, ovvero

3y + 3z = 0
3y 3z = 0
il cui spazio delle soluzioni `e {(x, y, y) | x, y R} il quale ha dimensione 2 essendo
{(1, 0, 0), (0, 1, 1)} una sua base; pertanto una base per V (3) `e costituita dai vettori
1
2
f1 = c1
e la coordinazione associata
R (1, 0, 0) = 1 e f2 = cR (0, 1, 1) = x+x (dove cR `
a R). Sicch`e mg (3) = ma (3) = 2. Daltra parte anche mg (3) = ma (3) = 1 per il
teorema 4.1.5. Pertanto `e diagonalizzabile per il teorema 4.2.2. Per determinare
una base per R2 [x] di autovettori di , ci serve determinare una base per lautospazio
V (3). Lo spazio delle soluzioni del sistema omogeneo (A + 3I3 )X = 0, ovvero del
sistema

6x = 0
3y + 3z = 0

3y + 3z = 0
ha per base {(0, 1, 1)}, pertanto una base per V (3) `e costituita dal vettore
2
f3 = c1
e {f1 , f2 , f3 }.
R (0, 1, 1) = x x . In definitiva la base di R2 [x] cercata `

4.3

Matrici diagonalizzabili

Sia K un campo e sia A una matrice quadrata di ordine n su K. Fissato in Kn il riferimento canonico R sappiamo che esiste un (unico) endomorfismo LA : Kn Kn
tale che A = MR (LA ); in particolare, LA (X) = AX per ogni X Kn (qui i vettori di Kn sono intesi come vettori colonna). Si possono allora estendere i concetti di autovalore, autovettore e autospazio relativamente alla matrice A riferendosi
allendomorfismo LA . A tal fine, per comodit`a di scrittura, ci si riferir`a qui ai vettori
di Kn come vettori colonna. Un vettore non nullo v di Kn `e detto autovettore di A se
esiste uno scalare K, detto autovalore relativo a v, tale che Av = v. Si osservi
quindi che v `e un autovettore per A se e solo se `e un autovettore per LA , cos` come
`e un autovalore per A se e solo se lo `e per LA . Si definisce infine autospazio per A
relativo ad un autovalore di A linsieme
VA () = {v Kn | Av = v},
sicch`e VA () = VLA ().

4.3 Matrici diagonalizzabili

87

La matrice A si dice diagonalizzabile se `e simile ad una matrice diagonale. Dunque


A `e diagonalizzabile se e solo se esite P GLn (K) tale che P 1 AP = D `e una matrice
diagonale, in tal caso le colonne di P costituiscono un riferimento B = (P 1 , . . . , P n )
di Kn e P rappresenta la matrice di passaggio da B ad R. Nel riferimento B la
matrice associata allendomrfismo LA `e la matrice diagonale D, quindi LA `e diagonalizzabile per il teorema 4.2.1 (e B `e la base spettrale). Viceversa se LA `e diagonalizzabile il teorema 4.2.1 e il teorema 3.10.2 assicurano che A `e diagonalizzabile.
Pertanto A `e diagonalizzabile se e soltanto se LA `e diagonalizzabile e conseguentemente il teorema 4.2.2 pu`o essere riletto in questo caso come segue.
Teorema 4.3.1 Sia K un campo e sia A una matrice quadrata di ordine n su K.
La matrice A `e diagonalizzabile se e solo se il polinomio caratteristico det(A In )
ha n radici in K (contate con la loro molteplicit`a) e, dette 1 , . . . , t le sue radici
distinte, ogni i ha per molteplicit`a algebrica esattamente dim(VA (i )).
Sia A `e una matrice quadrata dordine n su un campo K, e supponiamo che A sia
diagonalizzabile. Allora lendomorfismo LA `e diagonalizzabile e Kn ha un riferimento
B fatto di autovettori di LA , e quindi anche di A. Se P `e la matrice le cui colonne
sono i vettori di B, allora P `e la matrice le cui colonne sono le componenti dei
vettori di B nel riferimento canonico R. Quindi P `e la matrice di passaggio dal
riferimento B al riferimento R e cos` il teorema 3.10.2 assicura che D = P 1 AP `e
la matrice associata a LA in B. Daltra parte ogni vettore in B `e un autovettore
per LA e quindi la matrice associata a LA in B, ovvero la matrice D, `e la matrice
diagonale sulla cui diagonale principale si trovano gli autovalori di LA (e quindi di
A) ripetuti tante volte quant`e la loro molteplicit`a. In altre parole, se una matrice
A `e diagonalizzabile, allora la matrice diagonale D ad essa simile `e la matrice sulla
cui diagonale ci sono gli autovalori di A, inoltre la matrice che rende A simile a D
`e la matrice le cui colonne sono gli autovettori di A.
Studiamo, ad esempio, la diagonalizzabilit`a della matrice su R

2 3 0
A= 2 1 0
0 0 4
Il polinomio caratteristico `e

2
3
0

2
1

0

0
0
4




= ( 4)(2 3 4),

esso ha per radici 4 con molteplicit`a 2 e 1 con molteplicit`a 1. Affinch`e la matrice


A sia diagonalizzabile deve quindi aversi che dim(VA (4)) = 2. Andiamo quindi

88

Diagonalizzazione di endomorfismi e matrici

a determinare una base per lo spazio delle soluzioni del sistema lineare omogeneo
(A 4I3 )X = 0, ossia

2x + 3y = 0
2x 3y = 0
Esso ha per base {(3, 2, 0), (0, 0, 1)}, sicch`e lo spazio delle sue soluzioni ha dimensione
2 = ma (4) e A `e quindi diagonalizzabile.
Per determinare una matrice invertibile P che rende A simile ad una matrice
diagonale dobbiamo determinare una base per R3 fatta di autovettori per A. A
tal fine, occorre determinare una base per le soluzioni di (A + I3 )X = 0, ossia del
sistema

3x + 3y = 0
2x + 2y = 0

5z = 0
Una base per le soluzioni di questo sistema `e quindi {(1, 1, 0)} e quindi una base
di R3 fatta da autovettori di A `e
{(3, 2, 0), (0, 0, 1), (1, 1, 0)}.
Pertanto la matrice P cercata `e la matrice che ha questi vettori per colonna

3 0 1
2 0 1
0 1 0
`e la matrice diagonale simile ad A `e

4 0 0
D = P 1 AP = 0 4 0
0 0 1
ossia `e la matrice diagonale che ha sulla diagonale gli autovalori di A ripetuti tante
volte quant`e la loro molteplicit`a e messi nello stesso ordine con cui abbiamo considerato gli autospazi.

CAPITOLO 5

Spazi euclidei reali


5.1

Spazi euclidei reali

Sia V un R-spazio vettoriale. Unapplicazione


s : V V R
`e detta prodotto scalare in V , se `e
- Bilineare: Comunque si considerano i vettori u, v e w in V ed il numero reale
si ha s(u + v, w) = s(u, w) + s(v, w), s(u, v + w) = s(u, v) + s(u, w) e
s(u, v) = s(u, v) = s(u, v).
- Simmetrica: s(u, v) = s(v, u) per ogni u e v in V .
- Definita positiva: s(v, v) 0 per ogni v V e s(v, v) = 0 se e solo se v = 0.
Se s `e un prodotto scalare, dalle propriet`a precedenti seguono immediatamente le
seguenti:
(a) s(1 v1 + + t vt , w) = 1 s(v1 , w) + + n s(vt , w), comunque si considerano
gli elementi v1 , . . . , vt , w V e 1 , . . . , t R.
(b) s(0, v) = s(v, 0) = 0 per ogni v V .
Un R-spazio vettoriale in cui `e definito un prodotto scalare si dice essere uno
spazio euclideo (reale). Chiaramente ogni sottospazio di uno spazio euclideo `e uno
spazio euclideo con lapplicazione indotta da s su esso.
Ad esempio, nellR-spazio vettoriale Rn lapplicazione
: ((x1 , . . . , xn ), (y1 , . . . , yn )) Rn Rn x1 y1 + + xn yn R
`e un prodotto scalare, detto prodotto scalare standard.
Un altro esempio di prodotto scalare `e fornito dallapplicazione
s : Rn [x] Rn [x] R
definita ponedo
s(a0 + a1 x + + an xn , b0 + b1 x + + bn xn ) = a0 b0 + a1 b1 + + an bn .

90

Spazi euclidei reali

Un prodotto scalare si pu`o definire anche per lo spazio vettoriale dei vettori liberi
V (del piano o dello spazio). Siano v e w due vettori liberi. Se v oppure w `e nullo,
poniamo v w = 0; se invece v e w sono entrambi non nulli, poniamo
d
v w = |v||w| cos(v,
w)
dove |v| e |w| rappresenta il modulo di v e w, rispettivamente. Si pu`o provare che
lapplicazione cos` definita `e un prodotto scalare, detto prodotto scalare geometrico.
Sia V uno spazio euclideo in cui sia s il prodotto scalare, e sia v un elemento di
V . Si dice norma di v il numero reale non negativo
kvk = s(v, v);
si dice invece modulo (o lunghezza) il numero
p
p
|v| = s(v, v) = kvk.
Evidentemente |v| 0 e |v| = 0 se e solo se v = 0; inoltre, se R, allora
|v| = |||v|. Un vettore di modulo 1 si dice versore, si osservi che comunque si
u
consideri un vettore non nullo u allora |u|
= |u|1 u `e un versore.
Proposizione 5.1.1 Sia V uno spazio euclideo di prodotto scalare s. Se u e v sono
elementi di V , allora
(i) Disuguaglianza di Cauchy-Schwarz: s(u, v)2 s(u, u)s(v, v) e in questa
relazione vale luguaglianza se e solo se u e v sono linearmente dipendenti;
(i) Disuguaglianza di triangolare: |u + v| |u| + |v|.
Se u e v sono vettori non nulli dello spazio euclideo V (di prodotto scalare s), la
disuguaglianza di Cauchy-Schwartz assicura che
!2
s(u, v)
1
|u||v|
o equivalentemente
1

s(u, v)
1
|u||v|

e quindi esiste un unico angolo [0, ] tale che


cos =

s(u, v)
,
|u||v|

questo unico angolo si dice angolo tra i vettori u e v e si denota con u


d
, v. I vettori
non nulli u e v si dicono ortogonali se u
d
, v = 2 , ovvero se s(u, v) = 0, e in tal caso
si scrive u v. Per convenzione, il vettore nullo `e ortogonale ad ogni vettore.

5.1 Spazi euclidei reali

91

Proposizione 5.1.2 (Teorema di Pitagora) Se u e v sono vettori ortogonali


dello spazio euclideo V , allora
|u + v|2 = |u|2 + |v|2
Dimostrazione Detto s il prodotto scalare in V , essendo s(u, v) = 0, si ha che
|u+v|2 = s(u+v, u+v) = s(u, u)+2s(u, v)+s(v, v) = s(u, u)+s(v, v) = |u|2 +|v|2 .u
t
Un insieme di vettori non nulli {v1 , . . . , vt } di uno spazio euclideo V si dice
ortogonale se `e formato da vettori a due a due ortogonali. Un insieme ortogonale
fatto di versori si dice ortonormale. Chiaramente se v `e un elemento non nullo V ,
allora {|v|1 v} `e un sistema ortonormale.
Proposizione 5.1.3 Se S = {v1 , . . . , vt } `e un insieme ortogonale di vettori non
nulli di uno spazio euclideo, allora S `e libero.
Dimostrazione Denotiamo con s il prodotto scalare, e supponiamo che 1 , . . . , t
siano elementi di R tali che 1 v1 + + t vt = 0. Allora, se i {1, . . . , t},
0 = s(0, vi ) = s(1 v1 + + t vt , vi ) =
= 1 s(v1 , vi ) + + i s(vi , vi ) + + t s(vt , vi ) = i s(vi , vi )
da cui i = 0 essendo s(vi , vi ) 6= 0 perch`e vi 6= 0. Pertanto S `e libero.

t
u

Proviamo ora il seguente risultato che prende il nome di processo di ortonormalizzazione di Gram-Schmidt.
Teorema 5.1.4 Ogni spazio euclideo non nullo di dimensione finita ha una base
ortonormale.
Dimostrazione Sia V uno spazio euclideo non nullo (il cui prodotto scalare
denotiamo con s) di dimensione finita n e sia B = {v1 , . . . , vn } una sua base. Per
ogni i = 1, . . . , n sia Wi = L[v1 , . . . , vi ] (sicch`e Wn = V ) e proviamo per induzione
che ogni Wi ha una base ortonormale. Per i = 1, posto
u1 =

v1
,
|v1 |

`e evidente che {u1 } `e una base ortonormale per Wi . Sia i > 1 e supponiamo che
{u1 , . . . , ui1 } sia una base ortonormale per Wi1 . Consideriamo
vi0 = vi

i1
X
j=1

s(vi , uj )uj .

92

Spazi euclidei reali

Allora vi0 6= 0 altrimenti vi Wi1 e questo sarebbe in contraddizione col fatto che
{v1 , . . . , vi } `e una base per Wi ; inoltre, per ogni k = 1, . . . , i1 essendo {u1 , . . . , ui1 }
ortonormale si ha che
s(vi0 , uk )

= s(vi , uk )

i1
X

[s(vi , uj )s(uj , uk )] = s(vi , uk ) s(vi , uk ) = 0.

j=1

Pertanto, posto
ui =

vi0
,
|vi0 |

si ha che {u1 , . . . , ui1 , ui } `e un insieme ortonormale, e quindi libero per la proposizione 5.1.3, ed inoltre
Wi = L[v1 , . . . , vi ] = L[Wi1 , vi ] = L[u1 , . . . , ui1 , vi ] = L[u1 , . . . , ui1 , ui ]
e cos` {u1 , . . . , ui } `e una base ortonormale di Wi , come volevamo.

t
u

Se n `e un intero positivo, la base canonica di Rn e la base canonica di Rn [x] sono


basi ortonormali, rispetto al prodotto scalare definito allinzio di questo paragrafo.
Consideriamo R3 col prodotto scalare standard e in esso i vettori v1 = (1, 1, 0),
v2 = (2, 0, 0) e v3 = (0, 0, 1). Evidentemente p
B = {v1 , v2 ,
v3 } `e una base di R3 ,
andiamo ad ortonormalizzare B. Poich`e |v1 | = s(v1 , v1 ) = 2, si ha che
!
1 1
v1
= , ,0 .
u1 =
|v1 |
2 2
Sia poi
v20 = v2 s(v2 , u1 )u1 = (2, 0, 0)
Poich`e |v20 | =

s(v20 , v20 ) =

!
1 1
2 , , 0 = (2, 0, 0) (1, 1, 0) = (1, 1, 0).
2 2

2 poniamo
v0
u2 = 20 =
|v2 |

!
1
1
, , 0 .
2
2

Infine sia
v30 = v3 s(v3 , u1 )u1 s(v3 , u2 )u2 = (0, 0, 1) 0 0 = (0, 0, 1).
Poich`e |v30 | = 1, `e
u3 =

v30
= (0, 0, 1).
|v30 |

5.1 Spazi euclidei reali

93

Cos` {u1 , u2 , u3 } `e la base ortonormale di V cercata.


Ogni spazio euclideo di dimensione finita n ha un riferimento ortonormale per il
teorema 5.1.4, e fissato un riferimento ortonormale il prodotto scalare tra due vettori
coincide col prodotto scalare standard in Rn delle loro componenti come mostra la
seguente.
Proposizione 5.1.5 Sia V uno spazio euclideo di dimensione finita e di prodotto
scalare s, e sia inoltre R un riferimento ortonormale di V . Se u, v V si ha che
s(u, v) = (u)R (v)R .
Dimostrazione Essendo R = (e1 , . . . , en ) ortonormale e s bilineare, posto
(u)R = (x1 , . . . , xn ) e (v)R = (y1 , . . . , yn ), si ottiene
n
n
n
n
n
n
X
 X
 X
 X
X

X
s(u, v) =s
xi ei ,
yj ej =
xi s ei ,
yj ej =
xi
yj s(ei , ej ) =
i=1

j=1

n X
n
X
i=1

j=1

i=1

j=1

i=1

j=1

n
 X
xi yj s(ei , ej ) =
xi y i ,
i=1

sicch`e s(u, v) coincide col prodotto scalare standard in Rn tra le componenti (u)R di
u e le componenti (v)R di v.
t
u
I riferimenti ortonormali sono quindi dei riferimenti in cui il prodotto scalare `e
riconducibile al prodotto scalare standard nello spazio numerico su R. Ci chiediamo
ora che propriet`a deve avere la matrice di passaggio tra due riferimenti ortonormali.
A tal fine introduciamo il seguente concetto. Una matrice invertibile A Mn (R) si
dice ortogonale se A1 = At . Poich`e risulta essere (At )1 = (A1 )t , se A `e ortogonale
allora anche A1 = At `e ortogonale ed inoltre, ricordando che det(A) = det(At ) e
che det(A)det(A1 ) = 1, si ha che det(A) = 1. Un esempio di matrice ortogonale
`e chiaramente la matrice identica. Sussiste la seguente.
Proposizione 5.1.6 Sia V uno spazio euclideo di dimensione finita, e siano R ed
R0 due suoi riferimenti e P la matrice di passaggio da R0 a R. Supponiamo inoltre
che R sia ortonormale. Allora R0 `e ortonormale se e solo se P `e ortogonale.
Siano V uno spazio vettoriale euclideo ed X una parte non vuota di V . Un
vettore v di V si dice ortogonale (o normale) ad X se v x per ogni x X, in tal
caso si scrive v X. Sia poi
X = {v V | v X}.
Si verifica facilmente che X `e un sottospazio di V . Se W `e un sottospazio, il
sottospazio W prende il nome di complemento ortogonale di W in V . Si noti che
se S `e un sistema di generatori per W allora un vettore v di V `e ortogonale a W se
e solo se v `e ortogonale ad ogni vettore in S.

94

Spazi euclidei reali

Teorema 5.1.7 Sia V uno spazio euclideo di dimensione finita e sia W un sottospazio di V . Allora V = W W . Inoltre risulta essere (W ) = W e
dim(W ) = dim(V ) dim(W ).
Dimostrazione Sia B = {v1 , . . . , vt } una base ortonormale di W (che esiste per
il teorema 5.1.4) e sia v V . Denotato con s il prodotto scalare in V , poniamo
w1 = s(v, v1 )v1 + + s(v, vt )vt
e
w2 = v w1 .
Allora w1 W e per ogni i = 1, . . . , t, essendo B ortonormale, si ha che
s(w2 , vi ) = s(v, vi )

t
X

s(v, vj )s(vi , vj ) = s(v, vi ) s(v, vi ) = 0.

j=1

Dunque w2 W e quindi v = w1 + w2 W + W . Pertanto V = W + W .


Daltra parte, se v W W , allora v W e v W , quindi s(v, v) = 0 e
pertanto v = 0. Dunque W W = {0} e cos` V = W W ; in particolare,
dim(W ) = dim(V ) dim(W ) per la formula di Grassmann.
Ora, quanto provato assicura anche che V = W (W ) e che
dim((W ) ) = dim(V ) dim(W ) = dim(V ) (dim(V ) dim(W )) = dim(W ),
sicch`e essendo W (W ) risulta essere W = (W ) .

t
u

Ad esempio, determiniamo in R4 (con il prodotto scalare standard) il complemento ortogonale del sottospazio
W = {(x, y, z, t) | x + y z + t = 2y t = t = 0}.
E semplice accorgersi che una base per W `e {(1, 0, 1, 0)}, dunque W `e costituito
da tutti i vettori (x, y, z, t) di R4 tali che
(x, y, z, t) (1, 0, 1, 0) = 0,
quindi
W = {(x, y, z, t) | x + z = 0}
e pertanto una base per W `e costituita dai vettori (1, 0, 1, 0), (0, 1, 0, 0) e (0, 0, 0, 1).

5.2 Diagonalizzazione ortogonale

5.2

95

Diagonalizzazione ortogonale

Sia V un spazio euclideo reale e indichiamo con s il prodotto scalare. Un endomorfismo di V si dice ortogonalmente diagonalizzabile se V possiede una base
ortonormale di autovettori di . Al fine di determinare condizioni che assicurino
che un endomorfismo sia ortogonalmente diagonalizzabile, introduciamo il seguente
concetto. Un endomorfismo di V si dice simmetrico (o autoaggiunto) se comunque
si considerino gli elementi u e v in V si ha che
s(u, (v))) = s((u), v).

Proposizione 5.2.1 Sia un endomorfismo dello spazio euclideo V e supponiamo


che R sia un riferimento ortonormale di V . Allora `e simmetrico se e solo se la
matrice associata a in R `e simmetrica.
Dimostrazione Siano R = (e1 , . . . , en ) e A = MR (), sicch`e le colonne di A
sono le componenti in R dei trasformati (ei ). Allora si ha
n
n
 X
 X
s(ei , (ej )) = s ei ,
arj er =
arj s(ei , er ) = aij
r=1

r=1

e analogamente s((ei ), ej ) = aji . Pertanto A `e simmetrica se e solo se s((ei ), ej ) =


s(ei , (ej )) per ogni i, j = 1, . . . , n. Di conseguenza `e semplice ottenere che `e
simmetrico se e solo se A `e simmetrica.
t
u
Teorema 5.2.2 Sia un endomorfismo dello spazio euclideo V di dimensione
finita. Allora `e ortogonalmente diagonalizzabile se e solo se `e un endomorfismo simmetrico.
Se `e un endomorfismo simmetrico di uno spazio euclideo V di dimensione
finita, allora il teorema 5.2.2 assicura che esso `e ortogonalmente diagonalizzabile, in
particolare `e diagonalizzabile. Per ottenere una base ortonormale di autovettori per
basta determinare una base per ciascun autospazio ad esso relativo e applicare ad
ciascuna di queste il processo di ortonormalizzazione di Gram-Schmidt. Unendo poi
le basi ortonormalizzate si ottiene una base ortonormale di V fatta da autovettori
di , la sua ortonomalit`a `e garantita dalla seguente osservazione: se u e v sono
autovettori corrispondenti ad autovalori e distinti di , indicato come al solito
con s il prodotto scalare, si ha che
s(u, v) = s(u, v) = s(u, (v)) = s((u), v) = s(u, v) = s(u, v)
sicch`e ( )s(u, v) = 0 e quindi s(u, v) = 0 essendo 6= , dunque u v.

96

Spazi euclidei reali

Consideriamo ad esempio lo spazio vettoriale R2 col prodotto scalare standard e


lendomorfismo
: (x, y) R2 (x + 2y, 2x + 4y) R2 .
Per verificare se `e ortogonalmente diagonalizzabile, il teorema 5.2.2 suggerisce che
`e sufficiente verificare che sia simmetrico e a tal fine possiamo procedere in due
modi. Un primo modo consiste nel verificare se `e o meno simmetrico applicando
la definizione:
(x1 , y1 ) (x2 , y2 ) = (x1 , y1 ) (x2 + 2y2 , 2x2 + 4y2 ) =
= x1 x2 + 2x1 y2 + 2x2 y1 + 4y1 y2 =
= (x1 + 2y1 , 2x1 + 4y1 ) (x2 , y2 ) =
= (x1 , y1 ) (x2 , y2 )
quindi `e simmetrico. Un secondo metodo consiste nel verificare se `e simmetrica
applicando la proposizione 5.2.1, ossia verificando se la matrice ad esso associata in
un riferimento ortonormale `e simmetrica. Consideriamo il riferimento canonico di
R2 , esso `
e chiaramente ortonormale. Poich`e (1, 0) =(1, 2) e(0, 1) = (2, 4), la
1 2
matrice associata a nel riferimento canonico `e A =
che `e chiaramente
2 4
simmetrica.
Pertanto `e ortogonalmente diagonalizzabile. Andiamo a determinare una base
ortonormale di R2 fatta di autovettori per . Il polinomio caratteristico
det(A I2 ) = (1 )(4 ) 4 = 2 5
ha come radici 0 e 5. Lautospazio V (0) si ottiene in corrispondenza del sistema
omogeneo AX = 0 che ha come base per lo spazio delle soluzioni linsieme {(2, 1)},
2 1
, 5 )}. Mentre lautospazio V (5) si
sicch`e una base ortonormale per V (0) `e {(
5
ottiene in corrispondenza del sistema omogeneo (A 5I2 )X = 0 che ha come base
per lo spazio delle soluzioni linsieme {(1, 2)}, sicch`e una base ortonormale per V (5)
`e{( 15 , 25 )}. In definitiva una base ortonormale di R2 fatta da autovettori per `e
2 1
{(
, 5 ), ( 15 , 25 )}.
5
Una matrice quadrata A dordine n su R si dice ortogonalmente diagonalizzabile
se esiste una matrice ortogonale P Mn (R) (quindi P t = P 1 ) tale che P t AP sia
una matrice diagonale; in particolare, quindi, una matrice ortogonalmente diagonalizzabile `e diagonalizzabile.
Teorema 5.2.3 Una matrice quadrata A dordine n su R `e ortogonalmente diagonalizabile se e solo se A `e simmetrica.
Dimostrazione Se A `e ortogonalmente diagonalizzabile e P `e la matrice ortogonale tale che P t AP = D `e una matrice diagonale, allora P t = P 1 e quindi

5.2 Diagonalizzazione ortogonale

97

A = P DP t . Segue che At = (P DP t )t = (P t )t Dt P t = P DP t = A, ovvero A `e


simmetrica. Reciprocamente, supponiamo che A sia simmetrica. Fissato in Rn il
riferimento canonico R (che `e un riferimento ortonormale), sappiamo che A determina un endomorfismo
LA : X Rn AX Rn
la cui matrice associata in R `e proprio A. Dunque LA `e un endomorfismo simmetrico
per la proposizione 5.2.1 e quindi il teorema 5.2.2 assicura che esiste un riferimento
ortonormale R0 di Rn fatto da autovettori di LA . Se D = MR0 (LA ), allora D `e
la matrice diagonale che ha sulla diagonale principale gli autovalori di LA e D =
P 1 AP dove P `e la matrice di passaggio da R0 a R. Poich`e P `e ortogonale per la
proposizione 5.1.6, segue che A `e ortogonalmente diagonalizzabile.
t
u
Come esempio, consideriamo la matrice reale simmetrica

1 0
0
A = 0 1 2
0 2 1
e determiniamo una matrie ortogonale che rende A simile ad una matrice diagonale.
Il polinomio caratteristico di A `e det(AI3 ) = (1)(2 +23) le cui radici sono
1 con molteplicit`a 2, e 3 con molteplicit`a 1. Una base ortonormale dellautospazio
VA (1) si ottiene ortonormalizzando una base per lo spazio delle
soluzioni del sistema

2
lineare omogeno (AI3 )X = 0, e risulta essere {(1, 0, 0),(0, 2 , 22 )}. Analogamente
si trova che una base ortonormale di VA (3) `e {(0, 22 , 22 )}. Pertanto una base
ortonormale di R3 fatta da autovettori di A `e
(
!)
!
2 2
2 2
,
, 0,
,
.
B = (1, 0, 0), 0,
2 2
2 2
Quindi la matrice ortogonale P che rende A simile ad una matrice diagonale `e la
matrice di passaggio da B al riferimento canonico di Rn e quindi la matrice le cui
colonne sono i vettori del riferimento B

1 0
0
P = 0 22 22
2
0 22
2
e una matrice diagonale simile ad A `e la matrice

1 0 0
D = P t AP = 0 1 0
0 0 3
che ha sulla diagonale principale gli autovalori di A ripetuti tante volte quant`e la
loro molteplicit`a.

CAPITOLO 6

Geometria analitica
6.1

Spazi affini

Siano K un campo, V un K-spazio vettoriale, A 6= un insieme e


: A A V
unapplicazione. Si dice che la terna (A, V, ), o semplicemente A, `e uno spazio affine
su K se:
1A per ogni P A e per ogni v V esiste un unico Q A tale che (P, Q) = v;
2A per ogni P, Q, R A si ha (P, Q) + (Q, R) = (P, R) (relazione di Chasles).
Se non c`e possibilit`a di equivoco circa il campo K, si parla semplicemente di spazio
affine. Inoltre se A `e uno spazio affine, gli elementi di A si dicono punti, gli elementi

di V si dicono vettori liberi, e se P, Q A `e uso comune scrivere P Q, oppure Q P ,


invece che (P, Q). Ancora, se V ha dimensione finita, si pone dim(A) = dim(V ),
ed infine se V `e uno spazio euclideo allora A si dice spazio affine euclideo.
Si osservi che dalla 1A segue che fissato un punto P di A lapplicazione
P : Q A (P, Q) V
`e biettiva, sicch`e per ogni v V esiste un unico punto Q di A tale che (P, Q) = v:
questo unico punto Q si denota col simbolo P + v. Quindi

Q = P + v se e solo se P Q = v,
inoltre, si pone P v = P + (v).
Un primo esempio di spazio affine `e il seguente. A partire dallinsieme E dei punti
del piano (rispettivamente dello spazio) della geometria elementare e dallo spazio
vettoriale V dei vettori liberi del piano (rispettivamente dello spazio), si pu`o definire
lapplicazione

: (P, Q) E E PQ V.
La proposizione 2.1.1 assicura che per ogni vettore v e per ogni punto P di E esiste
un unico punto Q E tale che (P, Q) = v; inoltre la definizione della somma in V
assicura che la relazione di Chasles `e verificata. Dunque E `e uno spazio affine.
Un altro esempio di spazio affine ci `e dato da ogni spazio vettoriale. Infatti, se
V `e uno spazio vettoriale su un campo K, lapplicazione
(u, v) V V v u V

6.1 Spazi affini

99

determina su V una struttura di spazio affine. In particolare, qualsiasi sia lintero


positivo n, lo spazio vettoriale numerico Kn `e uno spazio affine. Visto come spazio
affine, Kn viene detto spazio affine numerico di dimensione n sul campo K, e si
usa denotarlo col simbolo AnK o semplicemente con An se non vi `e equivoco nella
considerazione del campo K.
Le prime propriet`a di uno spazio affine sono espresse nella seguente; in particolare,
considerato un punto P di uno spazio affine e due vettori liberi v e w, la (iii) permette
di scrivere P + v + w invece che P + (v + w).
Proposizione 6.1.1 Sia (A, V, ) uno spazio affine. Si ha

(i) Per ogni punto P di A si ha che P P = 0, in particolare P = P + 0.

(ii) Se P, Q A allora QP = P Q.
(iii) Per ogni P A e per ogni v, w V si ha P + (v + w) = (P + v) + w.


(iv) Se P, Q, S e T sono punti di A e P Q = ST , allora P S = QT .

Dimostrazione (i)
Dalla relazione di Chasles segue che P P + P P = P P ,

sicch`e P P = 0 per la regolarit`a della somma in V .



(ii) La relazione di Chasles e la (i) assicurano che P Q + QP = P P = 0, per

cui QP = P Q.

(iii) Posto Q = P + v e S = (P + v) + w = Q + w, si ha che v = P Q e w = QS.

Si vuole provare che S = P + (v + w) ovvero che v + w = P S, ma questo discende



dalla relazione di Chasles essendo v + w = P Q + QS = P S.

(iv)
Poich`e P Q = ST , la (ii) assicura che QP = T S e quindi usando la

relazione di Chasles si ha QT = QP + P T = T S + P T = P T + T S = P S.
t
u
Un sottoinsieme non vuoto B dello spazio affine A si dice sottospazio affine se

esistono un punto P di A ed un sottospazio vettoriale B di V tali che

B = {Q A | (P, Q) B } = p1 (B)

ovvero se

B = {P + v | v B }

per questo motivo, in tal caso, si scrive

B = P + B;

si dice inoltre che il sottospazio B passa per P e che B `e la giacitura oppure lo

spazio direttore di B . Evidentemente A = P + V qualsiasi sia il punto P , quindi

100

Geometria analitica

A `
e un sottospazio affine (di se stesso) di spazio direttore V (dunque A = V ).

Daltra parte, qualsiasi sia il punto P si ha che P + {0} = {P } e quindi i punti sono
sottospazi affini (qui con abuso di terminologia si `e identificato implicitamente P
con {P }).
Si osservi che se B `e un sottospazio affine, restringendo il dominio dellapplicazione
si ottiene lapplicazione

B : (P, Q) B B (P, Q) B

Se P B e v B esiste un unico punto Q A tale che v = (P, Q) (perch`e A


verifica la 1A della definizione di spazio affine); quindi Q B e pertanto B verifica la
propriet`a 1A che definisce uno spazio affine. Daltra parte B verifica evidentemente

anche la relazione di Chasles e pertanto la terna (B, B , B ) `e uno spazio affine.


Inoltre, il prossimo risultato mostra che un sottospazio affine passa per ciascuno dei
suoi punti ma individua univocamente la sua giacitura.
Proposizione 6.1.2 Se (A, V, ) `e uno spazio affine e se P, Q A e W, W 0 V ,
sono equivalenti:
(i) P + W = Q + W 0 ;
(ii) Q P + W e W = W 0 .
Dimostrazione (i) (ii) Poich`e Q = Q + 0 Q + W 0 , risulta Q P + W e
quindi Q = P + w con w W . Sia v W 0 , allora
Q + v = P + w + v Q + W0 = P + W
quindi w + v W . Poich`e w W segue che v W e cos` W 0 W . Analogamente
si ha che W W 0 e quindi W = W 0 .
(i) (ii) Se T A la relazione di Chasles assicura che

QT = QP + P T = P T P Q,

ma P Q W perch`e Q P + W , e quindi QT W se e solo se P T W . Pertanto

{T A | P T W } = {T A | QT W }
ovvero P + W = Q + W .

t
u

Se B `e un sottospazio dello spazio affine A e dim(B) = 0, si dice che B `e un punto

(in tal caso B = {0}), mentre se dim(B) = 1 si dice che B `e una retta (affine) e in

tal caso B si dice direzione della retta e ogni suo vettore non nullo (che lo genera) `e
detto vettore direzionale della retta. Ancora, se dim(B) = 2 si dice che B `e un piano
(affine) mentre se dim(A) = n e dim(B) = n 1 si dice che B `e un iperpiano (affine).
In generale, lintersezione di due sottospazi affini pu`o non essere un sottospazio
affine in quanto potrebbe essere vuota, sussiste per`o la seguente.

6.1 Spazi affini

101

Proposizione 6.1.3 Siano B e B0 sottospazi affini di uno stesso spazio affine A. Se

B B0 6= , allora B B0 `
e un sottospazio affine di spazio direttore B B 0 . Inoltre

se P B B0 , allora B B0 = P + ( B B 0 ).

Dimostrazione Sia P B B0 . La proposizione 6.1.2 assicura che B = P + B

e che B0 = P + B 0 , e si ha


Q B B0 P Q B e P Q B P Q B B 0 Q P + ( B B 0 ).
t
u
Due sottospazi affini B e B0 dello spazio affine A si dicono paralleli, e si scrive

BkB0 , se B `
e contenuto in B 0 oppure B 0 `e contenuto in B . Si noti che in generale
il parallelismo tra sottospazi affini `e una relazione riflessiva e simmetrica ma non in
generale transitiva; per`o risulta essere transitiva tra sottospazi di uguale dimensione

infatti se dim(B) = dim(B0 ) si ha che BkB0 se e solo se B = B 0 .


I sottospazi B e B0 di A si dicono incidenti se B B0 6= , invece si dicono sghembi
se non sono ne paralleli ne incidenti. Dati i sottospazi affini B e B0 , stabilire la loro
posizione reciproca significa stabilire se sono paralleli, incidenti o sghembi.

E di uso comune, inoltre, dire che un vettore v di A `e parallelo a B, e scrivere

vkB, quando v B ; mentre quando A `e euclideo, si usa dire anche che un vettore

non nullo v di A `e un vettore normale (o ortogonale) a B se v `e ortogonale a B ,

ovvero se v B .
Sussiste la seguente di cui si omette la dimostrazione.
Proposizione 6.1.4 Sia A uno spazio affine di dimensione n e siano B e B0 due
iperpiani non paralleli di A. Allora B B0 `e un sottospazio affine di dimensione
n 2.
Supponiamo che lo spazio affine A abbia dimensione finita n, e si fissino un punto

O di A ed un riferimento R = (e1 , . . . , en ) di V = A . La coppia R = (O, R), ovvero


la (n + 1)-upla (O, e1 , . . . , en ), si dice riferimento (affine) di A di origine O associato

a R; in tal caso, i punti U1 , . . . , Un di A unici per essere tali da aversi OUi = ei per
ogni i = 1, . . . , n, si dicono punti unitari. Talvolta le rette affini O + L[ei ] vengono
dette assi del riferimento. Inoltre, se il riferimento R `e ortogonale, il riferimento
affine R si dice ortogonale, se invece R `e ortonormale allora R si dice ortogonale e
monometrico.
Fissato il riferimento affine R = (O, R) e considerato un punto P di A, si pu`o

considerare il vettore OP e le sue componenti cR (OP ) in R dove cR `e la coordinazione


associata ad R. Ha senso quindi considerare lapplicazione

cR : P A cR (OP ) Kn .

102

Geometria analitica

Se P A il vettore numerico cR (P ) = cR (OP ) si dir`a vettore coordinato del punto


P in R, e se cR (P ) = (x1 , . . . , xn ) si scriver`a P (x1 , . . . , xn ); in particolare, si noti
che O(0, . . . , 0), U1 (0, 1, 0, . . . , 0), . . . , Un (0, . . . , 0, 1). Invece se v V , detto P A

lunico punto tale che v = OP , si scrive v = (x1 , . . . , xn ) per indicare che (x1 , . . . , xn )

sono le componenti in R del vettore v = OP , ovvero che cR (P ) = (x1 , . . . , xn ).


Se P e Q sono punti dello spazio affine A, talvolta, come gi`a detto in precedenza,

si scrive Q P per indicare il vettore P Q e il motivo `e legato alla (i) della seguente.

Proposizione 6.1.5 Fissato un riferimento R = (O, R) per lo spazio affine A di


dimensione n, si ha:
(i) Se P (x1 , . . . , xn ) e Q(y1 , . . . , yn ) sono punti, allora

P Q = (y1 x1 , . . . , yn xn ).
(ii) Se si suppone che V sia uno spazio euclideo si prodotto scalare s in cui sia
stato fissato come R un riferimento ortonormale, considerati u = (x1 , . . . , xn )
e v = (y1 , . . . , yn ) due vettori di V , si ha che
s(u, v) = x1 y1 + + xn yn = (x1 , . . . , xn ) (y1 , . . . , yn )

x1 y1 + + xn yn
p
cos u
d
,v = p 2
.
x1 + + x2n y12 + + yn2

Dimostrazione Si ha che P Q = P O + OQ = OQ OP e quindi lisomorfismo

coordinato trasforma il vettore P Q di V nel vettore numerico (y1 x1 , . . . , yn xn );


dunque Q P = (y1 x1 , . . . , yn xn ) e la (i) `e provata.
Ora, se lo spazio `e euclideo ed R `e ortonormale, essendo u = x1 e1 + + xn en e
v = y1 e1 + + yn en , la proposizione 5.1.5 assicura che
s(u, v) = (x1 , . . . , xn ) (y1 , . . . , yn ).
p
p
p
p
In particolare, |u| = s(u, u) = x21 + + x2n e |v| = s(v, v) = y12 + + x2n ,
quindi
s(u, v)
x1 y 1 + + xn y n
p
cos u
d
,v =
=p 2
|u||v|
x1 + + x2n y12 + + yn2
e cos` anche la (ii) `e provata.

t
u

Fissati due riferimenti affini R = (O, R) e R0 = (O0 , R0 ) di A, abbiamo le due


applicazioni
cR : A Kn e cR0 : A Kn .

6.2 Geometria nel piano

103

Considerata lapplicazione composta


n
n
cR0 c1
R : K K

il vettore coordinato X in R di un certo punto P di A viene trasformato nel vettore


coordinato X 0 dello stesso punto P in R0 e per questo motivo viene detta cambiamento di riferimento da R a R0 .
Sia A Mn (K) la matrice di passaggio da R a R0 . Se P `e un punto di A, indichiamo con X = (x1 , . . . , xn ) il vettore coordinato di P in R e con X 0 = (x01 , . . . , x0n )
il vettore coordinato di P in R0 . Inoltre sia B = (b1 , . . . , bn ) il vettore coordinato di

O in R0 . Le componenti di OP = P O in R0 sono quindi (x01 b1 , . . . , x0n bn ) e


cos`

x1 b1 = a11 x1 + + a1n xn
..
.

x0 b = a x + + a x
n
n1 1
nn n
n
ovvero

x1 = a11 x1 + + a1n xn + b1
..
(6.1)
.

x0 = a x + + a x + b
n1 1
nn n
n
n
Le equazioni (6.1) sono le formule di passaggio dal riferimento R al riferimento R0 .
Tali formule possono essere anche scritte in forma matriciale come X 0 = AX + B.
Concludiamo questa sezione con la seguente osservazione. Nello spazio affine A
di dimensione n, fissiamo un riferimento affine R = (O, R). Consideriamo poi un
sistema lineare compatibile AX = B su K con A matrice m n di rango n h. La
proposizione 3.8.1 e la proposizione 3.8.2 garantiscono che le soluzioni del sistema
AX = B sono tutte e sole le coordinate in R dei punti di un sottospazio affine di
A di dimensione h la cui giacitura corrisponde, attraverso lisomorfismo coordinato
cR , al sottospazio dello spazio vettoriale numerico Kn che ha per rappresentazione
cartesiana AX = 0. Viceversa, si potrebbe provare che se B `e un sottospazio affine
di dimensione h allora le coordinate dei punti di B verificano un opportuno sistema
lineare compatibile AX = B su K con (A) = n h.

6.2

Geometria nel piano

Il piano euclideo della geometria elementare costituisce il modello classico per il


piano affine euclideo reale E2 , ovvero per lo spazio affine che si ottiene quando per
insieme di punti si considera linsieme E2 dei punti del piano, come spazio vettoriale
si considera lo spazio euclideo V2 dei vettori liberi del piano e come applicazione
si considera quella che ad ogni coppia di punti del piano (P, Q) associa il vettore

libero P Q. I sottospazi affini di E2 sono i punti, che hanno dimensione 0, le rette,


che hanno dimensione 1, ed E2 stesso che ha dimensione 2. Al fine di descrivere i

104

Geometria analitica

sottospazi affini propri non banali, ovvero le rette di E2 , in seguito si riterr`a fissato
un riferimento R = (O, R) in E2 che per comodit`a assumeremo essere monometrico
e ortogonale, ovvero il riferimento vettoriale R = (e1 , e2 ) `e ortonormale.

6.2.1

Rappresentazione della retta

Una retta r di E2 `e un sottospazio di affine dimensione 1, sicch`e la sua direttrice

r `e un sottospazio vettoriale di dimensione 1 dello spazio dei vettori liberi del

piano. Un qualunque vettore non nullo v di


r genera quindi
r e si dice vettore
direzionale di r; inoltre se `e v = (l, m), i numeri reali l ed m sono detti numeri
direttori, oppure parametri direttori, di r; evidentemente i numeri direttori di una
retta sono non contemporaneamente nulli ed inoltre sono definiti a meno di un
fattore di proporzionalit`a non nullo come assicura la proposizione 2.1.2. Dunque
fissato arbitrariamente un punto P0 r si ha

r = P0 +
r = {P E2 | P0 P
r}

e quindi, fissato un vettore direzionale v di r, si ha che


r = L[v] e si pu`o anche
scrivere

r = P0 + L[v] = {P E2 | {P0 P , v} `e legato}


nonche

r = {P E2 | t R : P0 P = tv}.

Osserviamo esplicitamente che il concetto di retta affine corrisponde al concetto


di retta della geometria elementare. Infatti unassioma della geometria elementare
garantisce che una retta r `e individuata univocamente da due suoi punti (distinti)

P0 e P1 : tale retta coincide con la retta affine r = P0 + L[P0 P1 ].


Una retta r di E2 `e quindi univocamente individuata da un suo punto P0 (x0 , y0 )
e da un suo vettore direzionale v = (l, m). Essendo in tal caso r = P0 + L[v], un
punto P (x, y) appartiene a r se e solo se P P0 L[v]; pertanto P r se e solo se
esiste un numero reale t tale che
P P0 = tv.
Passando alle coordinate, tale relazione vettoriale equivale alle equazioni

x = x0 + l t
y = y0 + m t

(6.2)

che al variare di t in R forniscono le coordinate di tutti i punti della retta r per


P0 (x0 , y0 ) e di vettore direzionale v = (l, m). Le (6.2) sono dette equazioni prarametriche della retta r.

6.2 Geometria nel piano

105

Se P1 (x1 , y1 ) `e un altro punto della retta r distinto da P0 , allora anche il vettore


P1 P0 = (x1 x0 , y1 y0 ) `e un vettore direzionale per r e quindi le equazioni
parametriche della retta r passante per P0 e P1 sono date da

x = x0 + (x1 x0 )t
(6.3)
y = y0 + (y1 y0 )t
Si osservi che un punto P (x, y) `e sulla retta per P0 (x0 , y0 ) di vettore direzionale
v = (l, m) se e solo se P P0 L[v] e quindi se e solo se




l
m
l
m

=1

det
=0
x x0 y y 0
x x0 y y 0
ovvero
m(x x0 ) l(y y0 ) = 0

(6.4)

la quale, posto a = m, b = l e c = ly0 mx0 , si scrive nella forma


ax + by + c = 0

(6.5)

La (6.5) si dice equazione cartesiana della retta r e si scrive r : ax + by + c = 0. Si


osservi esplicitamente che qui a e b non possono essere entrambi nulli essendo v un
vettore non nullo.
Proposizione 6.2.1 Siano a, b e c numeri reali con a e b non entrambi nulli. Allora
lequazione ax+by +c = 0 rappresenta una retta r di vettore direzionale v = (b, a).
Inoltre, il vettore n = (a, b) `e normale alla retta, mentre un vettore u = (l, m) `e
parallelo alla retta se e solo se al + bm = 0.
Dimostrazione Se a 6= 0 allora la retta per P ( ac , 0) di vettore direzionale
v = (b, a) ha, per la (6.4), equazione del tipo a(x + ac ) + b(y 0) = 0 ovvero ha
per equazione ax + by + c = 0. Analogamente se b 6= 0, lequazione ax + by + c = 0
rappresenta la retta per Q(0, cb ) di vettore direzionale v = (b, a). Inoltre, essendo
v n = ab + ab = 0, il vettore n `e ortogonale alla retta r. Infine, il vettore
u = (l, m) `e parallelo alla retta r se e solo se u e v sono paralleli e quindi, per
la proposizione 2.1.2, se e solo se u e v sono dipendenti ma, passando attraverso
2
lisomorfismo coordinato cR , questo
significa

 che i vettori (l, m) e (b, a) di R sono
l m
dipendenti e quindi la matrice
`e singolare. Pertanto, u `e parallelo ad r
b a
se e solo se al + bm = 0.
t
u
Considerata la retta r : ax + by + c = 0 di vettore direzionale v = (b, a),

lo spazio direttore di tale retta `e


r = L[v] e corrisponde, attraverso lisomorfismo
2
coordinato, al sottospazio di R generato da (b, a) il quale, evidentemente, ha come
rappresentazione cartesiana lequazione ax + by = 0.

106

Geometria analitica

Esempi
1) Scrivere lequazione della retta r passante per il punto (2, 1) e di vettore direzionale (4, 3).
In forma parametrica, la retta r `e rappresentata dalle equazioni

x = 2 + 4 t
y = 1 + 3t
con t R. La forma cartesiana si ottiene dalla relazione 3(x + 2) 4(y 1) = 0.
Sviluppando i calcoli si ottiene che lequazione cartesiana `e 3x 4y + 10 = 0. Si
osservi che tale equazione si pu`o anche pervenire dalla relazione


x+2 y1

=0
4
3
2) Scrivere lequazione della retta r passante per i punti P (1, 2) e Q(0, 2).
Il vettore direzionale di r `e il vettore P Q = (1, 4) sicch`e in forma parametrica
otteniamo

x=1+t
y = 2 4 t
mentre in forma cartesiana otteniamo 4x 1(y 2) = 0 ovvero 4x + y 2 = 0.

6.2.2

Posizione reciproca e ortogonalit`


a tra rette

Due rette affini sono parallele se hanno lo stesso spazio direttore e quindi considerate
le rette r, di vettore direzionale v = (l, m), ed r0 , di vettore direzionale v0 = (l0 , m0 ),
si ha che r ed r0 sono parallele se e solo se L[v] = L[v0 ], ovvero se e solo se v e
v0 sono proporzionali e quindi paralleli per la proposizione 2.1.2. Pertanto r ed r0
sono parallele se e solo se attraverso lisomorfismo coordinato cR risulta che (l, m)
ed (l0 , m0 ) sono proporzionali.
Le rette r ed r0 si dicono ortogonali, e si scrive r r0 , se tali sono i loro vettori
direzionali v e v0 , ossia se e solo se v v0 = 0. Pertanto la proposizione 6.1.5 assicura
che r ed r0 sono ortogonali se e solo se ll0 + mm0 = 0. Si noti che se r ed r0 sono
ortogonali allora v v0 = 0 e quindi, essendo v e v0 non nulli, v e v0 sono non
proporzionali. Dunque rette ortogonali non possono essere parallele.
Proposizione 6.2.2 Siano r : ax + by + c = 0 ed r0 : a0 x + b0 y 0 + c = 0 due rette
del piano affine euclideo E2 . Allora
(i) r ed r0 sono parallele se e solo se (a, b) e (a0 , b0 ) sono proporzionali.

6.2 Geometria nel piano

107

(ii) r ed r0 coincidono se e solo se (a, b, c) e (a0 , b0 , c0 ) sono proporzionali.


(iii) r ed r0 sono ortogonali se e solo se aa0 + bb0 = 0.
Dimostrazione Le rette r e r0 sono parallele se e solo se i vettori direzionali
v = (b, a) e v0 = (b0 , a0 ) sono proporzionali e quindi se e solo so (a, b) e (a0 , b0 )
sono proporzionali allora le rette sono parallele. Evidentemente poi se (a, b, c) e
(a0 , b0 , c0 ) sono proporzionali, allora le equazioni ax + by + c = 0 ed a0 x + b0 y 0 + c = 0
hanno le stesse soluzioni e quindi le rette r ed r0 coincidono. Infine, r ed r0 ortogonali
se e solo se il prodotto scalare tra i loro vettori direzionali `e nullo e quindi, per la
proposizione 6.1.5, se e solo se aa0 + bb0 = 0.
t
u
Se le rette r : ax + by + c = 0 ed r0 : a0 x + b0 y 0 + c = 0 non sono parallele si ha
0 0
quindi
che (a,
b) e (a , b ) sono non proporzionali, cos` la proposizione 3.5.4 assicura
a b
che 0 0 6= 0 e pertanto il sistema lineare
a b

ax + by + c = 0
a0 x + b 0 y + c 0 = 0
`e un sistema di Cramer e la sua unica soluzione rappresenta la coppia di coordinate
di un punto comune a r ed r0 , in particolare, quindi, r ed r0 sono incidenti in un punto
(si confronti anche con la proposizione 6.1.4). Resta pertanto provata la seguente:
Proposizione 6.2.3 Due rette affini di E2 sono parallele oppure incidenti in un
punto. In particolare, in E2 non esistono rette sghembe.
In particolare, rette ortogonali del piano sono sempre incidenti in un punto.

Esempi
1) Scrivere lequazione cartesiana della retta r per P0 (2, 3) parallela alla retta
s : 5x 2y + 3 = 0.
Il vettore direzionale di s `e v = (2, 5), sicch`e r : 5(x 2) 2(y + 3) = 0 ovvero
r : 5x 2y 16 = 0.
2) Scrivere lequazione cartesiana della retta r per P0 (2, 3) e ortogonale al vettore
v = (2, 5).
Se P `e il generico punto di r, allora P P0 deve essere un vettore ortogonale a v,
pertanto r `e linsieme dei punti P (x, y) tali che (P P0 ) v = 0. Cos` lequazione di
r `e data da 0 = (x 2, y + 3) (2, 5) = 2(x 2) + 5(y + 3) ovvero `e 2x + 5y + 11 = 0.
3) Dato il punto P0 (2, 3) e la retta r : 2x + 5y + 1 = 0, scrivere lequazione della
retta s per P0 parallela ad r e della retta t per P0 ortogonale ad r.

108

Geometria analitica

La condizione di parallelismo assicura che s ha equazione del tipo 2x + 5y + h = 0


per un opportuno h R. Dovendo essere P0 s `e 4+15+h = 0 e quindi h = 11,
cos` s : 2x + 5y 11 = 0. Invece, la condizione di perpendicolarit`a assicura che la
retta t ha equazione del tipo 5x 2y + k = 0 per un opportuno k R. Anche qui,
essendo P0 t ricaviamo che 10 6 + k = 0. Cos` k = 16 e t : 5x 2y + 16 = 0.

6.2.3

Fasci di rette nel piano

Si dice fascio di rette linsieme delle rette passanti per un punto C del piano detto
centro, e in tal caso si parla di fascio proprio, oppure linsieme delle rette parallele
ad una retta fissata, e in tal caso si parla di fascio improprio.
Se r : ax + by + c = 0 `e una retta del piano, `e chiaro che le rette ad essa parallela
sono descritte dallequazione ax + by + k = 0 al variare di k in R.
Invece, se C(x0 , y0 ) `e un punto del piano, il fascio di rette di centro C `e costituito
da quelle rette di equazione ax + by + c = 0 tali che ax0 + by0 + c = 0, quindi `e
costituito da rette che hanno equazione del tipo ax + by ax0 by0 = 0 dove a e b
sono numeri reali non entrambi nulli.
Un fascio di rette pu`o essere anche descritto da due sue rette, si potrebbe infatti
provare il seguente:
Teorema 6.2.4 Siano r : ax + by + c = 0 e r0 : a0 x + b0 y + c0 = 0 due rette distinte
di un fascio F. Allora tutte e solo le rette di F hanno equazione
(ax + by + c) + (a0 x + b0 y + c0 ) = 0

(6.6)

dove e sono numeri reali non entrambi nulli.

Esempi
1) Scrivere lequazione della retta per il punto A(3, 1) appartenente al fascio individuato dalle rette r : x + 2y 4 = 0 ed

x = 1 + 2t
s:
y =3+t
Scriviamo dapprima s in forma cartesiana s : x 2y + 5 = 0, cos` da ottenere che
la generica retta del fascio ha equazione del tipo
(x + 2y 4) + (x 2y + 5) = 0
Imponendo lappartenenza di A ricaviamo +6 = 0, una cui soluzione `e ad esempio
= 6 e = 1. Pertanto la retta del fascio cercata `e la retta 5x + 14y 29 = 0.

6.2 Geometria nel piano

109

2) Scrivere lequazione del fascio improprio delle rette parallele alla retta di equazione
x + 2y 4 = 0.
In tal caso la generica retta del fascio, dovendo avere vettore direzionale (2, 1),
ha equazione del tipo x + 2y + c = 0 al variare di c in R.

6.2.4

Distanze nel piano

Considerati due punti P1 (x1 , y1 ) e P2 (x2 , y2 ), la loro distanza d(P1 , P2 ) `e il modulo


del vettore P2 P1 = (x2 x1 , y2 y1 ), quindi segue dalla propoposizione 6.1.5 che:
p
d(P1 , P2 ) = |P2 P1 | = (x2 x1 )2 + (y2 y1 )2 .
Consideriamo ora un punto P (x0 , y0 ) e la retta di equazione r : ax + by + c = 0.
Si dice distanza di P da r il numero
d(P, r) = min{d(P, Q) | Q r}.
Vediamo come si pu`o calcolare la distanza di P da r. Un vettore normale ad r `e il
vettore n = (a, b), e la retta per P di vettore direzionale n `e la retta r0 di equazione
b(x x0 ) a(y y0 ) = 0, ovvero r0 : bx ay bx0 + ay0 = 0. Intersecando questa
retta con la retta r, ovvero considerando il sistema

ax + by + c = 0
bx ay + bx0 + ay0 = 0
si trova il punto intersezione H tra r ed r0 (detto piede della perpendicolare), e si ha
che d(P, r) = d(P, H). Risolvendo si ottiene che il punto di intersezione `e
H

 b2 x aby ac a2 y abx bc 
0
0
0
0
,
a2 + b 2
a2 + b 2

Calcolando ora la distanza di H dal punto P , si ottiene:


r
b2 x0 aby0 ac 2 
a2 y0 abx0 bc 2
x0
+ y0
=
a2 + b 2
a2 + b 2
r
a2 x0 + aby0 + ac 2  b2 y0 + abx0 + bc 2
=
+
=
a2 + b 2
a2 + b 2
s
a2
b2
2+
=
(ax
+
by
+
c)
(by0 + ax0 + c)2 =
0
0
(a2 + b2 )2
(a2 + b2 )2
s
a2 + b 2
=
(ax0 + by0 + c)2
(a2 + b2 )2

110

Geometria analitica

In definitiva, la distanza del punto P dalla retta r `e data da


d(P, r) =

|ax0 + by0 + c|

.
a2 + b 2

Infine, date due rette r ed r0 del piano, si definisce distanza tra r ed r0 il pi`
u
piccolo tra i valori d(P, Q) al variare di P r e di Q r0 .
d(r, r0 ) = min{d(P, Q) | P r e Q r0 }.
Evidentemente, d(r, r0 ) = 0 se r ed r0 sono incidenti, altrimenti d(r, r0 ) = d(P, r0 )
per ogni P r.

6.3

Geometria nello spazio

Lo spazio euclideo della geometria elementare costituisce il modello classico per lo


spazio affine euclideo reale E3 , ovvero per lo spazio affine che si ottiene quando
per insieme di punti si considera linsieme E3 dei punti dello spazio, come spazio
vettoriale si considera lo spazio euclideo V3 dei vettori liberi dello spazio e come
applicazione si considera quella che ad ogni coppia di punti del piano (P, Q) associa

il vettore libero P Q. I sottospazi affini di E3 sono i punti, che hanno dimensione 0,


le rette, che hanno dimensione 1, i piani, che hanno dimensione 2, ed E2 stesso che
ha dimensione 2. Al fine di descrivere i sottospazi affini propri non banali, ovvero le
rette e i piani di E3 , in seguito si riterr`a fissato un riferimento R = (O, R) in E3 che
per comodit`a assumeremo essere monometrico e ortogonale, ovvero il riferimento
vettoriale R = (e1 , e2 , e3 ) `e ortonormale.
Prima di descrivere i sottospazi di E3 `e necessario introdurre una nuova operazione
in V3 . Se u = (x1 , y1 , z1 ) e v = (x2 , y2 , z2 ) sono due vettori liberi dello spazio V3 , si
pone


e1 e2 e3


u v = (y1 z2 y2 z1 )e1 (x1 z2 x2 z1 )e2 + (x1 y2 + x2 y1 )e3 = x1 y1 z1
x2 y2 z2
Il vettore libero u v si dice essere il prodotto vettoriale dei vettori liberi u e v.
Alcune propriet`a del prodotto vettoriale sono racchiuse nella seguente:
Proposizione 6.3.1 Se u, v e w sono vettori dello spazio V3 e R, allora:
(i) u v = v u;
(ii) u (v + w) = u v + u w;

6.3 Geometria nello spazio

111

(iii) (u + v) w = (u w) + (v w);
(iv) (u v) = (u) v = u (v);
(v) Se ukv allora u v = 0. In particolare, 0 u = u 0 = 0.
(vi) (u v) u = 0 = (u v) v.

Si potrebbe provare che se u e v sono non paralleli, u v `e lunico vettore libero


avente:
dv);
(a) modulo uguale a |u||v|sen (u,
(b) direzione ortogonale sia ad u che a v;


x1 x2 x3


(c) verso tale che, se u v = (x3 , y3 , z3 ), risulti y1 y2 y3 > 0.
z1 z2 z3
Questo vuol dire che se u e v sono non paralleli, allora il modulo di u v rappresenta larea del parallelogramma individuato dai vettori u e v quando si scelgono
come rappresentanti per essi due segmenti orientati con stesso punto di applicazione
dv). Si osservi
infatti, in tal caso, il parallelogramma ha base |u| e altezza |v|sen (u,
inoltre che, sempre nel caso in cui u e v sono non paralleli, la condizione b) assicura
che R0 = (u, v, u v) `e un riferimento dello spazio V3 (cfr. proposizione ??) e
considerata la matrice (invertibile) P di passaggio da R0 a R

x1 x2 x3
P = y1 y2 y3 ,
z1 z2 z3
la condizione c) assicura che det(P ) > 0: questa condizione si esprime anche dicendo
che R0 ha lo stesso orientamento di R. Nella pratica, per stabilire il verso del vettore
u v si sa la regola della mando destra: si tiene la mano piatta e posizionata in
modo che le dita (indice, medio, anulare e mignolo) siano allineate con il vettore u;
queste, poi, vengono ruotate verso il vettore v e cos` il pollice indicher`a il verso di
u v.
Si osservi infine che e1 e2 `e un vettore libero di modulo 1 e direzione ortogonale
sia ad e1 che e2 , sicch`e essendo un vettore libero univocamente determinato dal
suo modulo, dalla sua direzione e dal suo verso (ed essendo det(I3 ) = 1) si ha che
e1 e2 = e3 . Analogamente risulta e2 e3 = e1 e e3 e2 = e1 .

112

6.3.1

Geometria analitica

Rappresentazione del piano

Un piano di E3 `e un sottospazio affine di dimensione 2, sicch`e lo spazio direttore

`e un sottospazio vettoriale di dimensione 2 dello spazio vettoriale euclideo V3 .


Fissato un punto P0 si ha che

= P0 +
= {P E3 | P0 P
}
e quindi, considerati due vettori non nulli v = (l, m, n) e v0 = (l0 , m0 , n0 ) entrambi
paralleli al piano ma non paralleli tra di loro, la proposizione 2.1.2 ed il lemma 2.1.3

garantiscono che
= L[v, v0 ]. Cos` si ha

= P0 + L[v, v0 ] = {P E3 | {P0 P , v, v0 } `e legato}


nonche

= {P E3 | s, t R : P0 P = sv + tv0 }.

Osserviamo esplicitamente che il concetto di piano affine corrisponde al concetto


di piano della geometria elementare. Infatti, unassioma della geometria elementare
garantisce che un piano `e individutato univocamente da tre suoi punti non allineati

P0 , P1 e P2 : evidentemente tale piano `e il piano affine = P0 + L[P0 P1 , P0 P2 ].
Un piano di E3 `e quindi univocamente individuato da un suo punto P0 (x0 , y0 , z0 )
e da due vettori non nulli v = (l, m, n) e v0 = (l0 , m0 , n0 ) entrambi paralleli al piano
ma non paralleli tra di loro. Essendo in tal caso = P0 +L[v, v0 ], un punto P (x, y, z)
appartiene a se e solo se P P0 L[v, v0 ]; pertanto P se e solo se esistono
due numeri reali s e t tali che
P P0 = sv + tv0 .
Passando alle coordinate, tale relazione vettoriale equivale alle equazioni

x = x0 + ls + l0 t
y = y0 + ms + m0 t

z = z0 + ns + n0 t

(6.7)

che al variare di s e t in R forniscono le coordinate di tutti i punti del piano


passante per P0 (x0 , y0 , z0 ) e parallelo ai vettori v = (l, m, n) e v0 = (l0 , m0 , n0 ) (non
nulli e non paralleli tra di loro). Le (6.7) si dicono equazioni parametriche del piano
. Si osservi che i vettori v e v0 sono paralleli al piano e quindi un vettore normale
a `e v v0 .
Poich`e dire che P `e un punto di significa dire che P P0 dipende dai vettori v
e v0 , la proposizione 3.5.4 assicura che il punto P (x, y, z) appartiene a se e solo se


x x0 y y0 z z0



= 0;
l
m
n


0
0
0


l
m
n

6.3 Geometria nello spazio

113

sviluppando questo determinante secondo la prima riga si ottiene


a(x x0 ) + b(y y0 ) + c(z z0 ) = 0

(6.8)

dove
a = mn0 m0 n,

b = l0 n ln0 ,

c = lm0 l0 m

sono non tutti nulli altrimenti (l, m, n) e (l0 , m0 , n0 ) sarebbero proporzionali e quindi
i vettori v = (l, m, n) e v0 = (l0 , m0 , n0 ) sarebbero paralleli per la proposizione 2.1.2.
Posto d = ax0 by0 cz0 nella (6.8), si ottiene
ax + by + cz + d = 0.

(6.9)

La (6.9) si dice equazione cartesiana del piano , e si scrive : ax + by + cz = 0. Si


noti che, essendo v e v0 vettori non nulli, allequazione cartesiana si poteva pervenire
anche ricavando da una delle equazioni (6.7) la s, da unaltra la t e sostituendo poi
nella equazione restante.
Proposizione 6.3.2 Siano a, b, c e d numeri reali con a, b e c non tutti nulli.
Lequazione lineare ax + by + cz + d = 0 `e lequazione di un piano parallelo ai
vettori v = (b, a, 0), v0 = (c, 0, a) e v00 = (0, c, b). Inoltre, il vettore n = (a, b, c)
`e un vettore normale a , mentre un vettore u = (l, m, n) `e parallelo a se e solo
se al + bm + cn = 0.
Dimostrazione Supponiamo sia a 6= 0, analogo `e il procedimento se `e b 6= 0
oppure c 6= 0. Se P0 (x0 , y0 , z0 ) verifica lequazione lineare ax + by + cz + d = 0 (si
noti che un tale punto esiste sempre, ad esempio si pu`o scegliere P0 ( ad , 0, 0)), allora
d = ax0 by0 cz0 e lequazione si pu`o scrivere come
a(x x0 ) + b(y y0 ) + c(z z0 ) = 0

(6.10)

ed `e semplice verificare che tale equazione rappresenta il piano per P0 parallelo ai


vettori v = (b, a, 0) e v0 = (c, 0, a).
Ora, se u `e un vettore parallelo a , allora esister`a un punto P (x, y, z) di tale
che u = P P0 = (x x0 , y y0 , z z0 ). Sicch`e la (6.10) assicura che il prodotto
scalare tra n = (a, b, c) e u `e nullo, cos` questi due vettori sono ortogonali e pertanto
n `e ortogonale a .
Infine, un vettore u = (l, m, n) `e parallelo a se e solo se il punto di coordinate
(x0 + l, y0 + m, z0 + n) appartiene a e quindi se e solo se
a(x0 + l) + b(y0 + m) + c(z0 + n) + d = 0
e ricordando che P0 si ottiene quindi che al + bm + cn = 0.

t
u

Dato un piano rappresentato in forma cartesiana come : ax + by + cz + d = 0,


e supposto ad esempio a 6= 0, la precedente proposizione assicura che lo spazio

114

Geometria analitica

direttore
ha per base i vettori v = (b, a, 0) e v0 = (c, 0, a) e quindi esso
corrisponde, attraverso lisomorfismo coordinato, al sottospazio di R3 la cui base `e
formata dai vettori (b, a, 0) e (c, 0, a); `e semplice verificare che la rappresentazione
cartesiana di tale sottospazio `e lequazione ax+by+cz = 0. Si noti inoltre che avendo

V3 dimensione 3 e
dimensione 2, il teorema 5.1.7 assicura che
ha dimensione

1, dunque = L[n], dove n = (a, b, c). Pertanto ogni vettore ortogonale a `e


proporzionale a n, e si dice che n `e il vettore normale del piano .

Esempi
1) Scrivere lequazione del piano passante per il punto P0 (4, 3, 2) e parallelo ai
vettori v = (1, 1, 0) e v0 = (2, 1, 3).
La rappresentazione parametrica di si ottiene subito ed `e

x = 4 + s + 2t
y =3s+t
:

z = 2 + 3t
mentre la rappresentazione cartesiana si ottiene facilmente da


x4 y3 z+2


1
=0
1
0


2
1
3
ed `e x + y z 9 = 0.
2) Scrivere lequazione del piano per i punti A(1, 0, 1), B(2, 0, 0) e C(2, 1, 3).
Chiaramente, `e il piano per A parallelo al vettore B A = (1, 0, 1) ed al
vettore C A = (1, 1, 2), quindi `e il piano di equazioni parametriche

x=1+s+t
y=t
:

z = 1 s + 2t
Mentre da



x1 y z1


1
0 1 = 0

1
1
2

si ricava che lequazione cartesiana di `e x 3y + z 2 = 0.

6.3.2

Posizione reciproca e ortogonalit`


a tra piani

Due piani affini e 0 sono paralleli quando i loro spazi direttori coincidono
= 0 .
Siano : ax + by + cz + d = 0, 0 : a0 x + b0 y + c0 z + d0 = 0, n = (a, b, c) il vettore

6.3 Geometria nello spazio

115

normale di e n0 = (a0 , b0 , c0 ) il vettore normale di 0 . Si ha che e 0 sono paralleli


se e solo se le equazioni ax + by + cz = 0 e a0 x + b0 y + c0 z = 0 rappresentano lo stesso
sottospazio, ovvero sono proporzionali. Quindi k 0 se e solo se (a, b, c) e (a0 , b0 , c0 )
sono proporzionali, ovvero se e solo se nkn0 . Osserviamo inoltre che (a, b, c, d) e
(a0 , b0 , c0 , d0 ) sono proporzionali se e solo se le equazioni ax + by + cz + d = 0 e
a0 x + b0 y + c0 z + d0 = 0 sono proporzionali e quindi se e solo se = 0 . Due piani
coincidenti si dicono impropriamente paralleli, se invece i piani sono paralleli ma
(a, b, c, d) e (a0 , b0 , c0 , d0 ) non sono proporzionali allora il sistema

ax + by + cz + d = 0
(6.11)
a0 x + b0 y + c0 z + d0 = 0
`e incompatibile per il teorema di Rouche Capelli, quindi 0 = e in tal caso i
piani si dicono propriamente paralleli.
Se invece e 0 non sono paralleli allora la loro intersezione 0 `e una retta.
Infatti, se e 0 sono non paralleli, il sistema (6.11) `e compatibile e la proposizione 3.8.1 assicura che il sistema omogeneo ad esso associato corrisponde, attraverso lisomorfismo coordinato, ad un sottospazio vettoriale W di V3 di dimensione 1. Considerata una soluzione (x0 , y0 , z0 ) di (6.11) e considerato P0 il punto
di E3 di coordinate (x0 , y0 , z0 ), la proposizione 3.8.2 garantisce che le soluzioni del
sistema (6.11) sono le coordinate dei punti del sottospazio affine r = P0 + W . Evidentemente r `e una retta affine ed `e lintersezione dei piani e 0 . Dunque due piani
nello spazio sono paralleli oppure sono incidenti in una retta (si confronti anche con
la proposizione 6.1.4). Resta provata quindi la seguente:
Proposizione 6.3.3 Due piani affini di E3 sono paralleli oppure incidenti in una
retta.
Due piani affini e 0 si dicono ortogonali, e si scrive 0 , se e solo se detto n
un vettore normale a e n0 un vettore normale a 0 si ha che n e n0 sono ortogonali.
Poich`e la proposizione 6.3.2 assicura che un vettore normale a `e n = (a, b, c) e che
un vettore normale a 0 `e n0 = (a0 , b0 , c0 ), dalla proposizione 6.1.5 segue che 0
se e solo se aa0 + bb0 + cc0 = 0. Si noti che se e 0 sono ortogonali allora n n0 = 0
e quindi, essendo n e n0 vettori non nulli, n e n0 non possono essere proporzionali.
Dunque piani ortogonali non possono essere paralleli, sono quindi incidenti e la loro
intersezione una retta.
In definitiva, possiamo sintetizzare quanto detto nella seguente.
Proposizione 6.3.4 Considerati il piano : ax + by + cz + d = 0 ed il piano
0 : a0 x + b0 y + c0 z + d0 = 0 nello spazio affine euclideo E3 , si ha che:
(i) e 0 sono paralleli se e solo se (a, b, c) e (a0 , b0 , c0 ) sono proporzionali.
(ii) e 0 coincidono se e solo se (a, b, c, d) e (a0 , b0 , c0 , d0 ) sono proporzionali.
(iii) e 0 sono ortogonali se e solo se aa0 + bb0 + cc0 = 0.

116

Geometria analitica

Esempi
1) Considerati tre piani nello spazio : x 4y + 3z + 6 = 0, 0 : x + y + z 2 = 0 e
00 : 2x 8y + 6z = 0 si ha che i vettori ortogonali a , 0 e 00 sono n = (1, 4, 3),
n0 = (1, 1, 1) e n00 = (2, 8, 6), rispettivamente. Essendo n n0 = 0 si ha che e 0
sono ortogonali, mentre essendo n00 = 2n i piani e 00 sono paralleli, sicch`e 0 e 00
sono ortogonali. Inoltre essendo (1, 4, 3, 6) e (2, 8, 6, 0) non proporzionali, i piani
e 00 non sono coincidenti.
2) Considerato il piano : 2x + 3y 5z + 1 = 0 si rappresenti il piano per A(4, 2, 4)
parallelo a e due piani per lorigine ortogonali a .
Ogni piano parallelo a ha equazione del tipo 2x + 3y 5z + d = 0 con d R.
Imponendo che A appartenga ad uno di questi piani si ottiene d = 8 6 + 20 = 6
e quindi il piano per A parallelo a ha equazione 2x + 3y 5z + 6 = 0.
Ora, un piano per lorigine ha equazione del tipo ax+by +cz = 0 e un tale piano `e
ortogonale a se e solo se 0 = (a, b, c) (2, 3, 5) = 2a + 3b 5c. Scelte due soluzioni
non nulle di questa equazione, ad esempio, (5, 0, 2) e (1, 1, 1) possiamo concludere
che due piani per lorigine e ortogonali a sono 5x + 2z = 0 e x + y + z = 0.

6.3.3

Rappresentazione della retta

Una retta r di E3 `e un sottospazio affine di dimensione 1, sicch`e la sua direttrice


r
`e un sottospazio vettoriale di dimensione 1 dello spazio vettoriale euclideo V3 . Un

qualunque vettore non nullo v di


r `e quindi un generatore per
r e si dice vettore
direzionale di r; inoltre se `e v = (l, m, n), i numeri reali l, m ed n sono detti numeri
direttori, oppure parametri direttori, di r; evidentemente i numeri direttori sono non
tutti nulli ed inoltre la proposizione 2.1.2 assicura che essi sono definiti a meno di
un fattore di proporzionalit`a non nullo. Dunque fissato arbitrariamente un punto
P0 r e un vettore direzionale v di r si ha che

r = P0 +
r = {P E3 | P0 P
r}

ed essendo
r = L[v], anche

r = P0 + L[v] = {P E3 | {P0 P , v} `e legato}


ovvero

r = {P E3 | t R : P0 P = tv}.
Evidentemente anche qui ritroviamo il concetto di retta della geometria elementare:

due punti P0 e P1 individuano in modo univoco la retta affine r = P0 + L[P0 P1 ].


Una retta r di E3 si pu`o quindi descrivere completamente a partire da un suo
punto P0 (x0 , y0 , z0 ) e da un suo vettore direzionale v = (l, m, n): un punto P (x, y, z)

6.3 Geometria nello spazio

117

appartiene a r = P0 + L[v] se e solo se P P0 L[v] e quindi se e solo se esiste un


numero reale t tale che
P P0 = tv.
Passando alle coordinate si ottengono le equazioni

x = x0 + l t
y = y0 + m t

z = z0 + n t

(6.12)

che, al variare di t in R, forniscono le coordinate di tutti i punti della retta r per


P0 (x0 , y0 , z0 ) e di vettore direzionale v = (l, m, n). Le (6.12) sono dette equazioni
prarametriche della retta r.
Se P1 (x1 , y1 , z1 ) `e un altro punto della retta r distinto da P0 , allora anche il
vettore P1 P0 = (x1 x0 , y1 y0 , z1 z0 ) `e un vettore direzionale per r e quindi
le equazioni parametriche della retta r passante per P0 e P1 sono date da

x = x0 + (x1 x0 )t
y = y0 + (y1 y0 )t
(6.13)

z = z0 + (z1 z0 )t
Si osservi che un punto P (x, y, z) `e sulla retta per P0 (x0 , y0 , z0 ) di vettore direzionale v = (l, m, n) se e solo se P P0 L[v] e quindi se e solo se


l
m
n

=1
x x0 y y0 z z0
Poich`e v `e un vettore non nullo, supposto ad esempio l 6= 0, il teorema degli Orlati 3.5.6 assicura che gli orlati del minore (l) devono essere singolari e quindi che








l
m
l
n

=0=

x x0 y y 0
x x0 z z0
da cui si ricava che una rappresentazione della retta `e

mx + ly + (mx0 ly0 ) = 0
r:
nx + lz + (nx0 lz0 ) = 0

(6.14)

Ciascuna di questa equazione corrisponde allequazione di un piano, inoltre, essendo


l 6= 0, i vettori (m, l, 0) e (n, 0, l) sono non proporzionali e quindi, per la proposizione 6.3.4, le due equazioni in (6.14) sono le equazioni di due piani non paralleli.
Daltra parte considerati due piani non paralleli
: ax + by + cz + d = 0

0 : a0 x + b 0 y + x 0 z + d 0 = 0

118

Geometria analitica

la loro intersezione 0 `e sempre una retta per la proposizione 6.1.4. Evidentemente


una rappresentazione cartesiana della retta r = 0 `e

ax + by + cz + d = 0
r:
(6.15)
a0 x + b0 y + c0 z + d0 = 0
e le (6.15) si dicono appunto essere una rappresentazione cartesiana della retta r. Si
osservi che, in tal caso, cosiderati i vettori n = (a, b, c) e n0 = (a0 , b0 , c0 ) ortogonali a
e a 0 , rispettivamente, per la proposizione 6.3.2, il vettore
v = n n0 = (a, b, c) (a0 , b0 , c0 )
`e un vettore direzionale di r, infatti v n = 0 = v n0 e cos` la proposizione 6.3.2
garantisce che v `e parallelo sia a che a 0 , e quindi v deve essere parallelo anche
alla retta r.

Esempi
1) Scrivere lequazione della retta r per i punti A(3, 5, 1) e B(2, 1, 0).
Un vettore direzionale della retta r `e il vettore A B = (1, 4, 1) e quindi
parametricamente la retta `e rappresentata da

x=3+t
y = 5 + 4t
r:

z = 1 t
Per ottenere la rappresentazione cartesiana ricaviamo t da una delle equazioni e
sostituiamo nelle altre. Ricavando t dalla terza, si ha t = 1 z e cos`

x+z2=0
r:
y + 4z 1 = 0
2) Scrivere in forma parametrica la retta

x y + 2z = 2
r:
2x + 3y z = 4
E semplice accorgersi che P0 (1, 1, 1) `e un punto di r. Daltra parte un vettore
direzionale di r `e il vettore v = (1, 1, 2) (2, 3, 1) = (5, 5, 5). Quindi anche
(1, 1, 1) `e un vettore parallelo ad r e pertanto in forma parametrica si ha

x=1t
y =1+t
r:

z =1+t

6.3 Geometria nello spazio

6.3.4

119

Posizione reciproca e ortogonalit`


a tra rette

Consideriamo due rette affini

x = x0 + l t
x = x00 + l0 s
0
y = y00 + m0 s
y = y0 + m t
r:
e r :

z = z00 + n0 s
z = z0 + n t

Le rette r ed r0 sono parallele se


r =
r 0 . Considerato il vettore direzionale
v = (l, m, n) di r ed il vettore direzionale v0 = (l0 , m0 , n0 ) di r0 si ha che r e r0
sono parallele se e solo se L[v] = L[v0 ] e quindi se e solo se i vettori v e v0 sono proporzionali e quindi paralleli per la proposizione 2.1.2. Pertanto la proposizione 6.1.5
assicura che rkr0 se e solo se i vettori numerici (l, m, n) e (l0 , m0 , n0 ) sono proporzionali. Si dice poi che r e r0 sono impropriamente parallele se r = r0 , altrimenti
le due rette (parallele) si dicono propriamente parallele. Osserviamo che se r e r0
sono propriamente parallele, allora r r0 = perch`e se cos` non fosse e P r r0

si avrebbe r = P +
r = P +
r 0 = r0 . Inoltre sempre nel caso in cui r e r0 sono
propriamente parallele si ha che esiste un unico piano

x = x0 + l t + (x00 x0 )s
y = y0 + m t + (y00 y0 )s
:

z = z0 + n t + (z00 z0 )s
che le contiene; infatti, ponendo s = 0 e facendo variare t in R, le precedenti
equazioni descrivono i punti di r (e quindi r `e contenuto in ), mentre ponendo
s = 1 e facendo variare t in R, ricordando che (l0 , m0 , n0 ) `e proporzionale ad (l, m, n)
perch`e r e r0 sono parallele, si ha che le precedenti equazioni descrivono i punti di r0
(e quindi anche r0 `e contenuto in ). In definitiva, quindi, due rette affini parallele
dello spazio coincidono (e in tal caso `e evidente che esistono infiniti piani che le contengono) oppure sono complanari e disgiunte; pertanto, rette parallele dello spazio
sono complanari.
Due rette r e r0 sono incidenti se r r0 6= . Supponiamo che le rette r e r0 sono

incidenti. Se P r r0 , risulta r r0 = P + (
r
r 0 ) per la proposizione 6.1.3.

r = P +
r 0 = r0 se
Poich`e dim( r r 0 ) 1, si ha che r = r r 0 = r 0 e r = P +

0
0
0
dim( r r ) = 1, oppure r r = {P } se dim( r r ) = 0. Supponiamo che r 6= r0 .

Detto Q un punto di r distinto da P e Q0 un punto di r0 distinto da P , i vettori P Q

e P Q0 sono non paralleli (altrimenti rkr0 e quindi r = r0 oppure r r0 = ) e quindi



le rette r ed r0 appartengono ad un unico piano = P + L[P Q, P Q0 ]. Pertanto rette
incidenti sono complanari.
Poiche rette di uno stesso piano affine sono incidenti o parallele, possiamo concludere che due rette sono complanari se e solo se sono parallele oppure incidenti.
Ricordando che due rette affini r e r0 sono sghembe se non sono n`e parallele e n`e
incidenti, si ha che r ed r0 sono sghembe se e solo se r ed r0 non giacciono in uno
stesso piano affine. In definitiva si ha:

120

Geometria analitica

Proposizione 6.3.5 Siano r ed r0 due rette di E3 , allora


(i) r ed r0 sono sghembe se e solo se sono non complanari.
(ii) r ed r0 sono complanari se e solo se sono parallele oppure incidenti.
Infine, due rette r ed r0 si dicono ortogonali se i vettori v e v0 sono ortogonali,
e quindi se e solo se v v0 = 0 e quindi se e solo se ll0 + mm0 + nn0 = 0 (cfr.
proposizione 6.1.5). Si noti esplicitamente che, a differenza di quanto accade nel
piano, due rette ortogonali nello spazio possono essere anche non incidenti, come ad
esempio sono le seguenti due rette

x=1
x=2
y=t
y=0
r:
e
r0 :

z=0
z=s

Esempi
1) Consideriamo le rette


x=2+t
x+y2=0
0
y = t
r:
r :
xyz1=0

z = 1 + 2t

00

r :

2y + z = 0
2x z 3 = 0

Un vettore direzionale di r `e v = (1, 1, 2), mentre un vettore direzionale di r0 `e


v0 = (1, 1, 0) (1, 1, 1) = (1, 1, 2) e un vettore direzionale di r00 `e il vettore
v00 = (0, 2, 1) (2, 0, 1) = (2, 2, 4). Essendo v = v0 , le rette r ed r0 sono
parallele; inoltre, il punto A(2, 0, 1) `e un punto comune ad r ed r0 e pertanto queste
due rette sono impropriamente parallele (cio`e coincidono). Daltra parte `e anche
v = 2v00 e pertanto anche r ed r00 , e conseguentemente r0 e r00 , sono parallele.
Studiando poi il sistema

x+y2=0

xyz1=0
2y
+z =0

2x z 3 = 0
ci si accorge che le rette r e r00 sono propriamente parallele, infatti tale sistema `e
incompatibile e quindi r e r00 non hanno punti in comune.
2) Consideriamo le rette

x=2t
y = 2t
r:

z = 1 + 3t

x = 1 + 2t
0
y = 3 + t
r :

z=4

x=1t
00
y = 1 + 2t
r :

z =2+t

Allora un vettore direzionale di r `e v = (1, 2, 3), un vettore direzionale di r0 `e


v0 = (2, 1, 0) mentre un vettore parallelo a r00 `e v00 = (1, 2, 1). Essendo v v0 = 0

6.3 Geometria nello spazio

121

e v0 v00 = 0, le rette r e r0 sono ortogonali cos` come anche r0 e r00 sono ortogonali.
Invece, v v00 = 8 6= 0 e quindi r e r00 non sono ortogonali. Daltra parte v e v00
non sono proporzionali e quindi r e r00 non sono neanche parallele. Scrivendo la
rappresentazione cartesiana di r ed r00


2x + y 4 = 0
x+z3=0
00
r:
e
r :
3x + z 5 = 0
y 2z 5 = 0
`e semplice poi accorgersi che il sistema

2x + y 4 = 0

3x + z 5 = 0
x+z3=0

y 2z 5 = 0
`e incompatibile, sicch`e r r00 = e quindi r e r00 sono sghembe.
3) Assegnata la retta

r:

x+y2=0
xyz1=0

determinare la retta per A(1, 2, 3) parallela ad r. Determinare inoltre due rette


per lorigine ortogonali ad r.
Un vettore direzionale di r `e v = (1, 1, 0) (1, 1, 1) = (1, 1, 2) sicch`e la
retta per A parallela ad r ha equazioni parametriche:

x=1t
y =2+t

z = 3 2t
Ricavando t dalla prima e sostituendo nelle altre, otteniamo la sua forma cartesiana:

x+y3=0
xyz2=0
Ora, un vettore di componenti (l, m, n) `e ortogonale a v se e solo se risulta
0 = (1, 1, 2) (l, m, n) = l + m 2n. Pertanto due rette per lorigine ortogonali
a r sono

x = 2t
x = t
y=0
y = 3t

z=t
z = 2t

6.3.5

Posizione reciproca e ortogonalit`


a tra retta e piano

Una retta r ed un piano sono paralleli se


r
. In tal caso, se r = si dice
che ed r sono propriamente paralleli, mentre se r 6= si dice che ed r sono

122

Geometria analitica

impropriamente paralleli. Se r e sono impropriamente paralleli e se P r,

dalla proposizione 6.1.2 segue che la retta r = P +


r `e contenuta in = P +
.
Dunque se r e sono paralleli, allora r = oppure r . Si noti inoltre che se
v `e un vettore direzionale di r e n `e il vettore normale di , la retta r `e parallela al

piano se e solo se
r
= (
) (cfr. teorema 5.1.7) e quindi se solo se v `e

ortogonale a = L[n], ovvero se e solo se v n = 0.


Proposizione 6.3.6 Siano r una retta e un piano di E3 . Allora r e sono
paralleli se e solo se r = oppure r . In particolare, una retta e un piano
di E3 sono paralleli oppure incidenti, e in questo secondo caso la loro intersezione `e
un punto.
Dimostrazione Se r e sono paralleli, allora si `e gi`a osservato che risulta
r = oppure r . Viceversa, se r `e chiaro che r e sono paralleli. Sia
quindi r = e supponiamo, per assurdo, che r e non sono paralleli. Allora

r 6
, quindi
r
`e un sottospazio proprio di
r e pertanto, poich`e
r ha

dimensione 1, segue dalla proposizione 2.5.7 che


r
deve avere dimensione 0

e quindi
r
= {0}; in particolare ancora la proposizione 2.5.7 e la formula di

Grassmann 2.5.8 assicurano che V3 =


r
. Se A r e B , allora AB = u + v

con u
r ev
, e la proposizione 2.1.1 assicura che esistono un unico punto

C r ed un unico punto D tali che u = AC e u = BD. Allora la proposizione

6.1.1 assicura che u = DB e




AC + DB = u + v = AB = AC + CB,

cos` DB = CB (per la regolarit`a della somma in V3 ) ed ancora la proposizione 6.1.1

ci da che DC = BB = 0. Pertanto C = D r . Questa contraddizione prova
che r e sono paralleli.

Infine, se r e non sono paralleli, allora r 6 e r 6= , dunque


r

`e un sottospazio proprio di r . Cos` r = {0} e r `e un punto per la


proposizione 6.1.3.
t
u
Una retta r di vettore direzionale v ed un piano di vettore normale n si dicono

ortogonali se v `e ortogonale a e quindi, essendo


= L[n], se v e n sono paralleli.

Pertanto se r e sono ortogonali, allora r ; in particolare, r e sono incidenti


in un punto.

Esempi
1) Il piano : 2x y 3z + 5 = 0 e la retta

x+y1=0
y+z2=0

6.3 Geometria nello spazio

123

sono paralleli. Infatti, un vettore ortogonale a `e n = (2, 1, 3), mentre un vettore


direzionale della retta `e v = (1, 1, 0) (0, 1, 1) = (1, 1, 1) ed `e v n = 0. Invece,
una retta ortogonale a , deve avere vettore direzionale proporzionale al vettore n
sicch`e, ad esempio, la retta

x = 1 + 6t
y = 3t

z = 2 + 9t
`e ortogonale a .
2) Considerato il punto A(1, 1, 2) ed il piano : 2x + z 4 = 0, determinare la
retta r per A ortogonale a .
Essendo n = (2, 0, 1) ortogonale a , la retta r ha equazioni parametriche

x = 1 + 2t
y=1

z = 2 + t

6.3.6

Fasci di piani nello spazio

Si dice fascio di piani linsieme dei piani passanti per una retta r detta asse del
fascio, e in tal caso si parla di fascio proprio, oppure linsieme dei piani paralleli ad
un piano fissato, e in tal caso si parla di fascio improprio.
Se consideriamo : ax + by + cz + d = 0 e 0 : a0 x + b0 y + c0 z + d0 = 0 due piani
distinti, allora se e 0 non sono paralleli, essi individuano un fascio proprio di
asse la retta 0 , mentre se e 0 sono paralleli individuano un fascio improprio.
Infatti si potrebbe provare il seguente:
Teorema 6.3.7 Siano : ax + by + cz + d = 0 e 0 : a0 x + b0 y + c0 z + d0 = 0 due
piani distinti di un fascio F. Allora tutte e soli i piani di F hanno equazione
(ax + by + cz + d) + (a0 x + b0 y + c0 z + d0 ) = 0

(6.16)

dove e sono numeri reali non entrambi nulli.

Esempi
1) Rappresentare il piano passante per il punto A(1, 2, 2) e per la retta

x 2y + z + 1 = 0
r:
2x + y z 3 = 0
Il piano `e un piano del fascio di asse r e quindi pu`o essere rappresentato da
unequazione del tipo
(x 2y + z + 1) + (2x + y z 3) = 0.

124

Geometria analitica

Imponendo il passaggio per A si ottiene 4 = 0, cos` prendendo ad esempio


= 1 e = 4 otteniamo
: 9x + 2y 3z 11 = 0.
2) Considerata la retta

r:

x+y1=0
3x z = 0

ed il punto A(1, 2, 3) 6 r, determinare la retta s passante per A che sia ortogonale


ed incidente r.
La retta s `e contenuta nel piano per A ortogonale ad r, e anche nel piano 0
per A e per r. Un vettore direzionale di r `e v = (1, 1, 0) (3, 0, 1) = (1, 1, 3)
il piano ha equazione del tipo 1x + y 3z + d = 0. Dovendo essere A ,
deve essere d = 1 + 2 + 9 = 12 e quindi : x y + 3z 12 = 0. Invece il piano 0
appartiene al fascio di asse r, e coincide col piano 3x z = 0 perch`e questo piano
contiene ovviamente r e contiene anche A. Pertanto la retta cercata `e

x y + 3z 12 = 0
s:
3x z = 0
3) Determinare la retta r per P (1, 2, 3) complanare con

x+y3=0
s:
2x + z 2 = 0
e parallela al piano : 2x + y z + 1 = 0.
La retta r `e contenuta nel piano per P ed s e nel piano per P parallelo a , e
quindi r = . Il piano appartiene al fascio di asse s e quindi la sua equazione
`e del tipo : (x + y 3) + (2x + z 2) = 0 e dovendo passare per P `e tale da
aversi (0) + (3) = 0, sicch`e : x + y 3 = 0. Un piano parallelo a , invece, ha
equazione del tipo 2x + y z + d = 0 e imponendo il passaggio di un tale piano per
P si ricava 2 + 2 3 + d = 0, ovvero d = 1 e pertanto : 2x + y z 1 = 0. Cos`
la retta cercata `e

x+y3=0
r:
2x + y z 1 = 0

6.3.7

Comune perpendicolare a due rette

Abbiamo gi`a osservato che, differentemente da quanto accade nel piano, nello spazio
due rette possono essere ortogonali pur non essendo non incidenti. Due rette si
dicono perpendicolari se ortogonali ed incidenti. Chiaramente a due rette parallele
si possono condurre infinte rette perpendicolari ad entrambe, infatti per ogni punto

6.3 Geometria nello spazio

125

sulluna si pu`o considerare la retta per quel punto perpendicolare allaltra. Invece
nel caso di due rette non parallele, si ha che di rette pependicolari ad entrambe ne
esite solo una: tale retta si chiama comune perpendicolare.
Proposizione 6.3.8 Siano r ed r0 due rette non parallele dello spazio. Allora esiste
ununica retta p perpendicolare ad entrambe.
Dimostrazione Sia v un vettore direzionale di r e sia v0 un vettore direzionale
di r0 . Se r ed r0 sono incidenti nel punto P , allora la retta p per P di vettore
direzionale v = v v0 `e chiaramente ortogonale ed incidente ad r ed r0 ; inoltre essa
`e unica infatti ogni altra retta p0 ortogonale ed incidente ad r ed r0 `e necessariamente
parallela a p ed interseca il piano per r ed r0 in un unico punto che necessariamente
deve essere P , sicch`e p = p0 .
Supponiamo quindi che r ed r0 non siano incidenti, sicch`e r ed r0 sono sghembe.
Consideriamo per r ed r0 una rappresentazione parametrica

x = x0 + l t
x = x00 + l0 s
y = y0 + m t
y = y00 + m0 s
r:
ed
r0 :

z = z00 + n0 s
z = z0 + n t
Sia Pt (x0 +lt, y0 +mt, z0 +nt) il generico punto di r e sia Qs (x00 +l0 s, y00 +m0 s, z00 +n0 s)
il generico punto di s. La retta p(t, s) per Pt e Qs `e per costruzione incidente sia r
che r0 , inoltre essa `e ortogonale ad r ed r0 se il suo vettore direzionale

u = Pt Qs = (lt + l0 s x0 + x00 , mt m0 s y0 + y00 , nt n0 s z0 + z00 )


`e ortogonale sia a v che a v0 . Quindi p(t, s) risulter`a essere una comune perpendicolare ad r ed r0 se

uv=0
u v0 = 0
Svolgendo i prodotti scalari ci si pu`o accorgere che il precedente sistema si riscrive
come
(

(v v)t + (v v0 )s + v P0 Q0 = 0
(6.17)

(v v0 )t + (v0 v0 )s + v0 P0 Q0 = 0
Questultimo sistema lineare in t e s ha la matrice dei coefficienti che ha per determinante
(v v)(v0 v0 ) + (v v0 )2
Poich`e i vettori v e v0 sono non paralleli e quindi indipendenti per la proposizione 2.1.2,
segue quindi dalla disuguaglianza di Cauchy-Schwarz (cfr. proposizione 5.1.1) che
il sistema (6.17) `e di Cramer: sia (t0 , s0 ) la sua unica soluzione. Allora dallunicit`a
della soluzione, segue che la retta p = p(t0 , s0 ) `e lunica comune perpendicolare ad
r ed r0 .
t
u

126

Geometria analitica

Esempi
1) Le rette

x=1t
y=4
r:

z = 2 + 3t


ed

s:

4x y + 4 = 0
y + 2z + 2 = 0

sono incidenti nel punto P (0, 4, 1). La comune perpendicolare alle rette r ed s sar`a
quindi la retta per P ortogonale al piano che contiene r ed s. Considerato un
vettore direzionale v = (1, 0, 3) di r ed un vettore direzionale v0 = (1, 4, 2) di s, il
piano `e ortogonale al vettore n = (1, 0, 3) (1, 4, 2) = (12, 5, 4) e quindi la
comune perpendicolare ad r ed s `e la retta

x = 12t
y = 4 + 5t

z = 4 + t

2) Le rette

x=2t
y = 2t
r:

z = 1 + 3t

ed

x=1t
y = 1 + 2t
s:

z =2+t

risultano essere sghembe. Per determinare la comune perpendicolare possiamo procedere come segue. Un vettore ortogonale ad entrambe le rette si ottiene facendo
il prodotto vettoriale dei vettori direzionali delle rette ed `e quindi il vettore v =
(1, 2, 3) (1, 2, 1) = (4, 2, 0). La comune perpendicolare ad r ed s `e una retta
che giace sul piano per r parallelo a v e sul piano 0 per s parallelo a v. Una
rappresentazione cartesiana per r `e


2x + y 4 = 0
3x + z 5 = 0

e quindi il piano ha equazione del tipo (2x + y 4) + (3x + z 5) = 0 ovvero


(2+3)x+y +z 45 = 0. Si ha cos` che il piano `e parallelo a v se e solo se
4(2+3)2() = 0. Scegliendo = 6 e = 5 si ottiene : 3x6y +5z 1 = 0.
Analogamente si ricava 0 : x 2y + 5z 9 = 0 e quindi la comune perpendicolare
`e la retta 0 la cui forma cartesiana `e

3x 6y + 5z 1 = 0
x 2y + 5z 9 = 0

6.3 Geometria nello spazio

6.3.8

127

Distanze nello spazio

Se P1 (x1 , y1 , z1 ) e P2 (x2 , y2 , z2 ) sono due punti dello spazio, si definisce distanza tra
P1 e P2 il modulo del vettore P2 P1 = (x2 x1 , y2 y1 , z2 z1 ); pertanto segue
dalla propoposizione 6.1.5 che:
p
d(P1 , P2 ) = |P2 P1 | = (x2 x1 )2 + (y2 y1 )2 + (z2 z1 )2 .

Se poi S e T sono insiemi (non vuoti) di punti dello spazio, si dice distanza tra
S e T il numero reale positivo
d(S, T ) = min{d(P, Q) | P S e Q T }.

Distanza punto piano


Dati un punto P0 (x0 , y0 , z0 ) ed un piano : ax + by + xz + d = 0, considerando
la retta r per P0 ortogonale a e il punto di intersezione H tra r e , si ottiene che
la che la distanza di P0 da coincide con la distanza di P0 da H e si ha che
d(P0 , ) = d(P, H) =

|ax0 + by0 + cz0 + d|

.
a2 + b 2 + c 2

Un modo alternativo per ritrovare la formula della distanza di un punto da un


piano (che in realt`a si adatta facilmente anche allanalogo caso della distanza di un
punto da una retta nel piano affine euclideo E2 ) `e il seguente. Fissato un qualsiasi
punto P (x, y, z) su , la distanza di P0 da coincide col modulo della proiezione

ortogonale del vettore libero P P0 su


. Poich`e
= L[n], dove n = (a, b, c) `e il

vettore normale del piano, la proiezione ortogonale di P0 P su


`e il vettore


n
n
.
P P0
|n| |n|
Quindi



n
(a, b, c)

d(P0 , ) = P P0
= (x0 x, y0 y, z0 z)
=
|n|
a2 + b 2 + c 2
|ax0 + by0 + cz0 ax by cz|
|a(x0 x) + b(y0 y) + c(z0 z)|

=
=
a2 + b 2 + c 2
a2 + b 2 + c 2
e dunque, ricordando che P e che quindi d = ax by cz, si ha
d(P0 , r) =

|ax0 + by0 + cz0 + d|

.
a2 + b 2 + c 2

128

Geometria analitica

Ad esempio, considerati il punto P (1, 3, 1) ed il piano : 2x y + z 4 = 0, si


ha che

|2 1 1 3 + 1 (1) 4|
6
p
d(P, ) =
= = 6.
6
22 + (1)2 + 12
Distanza punto retta
Se P `e un punto ed r `e una retta, allora d(P, r) = d(P, H) dove H `e il punto di
intersezione tra r ed il piano per P ortogonale ad r.


xy+3=0
, il
4x z + 9 = 0
piano per P ortogonale ad r ha equazione : x + y + 4z 3 = 0 ed interseca r nel
punto H(2, 1, 1), cos` d(P, r) = d(P, H) = 11.
Ad esempio, considerati il punto P (1, 2, 0) e la retta r :

Distanza retta piano


Dati un piano ed una retta r, `e chiaro che d(r, ) = 0 se r 6= altrimenti,
se r = allora d(r, ) = d(P, ) comunque si consideri un punto P su r.
Distanza retta retta
Siano r ed r0 due rette dello spazio. Se r ed r0 sono incidenti allora `e ovvio che
d(r, r0 ) = 0. Se invece r ed r0 sono parallele, allora d(r, r0 ) = d(P, r0 ) per ogni P r.
Infine se r ed r0 sono sghembe, allora d(r, r0 ) `e il valore minimo tra le lunghezze dei
vettori P Q al variariare di P su r e di Q su r0 : tale valore si ottiene scegliendo
i due punti P e Q in modo tale da aversi che il vettore P Q sia ortogonale sia
ad r che r0 . Quindi, nel caso di due rette sghembe r ed r0 , detta p la loro comune
perpendicolare, si ha che d(r, r0 ) = d(P, Q) dove P `e il punto di intersezione tra r
ed p e Q `e il punto di intersezione tra r0 ed p.
Ad esempio, si considerino le rette sghembe

x=2t
y = 2t
r:
e
r0

z = 1 + 3t

x=1t
y = 1 + 2t
:

z =2+t

Presi i generici punti P (2 t, 2t, 1 + 3t) su r e Q(1 t0 , 1 + 2t0 , 2 + t0 ) su r0 , il


vettore P Q = (t + t0 + 1, 2t 2t0 1, 3t t0 3) `e ortogonale sia ad r che
r0 se e solo se (P Q) (1, 2, 3) = 0 = (P Q) (1, 2, 1) e quindi se e solo se

13
,
t = 56 e t0 = 35 . In corrispondenza di questi valori si ottengono i punti P 45 , 12
5 5



5
2 11 13
e Q 5 , 5 , 5 la cui distanza 5 rappresenta la distanza di r da r0 . Si osservi che

6.3 Geometria nello spazio

129

la comune perpendicolare alle rette r ed r0 `e la retta per P e Q e quindi `e la retta


rappresentata in forma parametrica dalle sequenti equazioni

x = 25 + 52 t
+ 15 t
y = 11
5

13
z= 5
In realt`a, se si considera il piano per r parallelo ad r0 , si ottiene che la distanza
tra le rette sghembe r e r0 `e d(r, r0 ) = d(r0 , ) = d(P, ) per ogni P r0 .
Ad esempio, considerando le rette dellesempio di sopra, una rappresentazione
cartesiana di r `e

2x + y 4 = 0
3x + z 5 = 0
e quindi un piano per r ha equazione del tipo (2x + y 4) + (3x + z 5) = 0 e
sar`a parallelo ad r0 se (2 + 3, , ) (1, 2, 1) = 0, dunque ricaviamo che il piano
cercato `e : 2x + y 4 = 0 e cos`, considerando ad esempio il punto P (1, 1, 2) di r0 ,
otteniamo

5
|2 + 1 4|
0
=
.
d(r, r ) = d(P, ) =
5
4+1
Distanza piano piano
Se e 0 sono due piani e 0 6= allora d(, 0 ) = 0, altrimenti nel caso in
cui i piani e 0 sono propriamente paralleli si ha che d(, 0 ) = d(P, 0 ) comunque
si consideri un punto P su .

CAPITOLO 7

Le coniche
7.1

Le coniche come luogo geometrico

Dal punto di vista della geometria elementare, si dice conica una sezione piana di
un cono a due falde. Se la conica `e ottenuta intersecando un cono a due falde con un
piano passante per il vertice, si parla di conica degenere. Le possibili coniche degeneri
sono una coppia di rette incidenti nel vertice (iperbole degenere), una coppia di rette
coincidenti passanti per il vertice (parabola degenere), ed un punto che coincide col
vertice (ellisse degenere). Le coniche non degeneri, invece, si ottengono intersecando
un cono a due falde con un piano non passante per il vertice, esse sono lellisse,
liperbole e la parabola.

7.1.1

Circonferenza

Fissato un riferimento ortogonale e monometrico nel piano, un punto C(x0 , y0 ) ed


un numero reale R, si dice circonferenza di centro C e raggio R il luogo geometrico
dei punti del piano che distano R da C.
Dire che un punto P (x, y) `e tale che
d(P, C) = R
significa dire che
p

(x x0 )2 + (y y0 )2 = R.

Elevando al quadrato ambo i membri di questa relazione e sviluppando si ottiene


x2 + y 2 2x0 x 2y0 y + x20 + y02 R2 = 0.
Ponendo a = x0 , b = y0 e c = x20 + y02 R2 la precedente `e del tipo
x2 + y 2 + 2ax + 2ay + c = 0 (c a2 + b2 ).

(7.1)

Si verifica che ogniequazione del tipo (7.1) rappresenta una circonferenza di centro
(a, b) e raggio a2 + b2 c. Si osservi che se R = 0 otteniamo il luogo costituito
dal solo punto C che possiamo considerare come una circonferenza degenere di raggio
nullo; mentre se R < 0 allora abbiamo una circonferenza immaginaria.

7.1 Le coniche come luogo geometrico

131

Per una circonferenza, il centro `e un centro di simmetria, cos` come ogni retta
per il centro (cio`e ogni diametro) `e un asse di simmetria. Si osservi infine che se si
sceglie un riferimento in cui il centro coincide con lorigine, allora la circonferenza
di centro lorigine e raggio R `e descritta dallequazione x2 + y 2 = R2 .

7.1.2

Ellisse

Si dice ellisse il luogo geometrico dei punti del piano equidistanti da due punti fissi
detti fuochi.
Siano F 0 ed F 00 i due fuochi dellellisse, e scegliamo un riferimento del piano tale
che un asse coincida con la retta per F 0 e F 00 , lorigine O sia nel punto medio del
segmento F 0 F 00 e laltro asse passi per O e sia ortogonale allasse gi`a fissato. In un
tale riferimento, esiste un c R tale che F 0 (c, 0) e F 00 (c, 0).
Sia a > c, e si consideri il luogo geometrico dei punti del piano P (x, y) tali che
d(P, F 0 ) + d(P, F 00 ) = 2a.
Esplicitando la precedente relazione si ottiene
p
p
(x + c)2 + y 2 + (x c)2 + y 2 = 2a,
elevando al quadrato ambo i membri si ha
p
p
(x + c)2 + y 2 + (x c)2 + y 2 + 2 (x + c)2 + y 2 (x c)2 + y 2 = 4a2
ossia
p
p
2x2 + 2y 2 + 2c2 4a2 = 2 (x + c)2 + y 2 (x c)2 + y 2 .
Pertanto
p
p
x2 + y 2 + c2 2a2 = (x + c)2 + y 2 (x c)2 + y 2

132

Le coniche

ed elevando ancora al quadrato ambo i membri si ha


(x2 + y 2 + c2 2a2 )2 = [(x + c)2 + y 2 ][(x c)2 + y 2 ]
o anche
(x2 + y 2 + c2 2a2 )2 = (x2 + y 2 + c2 + 2xc)(x2 + y 2 + c2 2xc)
ovvero
(x2 + y 2 + c2 )2 + 4a4 4a2 (x2 + y 2 + c2 ) = (x2 + y 2 + c2 )2 4x2 c2 .
Pertanto
4a4 4a2 (x2 + y 2 + c2 ) = 4x2 c2
e quindi, dividendo per 4, facendo il prodotto e riordinando si ottiene
(a2 c2 )x2 + a2 y 2 = a2 (a2 c2 ).

Essendo a > c si ha che a2 > c2 . Se b = a2 c2 , allora la precedente relazione si


pu`o scrivere come
b 2 x 2 + a2 y 2 = a2 b 2
e dividendo per a2 b2 si ottiene
x2 y 2
+ 2 = 1.
(7.2)
a2
b
La (7.2) descrive, nel riferimento fissato, unellisse. Lorigine O si dice centro
dellellisse, a e b si dicono semiassi, mentre le intersezioni dellellisse con gli assi,
ovvero i punti A0 (a, 0), A00 (a, 0), B 0 (b, 0) e B 00 (b, 0), si dicono vertici.

Per lellisse (7.2) gli assi del sistema di riferimento sono gli assi di simmetria
dellellisse cos` come lorigine del riferimento (cio`e il centro) `e centro di simmetria.
Si osservi infine che se a = b, allora (7.2) descrive una circonferenza di centro lorigine
e raggio a.

7.1 Le coniche come luogo geometrico

7.1.3

133

Iperbole

Una iperbole `e il luogo geometrico dei punti del piano la cui differenza delle distanze
da due punti fissi detti fuochi `e costante.
Siano F 0 e F 00 i due fuochi delliperbole, e scegliamo un riferimento tale che un
asse coincida con la retta per F 0 e F 00 , lorigine O sia nel punto medio del segmento
F 0 F 00 e laltro asse sia ortogonale a quello gi`a fissato e sia passante per O. In un
tale riferimento, esiste un c R tale che F 0 (c, 0) e F 00 (c, 0).
Sia a < c, e si consideri il luogo geometrico dei punti del piano P (x, y) tali che
d(P, F 0 ) d(P, F 00 ) = 2a,
ossia tali che
p
p
(x + c)2 + y 2 (x c)2 + y 2 = 2a.
Sviluppando i calcoli come visto nel caso dellellisse otteniamo
(c2 a2 )x2 a2 y 2 = a2 (c2 a2 ).

Ponendo b =

c2 a2 e dividendo per a2 b2 si ottiene

x2 y 2
2 = 1.
a2
b
La (7.3) rappresenta liperbole di fuochi F 0 e F 00 .

(7.3)

134

Le coniche

I punti A0 (a, 0) e A00 (a, 0) (che sono i punti di intersezione delliperbole con
lasse passante per i fuochi) si dicono vertici (reali) delliperbole, mentre le rette
s0 : bx ay = 0,

s00 : bx + ay = 0

(7.4)

si dicono asintoti delliperbole. Inoltre, se a = b liperbole si dice equilatera.


Si noti infine che per liperbole (7.3) gli assi del sitema di riferimento sono assi
di simmetria, cos` come lorigine del sistema di riferimento `e centro di simmetria.

7.1.4

Parabola

Siano r una retta del piano ed F un punto del piano che non giace su r. Si dice
parabola di fuoco F e direttrice r il luogo geometrico dei punti del piano equidistanti
da F e da r.
Scegliamo un riferimento in modo tale che un asse passi per F e sia perpendicolare
a r. Se H `e il punto di intersezione tra r e lasse fissato, scegliamo lorigine O nel
punto medio del segmento F H, e laltro asse lo scegliamo come la retta per O
parallela alla retta r. Se d(F, r) = p > 0 si ha che nel riferimento fissato `e F ( p2 , 0).
Il generico punto P (x, y) della parabola sar`a tale da aversi

d(P, F ) = d(P, r)

ovvero
r

p 2
p
+ y2 = x + .
2
2

Elevando al quadrato ambo i membri e sviluppando si ottiene


y 2 = 2px.

(7.5)

Il luogo geometrico descritto dalla (7.5) rappresenta una parabola passante per
lorigine O che si dice vertice della parabola.

7.2 Ampliamento del piano affine euclideo

135

Si noti infine che per la parabola (7.5) lasse di equazione y = 0 `e asse di simmetria.

7.2

Ampliamento del piano affine euclideo

Consideriamo il piano affine euclideo E2 e in esso supponiamo sia fissato un riferimento affine R(O, R), sicch`e un punto di E2 `e individuato da una coppia di numeri
reali. Essendo un numero reale un particolare numero complesso, possiamo pensare
al piano euclideo E2 come ad una parte di un insieme, che indicheremo con E2C , i cui
elementi (o punti) nel fissato riferimento R hanno come coordinate una coppia di
numeri complessi; tale insieme si chiama ampliamento complesso di E2 . I punti di
E2C che hanno per coordinate una coppia di numeri reali si diranno punti reali, gli
altri invece saranno chiamati punti immaginari. Osserviamo che se consideriamo un
altro riferimento R0 (O0 , R0 ), la matrice di passaggio da R a R0 `e una matrice reale
e dunque se un punto `e reale o immaginario in R tale `e anche in R0 , sicch`e lessere
un punto reale o immaginario `e indipendente dal sistema di riferimento fissato.
Una retta di E2C sar`a linsieme delle soluzioni complesse di unequazione algebrica
del tipo ax + by + c = 0 con a, b, c C e (a, b) 6= (0, 0), in particolare quando
a, b, c R la retta si dir`a retta reale. Ad esempio, la retta x y + 1 = 0 `e una retta
reale che ha sia punti reali che immaginari infatti sono suoi punti (0, 1) e (i, i + 1),
cos` come ix + y 1 = 0 `e una retta complessa che ha sia punti reali che immaginari
essendo (0, 1) e (i, 2) suoi punti. Ancora xi+1 = 0 `e un esempio di retta complessa
priva di punti reali essendo un suo punto del tipo (i 1, y).
Sia L2C linsieme delle rette di E2C . Due rette di E2C , r : ax + by + c = 0 ed

136

Le coniche

r0 : a0 x + b0 y + c0 = 0, si diranno parallele se (a, b) e (a0 , b0 ) sono proporzionali.


Nellinsieme L2C definiamo una relazione ponendo
rks se e soltanto se r ed s sono rette parallele.
Allora k `e una relazione di equivalenza e la classe di equivalenza
[r]k = {s L2C |s `e parallela ad r}
si dice direzione di r. Linsieme quoziente r di L2C rispetto a k si dice insieme delle
direzioni di E2C o anche retta impropria. Un elemento dellinsieme delle direzioni r
`e detto anche punto improprio o punto allinfinito.
Consideriamo ora linsieme C3 \ {(0, 0, 0)} e in esso la seguente relazione
(x1 , x2 , x3 ) (y1 , y2 , y3 ) C \ {0} : (y1 , y2 , y3 ) = (x1 , x2 , x3 ).
Si ha che `e una relazione di equivalenza e la generica classe di equivalenza `e
[(x1 , x2 , x3 )] = {(x1 , x2 , x3 ) | C \ {0}}.
Linsieme quoziente di C3 \ {(0, 0, 0)} rispetto a prende il nome di piano proiettivo
complesso e si indica con P2 (C).
2C = E2 r , si consideri lapplicazione
Posto E
2C P2 (C)
cR : E
definita come segue. Se P `e un punto di E2C e le sue coordinate in R sono (xP , yP )
allora si pone cR (P ) = [(xP , yP , 1)] , altrimenti se P `e la direzione di una retta,
supponiamo della retta r : ax + by + c = 0, allora poniamo cR (P ) = [(b, a, 0)] .
Si pu`o provare che lapplicazione cR `e biettiva, in particolare P2 (C) `e equipotente
2C . Lapplicazione cR si dice sistema di coordinate omogenee su E
2C rispetto al
a E
2 C,
riferimento R, e se cR (P ) = [(x1 , x2 , x3 )] `e limmagine del punto generico P di E
la terna (x1 , x2 , x3 ) si chiama terna delle coordinate omogenee del punto P . Si osservi
che le coordinate omogenee sono definite a meno di un fattore di propozionalit`a non
nullo, infatti ogni terna (x1 , x2 , x3 ) proporzionale a (x1 , x2 , x3 ), con C \ {0},
rappresenta ancora una terna di coordinate omogenee per P . Inoltre, se P `e un
punto proprio di coordinate omogenee (x1 , x2 , x3 ) allora x3 6= 0 e ( xx31 , xx23 ) sono le sue
coordinate nel riferimento affine R; mentre se P `e un punto improprio e (x1 , x2 , 0)
sono le sue coordinate omogenee, allora (x1 , x2 ) sono i numeri direttori di una retta
che ha P come direzione.
2C si chiama estensione complessa del piano affine euclideo ampliato
Linsieme E
2C sono la retta impropria r e le rette ampliate
con i punti impropri. Le rette di E
r = r [r]k dove r `e una retta del piano euclideo complessificato E2C e [r]k la sua
direzione.

7.3 Le coniche

137
2

C
Rispetto ad un sistema di coordinate omogenee assegnato cR , le rette di E
sono rappresentate da equazioni lineari omogenee del tipo ax1 + bx2 + cx3 = 0 con
(a, b, c) C3 \ {(0, 0, 0)}. In forma parametrica, invece, le rette sono descritte da
equazioni del tipo

x1 = y1 + z1
x2 = y2 + z2

x3 = y3 + z3
al variare di (, ) C \ {(0, 0)}, dove (y1 , y2 , y3 ) e (z1 , z2 , z3 ) rappresentano le
coordinate omogenee di due punti distinti della retta. In modo compatto si usa dire
2C sono rappresentate in forma parametrica con equazioni del tipo
che le rette di E
xi = yi + zi con i = 1, 2, 3 e al variare di (, ) in C2 \ {(0, 0)}. In particolare
la retta impropria r `e rappresentata dallequazione x3 = 0 (e quindi `e una retta
reale), mentre la generica retta propria r = r [r]k `e rappresentata dallequazione
r : ax1 + bx2 + cx3 = 0 se nel riferimento affine R risulta essere r : ax + by + c = 0.
Osserviamo che se r ed s sono rette di E2C , allora le corrispondenti rette ampliate r
2C si intersecano sempre in un punto che sar`a un punto proprio se r ed s
ed s di E
sono incidenti (in tal caso il punto proprio `e il punto di incidenza) o improprio se
r ed s sono parallele (in tal caso il punto improprio `e la loro direzione comune). In
particolare, la retta propria ax1 + bx2 + cx3 = 0 ha in comune con la retta impropria
un solo punto, la sua direzione (b, a, 0).

7.3

Le coniche

2C in cui si `e fissato un
Consideriamo dora in avanti il piano proiettivo complesso E
sistema di coordinate omogenee cR indotto da un fissato riferimento affine ortogonale
e monometrico R(O, R) del piano affine euclideo E2 .
Si dice conica il luogo dei punti le cui coordinate omogenee verificano unequazione omogenea di secondo grado a coefficienti complessi (non tutti nulli) del tipo:
a11 x21 + 2a12 x1 x2 + a22 x22 + 2a13 x1 x3 + 2a23 x2 x3 + a33 x23 = 0.

(7.6)

La matrice simmetrica

a11 a12 a13


A = a12 a22 a23
a13 a23 a33
si dice associata alla conica . Se la matrice A `e reale, o proporzionale ad una
matrice reale, la conica si dice reale. Si noti che lequazione (7.6) si pu`o scrivere
anche come
3
X
i,j=1

aij xi xj = 0

(7.7)

138

Le coniche

oppure in forma matriciale come


X t AX = 0

dove


x1
X = x2 .
x3

(7.8)

Se `e una conica definita della (7.6) e P `e un punto proprio di coordinate (xP , yP )


e coordinate omogenee (xP , yP , 1), allora P se e solo se la coppia (xP , yP ) `e
soluzione della seguente equazione (non omogenea) di secondo grado
a11 x2 + 2a12 xy + a22 y 2 + 2a13 x + 2a23 y + a33 = 0.

(7.9)

che si dice equazione non omogenea associata a . In pratica, il luogo descritto dalla
(7.9) coincide con la parte propria del luogo descritto in coordinate omogenee dalla
(7.6). Chiaramente per`o possiede anche dei punti impropri che si possono studiare
solo in coordinate omogenee mediante la (7.6), tali punti hanno la terza coordinata
omogenea nulla e cosituiscono lintersezione tra e la retta impropria.
Osserviamo che una conica reale pu`o non possedere punti reali, oppure possedere
un solo punto reale, o anche infiniti punti reali, per`o possiede sempre infiniti punti
immaginari. Ad esempio la conica reale : x21 +x22 +x23 = 0 non ha punti reali perch`e
lunica soluzione reale dellequazione omogenea che la definisce `e la terna (0, 0, 0)
2C .
che non rappresenta nessun punto di E
Esempio 1 Se r : ax1 + bx2 + cx3 = 0 ed s : a0 x1 + b0 x2 + c0 x3 = 0 sono rette,
allora la loro unione `e una conica perch`e `e descritta da unequazione omogenea di
secondo grado del tipo
(ax1 + bx2 + cx3 )(a0 x1 + b0 x2 + c0 x3 ) = 0.
Esempio 2 Se F 0 e F 00 sono due punti reali del piano, e k `e una costante reale
positiva maggiore della distanza tra F 0 e F 00 , il luogo geometrico dei punti P tali
che d(P, F 0 ) + d(P, F 00 ) = k pu`o essere rappresentato in un opportuno riferimento
da unequazione del tipo b2 x2 + a2 y 2 = a2 b2 (con a e b numeri reali positivi). In
coordinate omogenee lequazione
b2 x21 + a2 x22 a2 b2 x23 = 0
rappresenta una conica chiamata ellisse la cui parte reale coincide con . Nel caso
paricolare in cui F 0 = F 00 , la conica che si ottiene `e detta circonferenza.
Esempio 3
Se F 0 e F 00 sono due punti reali e distinti del piano, e k `e una
costante reale positiva minore della distanza tra F 0 e F 00 , il luogo geometrico dei

7.4 Classificazione delle coniche

139

punti P tali che d(P, F 0 ) + d(P, F 00 ) = k corrisponde, in un opportuno riferimento,


alla parte reale di una conica che in coordinate omogenee ha equazione del tipo
b2 x21 a2 x22 a2 b2 x23 = 0
(con a e b numeri reali positivi) ed `e chiamata iperbole.
Esempio 4 Siano r una retta reale ed F un punto reale non appartenente a
r. Il luogo geometrico dei punti P tali che d(P, F ) = d(P, r) corrisponde, in un
opportuno riferimento, alla parte reale di una conica che in coordinate omogenee ha
equazione del tipo
x22 2px1 x3 = 0
(con p numero reale positivo) ed `e chiamata parabola.

7.4

Classificazione delle coniche

Nello studio delle coniche, il primo passo consiste nello stabilire quanti punti possono essere comuni ad una conica ed una retta. Dal prossimo risultato segue, in
particolare, che se una retta ha in comune con una conica (almeno) tre punti allora
la retta `e contenuta nella conica.
2C . Se r non `e contenuta in
Teorema 7.4.1 Siano r una retta e una conica di E
, allora r consiste in uno oppure due punti.
Dimostrazione Supponiamo che la retta r sia descritta (nel riferimento fissato)
in forma parametrica dalle equazioni xi = yi + zi , con i = 1, 2, 3, al variare di
(, ) in C2 \ {(0, 0)}. Se `e la conica di matrice associata A = (aij ) descritta dalla
(7.6), lintersezione tra r `e `e descritta da
3
X

ai,j (yi + zi )(yj + zj ) = 0,

i,j=1

ovvero dalla seguente equazione omogenea di secondo grado:


3
X
i,j=1

3
3

X

X

aij yi yj 2 + 2
aij yi zj +
aij zi zj 2 = 0.
i,j=1

(7.10)

i,j=1

le cui soluzioni non nulle forniscono le coordinate omogenee dei punti di intersezione
tra r e . Ma la (7.10) o `e sempre verificata, e in tal caso r `e contentuta in ,
oppure ha sempre due soluzioni non nulle eventualmente coincidenti. Poich`e in
corrispondenza di queste soluzioni si individuano i punti di r che appartengono
anche a , il teorema `e provato.
t
u

140

Le coniche

In relazione al precedente teorema, osserviamo esplicitamente che se la conica `e


reale e anche la retta r `e reale, allora lequazione (7.10) ha coefficienti reali e quindi
se la retta r non `e contenuta in , allora r consiste in un punto reale oppure in
due punti distinti che sono reali oppure immaginari.
Siano una conica e r una retta. Nel caso r sia un solo punto P , allora r si
dice tangente in P ; se invece r sono due punti allora r si dice secante .
Se r non `e ne secante ne tangente allora il teorema 7.4.1 assicura che r = r
e in tal caso si potrebbe provare che = r oppure `e lunione di r e di unaltra
retta. Una conica si dice degenere (o riducibile) se `e unione di due rette distinte
o coincidenti, dette componenti della conica. Inoltre, se le componenti sono distinte
si dice che la conica `e semplicemente degenere, se invece coincidono la conica si
dice doppiamende degenere. Diversamente la conica si dice non degenere (oppure
irriducibile).
Al fine di caratterizzare le coniche degeneri, introduciamo il seguente concetto.
Un punto P si dice punto doppio per la conica se ogni retta per P `e contenuta in
oppure `e tangente in P . In particolare, se P `e doppio per allora P .
Teorema 7.4.2 Una conica `e degenere se e solo se ha almeno un punto doppio.
Dimostrazione Se `e una conica semplicemente degenere, allora il punto comune alle sue componenti `e ovviamente doppio; mentre se `e doppiamente degenere
allora ogni suo punto `e doppio. Viceversa, supponiamo che la conica sia dotata di
un punto doppio P . Sia Q un altro punto di distinto da P e sia r la retta per P
e Q, cos` r `e contenuta in essendo P doppio e quindi la conica , contenendo una
retta, `e necessariamente degenere.
t
u
Per i punti doppi sussite il seguente.
Teorema 7.4.3 Sia : X t AX = 0 una conica. Un punto P `e doppio per se e
solo se le coordinate omogenee di P sono una soluzione del sistema lineare omogeneo
AX = 0.
Si ottiene pertanto la seguente caratterizzazione.
Corollario 7.4.4 Una conica : X t AX = 0 `e degenere se e solo se det(A) = 0.
Dimostrazione Per il teorema 7.4.2 la conica `e degenere se e solo se ha almeno
un punto doppio e quindi, per il teorema 7.4.3, se e solo se il sistema lineare omogeneo
AX = 0 ha almeno una soluzione non nulla ovvero se e solo se det(A) = 0.
t
u
Proposizione 7.4.5 Sia una conica degenere di matrice associata A.

7.4 Classificazione delle coniche

141

(i) Se (A) = 2, allora `e unione di due rette distinte.


(ii) Se (A) = 1, allora `e una retta (contata due volte).
Se `e una conica reale non degenere, allora non contiene rette e quindi il
teorema 7.4.1 assicura che lintersezione di con la retta impropria r (che `e una
retta reale) consiste in 1 punto reale oppure in 2 punti che possono essere reali o
immaginari. Si dice che `e
(1) una ellisse se possiede 2 punti impropri immaginari (e coniugati);
(2) una iperbole se possiede 2 punti impropri reali (e distinti);
(3) una parabola se possiede 1 punto improprio (reale).

Teorema 7.4.6 Sia una conica reale non degenere di matrice associata A. Allora
(
e`

un0 ellisse det(A33 ) > 0


una parabola det(A33 ) = 0
un0 iperbole det(A33 ) < 0

Dimostrazione La retta impropria r ha equazione x3 = 0 e quindi, se


`e descritta dalla (7.6), i punti impropri di si ottengono in corrispondenza delle
soluzioni del sistema:

a11 x21 + 2a12 x1 x2 + a22 x22 + 2a13 x1 x3 + 2a23 x2 x3 + a33 x23 = 0
x3 = 0
ossia del sistema

a11 x21 + 2a12 x1 x2 + a22 x22 = 0


x3 = 0

La prima equazione di questultimo sistema `e unequazione omogenea di secondo


grado non identicamente nulla (essendo r 6 ), essa ha soluzioni reali e distinte,
oppure reali e coincidenti, oppure immaginarie e coniugate a seconda che
= a212 a11 a22
sia maggiore, uguale o minore di 0. Essendo = det(A33 ), il teorema `e provato.u
t
Lunione di due rette, ellisse, iperbole e parabola sono dunque gli unici tipi di
coniche che si possono avere. Si precisa inoltre che potrebbe provare che la caratterizzazione delle coniche qui presentata e basata sulla matrice associata alla conica
`e indipendente dal riferimento fissato. Sussiste infine il seguente risultato.

142

Le coniche

Teorema 7.4.7 E sempre possibile individuare un riferimento affine ortogonale


monometrico in cui la parte propria di una conica reale `e descritta da unequazione
che del tipo x2 + 2 y = 0 (con 6= 0) oppure del tipo x2 + y 2 + = 0.
Quando lequazione (non omogenea) della conica `e scritta nella forma espressa
nellenunciato del precedente teorema, si dice che lequazione della conica `e in forma
canonica.

7.5

Polarit`
a definita da una conica

Sia una conica di matrice associata A. Siano P e Q due punti di coordinate


omogenee Y t = (y1 , y2 , y3 ) e Z t = (z1 , z2 , z3 ), rispettivamente. Si dice che P e Q
sono coniugati (rispetto a ), e si scrive P Q, se
t

Y AZ =

3
X

aij yi zj = 0.

i,j=1

Evidentemente se `e P Q allora `e anche Q P , mentre P P se e solo se


P .

Proposizione 7.5.1 Un punto P `e doppio per la conica se e solo se P `e coniugato


2C .
rispetto a ad ogni punto di E
Dimostrazione Se P `e un punto doppio, per il teorema 7.4.3 le sue coordinate
omogenee sono una soluzione non nulla del sistema lineare omogeneo AX = 0 e
quindi `e chiaro che P `e coniugato ad ogni altro punto. Viceversa, se P `e coniugato
ad ogni punto, lo `e in particolare ai punti di coordinate omogenee (1, 0, 0), (0, 1, 0)
e (0, 0, 1) e quindi, dette (y1 , y2 , y3 ) le coordinate omogenee del punto P , risulta
a11 y1 + a12 y2 + a12 y3 = 0, a12 y1 + a22 y2 + a23 y3 = 0 e a13 y1 + a23 y2 + a33 y3 = 0.
Pertanto le coordinate omogenee di P sono soluzioni del sistema AX = 0 e dunque
P `e doppio per il teorema 7.4.3.
t
u
2

C , si dice luogo polare determinato da P il seguente insieme di punti


Se P E
2C | P Q} E
2C .
(P ) = {Q E
La simmetria di A assicura la validit`a del seguente:
2C , allora
Teorema 7.5.2 (Teorema di Reciprocit`
a) Se P e Q sono punti di E
P (Q) se e solo se Q (P ).

7.5 Polarit`a definita da una conica

143

Poich`e il teorema 7.4.3 assicura che le soluzioni non nulle del sistema AX = 0
sono tutte e sole le coordinate omogenee dei punti doppi di , se P `e un punto
2C . Se invece P non `e un punto doppio per ,
doppio per risulta essere (P ) = E
allora le coordinate omogenee (y1 , y2 , y3 ) di P non sono una soluzione del sistema
AX = 0 e quindi lequazione
(a11 y1 + a12 y2 + a13 y3 )x1 + (a12 y1 + a22 y2 + a23 y3 )x2 + (a13 y1 + a23 y2 + a33 y3 )x3 = 0
rappresenta una retta. Ma la precendente equazione ha per soluzioni tutte e sole le
coordinate omogenee dei punti che sono in (P ), quindi se P non `e doppio allora
(P ) `e una retta, detta retta polare (o semplicemente polare) di P .
Evidentemente un punto appartiene alla propria polare se e solo se appartiene
alla conica, si ha inoltre la seguente.
Proposizione 7.5.3 Siano una conica non degenere e P un punto di . Allora
la polare (P ) `e la retta tangente in P .
Dimostrazione Sia A = (aij ) la matrice associata a e siano (y1 , y2 , y3 ) le
coordinate omogenee del punto P . Poich`e `e non degenere, il punto P non `e un
punto doppio e quindi il luogo polare (P ) `e una retta. Sia r : xi = yi + zi (con
i = 1, 2, 3 e (, ) C2 \ {(0, 0)}) la retta tangente in P . Posto
a=

3
X

aij yi yj ,

i,j=1

b=

3
X
i,j=1

aij yi zj ,

c=

3
X

aij zi zj ,

i,j=1

si ha che a = 0 perch`e P , e dunque lequazione che descrive lintersezione tra r


e `e
2b + c2 = 0.
Dovendo essere P lunico punto in comune tra r e , risulta c 6= 0 e la precendente equazione, che ha in queste ipotesi sempre due soluzioni non nulle, deve avere
quindi una soluzione doppia. Pertanto deve essere b = 0, cos` i punti di r verificano
lequazione
3
X
(a1j y1 + a2j y2 + a3j y3 )xj = 0.
j=1

ovvero r = (P ) come volevamo.

t
u

Supponiamo ora che sia non degenere, sicch`e `e priva di punti doppi per il
teorema 7.4.2 e quindi
2C
2C (P ) L
:P E
2C nellinsieme L
2C delle sue rette; tale applicazione si chiama
`e unapplicazione di E
polarit`a associata a .

144

Le coniche

Si potrebbe provare che la polarit`a associata ad una conica non degenere `e


unapplicazione biettiva. Dunque se `e una conica non degenere, comunque si
2C , esiste un unico punto P tale che r = (P ), questunico
fissa una retta r in L
punto P si dice polo di r.
Nel seguito, usando il concetto di polarit`a definita da una conica non degenere, si
vogliono ritrovare i concetti di asintoti, assi, centro e vertici di una conica. Supponiamo dora in poi che sia una conica non degenere di matrice associata A = (aij );
sia poi P (l, m, 0) un qualsiasi punto improprio. Poich`e `e non degenere, (P ) `e
una retta e precisamente la retta, che indichiamo qui con d, di equazione
d:

3
X

(l a1j + m a2j )xj = 0

j=1

o anche
d : l(a11 x1 + a12 x2 + a13 x3 ) + m(a12 x1 + a22 x2 + a23 x3 ) = 0,

(7.11)

Se d = (P ) `e una retta propria, si dice che essa `e un diametro coniugato alla


direzione P (l, m, 0). Se poi il punto improprio P (l, m, 0) appartiene a , allora il
diametro d ad esso coniugato `e detto asintoto.
Al variare del punto improprio P (l, m, 0) si ottengono tutti i diametri che, evidentemente, sono le rette del fascio di centro il punto C le cui coordinate sono le
soluzioni del sistema

a11 x1 + a12 x2 + a13 x3 = 0
(7.12)
a12 x1 + a22 x2 + a23 x3 = 0
Il punto C `e detto centro della conica . Si noti che il centro di `e il polo della
retta impropria. Infatti, se si considerano i punti impropri X (1, 0, 0) ed Y (0, 1, 0),
risulta
(X ) : a11 x1 + a12 x2 + a13 x3 = 0

e (Y ) : a12 x1 + a22 x2 + a23 x3 = 0.

Poich`e X , Y r , se C `e il polo della retta impropria, il teorema di reciprocit`a


assicura che C appartiene a (X ) (Y ). Pertanto (X ) (Y ) = {C} e le
coordinate di C sono soluzione per il sistema (7.12), cos` C `e il centro di .
Se `e unellisse o uniperbole, allora il teorema 7.4.6 assicura che det(A33 ) 6= 0
e cos` il sistema (7.12) `e di Cramer se visto come sistema nelle incognite x1 e x2 ;
pertanto ha per centro un punto proprio. Nel caso in cui invece sia una parabola,
allora risulta det(A33 ) = 0 ed il fascio dei diametri `e quindi un fascio improprio: tutti
i diametri sono paralleli ed hanno direzione data dal punto improprio della parabola.
Per questo motivo, lellisse e liperbole sono dette coniche a centro.
Si osservi che uniperbole ha due punti impropri reali ognuno dei quali, congiunto
col centro, determina un asintoto della conica, pertanto uniperbole ha due asintoti

7.5 Polarit`a definita da una conica

145

(che dunque sono le polari dei suoi due punti impropri) e si dice iperbole equilatera
uniperbole che ha i due asintoti che sono ortogonali tra loro.
Un diametro che risulta essere ortogonale alla direzione ad esso coniugata si dice
asse; inoltre, un punto proprio si dice vertice se appartiene allintersezione di un asse
con la conica. Consideriamo il diametro d coniugato alla direzione P (l, m, 0) che
ha equazione (7.11), e osserviamo che esso ha per direzione il punto improprio
((l a12 + m a22 ), l a11 + m a12 , 0),
quindi d `e un asse se e solo se la sua direzione `e ortogonale a (l, m, 0) e quindi se e
solo se
a12 l2 (a11 a22 )lm a12 m2 = 0.
(7.13)
Una soluzione non nulla dellequazione (7.13) fornisce quindi la direzione di un asse
della conica. Un asse r della conica non degenere `e sempre un asse di simmetria
per , ovvero se P `e un punto di e P 0 `e il punto sulla retta per P ortogonale a r
tale che d(P, r) = d(P 0 , r), allora anche P 0 `e un punto di .
Si potrebbe provare che se `e una parabola, allora ha un unico asse. Se invece
`e una conica a centro, invece, allora ha due assi ortogonali tra loro ed inoltre,
se (P ) `e un asse e Q `e la sua direzione, allora (Q ) `e lasse di ortogonale
a (P ). Se si suppone poi che sia reale, si ha che gli assi sono reali e si prova
inoltre che una parabola reale ha un unico vertice reale, unellisse reale (che non sia
una circonferenza) ha quattro vertici reali mentre uniperbole invece ha due vertici
reali e due immaginari coniugati. Si ha inoltre:
Proposizione 7.5.4 Sia una conica non degenere e sia V un suo vertice. Allora
la polare (V ) `e la retta tangente in V ed `e una retta ortogonale allasse di che
passa per V .
Dimostrazione La polare (V ) `e la retta tangente in V per la proposizione 7.5.3. Sia d lasse di a cui V appartiene e sia P il punto improprio tale
che d = (P ). Il teorema di reciprocit`a 7.5.2 assicura che P (V ), pertanto
(V ) ha per direzione P e quindi `e ortogonale a d.
t
u

7.5.1

Esempi

Sia una conica reale non degenere. Se `e una conica a centro (cio`e ellisse o
iperbole), allora ha due assi ortogonali tra loro: essi permettono di individuare un
riferimento affine, che ha per origine il centro della conica, in cui lequazione della
conica `e in forma canonica. Se invece `e una parabola, allora ha un solo asse d
ed un solo vertice V . Se si considera la retta r per il vertice di ortogonale allasse
d, che coincide con la polare (V ) per la proposizione 7.5.4, allora le rette d ed r

146

Le coniche

permettono di individuare un riferimento affine, che ha per origine il vertice della


parabola, in cui lequazione di in forma canonica.
Consideriamo il piano affine E2 nel quale si `e fissato un riferimento ortogonale
monometrico R(O, R) ed esplicitiamo con degli esempi quanto ora detto.
1) Studiare la conica la cui parte propria ha equazione 2x2 y 2 4x + 2y 3 = 0.
La matrice associata a `e

2
0 2
A = 0 1 1
2 1 3
e cos` det(A) = 8 e det(A33 ) = 2 < 0. Pertanto `e uniperbole.
Andiamo a determinare gli assi. Lequazione (7.13) scritta per la conica che
stiamo considerando `e 3lm = 0: le soluzioni di questa equazione determinano i
punti impropri (0, 1, 0) e (1, 0, 0) e gli assi saranno i diametri coniugati a queste
direzioni ovvero le rette y = 1 e x = 1; si noti che il primo asse ha per direzione
u1 = (1, 0) mentre il secondo asse ha per direzione u2 = (0, 1), e che entrambi questi
vettori sono normalizzati (cio`e hanno modulo 1).
Il centro C della conica, essendo il punto di intersezione di due diametri, sar`a il
punto di intersezione degli assi e quindi `e il punto di coordinate (1, 1).
Consideriamo
ortonormale R0 = (u1 , u2 ) di V2 e la matrice (orto il riferimento

1 0
gonale) P =
di passaggio da R0 a R. Le relazioni
0 1
 
   
x
X
1
=P
+
,
y
Y
1
ovvero le equazioni


x=X +1
,
y =y+1

permettono di passare dal riferimento R al riferimento affine monometrico ortogonale R0 = (C, R0 ) (la cui origine `e il centro della conica), in cui lequazione della
conica diventa 2X 2 Y 2 4 = 0.
Al fine di scrivere le equazioni degli asintoti, si devono determinare i punti impropri della conica, si deve quindi scrive lequazione di in coordinate omogenee
2x21 x22 4x23 = 0 e poi si deve intersecare con la retta
impropria
che ha equazione

x3 = 0. Si determinano cos` i punti impropri (1, 2, 0) e (1, 2, 0) e i diametri


loro coniugati saranno
le equazioni degli asintoti delliperbole
gli asintoti. Pertanto

0
(in R ) sono 2X 2Y = 0 e 2X + 2Y = 0.
2) Studiare la conica la cui parte propria ha equazione 2x2 2xy +2y 2 +2x1 = 0.

7.5 Polarit`a definita da una conica

147

La matrice associata a `e

2 1 1
0
A = 1 2
1
0 1
e cos` det(A) = 5 e det(A33 ) = 3 > 0. Pertanto `e unellisse. Per determinare gli
assi risolviamo lequazione (7.13) che nel nostro caso `e m2 l2 = 0. Essa determina
le direzioni (1, 1, 0) e (1, 1, 0) e quindi gli assi hanno equazione x + y + 1 = 0
e 3x + 3y 1 = 0 il cui punto di intersezione, ovvero il centro, ha coordinate
( 32 , 13 ). Normalizzando i vettori (1, 1, 0) e (1, 1, 0) otteniamo i vettori ( 12 , 12 , 0)
e ( 12 , 12 , 0) e considerando il cambiamento di riferimento determinato dalle relazioni
!    
 
1
1

X
32
x
+
,
= 12 1 2
Y
13
y
2
2
si individua il riferimento affine monometrico ortogonale R0 in cui lequazione di
`e in forma canonica ed `e X 2 + 3Y 2 = 53 .
3) Studiare la conica la cui parte propria ha equazione x2 2xy + y 2 2x 2y = 0.
La matrice associata a `e

1 1 1
A = 1 1 1
1 1 0
e cos` det(A) = 4 e det(A33 ) = 0. Pertanto `e una parabola. Per determinare
lasse risolviamo lequazione (7.13) che nel nostro caso `e m2 l2 = 0. Essa determina
le direzioni (1, 1, 0) e (1, 1, 0) la prima delle quali `e coniugata alla retta impropria
(che non `e diametro) mentre la seconda individua lunico asse della parabola che
ha equazione x = y. Lintersezione tra lasse e la parabola determina il vertice:
dunque, in coordinate omogenee, il punto V (0, 0, 1) `e il verice della parabola. Per
la proposizione 7.5.4, la retta per V ortogonale allasse `e la retta (V ) : y = x.
Normalizzando le direzioni (1, 1, 0) di (V ) e (1, 1, 0) dellasse, otteniamo i vettori
( 12 , 12 , 0) e ( 12 , 12 , 0) e considerando il cambiamento di riferimento determinato
dalle relazioni
!    
 
1
1

x
X
0
2
2
=

+
,
1
1
y
Y
0
2
2
si individua il riferimento il riferimento affine
monometrico ortogonale R0 in cui
lequazione di `e in forma canonica ed `e X 2 2Y = 0.

148

Le coniche

7.6

Riduzione a forma canonica

Sia una conica reale la cui matrice associata, nel fissato riferimento affine ortogonale e monometrico R(O, R), sia A = (aij ). Vogliamo studiare la parte propria di
che `e descritta dallequazione
a11 x2 + 2a12 xy + a22 y 2 + 2a13 x + 2a23 y + a33 = 0.
e determinare un opportuno riferimento in cui lequazione di `e in forma canonica;
in particolare, quanto qui segue prover`a il teorema 7.4.7.  

x
Per semplicit`a si scrittura siano L = a13 a23 ed X =
. Lequazione di
y
`e composta da una parte quadratica
q(x, y) = a11 x2 + 2a12 xy + a22 y 2 = X t A33 X,
che `e un polinomio omogeneo di secondo grado, e una parte lineare
`(x, y) = 2a13 x + 2a23 y = 2LX,
che `e un polinomio omogeneo di primo grado, e con le posizioni precedenti lequazione
di si scrive come
q(x, y) + `(x, y) + a33 = 0.
Se A33 `e la matrice nulla, lequazione di `e `(x, y) + a33 = 0 e `e lunione di due
rette: la retta impropria e la retta che in R ha equazione 2a13 x + 2a23 y + a33 = 0.
Si pu`o quindi supporre che A33 non sia la matrice nulla. La matrice A33 `e reale
e simmetrica al pari di A, quindi `e ortogonalmente diagonalizzabile e pertanto `e
possibile determinare una matrice ortogonale P = (pij ) tale che


0
t
P A33 P = D =
0
sia la matrice diagonale che ha sulla diagonale principale gli autovalori e della
matrice A33 ; si noti esplicitamente che gli autovalori e non sono entrambi nulli
altrimenti D, e quindi A33 , sarebbe la matrice nulla. La matrice ortogonale P 1 =
P t si pu`o pensare come la matrice di passaggio dal riferimento affine ortogonale e
monometrico R(O, R) ad un altro riferimento affine ortogonale e monometrico. Pi`
u
0
0
dettagliatamente, se e1 e e2 sono i versori le cui componenti in R = (e1 , e2 ) sono le
colonne della matrice P , ovvero
e01 = p11 e1 + p21 e2

e02 = p12 e1 + p22 e2 ,

allora R0 = (e01 , e02 ) `e un riferimento ortonormale, quindi a partire da esso possiamo


ottenere un altro riferimento affine ortogonale monometrico R0 (O, R0 ), con la stessa
origine O di R, legato ad R dalle equazioni del cambio di riferimento
 
 0
x
x
=P

X = P X0
(7.14)
0
y
y

7.6 Riduzione a forma canonica

149

Conviene qui sottolineare, visto che in seguito servir`a, che le componenti in R del
vettore e01 sono quindi un versore che genera lautospazio VA33 (), mentre le componenti in R del vettore e02 sono un versore che genera lautospazio VA33 ().
In R0 la parte quadratica dellequazione di diventa
q(x0 , y 0 ) = (P X 0 )t A33 (P X) =
= (X 0 )t P t A33 P X =
= (X 0 )t DX =
= (x0 )2 + (y 0 )2
mentre la parte lineare di diventa
`(x0 , y 0 ) = 2L(P X 0 ) = 2(LP )X 0 = 2a013 x0 + 2a023 x0
dove
a013 = a13 p11 + a23 p21

a023 = a13 p12 + a23 p22 .

Dunque in R0 lequazione di `e
(x0 )2 + (y 0 )2 + 2a013 x0 + 2a023 y 0 + a33 = 0;

(7.15)

Si noti che in R0 la matrice associata a


Distinguiamo ora due casi.
Caso 1 e entrambi non nulli: In questo caso, `e semplice convincersi che
la (7.15) si pu`o scrivere come


a0  2
a02
a0  2
a02
x0 + 13 + y 0 + 23 + a33 13 23 = 0

e quindi nel riferimento R00 (O00 , R0 ) ottenuto mediante il cambio di riferimento descritto dalle equazioni
(
a0
X = x0 + 13
(7.16)
a0
Y = y 0 + 23
(quindi per passare da R0 a R00 si sposta solo lorigine del riferimento) si ottiene che
la conica `e rappresentata dallequazione
X 2 + Y 2 + = 0

dove

= a33

a0213 a0223

(7.17)

Esaminiamo i coefficienti di questa equazione.


(i) e di segno concorde e = 0 In tal caso, > 0 e quindi considerando
ad esempio la (7.17) come equazione in X, si ottiene che il suo discriminante
4Y 2 `e negativo sicch`e essa ha per soluzioni due numeri complessi coniugati.
Segue cos` che la (7.17) si scompone nel prodotto di due polinomi (distinti) di
primo grado a coefficienti complessi e cos` `e lunione di due rette immaginarie
incidenti in un punto reale (che `e (0, 0)).

150

Le coniche

(ii) e di segno discorde e = 0 In tal caso, < 0 e quindi, come prima,


considerando la (7.17) come equazione in X, si ottiene che il suo discriminante
4Y 2 `e positivo (e non nullo) e pertanto la (7.17) si scompone nel prodotto
di due polinomi (distinti) di primo grado a coefficienti reali. Pertanto `e
lunione di due rette reali (incidenti in (0, 0)).
(iii) , e concordi In tal caso, i fattori e sono numeri reali positivi e
posto

e b2 = ,
a2 =

dividendo lequazione (7.17) per il fattore si ottiene


X2 Y 2
+ 2 = 1
a2
b
che `e unellisse immaginaria.
(iv) , concordi tra loro e discordi con In questo caso, in analogia con quanto
fatto in (iii), se poniamo
a2 =

b2 = ,

e dividiamo la (7.17) per , otteniamo lequazione di un ellisse (reale)


X2 Y 2
+ 2 = 1.
a2
b
Si osservi, che nel caso fosse = si otterrebbe una circonferenza.
(v) , discordi e 6= 0 Supponendo ad esempio e discordi (analogo `e il
caso e discordi), ponendo
a2 =

b2 =

otteniamo lequazione di una iperbole


X2 Y 2
2 = 1.
a2
b
Osservazione: Nel riferimento R00 lequazione di una ellisse o di una iperbole `e del
tipo (7.17), e in tal caso per la conica valgono le note propriet`a di simmetria. Se
`e unellisse o una iperbole, nel riferimento R00 il centro (di simmetria) di coincide
con lorigine del riferimento R00 , sicch`e le equazioni (7.14) e (7.16) permettono di
indivuduare le coordinate del centro della conica nel riferimento R. Gli assi di ,

7.6 Riduzione a forma canonica

151

invece, in R00 hanno equazioni X = 0 e Y = 0 e quindi sono le rette per O00 parallele
ai versori e01 ed e02 ; pertanto in R gli assi della conica sono le rette per il centro di
numeri direttori i generatori degli autospazi VA33 () e VA33 (). Infine, nel caso in cui

equazione (7.17), `e noto che in R00 gli asintoti hanno equazione


sia unaiperbole di

X + Y = 0 e X Y = 0 e quindi ancora le equazioni (7.14) e (7.16)


permettono di determinare le equazioni degli asintoti in R. E utile ricordare qui,
che in R00 , e quindi pure in R, il centro della conica `e anche il punto di intersezione
degli asintoti.
Caso 2 oppure nullo: Supponiamo sia 6= 0 e = 0 (analogamente si
ragiona nel caso 6= 0 e = 0). Allora lequazione (7.15) diventa
(y 0 )2 + 2a013 x0 + 2a023 y 0 + a33 = 0.

(7.18)

Distinguiamo due casi.


(vi) a013 = 0 In tal caso la (7.18) diventa

a0223
a023 2
0
+ a33
= 0,
y +

e col cambio di riferimento


(

X = x0
Y = y0 +

a023

otteniamo per la seguente equazione


Y 2 + = 0

dove

= a33

a0223
.

Pertanto se = 0 allora `e lunione di due rette reali coincidenti (che coincidono con lasse delle ascisse). Mentre se 6= 0 allora `e unione di due rette
parallele che saranno reali se e sono discordi, o saranno immaginarie (ma
con direzione reale) se e sono concordi.
(vii) a013 6= 0 In tal caso la (7.18) si pu`o scrivere come


a33 a0223 
a0  2
y 0 + 23 + 2a013 x0 +
= 0,

2a023
e mediante le equazioni
(

X = x0 +
Y = y0 +

a33 a0223
2a023
a023

(7.19)

si passa ad un riferimento R00 (O00 , R0 ) (in cui rispetto a R0 `e cambiata solo


lorigine) in cui la conica `e rappresentata dallequazione
Y 2 + 2a013 X = 0.
Pertanto `e una parabola.

(7.20)

152

Le coniche

Osservazione: Nel riferimento R00 lequazione della parabola `e del tipo (7.20),
e anche in tal caso per valgono le note propriet`a di simmetria. Cos` quando `e la
parabola che in R00 ha equazione (7.20), nel riferimento R00 il vertice di coincide con
lorigine , sicch`e le equazioni (7.14) e (7.19) permettono di indivuduare le coordinate
del vertice della conica nel riferimento R. Lasse di , invece, in R00 ha equazione
Y = 0 ed `e quindi la retta per lorigine parallela al vettore e01 ; dunque in R lasse
di `e la retta affine passante per il vertice della conica i cui numeri direttori sono
dati dal generatore dellautospazio VA33 (0) di A33 relativo allautovalore nullo. (Si
noti che poiche A33 `e simmetrica, i suoi autospazi sono ortogonali tra loro e quindi
la direttrice di , essendo ortogonale allasse, sar`a la retta affine che ha i cui numeri
direttori sono dati dal generatore dellautospazio di A33 relativo allautovalore non
nullo).

7.7

Esempi

Consideriamo il piano affine euclideo E2 nel quale si `e fissato un riferimento ortogonale monometrico R(O, R).
1) Studiare la conica : x2 + y 2 + 2xy + 3 = 0.
Si vede subito che

x2 + y 2 + 2xy + 3 = (x + y)2 + ( 3)2 = (x + y + i 3)(x + y i 3),

pertanto la conica

`
e
lunione
di
rette
immaginarie
parallele
r
:
x
+
y
+
i
3=0e
1

r2 : x + y i 3 = 0 ed `e quindi una conica degenere.


2) Studiare la conica : x2 + y 2 + 2xy 3 = 0.
In questo caso `e evidente che

x2 + y 2 + 2xy 3 = (x + y)2 ( 3)2 = (x + y + 3)(x + y 3)

e pertanto `e unione di due rette parallele r1 : x + y + 3 = 0 e r2 : x + y 3 = 0,


ed `e quindi degenere.
3) Studiare la conica : x2 + y 2 + 2xy = 0.
Anche in questo caso essendo x2 + y 2 + 2xy = (x + y)2 , la conica `e degenere ed
`e lunione di due rette coincidenti di equazione x + y = 0.
4) Studiare la conica : x2 + y 2 4y + 4 = 0.
Lequazione di `e x2 +(y 2)2 = 0 e quindi `e lunione di due rette immaginarie
incidenti nel punto reale (0, 2), ed `e pertanto degenere.
5) Studiare la conica : 4xy + 8x y 2 = 0.

7.7 Esempi

153

Da 4xy + 8x y 2 = (y + 2)(4x 1) segue che `e degenere ed `e lunione di


due rette reali y + 2 = 0 e 4x 1 = 0 incidenti nel punto P ( 41 , 2) che pertanto `e un
punto doppio (lunico) di (si noti che se A `e la matrice della conica, le coordinate
omogenee di P si sarebbero potute ottenere risolvendo il sistema AX = 0 come
assicura il teorema 7.4.3).
6) Studiare la conica : x2 + 4y 2 + 2x + 7 = 0.
La matrice associata alla conica in R `e

1 0 1
A = 0 4 0 .
1 0 7
Essendo det(A) = 24 6= 0, la conica `e non degenere. Daltra parte det(A33 ) = 4 > 0 e
quindi la conica `e una ellisse ed osservando che x2 +4y 2 +2x+7 = (x+1)2 +(2y)2 +6
si capisce che `e unellisse immaginaria.
7) Studiare la conica : 2x2 + 2xy + 2y 2 + x 2y 3 = 0.
La matrice associata alla conica in R `e

1
2 1
2
A = 1 2 1 .
1
1 3
2
Poich`e det(A) = 25
e det(A33 ) = 3 > 0, la conica `e unellisse. Andiamo a
2
determinare lequazione in forma canonica di . A tal fine occorre diagonalizzare
ortogonalmente la matrice simmetrica A33 . Gli autovalori di
 A33 sono
 1 e 3, la
1 0
matrice ortogonale che rende A33 simile alla matrice diagonale
`e la matrice
0 3
!
12 12
.
P =
1
1
2

La matrice P t = P 1 `e la matrice di passaggio da R ad un altro riferimento affine


ortogonale e monometrico R0 , con la stessa origine di R; le equazioni che descrivono
il cambio di coordinate sono
 
 0
x
x
=P
(7.21)
y
y0
ovvero
(
x = 12 x0 + 12 y 0
y = 12 x0 + 12 y 0
In R0 si ottiene poi che la conica ha equazione

3 2 0
2 0
02
02
x + 3y
x
y 3 = 0.
2
2

154

Le coniche

Completando ai quadrati, `e semplice accorgersi che la precedente equazione si pu`o


scrivere come




2
3
2
2 2 25
x0
+ 3 y0

=0
4
12
6
e pertanto le equazioni
(

X = x0 3 4 2
(7.22)
Y = y 0 122
permettono di passare ad un altro riferimento affine ortogonale e monometrico R00
in cui lequazione di `e in forma canonica ed `e
25
= 0.
6
Andiamo ora a determinare gli assi e il centro C della conica nel riferimento
R. In R00 , il centro coincide con lorigine e quindi ha coordinate
(0, 0), sicch`e dalle

3 2
0
equazioni (7.22) ricaviamo che in R il centro ha coordinate ( 4 , 122 ) e le equazioni
(7.21) ci danno che in R le coordinate del centro sono date dal prodotto
! !  
!
3 2
3 2
1
1

23
2
2
4
P 42 =
=
5
2
1
1
X 2 + 3Y 2

12

12

ovvero in R `e C( 23 , 56 ). Poich`e due autospazi della matrice A33 sono generati,


rispettivamente, dalle colonne P 1 e P 2 di P , e quindi anche dai vettori u = (1, 1)
e v = (1, 1), segue poi che gli assi sono le rette affini C + L[u] e C + L[v] e quindi
sono le rette di equazioni parametriche


x = 23 + t
x = 23 t
e
y = 65 + t
y = 65 + t
ovvero di equazioni cartesiane
6x + 6y 1 = 0

2x 2y + 3 = 0.

8) Studiare la conica : 2x2 + 2 3xy 2x 1 = 0.


La matrice associata alla conica in R `e

2
3
1

A= 3 0
0 .
1 0 1
Poich`e det(A) = 3 e det(A33 ) = 3 < 0, la conica `e uniperbole. Andiamo a
determinare lequazione in forma canonica di . Come di consueto si pu`o trovare
che una matrice ortogonale che diagonalizza A33 `e la matrice
!

3
1

2
2
P =
3
1
2

7.7 Esempi

155


e risulta essere P A33 P =

3 0
0 1

le equazioni
(

. Inoltre tramite la matrice P si individiano

x = 23 x0 12 y 0
y = 21 x0 + 23 y 0

che legano il riferimento di partenza con un nuovo riferimento affine ortogonale e


monometrico R0 (di uguale origine) in cui si ricava che lequazione della conica `e

3x02 y 02 3x0 + y 0 1 = 0.
Completando ai quadrati nella precedente equazione si individuano le equazioni


X = x0 63
(7.23)
Y = y 0 12
che permettono di passare ad un altro riferimento R00 in cui lequazione di `e in
forma canonica ed `e
3X 2 Y 2 1 = 0.

In R00 gli asintoti delliperbole sono r : 3X Y = 0 ed s : 3 + Y = 0. Andiamo


a scrivere le equazioni di r in R. Le equazioni (7.23) assicurano che in R0 lasintoto
r ha equazione
!

3
1
3 x0
y0 + = 0
6
2
ovvero

3x0 y 0 = 0

Ora, le equazioni che legano i riferimenti R e R0 sono X = P X 0 o X 0 = P 1 X;


ricordando che P `e una matrice ortogonale e che quindi P 1 = P t , si ottiene che
(

x0 = 23 x + 21y
y 0 = 21 x + 23 y
e cos` in R lequazione di r diventa

3
1
x+ y
2
2

!
3
1
x+
y =0
2
2

ovvero
r : x = 0.
Allo stesso modo si pu`o ricavare che in R laltro asintoto ha equazione

s : x + 3y 1 = 0.

156

Le coniche

Di conseguenza il centro delliperbole,


essendo il punto di intersezione tra r ed s, `e


1
il punto che in R ha coordinate 0, 3 .
9) Studiare la conica : x2 + y 2 2xy + 2y + 1 = 0.
La matrice associata alla conica in R `e

1 1 0
A = 1 1 1 .
0
1 1
Essendo det(A) = 1 e det(A33 ) = 0, la conica `e una parabola. Vogliamo ora determinare lequazione canonica. Una matrice ortogonale che diagonalizza la matrice
A33 `e la matrice
!
P =

1
2
1
2

1
2
12


0 0
e risulta essere D = P A33 P =
. Tramite P , come consueto, si individua
0 2
un nuovo riferimento affine ortogonale monometrico R0 , legato ad R dalle equazioni
(
x = 12 x0 + 12 y 0
,
(7.24)
y = 12 x0 12 y 0
t

in cui lequazione della conica diventa

0
2(y )2 2y 0 + 2x0 + 1 = 0.
Completando al quadrato si individuano le equazioni
(

X = x0 + 3 2 2
Y = y 0 42

(7.25)

che permettono di passre in un altro riferimento affine ortogonale e monometrico


R00 in cui, come `e semplice verificare, lequazione di `e

2Y 2 + 2X = 0.
In R00 il vertice V di coincide con lorigine del 
sistema
di riferimento e cos`

3 2
0
tramite le equazioni (7.25) si ricava che in R `e V 2 , 42 , poi, tramite le

equazioni (7.24), si ricava che in R `e V 18 , 58 . Dalla matrice D deduciamo
che il generatore dellautospazio relativo allautovalore nullo della matrice A33 `e la
prima colonna della matrice P , e quindi anche il vettore (1, 1). Pertanto lasse della
parabola ha in R equazioni parametriche

x = 81 + t
(7.26)
y = 85 + t
ovvero equazione cartesiana 2x 2y 1 = 0.

You might also like