Professional Documents
Culture Documents
Geometria analitica
Fausto De Mari
Indice
1 Strutture Algebriche
1.1 Cenni di teoria degli insiemi
1.2 Corrispondenze tra insiemi .
1.3 Applicazioni . . . . . . . . .
1.4 Gruppi, Anelli e Campi . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2 Spazi vettoriali
2.1 Vettori liberi . . . . . . . . . . . . . . . . . .
2.2 Spazi vettoriali . . . . . . . . . . . . . . . .
2.3 Sottospazi . . . . . . . . . . . . . . . . . . .
2.4 Dipendenza e indipendenza lineare . . . . .
2.5 Spazi vettoriali di dimensione finita . . . . .
2.6 Applicazioni lineari tra spazi vettoriali . . .
2.7 Immagine e nucleo di unapplicazione lineare
3 Matrici e Sistemi lineari
3.1 Generalit`a e operazioni tra matrici . . . . .
3.1.1 Lanello delle matrici . . . . . . . . .
3.1.2 Lo spazio vettoriale delle matrici . .
3.2 Matrici a scala . . . . . . . . . . . . . . . .
3.3 Determinante di una matrice . . . . . . . . .
3.4 Matrici Invertibili . . . . . . . . . . . . . . .
3.5 Dipendenza lineare e rango di una matrice .
3.6 Generalit`a sui sistemi lineari . . . . . . . . .
3.7 Metodi di risoluzione . . . . . . . . . . . . .
3.8 Sitemi lineari omogenei . . . . . . . . . . . .
3.9 Matrice associata ad unapplicazione lineare
3.10 Matrice del cambio di base . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
3
5
7
.
.
.
.
.
.
.
11
11
17
19
23
26
32
38
.
.
.
.
.
.
.
.
.
.
.
.
40
40
42
43
44
48
52
55
61
63
69
72
76
Indice
iii
6 Geometria analitica
6.1 Spazi affini . . . . . . . . . . . . . . . . . . . . . . .
6.2 Geometria nel piano . . . . . . . . . . . . . . . . .
6.2.1 Rappresentazione della retta . . . . . . . . .
6.2.2 Posizione reciproca e ortogonalit`a tra rette .
6.2.3 Fasci di rette nel piano . . . . . . . . . . . .
6.2.4 Distanze nel piano . . . . . . . . . . . . . .
6.3 Geometria nello spazio . . . . . . . . . . . . . . . .
6.3.1 Rappresentazione del piano . . . . . . . . .
6.3.2 Posizione reciproca e ortogonalit`a tra piani .
6.3.3 Rappresentazione della retta . . . . . . . . .
6.3.4 Posizione reciproca e ortogonalit`a tra rette .
6.3.5 Posizione reciproca e ortogonalit`a tra retta e
6.3.6 Fasci di piani nello spazio . . . . . . . . . .
6.3.7 Comune perpendicolare a due rette . . . . .
6.3.8 Distanze nello spazio . . . . . . . . . . . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
piano
. . . .
. . . .
. . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
98
98
103
104
106
108
109
110
112
114
116
119
121
123
124
127
7 Le coniche
7.1 Le coniche come luogo geometrico . . .
7.1.1 Circonferenza . . . . . . . . . .
7.1.2 Ellisse . . . . . . . . . . . . . .
7.1.3 Iperbole . . . . . . . . . . . . .
7.1.4 Parabola . . . . . . . . . . . . .
7.2 Ampliamento del piano affine euclideo
7.3 Le coniche . . . . . . . . . . . . . . . .
7.4 Classificazione delle coniche . . . . . .
7.5 Polarit`a definita da una conica . . . . .
7.5.1 Esempi . . . . . . . . . . . . . .
7.6 Riduzione a forma canonica . . . . . .
7.7 Esempi . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
130
130
130
131
133
134
135
137
139
142
145
148
152
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
CAPITOLO 1
Strutture Algebriche
1.1
oppure
{n Z | 2 n 3}
per indicare linsieme dei numeri interi compresi tra 2 e 3. Nella precedente scrittura Z sta ad indicare linsieme dei numeri interi relativi, pi`
u in generale per gli
insiemi numerici le notazioni usuali sono:
N0 = {0, 1, 2, 3, . . . } numeri naurali incluso lo 0;
N numeri naturali escluso lo 0;
Z numeri interi relativi (ossia positivi e negativi, incluso lo 0);
Q numeri razionali (ovvero i quozienti di interi);
R numeri reali.
Strutture Algebriche
S T = {x | x S o x T }
e
S \ T = {x | x S e x 6 T }.
Se S, T e V sono insiemi, alcune delle propriet`a dellunione e dellintersezione
sono qui di seguito elencate:
(i) S S = S e S S = S (propriet`a iterativa);
(ii) S T = T S e S T = T S (propriet`a commutativa);
(iii) (S T ) V = S (T V ) e (S T ) V = S (T V ) (propriet`a associativa);
(iv) (S T )V = (S V )(T V ) (propriet`a distributiva dellintersezione rispetto
allunione);
(v) (S T ) V = (S V ) (T V ) (propriet`a distributiva dellunione rispetto
allintersezione).
Le nozioni di unione e intersezione si possono generalizzare come segue. Sia F
un insieme non vuoto di insiemi. Si dice intersezione degli elementi di F linsieme
elemento di F.
In particolare, dato un[
insieme S, un insieme F di parti non vuote di S a due a
due disgiunte e tale che
X = S si dice essere una partizione di S. Ad esempio,
XF
qualsiasi sia linsieme non vuoto S sono sue partizioni gli insiemi {S} e {{x} | x S}.
1.2
Strutture Algebriche
Si potrebbe inoltre provare che se x ed y sono elementi di S allora [x]R = [y]R oppure
[x]R [y]R = ; in particolare si ha che linsieme S/R delle classi di equivalenza, che
`e detto anche insieme quoziente di S rispetto ad R, `e una partizione dellinsieme S.
Ad esempio, se S = {, 3, 4} e
G = {(, ), (3, 3), (4, 4)(, 4), (4, )}
allora R = (S 2 , G) `e una relazione di equivalenza e risulta
[]R = {, 4} = [4]R e [3]R = {3}.
1.3 Applicazioni
Un altro esempio `e il seguente. Nellinsieme delle rette (del piano o dello spazio)
della geometria elementare, la relazione k definita dalla posizione rks se e solo se r
ed s sono complanari e non incidenti (cio`e parallele) `e una relazione di equivalenza;
in tal caso la classe di equivalenza [r]k consiste in r e in tutte le rette ad r parallele
e viene detta direzione della retta r.
1.3
Applicazioni
Strutture Algebriche
- Suriettiva: se ogni elemento del codominio `e immagine di qualche elemento
del dominio; in simboli, y T x S tale che f (x) = y.
- Biettiva: se `e sia iniettiva che suriettiva e quindi se y T !x S tale che
f (x) = y.
1.4
Strutture Algebriche
2G Esiste un elemento neutro u G tale che x u = x = u x per ogni x G;
in tal caso, lelemento u si dice unit`a.
3G Per ogni elemento x G esiste un elemento x0 G, detto simmetrico di x
(rispetto a ), tale che x x0 = u = x0 x.
Il gruppo (G, ) si dice poi abeliano se gode anche della propriet`a:
4G Commutativa: per ogni x, y G risulta x y = y x.
t
u
a se x = b
a se x = c
b se x = a
c se x = a
f (x) =
e g(x) =
x se x S \ {a, b}
x se x S \ {a, c}
`e facile accorgersi che f e g sono permutazioni su S ma risulta f (g(c)) = f (a) = b
e g(f (c)) = g(c) = a, dunque f g 6= g f .
Supponiamo ora di avere un insieme non vuoto R su cui sono definite due operazioni interne, che denotiamo con + e . La struttura algebrica (R, +, ) si dice anello
se:
1R (R, +) `e un gruppo abeliano.
2R gode della propriet`a associativa, ovvero (xy)z = x(yz) per ogni x, y, z R.
3R gode della propriet`a distributiva rispetto a + ovvero se per ogni x, y e z in R
risulta (x + y) z = xz + yz e x (y + z) = xy + xz.
Lanello R si dice poi commutativo se loperazione di prodotto gode anche della
propriet`a commutativa (ossia xy = y x per ogni x, y R), si dice invece unitario se
anche il prodotto ha un elemento neutro ovvero se esiste un elemento, che solitamente
`e detto unit`a e si denota col simbolo 1, tale che 1 x = x = x 1 per ogni x R.
Un anello commutativo unitario R si dice campo se ogni elemento non nullo `e
invertibile (ovvero dotato di simmetrico rispetto al prodotto) e quindi se per ogni
10
Strutture Algebriche
a0 = a0 + 0
quindi a0 = 0 per la proposizione 1.4.1 e la (i) `e provata. Per provare la (ii) si noti
che
0 = a0 = a(b b) = ab + a(b) e 0 = ab + ((ab))
quindi sempre la proposizione 1.4.1 assicura che (ab) = a(b). In modo simile si
ha pure che (ab) = (a)b. Infine per provare la (iii) si noti che essendo a 6= 0
esiste linverso a1 di a e risulta
b = 1b = (a1 a)b = a1 (ab) = a1 0 = 0
t
u
come si voleva.
Si noti che, nella precendete, per le condizioni (i) e (ii) non serve che K sia un
campo, ma basta che K sia un anello; invece per la (iii) `e essenziale che K sia un
campo e questa condizione `e anche detta legge di annullamento del prodotto.
Concludiamo questa sezione sottolineando che esistono anche campi il cui sostegno
`e un insieme con un numero finito di elementi. Giusto per citarne uno, ma senza
soffermarci nella verifica che effettivamente questo sia un campo, si consideri un
insieme K formato da due elementi qualsiasi, ad esempio K = {, 4}; se in questo
insieme defininamo due operazioni interne ponendo
+ = ,
+ 4 = 4,
4 + = 4,
4+4=
e
= ,
4 = ,
4 = ,
44=4
CAPITOLO 2
Spazi vettoriali
2.1
Vettori liberi
Consideriamo linsieme E2 formato dai punti del piano o linsieme E3 dei punti dello
spazio della geometria elementare; si user`a qui il simbolo E per indicare uno qualsiasi
tra gli insiemi E2 ed E3 . Gli elementi di E, i punti, si indicano con le lettere maiuscole
dellalfabeto. Dati due punti P e Q distinti di E, si denoter`a con P Q il segmento di
estremi P e Q, e con rP Q la retta per P e Q. Dalla geometria elementare sappiamo
che assegnati due punti P e Q di una retta r `e possibile assegnare alla retta r, e
di conseguenza anche al segmento P Q, un verso di percorrenza quello secondo cui
P precede Q (che `e la stessa cosa che dire Q segue P ) oppure quello secondo
cui Q precede P . Un segmento P Q su cui si `e fissato uno dei due possibili versi
di percorrenza `e detto segmento orientato oppure vettore applicato, in tal caso si
dice che P `e il punto di applicazione (o anche primo estremo) se nel verso fissato
`e P che precede Q (altrimenti il punto di applicazione `e Q). Un vettore applicato
in cui punto di applicazione `e P si dice anche vettore applicato in P e si denota col
di dice anche secondo estremo. Il vettore applicato P Q pu`o essere interpretato come
lo spostamento del punto P sul punto Q e si pu`o rappresentare mediante una freccia
orientata da P a Q.
12
Spazi vettoriali
Due vettori applicati paralleli che non hanno lo stesso verso si dicono avere verso
opposto o verso discorde.
Dunque ad ogni vettore applicato (non nullo) corrispondono un punto di applicazione, un numero reale positivo (il modulo), una direzione e un verso. Viceversa,
fissato un punto P , un numero reale positivo a, la direzione di una retta r e un verso
su r, esiste un unico vettore applicato di primo estremo P , modulo a, direzione e
verso quelli di r: infatti, per lassioma di Euclide per P passa ununica retta parallela ad r sulla quale `e chiaramente possibile individuare un solo punto Q tale che il
segmento P Q abbia misura a e verso concorde a quello fissato su r.
Sia VE linsieme dei vettori applicati con primo e secondo estremo in E. Definiamo
in VE una relazione dicendo che due vettori applicati sono equipollenti se hanno
stesso modulo, direzione e verso. Tale relazione `e evidentemente una relazione di
equivalenza, e si dice vettore libero (o semplicemente vettore) ogni classe di equivalenza rispetto alla relazione di equipollenza (in maniera compatta, ogni classe
di equipollenza). I vettori applicati nulli formano una classe di equipollenza detta
vettore nullo e denotata con 0. In generale, quando il contesto non crea ambiguit`a,
ottenuto come classe di equipollenza del vettore applicato P Q; per`o per quello che
qui segue `e necessario fissare una notazione diversa e si user`a denotare, in questa
13
assicura che esite un unico punto T tale che w = QT: allora per definizione si pone
v + w = PT.
14
Spazi vettoriali
v V,
e ogni vettore v =PQ ha per opposto (cio`e simmetrico rispetto alla somma) il vettore
15
solo un i {1, 2} tale che il vettore P Ti abbia lo stesso verso di P Q: il vettore libero
unico punto T tale che w =PT. Allora si ha che v e w sono paralleli se e solo i
segmenti P Q e P T giacciono su una stessa retta e quindi se e solo se v e w sono
proporzionali.
t
u
Tre vettori dello spazio u, v e w si dicono complanari se possono essere rappresentati con segmenti orientati giacenti su uno stesso piano; in particolare, tre vettori
sono complanari se uno dei tre `e nullo.
16
Spazi vettoriali
P E = P E 12 + P E 3 = P E 1 + P E 2 + P E 3 .
17
2.2
Spazi vettoriali
Abbiamo visto che nellinsieme vettori liberi V del piano o dello spazio `e possibile
definire unoperazione interna di somma, rispetto alla quale `e un gruppo abeliano,
e unoperazione esterna con dominio di operatori in R che seppure in maniera impropria, ma in un modo che `e sicuramente pi`
u semplice da ricordare, possiamo dire
essere distributiva rispetto alla somma, associativa e dotata di elemento neutro.
Questa struttura algebrica suggerisce la seguente definizione.
Siano (V, +) un gruppo abeliano, (K, +, ) un campo e
: (, v) K V v V
unoperazione esterna in V con dominio di operatori in K. La struttura algebrica
(V, +, ) si dice uno spazio vettoriale su K (o un K-spazio vettoriale) se qualsiasi
siano gli elementi , K e u, v V risulta:
1V (u + v) = (u) + (v);
2V ( + )v = (v) + (v);
3V (v) = ()v;
4V 1v = v.
In tal caso, gli elementi di V si dicono vettori e quelli di K scalari. Nel seguito
loperazione esterna sar`a denotata moltiplicativamente; inoltre, salvo avviso contrario, si parler`a semplicemente di spazio vettoriale ritenendo fissato il campo K.
Proposizione 2.2.1 Sia V uno spazio vettoriale. Se e sono elementi di K ed
u e v sono elementi di V , risulta:
(i) v = 0 se e solo se = 0 oppure v = 0;
(ii) (v) = ()v = (v);
(iii) ( )v = v v;
(iv) (u v) = u v.
Dimostrazione (i)
18
Spazi vettoriali
Evidentemente, linsieme dei vettori liberi del piano o dello spazio ha una struttura di spazio vettoriale sul campo reale, e ci si riferisce ad esso come allo spazio
vettoriale dei vettori geometrici. Altri esempi di spazi vettoriali sono i seguenti.
Spazio vettoriale numerico Se K `e un campo e n `e un intero positivo, allora
qualsiasi siano gli elementi (k1 , . . . , kn ) e (h1 , . . . , hn ) di Kn e di K, le posizioni
(k1 , . . . , kn ) + (h1 , . . . , hn ) = (k1 + h1 , . . . , kn + hn )
e
(k1 , . . . , kn ) = (k1 , . . . , kn )
definiscono due operazioni e la struttura (Kn , +, ) `e un K-spazio vettoriale.
Spazio dei polinomi Siano K un campo e K[x] linsieme dei polinomi a coefficienti
in K (qui per semplicit`a, cos` da ritrovare in K[x] un insieme gi`a noto, si pu`o pensare
a K come al campo reale o complesso); allora K[x] `e un altro esempio di spazio
vettoriale su K. Infatti, lusuale operazione di addizione tra polinomi rende K[x] un
gruppo abeliano ed inoltre, considerati il generico polinomio a0 + a1 x + + an xn
a coefficienti in K e K, la posizione
(a0 + a1 x + + an xn ) = a0 + a1 x + + an xn
2.3 Sottospazi
19
( f )(x) = f (x)
x S.
essere il segmento orientato OB che giace sulla retta OA, che ha primo estremo in O
e secondo estremo nel punto B tale che la misura del segmento OB sia || volte quella
del segmento OA, inoltre il verso del segmento OB `e concorde o discorde a quello
e in cui lopposto del vettore OA `e il vettore OA0 che giace sulla retta OA, ha per
2.3
Sottospazi
20
Spazi vettoriali
se e solo se u, v W e , K risulta u + v W .
H1 H2 = {OP VO | P r s}
non `e un sottospazio perch`e non `e stabile rispetto
alloperazione di somma. Infatti, se si conside
rano due segmenti orientati non nulli OP H1
e OQ H2 allora OR = OP + OQ non `e in H1 H2 perch`e R non `e n`e su r n`e su s.
2.3 Sottospazi
21
Dimostrazione Chiaramente
W F
Proposizione 2.3.2 Siano V uno spazio vettoriale e X una parte non vuota di V .
Allora L[X] = {1 x1 + + n xn | n N; 1 , . . . , n K; x1 , . . . , xn X}.
Dimostrazione Linsieme L di tutte le somme (finite) 1 x1 + + n xn con
ogni i K e ogni xi X, `e evidentemente un sottospazio di V che contiene X,
sicch`e L[X] L. Daltra parte se W `e un sottospazio di V contenente X, allora W
contiene L e quindi L L[X]. Pertanto L = L[X].
t
u
22
Spazi vettoriali
e quindi, essendo
Wi (W1 + + Wi1 + Wi+1 + + Wn ) = {0},
risulta wi wi0 = 0, ovvero wi = wi0 come volevamo.
23
come volevamo.
Consideriamo, ad esempio, lo spazio vettoriale numerico R3 e gli insiemi
X = {(2t, 0, t) | t R} ed Y = {(0, s, 0) | s R}.
E semplice accorgersi che X e Y sono sottospazi, inoltre la proposizione 2.3.2 assicura che X = L[(2, 0, 1)], Y = L[(0, 1, 0)] e
X + Y = L[(2, 0, 1), (0, 1, 0)] = {(2s, t, s) | s, t R}.
Essendo evidente che X Y = {0}, si ha che X + Y = X Y .
2.4
Siano V uno spazio vettoriale ed X una parte non vuota di V . Si dice che un
elemento v di V dipende da X se v `e combinazione lineare di un numero finito di
elementi di X (a coefficienti in K), e quindi se esistono degli elementi x1 , . . . , xn X
tali che v = 1 x1 + + n xn con 1 , . . . , n K. Evidentemente se v dipende da
X allora v dipende da una parte finita di X. Si osservi che se v X, allora v = 1 v
dipende da X; inoltre, se Y `e una parte non vuota di X, ogni elemento di V che
dipende da Y dipende anche da X. E anche chiaro che il vettore nullo dipende da
ogni parte non vuota di V , essendo 0 = 0 v per ogni v V .
I vettori v1 , v2 , . . . , vn a due a due distinti di V si dicono linearmente dipendenti
se esistono 1 , 2 , . . . , n K non tutti nulli tali che 1 v1 + 2 v2 + + n vn = 0;
differentemente, i vettori v1 , v2 , . . . , vn si dicono linearmente indipendenti se non
sono linearmente dipendenti, cio`e se da 1 v1 + 2 v2 + + n vn = 0 segue che
1 = 2 = = n = 0. Si osservi che i vettori a due a due distinti v1 , . . . , vn
sono linearmente dipendenti se e solo se (almeno) uno di essi dipende dallinsieme
formato dai restanti vettori, ovvero se e solo se (almeno) uno di essi `e combinazione
lineare dei restanti, infatti risulta essere
24
Spazi vettoriali
1 v1 + 2 v2 + + n vn = 0
con
i 6= 0,
se e solo se
1
1
1
vi = 1
i 1 v1 i i1 vi1 i i+1 vi+1 i n vn ,
ovvero se e solo se
vi L[v1 , . . . , vi1 , vi+1 , . . . vn ].
In particolare, nel caso di due vettori v1 e v2 si ottiene che essi sono dipendenti se e
solo se esiste uno scalare K tale che v1 = v2 e v2 = 1 v1 , o in altre parole, se
e solo se ciascuno di essi appartiene al sottospazio vettoriale generato dallaltro.
Se V `e uno spazio vettoriale, una sua parte X si dice libera o indipendente se
`e vuota oppure se comunque si considerano degli elementi a due a due distinti
x1 , . . . , xn in X, essi sono linearmente indipendenti. Se X non `e libera, allora si
dice che X `e legata o dipendente. Quindi X `e legata se X `e non vuota ed esiste
una combinazione lineare nulla 1 x1 + + n xn = 0 di elementi x1 , . . . , xn di X
con scalari 1 , . . . , n non tutti nulli. Chiaramente X `e libera se e solo se `e libera
ogni sua parte finita, ed `e anche chiaro che ogni sottoinsieme di V che contiene
una parte legata `e legato. Sicch`e essendo 1 0 = 0, ogni parte che contiene {0} `e
legata. Invece, se v V \ {0}, allora la (i) della proposizione 2.2.1 assicura che
{v} `e una parte libera di V . Si noti inoltre che i vettori v1 , . . . , vn sono linearmente
indipendenti (rispettivamente dipendenti) se e solo se la parte {v1 , . . . , vn } `e libera
(rispettivamente legata).
Proposizione 2.4.1 Sia V uno spazio vettoriale sul campo K e sia X una parte di
V . Allora
(i) X `e legata se e solo se esiste un elemento v di X che dipende da X \ {v}.
(ii) X `e libera se e solo se non esiste alcun elemento v in X che dipenda da X \{v}.
Dimostrazione Essendo (ii) la negazione della (i), basta provare la (i). Sia X
una parte legata, allora X `e non vuota ed esistono x1 , . . . , xn X e 1 , . . . , n K
tali che 1 x1 + +n xn = 0 e i 6= 0 per qualche i {1, . . . , n}. Allora xi dipende da
{x1 , . . . , xi1 , xi+1 , . . . , xn } e quindi anche da X \{xi }. Reciprocamente, supponiamo
esita un elemento v di X che dipenda da X \ {v}. Allora esistono degli elementi
x1 , . . . , xn in X \ {v} e degli scalari 1 , . . . , n in K tali che v = 1 x1 + + n xn .
Cos` 1 v 1 x1 n xn = 0 `e una combinazione lineare nulla di elementi di X
con coefficienti non tutti nulli e pertanto X `e legata.
t
u
Sia V uno spazio vettoriale. Una parte X di V si dice sistema di generatori di V
se si ha che V = L[X]. Chiaramente linsieme vuoto `e un sistema di generatori di
{0}, mentre la proposizione 2.3.2 assicura che un insieme non vuoto X `e un sistema
25
26
Spazi vettoriali
Teorema 2.4.3 Ogni spazio vettoriale possiede una base ed inoltre tutte le basi di
uno spazio vettoriale sono equipotenti tra loro.
2.5
Si vogliono qui di seguito analizzare le propriet`a degli spazi vettoriali che hanno una
base finita.
27
Teorema 2.5.2 Sia V uno spazio vettoriale generato da un numero finto n di elementi. Allora V contiene una base finita di ordine m n e ogni sua base ha m
elementi.
Dimostrazione Sia S un sistema di generatori per V con n elementi. Linsieme
F = {G P (S) | L[G] = V }
`e non vuoto, perch`e contiente S, ed ha un numero finito di elementi, perch`e S ha
evidentemente un numero finito di sottoinsiemi; daltra parte ogni elemento di F `e
un insieme con al pi`
u n elementi e quindi `e chiaro che tra gli elementi di F se ne
pu`o scegliere uno, diciamolo B, con il numero minore m di elementi. Per tale scelta,
ogni parte di S contenuta propriamente in B non pu`o generare V e quindi B `e un
sistema minimale di generatori di V nonche una un base per V , per il teorema 2.4.2.
Sia B1 unaltra base per V . Se X `e una parte finita di B1 allora X `e libera e quindi,
essendo V = L[B], il lemma di Steinitz 2.5.1 assicura che X ha al pi`
u m elementi.
Pertanto necessariamente B1 `e finito e contiene un numero di elementi k con k m.
Daltra parte B `e contenuto in V = L[B1 ], e quindi ancora il lemma di Steinitz 2.5.1
assicura che m k, pertanto k = m ed il risultato `e provato.
t
u
Sia V uno spazio vettoriale non nullo. Si dice che V ha dimensione finita (su
K), se V ha una base finita. Se V ha una base finita B di ordine m, allora B `
e un
sistema di generatori finito di V e il teorema 2.5.2 assicura che ogni altra base di V
ha esattamente m elementi. E lecito allora definire lintero m come la dimensione
di V (su K); in tal caso, si scrive dimK (V ) = m o semplicemente dim(V ) = m.
Per convenzione, anche lo spazio vettoriale nullo ha dimensione finita pari a 0.
Evidentemente uno spazio vettoriale ha dimensione 0 se e solo se esso `e lo spazio
vettoriale nullo.
Il teorema 2.4.3, o se si preferisce il teorema 2.5.2, assicura che ogni spazio vettoriale (finitamente generato) `e dotato di basi. Lutilit`a della nozione di base `e
espressa nellenunciato del prossimo risultato il quale, in un certo senso (e come poi
si vedr`a formalmente in seguito), mostra che i vettori dello spazio possono essere
individuati, una volta fissata una base, mediante vettori numerici.
28
Spazi vettoriali
Teorema 2.5.3 Siano V uno spazio vettoriale ed X = {x1 , . . . , xn } una parte finita
di V . Allora X `e una base per V se e solo se ogni elemento v di V si scrive come
combinazione lineare v = 1 x1 + + n xn in cui i coefficienti 1 . . . , n K sono
univocamente determinati.
Dimostrazione Se X `e una base per V e v V , la proposizione 2.3.2 assicura che
v = 1 x1 + +n xn con 1 , . . . , n K. Supponiamo sia anche v = 1 x1 + +n xn
con 1 , . . . , n K. Allora
(1 1 )x1 + + (n n )xn = 0
e quindi, essendo X una parte libera, per ogni i = 1, . . . , n deve essere i i = 0.
Pertanto i = i per ogni i = 1, . . . , n e quindi i coefficienti i sono univocamente
determinati.
Reciprocamente, poich`e ogni elemento di V `e combinazione lineare di elementi
di X si ha che X `e un sistema di generatori di V . Inoltre se 1 x1 + + n xn = 0
allora `e
1 x1 + + n xn = 0x1 + + 0xn
e quindi lunicit`a dei coefficienti assicura che 1 = = n = 0. Pertanto X `e anche
una parte libera e dunque `e una base per V .
t
u
Corollario 2.5.4 Sia V uno spazio vettoriale. La parte {x1 , . . . , xn } di V `e una
base per V se e solo se V = L[x1 ] L[xn ].
Dimostrazione Segue subito dal teorema 2.5.3 e dalla proposizione 2.3.3.
t
u
29
30
Spazi vettoriali
Ancora in realzione al precedente corollario, e precisamente al punto (ii), osserviamo che si pu`o dire qualcosa in pi`
u: se X `e una parte libera dello spazio vettoriale
V e B `e una base finita di V , allora X si pu`o completare ad una base di V mediante
elementi di B. Infatti se ogni elemento di B dipende da X, allora V = L[B] = L[X]
e cos` X `e una base di V ; altrimenti esite un elemento b1 di B che non dipende da X
ed `e semplice accorgersi che X1 = X {b1 } `e libero. Se ogni elemento di B dipende
da X1 , allora come prima X1 `e una base per V , altrimenti esiste un elemento b2 di
B (distinto da b1 ) che non dipende da X1 , e in tal caso X2 = X1 {b2 } `e libero.
Iterando questo ragionamento e ricordando che B `e finito, dopo un numero finito di
passi, si ha che esistono b1 , . . . , bi elementi di B tali che Xi = X {b1 , . . . , bi } `e una
base di V .
Andiamo ora a determinare la dimensione di alcuni spazi vettoriali. Iniziamo ad
analizzare quella dello spazio dei vettori liberi. La proposizione 2.1.2 assicura che
due vettori liberi del piano E2 sono indipendenti se e solo se sono non paralleli; daltra
parte, la proposizione 2.1.3 assicura che due vettori non paralleli di V2 costituiscono
un sistema di generatori. Pertanto una base per V2 `e costituita da due vettori liberi
non paralleli; in particolare dim(V2 ) = 2. Nello spazio E3 , invece, tre vettori non
complanari sono un sistema di generatori per V3 per la proposizione 2.1.4. Daltra
parte richedere che tre vettori sono non complanari, significa richedere che nessuno
dei tre appartenga al sottospazio generato dagli altri due. Quindi tre vettori non
complanari sono indipendenti per la proposizione 2.4.1 e pertanto sono una base per
V3 ; in particolare, dim(V3 ) = 3.
Siano poi K un campo ed n un intero positivo. Posto, per ogni i = 1, . . . , n,
ei = (0, ..., 0, 1, 0, ..., 0)
i
`e immediato accorgersi che linsieme {e1 , . . . , en } `e una base per Kn ,detta base canonica (o anche naturale o standard); in particolare, dim(Kn ) = n. Evidentemente,
poi, rispetto al riferimento canonico (e1 , . . . , en ) il generico vettore (k1 , . . . , kn ) di
Kn ha per componenti k1 , . . . , kn .
Lo spazio dei polinomi K[x] su un campo K, invece, non `e finitamente generato e
quindi non ha dimensione finita. Infatti, comunque si prende una parte finita X di
K[x] detto m il massimo dei gradi dei polinomi che formano X il polinomio xm+1 ,
non essendo esprimibile come combinazione lineare di polinomi di grado al pi`
u m,
non dipende da X e pertanto X non genera K[x]. Daltra parte per`o, se n N, il
sottospazio Kn [x] dei polinomi di grado al pi`
u n ha come sistema di generatori la
parte B = {1, x, x2 , . . . , xn }. Facilmente si prova che B `e anche una parte libera,
dunque `e una base e cos` dim(Kn [x]) = n + 1. Si noti che il generico polinomio
a0 + a1 x + + an xn di Kn [x] ha (a0 , a1 , . . . , an ) come vettore delle componenti
rispetto al riferimento (1, x, x2 , . . . , xn ).
31
Passiamo ora a provare alcune relazioni tra la dimensione di uno spazio vettoriale
e la dimensione di un suo sottospazio.
Proposizione 2.5.7 Sia V uno spazio vettoriale di dimensione finita e sia W un
suo sottospazio. Allora W ha dimensione finita e risulta essere dim(W ) dim(V ).
Inoltre, dim(W ) = dim(V ) se e solo se W = V .
Dimostrazione Una base B1 di W `e una parte libera di V che pertanto si
pu`o completare ad una base B2 di V per il corollario 2.5.6. Poich`e B2 `e finita,
segue che W ha dimensione finita finita ed inoltre dim(W ) dim(V ). Ora, se
dim(W ) = dim(V ) si ha che B1 e B2 hanno lo stesso numero di elementi. Essendo
B1 contenuto in B2 segue che B1 = B2 e quindi V = L[B2 ] = L[B1 ] = W .
t
u
Teorema 2.5.8 (Formula di Grassmann) Sia V uno spazio vettoriale di dimensione finita e siano W1 e W2 suoi sottospazi. Allora
dim(W1 + W2 ) = dim(W1 ) + dim(W2 ) dim(W1 W2 ).
Dimostrazione Per la proposizione 2.5.7, i sottospazi W1 , W2 e W1 W2 hanno
tutti dimensione finita. Il corollario 2.5.6 assicura che `e possibile completare una
base B = {v1 , . . . , vr } di W1 W2 a basi
B1 = {v1 , . . . , vr , u1 , . . . , us } e B2 = {v1 , . . . , vr , w1 , . . . , wt }
di W1 e W2 , rispettivamente. Chiaramente ciascuno dei vettori vi , uj e wk appartiene
a W1 + W2 . Inoltre, poich`e ogni elemento di W1 `e combinazione lineare dei vettori
vi e uj mentre ogni elemento di W2 `e combinazione lineare dei vettori vi e wk , ne
segue che ogni elemento di W1 + W2 `e combinazione lineare dei vi , uj e wk . Dunque
i vettori in questione sono generatori di W1 + W2 , ovvero B1 B2 `e un sistema di
generatori per W1 + W2 e cos`, al fine di provare che B1 B2 `e una base per W1 + W2
resta da provare che B1 B2 `e libero. Considerando una combinazione lineare nulla
1 v1 + + r vr + 1 u1 + + s us + 1 w1 + + t wt = 0
(2.1)
si ha che
1 v1 + + r vr + 1 u1 + + s us = 1 w1 t wt W1 W2
dunque
1 v1 + + r vr + 1 u1 + + s us = 1 v1 + + r vr
e cos` il teorema 2.5.3 garantisce, in particolare, che 1 = = s = 0. Pertanto la
(2.1) diventa
1 v1 + + r vr + 1 w1 + + t wt = 0
32
Spazi vettoriali
2.6
(u) = (u)
u, v V e K.
u, v V e , K.
Unapplicazione lineare si dice monomorfismo se `e iniettiva, mentre si dice epimorfismo se `e suriettiva. Unomomorfismo biettivo invece si dice isomorfismo e
gli spazi vettoriali V e W si dicono isomorfi se esiste un isomorfismo di V in W .
Unapplicazione lineare di V in se si dice endomorfismo e un endomorfismo biettivo
si dice automorfismo.
Proposizione 2.6.1 Se : V W `e unapplicazione lineare tra gli spazi vettoriali V e W su un campo K, allora:
(i) (0) = 0;
(ii) (v) = (v) per ogni v V ;
(iii) (u v) = (u) (v) per ogni u, v V .
33
34
Spazi vettoriali
t
u
e pertanto = .
v2 = (1, 3).
Poniamo
(1) = (x + x2 ) = v1
(1 + x) = v2
(2.2)
35
36
Spazi vettoriali
t
u
37
38
Spazi vettoriali
2.7
39
t
u
CAPITOLO 3
Generalit`
a e operazioni tra matrici
Si fissi, qui e per tutto il capitolo, un campo K. Una matrice ad m righe ed n colonne
su K (dove m ed n sono due interi positivi), o semplicemente una matrice m n su
K, `
e unapplicazione dellinsieme {1, . . . , m} {1, . . . , n} in K. Sia
A : {1, . . . , m} {1, . . . , n} K
una matrice m n su K. Per ogni elemento (i, j) di {1, . . . , m} {1, . . . , n} si pone
aij = A(i, j), e per indicare la matrice A si scrive
A = ..
..
.. ,
.
.
.
.
.
.
am1 am2 . . . amn
o semplicemente A = (aij ). Una matrice con tutti gli elementi uguali a 0 si dice
matrice nulla.
Se (i, j) {1, . . . ,
m} {1,
. . . , n}, indichiamo con Ai = (ai1 , . . . , ain ) la i-esima
a1j
..
j
riga di A e con A = . la j-esima colonna di A, chiaramente si tratta qui di
amj
una matrice 1 n nel caso delle righe e di una matrice m 1 nel caso delle colonne.
Talvolta sar`a utile pensare alle righe o alle colonne della matrice A come vettori
numerici dello spazio vettoriale Kn o Km , rispettivamente.
Se il numero di righe di A coincide col numero di colonne, cio`e m = n, si dice che
A `e una matrice quadrata di ordine n su K; in tal caso, linsieme {aii | i = 1, . . . , n}
si dice diagonale principale di A.
Linsieme delle matrici m n su K si denota con Mm,n (K); qualora poi m = n si
scrive semplicemente Mn (K) in luogo di Mn,n (K). Nellinsieme Mm,n (K) si definisce
unoperazione di somma ponendo
(aij ) + (bij ) = (aij + bij ).
Con loperazione cos` definita Mm,n (K) `e un gruppo abeliano in cui lo zero `e la
matrice nulla O (cio`e la matrice O = (oij ) i cui elementi oij sono tutti 0), e in cui
lopposto della matrice (aij ) `e la matrice (aij ) = (aij ).
41
B=
1 2 3
4 5 6
si ha che
AB =
=
9 12 15
19 26 33
.
1 0
At = 2 5 M3,2 (R).
1 1
42
3.1.1
n
X
air brs
r=1
e pertanto
eij =
p
X
dis csj =
s=1
p n
X
X
s=1
air brs csj .
r=1
Analogamente
frj =
p
X
brs csj
s=1
e quindi
gij =
n
X
r=1
air frj =
n
X
air
r=1
p
X
brs csj =
s=1
p n
X
X
s=1
air brs csj = eij .
r=1
t
u
Dunque Mn (K) con la somma e il prodotto righe per colonne `e un anello, tale
anello `e anche unitario di unit`a la matrice identica, ovvero la matrice
1 0 ... 0
0 1 ... 0
In = .. .. . . ..
. .
. .
0 0 ... 1
che si pu`o anche denotare come
In = (ij )
ij =
43
1 se i = j
0 se i 6= j
0 0
0 0
e BA =
0 0
1 0
.
Si noti che il precedente esempio mostra che in generale nellanello Mn (K) non vale
la legge di annullamento del prodotto. Inoltre considerando le matrici (reali)
3
9
5 10
8 7
A=
,B=
e C=
1 3
1
2
2
1
ed osservando che
B 6= C
ma AB = AC =
6 12
2
4
3.1.2
Linsieme Mm,n (K) delle matrici m n sul campo K ha, com`e semplice accorgersi,
una struttura di spazio vettoriale sul campo K quando si considera come operazione
interna la somma tra matrici e come operazione esterna con dominio di operatori in
K, loperazione di prodotto di una matrice per uno scalare.
Si noti che
a11 . . .
..
..
.
.
am1 . . .
a1n
1 ... 0
0 ... 1
.. = a .. . . .. + ... + a .. . . .. +
. .
. .
11 .
1n .
.
amn
0 ... 0
0 ... 0
0 ... 0
0 ...
.. . .
.. . . ..
+ + am1 .
. . + + amn .
.
1 ... 0
0 ...
0
..
.
1
44
sicch`e, detta Eij `e la matrice il cui unico elemento non nullo `e lelemento di posto
(i, j) che `e 1, si ha che linsieme
B = {Eij | i = 1, . . . , m e j = 1, . . . , n}
`e un sistema di generatori per lo spazio vettoriale Mm,n (K). Daltra parte `e semplice
accorgersi che B `e anche un insieme libero, pertato B `e una base per Mm,n (K), detta
talvolta base canonica di Mm,n (K); in particolare, dim(Mm,n (K)) = mn.
3.2
Matrici a scala
Una matrice non nulla A di Mm,n (K) si dice matrice a scala (o anche a gradini o a
scalini) se verifica le seguenti condizioni:
(a) Se una riga di A `e non nulla, allora il primo elemento non nullo di tale riga, che
`e detto pivot della riga in considerazione, `e pi`
u a sinistra del primo elemento
non nullo delle righe ad essa successive.
(b) Se una riga di A `e nulla, tutte le righe ad essa successive sono nulle.
Ad esempio, sono a scala le seguenti matrici
1 2 3
1 2
e 0 0 4 .
0 4
0 0 0
Sia A un matrice m n su un campo K. Una operazione elementare (sulle righe)
in A `e una dei seguenti tipi di operazioni (dette mosse di Gauss):
Tipo 1) Moltiplicazione di una riga per un elemento non nullo di K: ri ri (con
K \ {0}).
Tipo 2) Scambio di due righe: ri rj .
Tipo 3) Aggiunta di un multiplo di una riga ad unaltra riga: ri ri +rk (con K).
Se A e B sono matrici m n sul campo K, `e chiaro che se B si ottiene da A
moltiplicando la riga i-esima per lo scalare non nullo , allora A si ottiene da B
moltiplicando la riga i-esima per lo scalare non nullo 1 . Analogamente se da
A passo a B mediante loperazione ri rj , allora tramite la stessa operazione
passo anche da B ad A; ed infine se da A passo a B mediante loperazione del
tipo ri ri + rk , allora da B passo ad A mediante loperazione ri ri rk .
In un certo senso, quindi, ad ogni operazione elementare corrisponde unoperazione
45
elementare inversa, alla quale nel seguito ci si riferir`a appunto con operazione
elementare inversa.
Pertanto se in Mm,n (K) definiamo la relazione A B se e solo se B si ottiene
da A mediante un numero finito di operazioni elementari, si ottiene una relazione di
equivalenza. Le matrici A e B si dicono matrici equivalenti se A B.
Teorema 3.2.1 Ogni matrice (su un campo) `e equivalente ad una matrice a scala.
La dimostrazione del precedente teorema `e un algoritmo detto Algoritmo di
Gauss. Tale algoritmo trasfoma una matrice nella sua forma detta forma a scala,
esso si basa sulluso di operazioni elementari di tipo 2) e 3) ed `e illustrato come
segue. Sia A = (aij ) la generica matrice m n sul campo K.
Passo 1 Se A `e la matrice nulla, lalgoritmo termina. Supponiamo quindi che
A sia non nulla.
Passo 2 Partendo da sinistra individuiamo la prima colonna non nulla e poi,
partendo dallalto, il primo elemento non nullo in questa colonna; quindi scambiamo
eventualmente le righe in modo tale da spostare lelemento individuato alla prima
riga. Formalmente: sia j il minimo intero in {1, . . . , n} tale che la colonna Aj di A
sia non nulla e sia i il minimo intero in {1, . . . , m} tale che a = aij 6= 0; inolte, se
i 6= 1 effettuiamo loperazione elementare ri r1 .
Passo 3 Per ogni riga h successiva alla prima e tale che ahj 6= 0, effettuiamo
loperazione elementare rj rh ahj a1 rj . Cos` facendo si rendono nulli tutti gli
elementi della j-sima colonna che si trovano nelle righe successive alla prima (cio`e
sotto ad a).
Passo 4 Se A `e costituita da ununica riga lagoritmo termina, altrimenti si considera la matrice che si ottiene da A cancellando la prima riga e si applica lalgoritmo
(ricominciando dal passo 1) a tale matrice.
Ad esempio, determiniamo una matrice a
di M3,4 (R)
0 5
1
1
A=
3 2
0 2
1 1 .
1 1
Si parte dalla prima riga e si vede che la colonna contenente elementi non nulli con
indice pi`
u piccolo `e la prima. Essendo a11 = 0 e a21 6=
0 la prima cosa da
fare `e
1
1 1 1
scambiare la prima riga con la seconda ottenendo cos` 0 5 0 2 . Al
3 2 1 1
fine di annullare anche il primo elemento
della
terza
riga,
effettuiamo
loperazione
1 1 1 1
r3 r3 + 3r1 ottendendo la matrice 0 5 0 2 . Una volta che abbiamo
0 5 4 4
46
annullato tutti gli elementi della prima colonna nelle righe successive alla prima,
dobbiamo considerare la matrice che si ottiene cancellando la prima riga, in altre
parole dobbiamo ripetere lalgoritmo tralasciando la prima riga. In questo caso il
pivot si trova gi`a nella posizione giusta e quindi dobbiamo solo annullare gli elementi
al di sotto del pivot della seconda riga, ovvero
la trasformazione
dobbiamo applicare
1 1 1 1
r3 r3 + r2 cos` da ottenere la matrice 0 5 0 2 che `e una matrice a
0 0 4 2
scala equivalente ad A.
Come altro esempio, consideriamo la seguente matrice di M4 (R)
1 2 2 1
0 0 0 5
A=
0 0 4 2 .
0 0 8 6
Come
prima cosa effettuiamo
uno scambio tra le seconda e la terza riga otte
1 2 2 1
0 0 4 2
nendo
0 0 0 5 e poi per annullare gli elementi della terza colonna nelle
0 0 8 6
righe
successive
alla
1 2 2 1
0 0 4 2
47
campo K e supponiamo che A sia a scala (ovvero che ad essa sia stato applicato gi`a
lalgoritmo di Gauss).
Passo 1 Se A `e la matrice nulla, lalgoritmo termina. Si assuma quindi che A
non sia nulla.
Passo 2 Sia i il massimo intero di {1, . . . , n} tale che la i-esima riga di A sia
non nulla (cio`e si considera lultima riga non nulla della matrice). Detto j lindice
relativo alla colonna di A tale che a = aij `e il pivot della riga i-esima, si effettua
loperazione elementare ri a1 ri cos` da rendere il pivot uguale ad 1.
Passo 3 Si rendono ora nulli gli elementi che si trovano al di sopra del pivot della
riga i-esima, ovvero per ogni riga di indice h < i si effettua loperazione elementare
rh rh ahj ri .
Passo 4 Se i = 1 lalgoritmo termina, altrimenti si considera la matrice che si
ottiene da A cancellando la i-esima riga e si applica ad essa il procedimento a partire
dal passo 1.
Ad esempio, trasformiamo nella forma a scala ridotta la matrice su R
1 1 0 2
1 1 1 .
A= 2
3 2 1 2
Mediante lalgoritmo di Gauss essa `e equivalente alla matrice a scala
1 1 0 2
0 3 1 5 .
0 0 43 37
Rendiamo ora uguale ad 1 il pivot della terza
riga, occoorrequindi moltiplicare la
1 1 0 2
3
0 3 0 27
del pivot della terza riga
4
7
0 0 1 4
che si ottiene da questultima cancellando lultima riga, in altre parole applichiamo
lo stesso procedimento focalizzando lattenzione sulla seconda riga (e quella ad essa
precedente). Rendiamo uguale
ad 1 il pivot della seconda riga dividendo per 3
1 1 0 2
questa riga 0 1 0 94 , a questo punto si effettua loperazione r1 r1 + r2
7
0 0 1 14
1 0 0 4
48
3.3
A(i1 , . . . , is | j1 , . . . , jt ) =
ovvero A(i1 , . . . , is | j1 , . . . , jt ) `e la matrice che si ottiene da A considerando gli elementi che si trovano simultaneamente sulle righe di posto i1 , . . . , is e sulle colonne
di posto j1 , . . . , jt . In generale, gli indici considerati non sono necessariamente distinti; qualora invece si suppone che gli indici sono distinti, che i1 < < is e che
j1 < < jt , la matrice A(i1 , . . . , is | j1 , . . . , jt ) prende il nome di sottomatrice. Se
poi s = t la sottomatrice A(i1 , . . . , is | j1 , . . . , js ) prende il nome di minore di ordine
s di A. In particolare, quando A `e quadrata di ordine n, il minore di ordine n 1
di A ottenuto escludendo dalle righe di A solo una riga, diciamo la i-sima, ed escludendo solo una delle colonne, diciamo la j-sima, si dice minore complementare
dellelemento aij e si denota, per semplicit`a, col simbolo Aij .
Ad esempio, data la matrice
2
0 3 4
1
0
A = 5 6
4 5 1
1
si ha
2
2
A(1, 2, 1 | 1, 1) = 5 5
2
2
e A(1, 3 | 2, 4) =
0 4
5 1
mentre
A32 =
2 3 4
5 1
0
.
Vogliamo definire il determinante di una matrice quadrata A, esso sar`a un elemento di K che si indicher`a con det(A) (o anche con |A|).
Se A = (a) M1 (K) poniamo det(A) = a. Sia A = (aij ) Mn (K) con n 2 e
supponiamo di aver definito il determinante delle matrici di Mn1 (K). Poniamo
det(A) =
n
n
X
X
(1)1+j a1j det(A1j ) =
a1j a01j ,
j=1
j=1
49
dove si `e posto a01j = (1)1+j det(A1j ). Resta cos` definito un elemento det(A) di K,
detto determinante di A, per ogni matrice A di Mn (K), qualsiasi sia lintero positivo
n. Lelemento di K
a0ij = (1)i+j det(Aij ),
si dice talvolta complemento algebrico di aij . Inoltre, la matrice A si dice singolare
oppure degenere quando det(A) = 0. Si osservi che nel caso particolare di matrici
2 2, se
a11 a12
A=
,
a21 a22
si ha det(A) = a11 a22 a12 a21 .
Ad esempio, calcoliamo il determinante della matrice di M3 (R)
2 1 3
A = 0 1 1 .
4 3 5
0 1
1 1 0 1
= 20.
3
Allora det(A) = 2
3 5 4 5
4 3
Si osservi che nella definizione di determinante si `e fissata implicitamente la
prima riga, ma in realt`a sussiste il seguente notevole risultato, di cui si omette la
dimostrazione, il quale ci dice che il determinate di una matrice pu`o essere calcolato
avendo fissato una quasiasi riga o colonna.
Teorema 3.3.1 (Primo Teorema di Laplace) Sia A = (aij ) una matrice quadrata
di ordine n sul campo K. Se h {1, . . . , n} allora
n
n
X
X
h+j
det(A) =
(1) ahj det(Ahj ) =
ahj a0hj
j=1
e
det(A) =
n
X
i=1
j=1
(1)
i+h
aih det(Aih ) =
n
X
aih a0ih .
i=1
50
t
u
51
52
Dimostrazione Se
A=
...
...
...
..
.
a1n
a2n
a3n
..
.
...
ann
3.4
Matrici Invertibili
53
inoltre semplice accorgersi che (At )1 = (A1 )t . Si osservi che esistono matrici
che
0 0
non sono invertibili, ad esempio qualsiasi sia il campo K, la matrice A =
0 1
di M2 (K) non `e invertibile perch`e qualsiasi sia la matrice B, la matrice AB ha la
prima riga nulla e quindi AB 6= I2 . Si noti che pi`
u in generale, e per lo stesso motivo,
una matrice quadrata di ordine arbitrario n su un campo non `e mai invertibile se
ha una riga nulla.
Proposizione 3.4.1 Sia K un campo. Se A e B sono matrici invertibili di Mn (K),
allora anche AB `e invertibile e (AB)1 = B 1 A1 .
Dimostrazione Si ha
(AB)(B 1 A1 ) = A(BB 1 )A1 = A In A1 = AA1 = In
e
(B 1 A1 )AB = B 1 (A1 A)B = B 1 In B = B 1 B = In ,
pertanto AB `e invertibile e (AB)1 = B 1 A1 .
t
u
..
.. .
..
agg(A) = ...
.
.
.
0
0
0
a1n a2n . . . ann
Poich`e il primo teorema di Laplace 3.3.1 e il secondo teorema di Laplace 3.3.3 insieme
permettono di scrivere
ai1 a0j1 + ai2 a0j2 + + ain a0jn = ij det(A) = a1i a01j + a2i a02j + + ani a0nj ,
dove ij `e il simbolo di Kronecker, si ha che
A agg(A) = agg(A) A = (ij det(A)) = det(A) In =
det(A)
0
...
0
0
det(A) . . .
0
=
.
..
..
..
.
.
.
.
.
.
0
0
. . . det(A)
54
Teorema 3.4.2 Sia A una matrice quadrata di ordine n sul campo K. Se det(A) 6= 0
allora A `e invertibile e la sua inversa `e A1 = det(A)1 agg(A).
Dimostrazione Utilizzando la precente osservazione e lassociativit`a del prodotto
righe per colonne, otteniamo
A (det(A)1 agg(A)) = (det(A))1 (A agg(A)) =
= det(A)1 (det(A) In ) =
= (det(A)1 det(A)) In = In .
Allo stesso modo, (det(A)1 agg(A)) A = In e quindi il risultato `e provato.
t
u
1
.
det(A)
Corollario 3.4.3 Sia A una matrice dordine n sul campo K. Allora A `e invertibile
se e solo se det(A) 6= 0. In particolare, GLn (K) `e linsieme delle matrici non
singolari di Mn (K).
Dimostrazione Per il teorema 3.4.2 se det(A) 6= 0, la matrice A `e invertibile.
Viceversa, se A `e invertibile allora det(A) 6= 0 per quanto osservato sopra.
t
u
Diamo ora un esempio di calcolo della matrice inversa usando il teorema 3.4.2.
Consideriamo la matrice a coefficienti reali
1 2
A=
,
3 4
allora det(A) = 2 e considerando la matrice dei complementi algebrici, otteniamo
che
4 3
t
agg(A) =
.
2 1
Dunque,
A
1
1
=
agg(A) = =
det(A)
2
4 2
3 1
=
2
3
2
1
12
.
3.5
55
C(A) = L[A1 , . . . , An ]
generato dalle colonne di A. Ha senso quindi determinare insiemi liberi di righe
o di colonne di A, e definire rango di riga di A il massimo numero r (A) di righe
indipendenti di A, ovvero
r (A) = dim R(A),
e rango di colonna di A il numero
c (A) = dim C(A),
ovvero il massimo numero di colonne indipendenti di A.
Sussiste il seguente di cui si omette la dimostrazione.
Teorema 3.5.1 Sia A una matrice su un campo K. Allora r (A) = c (A).
Considerata A una matrice di ordine mn su un campo K, il precedente teorema
permette di definire rango di A come il massimo numero (A) di righe (o colonne)
indipendenti di A, ovvero (A) = r (A) = c (A); in particolare, (A) = 0 se e
solo se A `e la matrice nulla. Evidentemente, (A) min{m, n}; inoltre, essendo
chiaramente r (A) = c (At ), si ha anche che (A) = (At ).
Proposizione 3.5.2 Siano A e B matrici m n sul campo K. Se A e B sono
matrici equivalenti, allora R(A) = R(B); in particolare, (A) = (B).
Dimostrazione Poich`e B `e equivalente ad A, possiamo ottenere B a partire da
A attraverso una sequenza finita di operazioni elementari. Quindi i vettori riga di
B sono combinazioni lineari dei vettori riga di A ed appartengono quindi tutti allo
spazio generato dalle righe di A. Ne consegue che lo spazio generato dalle righe di B
`e un sottospazio dello spazio generato dalle righe di A. Ma anche A `e equivalente a
B e quindi lo spazio generato dalla righe di A `e contenuto nello spazio generato dalle
righe di B e pertanto coincide con esso. Quindi R(A) = R(B) e conseguentemente
(A) = (B).
t
u
Lalgoritmo di Gauss assicura che ogni matrice A su un campo `e equivalente ad
una matrice a scala B, poich`e A e B hanno stesso rango per la proposizione 3.5.2,
il seguente risultato fornisce un metodo per il calcolo del rango di una matrice.
56
1 1 0 1
Ad esempio, la forma a scala della matrice A = 0 1 1 0 `e la ma1 0 1 1
1 1 0 1
57
1
2 5 0 1
7
4 9 2 3
A=
2 1 6 2
5
0 5 2 1
4
`e
A(1, 2 | 2, 5) =
2 1
4 3
.
2
0 1
A(1, 2, 4 | 2, 4, 5) = 4 2 3 .
5 1
4
Questultimo possiede due soli orlati il primo relativo alle righe 1, 2, 4, 3 e alle colonne
1, 2, 4, 5 e il secondo relativo alle righe 1, 2, 4, 3 e alle colonne 2, 4, 5, 3 ed essi sono le
matrici
1
2
0 1
7
4 2 3
e
A(1, 2, 3, 4 | 1, 2, 4, 5) =
2 1
2
5
0 5 1
4
58
2
4
A(1, 2, 3, 4 | 2, 3, 4, 5) =
1
5
5 0 1
9 2 3
.
6 2
5
2 1
4
Lemma 3.5.5 Sia A una matrice mn sul campo K e sia M un minore fondamentale di A. Allora linsieme delle righe (rispettivamente, colonne) di A coinvolte nel
minore M `e una base per il sottospazio di Kn generato dalle righe (rispettivamente,
colonne) di A.
Dimostrazione Proviamo il risultato per le righe, da questo seguir`a il risultato
per le colonne considerando la trasposta di A. Per fissare le idee, supponiamo
sia M = A(i1 , . . . , ip | j1 , . . . , jp ). Se le righe Ai1 , . . . , Aip di A fossero linearmente
dipendenti, allora anche le righe Mi1 , . . . , Mip di M sarebbero dipendenti e quindi
si avrebbe det(M ) = 0 per la proposizione 3.5.4. Questa contraddizione prova che
le righe Ai1 , . . . , Aip sono indipendenti e pertanto resta da provare che tutte le altre
righe di A dipendono da queste. Fissiamo quindi un indice di riga i 6 {i1 , . . . , ip }
e proviamo che Ai `e combinazione lineare di Ai1 , . . . , Aip . Per ogni j = 1, . . . , n si
consideri la matrice
.
.
M (j) = .
.
ai p j 1 . . . a i p j p ai p j
aij1 . . . aijp aij
Se j {j1 . . . , jp } allora M (j) ha due colonne uguali e quindi `e singolare per la proposizione 3.3.2, altrimenti (a meno di scambiare righe) M (j) `e un orlato di M e quindi
M (j) `e singolare anche in questo caso (si veda pure la proposizione 3.3.4). Pertanto
det(M (j)) = 0 per ogni j = 1, . . . , n. Osserviamo che le matrici M (1), . . . , M (n)
hanno le prime p colonne uguali, sicch`e i complementi algebrici degli elementi
dellultima colonna coincidono, siano essi 1 , 2 , . . . , p+1 K; si osservi inoltre
che p+1 `e a meno del segno uguale a det(M ) e quindi p+1 6= 0. Sviluppando il
determinante di M (j) rispetto allultima colonna ricaviamo
det(M (j)) = ai1 j 1 + + aip j p + aij p+1 = 0.
Poich`e la precedente relazione vale per ogni j = 1, . . . , n, sussiste la seguente relazione vettoriale (in Kn )
ai 1 1
ai p 1
ai1
ai 2
ai 2
ai2
1
p
.. 1 + + .. p + .. p+1 = 0
.
.
.
ai 1 n
ai p n
ain
59
dove riconosciamo che i primi p vettori sono le righe Ai1 , . . . , Aip di A mentre lultimo
vettore `e la riga i-esima Ai . Pertanto, essendo p+1 6= 0, ricaviamo che
1
Ai = 1
p+1 1 Ai1 p+1 p Aip ,
come volevamo.
t
u
A i1
Ai
2
B = ..
.
Aip
ha p righe indipendenti e quindi (B) = p. Allora c (B) = p e cos` `e possibile individuare un sistema massimale di colonne indipendenti {B j1 , . . . , B jp } di B. Allora
la proposizione 3.5.4 assicura che la matrice M = (B j1 , . . . , B jp ) `e non singolare.
Evidentemente M = A(i1 , . . . , ip | j1 , . . . , jp ), e quindi A possiede un minore non
singolare di ordine p. Poich`e per orlare M abbiamo bisogno di aggiungere elementi
di unaltra riga di A e `e una base per lo spazio delle righe di A, segue ancora dalla
la proposizione 3.5.4 che ogni orlato di M `e singolare. Pertanto M `e un minore
fondamentale di A e la dimostrazione `e conclusa.
t
u
Ad esempio, calcoliamo il rango della matrice
1 1 0 1
A = 0 1 1 0
1 0 1 1
la stessa di cui prima abbiamo calcolato il rango usando lalgoritmo di Gauss. Iniziamo col considerare il minore M1 = A(1 | 1) = (1)che `e ovviamente
non singolare.
1 1
Orliamo M1 considerando M2 = A(1, 2 | 1, 2) =
che `e non singolare
0 1
60
1 1 0
1 1
A(1, 2, 3 | 1, 2, 3) = 0 1 1 e A(1, 2, 3 | 1, 2, 4) = 0 1
1 0 1
1 0
orlati di M2
1
0 .
1
Poich`e queste matrici sono singolari, il teorema degli orlati 3.5.6 ci permette di
concludere che (A) = 2.
La nozione di rango di una matrice `e una nozione importante e molto utile per
valutare la lineare (in)dipendenza di vettori numerici. Ad esempio, supponiamo di
voler stabilire vettori v1 = (1, 0, 1, 2), v2 = (2, 1, 0, 1) e v3 = (1, 1, 1, 1) di R4
sono linearmente dipendenti o indipendenti. Considerata la matrice che ha questi
vettori come righe
1
0 1 2
A = 2 1 0 1
1 1 1 1
e osservando che la sua forma a scala `e la matrice
1 0 1 2
0 1 2 3
0 0
0
0
si ha che (A) = 2. Un minore fondamentale di A `e ad esempio A(1, 2 | 1, 2), e
dunque il lemma 3.5.5 assicura che i vettori v1 e v2 sono indipendenti e che v3
dipende da essi (come cera da aspettarsi visto che v3 = v1 v2 ).
Il rango di una matrice `e stato definito a partire dal concetto di lineare indipendenza ed `e stato poi evidenziato il legame con il concetto di determinate. Nella
parte finale di questa sezione, si mostrer`a come si potrebbe introdurre il concetto di
rango di una matrice partendo dal concetto di determinante.
Se A Mm,n (K) `e una matrice non nulla, si dice rango dei minori di A il massimo
ordine di un minore non singolare di A, tale numero si indicher`a con m (A). Quindi
dire che la matrice A ha rango dei minori p significa dire che A ha un minore non
singolare di ordine p e che ogni (eventuale) minore di A di ordine maggiore di p ha
determinante nullo. Evidentemente m (A) min{m, n} ed inoltre essendo A non
nulla, A possiede sicuramente un minore non singolare di ordine 1 e quindi (A) 1.
Per convenzione, la matrice nulla `e lunica matrice di rango dei minori 0. Si noti
infine che se A `e quadrata di ordine n allora m (A) = n se e solo se det(A) 6= 0.
Ad esempio, la matrice su R
1 3 2 5
A = 6 2 4 3
2 6 4 10
61
3 2
ha rango dei minori pari a 2 perch`e il minore A(2, 3 | 1, 2) =
2 4
minante diverso da 0 e tutti i minori di ordine 3 di A sono singolari.
ha deter-
3.6
Generalit`
a sui sistemi lineari
62
a11 x1 + + a1n xn = b1
..
(3.1)
.
a x + + a x = b
m1 1
mn n
m
Dato il sistema lineare (3.1), la matrice di Mm,n (K)
A=
a11
a21
..
.
a12
a22
..
.
...
...
...
a1n
a2n
..
.
am1 am2 . . .
amn
si dice matrice incompleta o matrice dei coefficienti del sistema, mentre la matrice
di Mm,n+1 (K)
..
..
..
.. ,
.
.
.
.
.
.
.
am1 am2 . . . amn bm
si dice matrice completa del sistema. Inoltre, spesso
(3.1) si scrive
la
il sistema
usando
x1
b1
..
..
n
notazione matriciale come AX = B dove X = . K e B = . Km
xn
bm
e AX indica il prodotto righe per colonne tra A ed X. Nel seguito la matrice
completa del sistema AX = B si indicher`a con (A|B). Un sistema lineare del tipo
AX = 0 (dove 0 `e il vettore colonna nullo) si dice omogeneo; inoltre dato un sistema
lineare AX = B, il sistema AX = 0 si dice sistema lineare omogeneo associato ad
esso.
Una soluzione di (3.1) `e una n-upla (y1 , . . . , yn ) di elementi di K che `e soluzione per
ciascuna equazione che forma il sistema (3.1). Un sistema lineare si dice compatibile
se ha almeno una soluzione, incompatibile altrimenti. Un sistema compatibile che
ammette una sola soluzione si dice determinato. Determinare le soluzioni o risolvere
un sistema significa determinare se `e compatibile o meno e, nel caso sia compatibile,
scrivere linsieme delle sue soluzioni. Si noti che essendo A0 = 0 ogni sistema lineare
omogeneo `e compatibile, avendo esso almeno la soluzione nulla.
63
3.7
Metodi di risoluzione
64
2x1 + x2 = 1
x1 + x2 + x3 x4 = 2
x1 x3 + x 4 = 1
2 1 0
0 1
La sua matrice completa `e 1 1 1 1 2 la quale `e equivalente alla matrice
1 0 1 1 1
1 1 1 1 2
0 1 2 2 3 . Questa seconda matrice `e la matrice completa del sistema
0 0 0 0 2
lineare
x1 + x2 + x3 x4 = 2
x2 + 2x3 2x4 = 3
0x4 = 2
che `e incompatibile, infatti la matrice incompleta del sistema ha rango 2 mentre la
matrice completa ha rango 3 (cfr. teorema 3.6.2).
Esempio 2
x 1 x2 = 2
2x1 + x2 + x3 = 1
3x1 + 2x2 + x3 = 2
1 0 2
1 1 1 la quale, come abbiamo visto in
2 1 2
lalgoritmo
di Gauss-Jordan,
si trasforma nella
1 0 0 41
seguente matrice ad essa equivalente 0 1 0 49 . Questa seconda matrice `e
0 0 1 74
la matrice completa del sistema lineare
x1 = 41
x2 = 94
x3 = 74
1
2
che ha per matrice completa
3
un esempio in precedenza, mediante
65
2x1 + x2 = 1
x1 + x 2 x3 = 2
2 1 0 1
La sua matrice completa `e
la quale viene trasformata mediante
1 1 1 2
1 0 1 1
lalgoritmo di Gauss-Jordan nella matrice ad essa equivalente
.
0 1 2 3
Questa seconda matrice `e la matrice completa del sistema lineare
x1 + x3 = 1
x2 2x3 = 3
che `e compatibile ma non `e determinato perch`e le sue soluzioni si ottengono al
variare di x3 in R, ovvero ha per soluzioni tutti gli infiniti elementi dellinsieme
{(x3 1, 2x3 + 3, x3 ) | x3 R}.
Nel caso particolare di sistemi lineari in cui il numero di equazioni e il numero
di incognite `e lo stesso, sussiste il seguente risultato: esso fornisce una regola per
determinare le soluzioni di un tale sistema detta talvolta Regola di Cramer.
Teorema 3.7.2 (Teorema di Cramer) Sia AX = B un sistema lineare di n
equazioni in n incognite su un campo K. Se det(A) 6= 0 allora il sistema `e compatibile
e determinato e la sua unica soluzione (x1 , . . . , xn ) si ottiene come segue. Per ogni
i = 1, . . . , n, considerata la matrice che si ottiene da A sostituendo la sua i-esima
colonna con B
Ai = (A1 , . . . , Ai1 , B, Ai+1 , . . . , An ),
si ha che xi = (det(A))1 det(Ai ).
Dimostrazione Poich`e det(A) 6= 0, il corollario 3.4.3 assicura che la matrice A
`e invertibile. Allora
X = (A1 A)X = A1 (AX) = A1 B
`e lunica soluzione del sistema AX = B e cos`, ricordando il teorema 3.4.2, otteniamo
che lunica soluzione del sistema AX = B `e
a011
a021
a0n1
.
.
.
b1
x1
det(A)
det(A)
det(A)
..
..
..
..
..
..
. .
. =
.
.
.
0.
0
0
a
a
a
1n
2n
nn
bn
xn
. . . det(A)
det(A)
det(A)
66
2x1 + x2 5x3 = 1
la cui matrice dei coefficienti
4 5 3
A = 1 3 1
2 1 5
ha determinante uguale a 42, detta Ai (con i = 1, 2, 3) la matrice che si ottiene da
A rimpiazzando la i-esima colonna con la colonna dei termini noti si ha che
1 5 3
4 1
3
det(A1 ) = 1 3 1 = 40,
det(A2 ) = 1 1 1 = 32 e
1
2 1 5
1 5
4 5 1
det(A3 ) = 1 3 1 = 14;
2 1
1
67
dunque il teorema di Cramer 3.7.2 assicura che la soluzione del sistema lineare `e
data dalla terna (x1 , x2 , x3 ) dove
x1 =
det(A1 )
40
20
=
= ;
det(A)
42
21
x3 =
x2 =
det(A2 )
32
16
=
=
det(A)
42
21
14
1
det(A3 )
=
= .
det(A)
42
3
(3.2)
68
x1 + 6x2 2x3 = 0
E semplice accorgersi che tale sistema `e compatibile e che un minore fondamentale
della matrice dei coefficienti (e anche della matrice completa) del sistema (3.3) `e
M = A(1, 2 | 1, 2), sicch`e il sistema `e equivalente a quello che si pu`o riscrivere come
3x1 + 8x2 = 2 + 4x3
x1 + x2 = 1 + x3
Considerando questultimo come un sistema nelle sole incognite x1 e x2 , otteniamo
un sistema che ha come matrice dei coefficienti M . Essendo M non singolare,
possiamo applicare la regola di Cramer e ottenere
3 2 + 4x2
2 + 4x3 8
1 1 + x2
1 + x3 1
4x3 + 6
x3 1
=
e x2 =
=
.
x1 =
3 8
5
5
3 8
1 1
1 1
In definiva linsieme delle soluzioni del sistema (3.3) `e
4x3 + 6 x3 1
,
, x 3 | x3 R .
5
5
Prima di concludere questa sezione, mostriamo come luso dei sistemi lineari
permette di calcolare la matrice inversa di una matrice invertibile. Sia dunque A
una matrice quadrata di ordine n sul campo K e supponiamo che A sia invertibile.
Gli elementi della matrice B = A1 possono essere pensati come delle incognite
e precisamente, dovendo essere AB = In , le colonne B 1 , B 2 , . . . , B n di B possono
rivedersi come le incognite dei seguenti n sistemi lineari
1
0
0
0
1
..
AB 1 = .. , AB 2 = .. , . . . , AB n = .
.
.
0
0
0
1
Poich`e det(A) 6= 0 per il corollario 3.4.3, il teorema di Cramer 3.7.2 assicura che
i precedenti sistemi sono determinati. Inoltre, tali sistemi possono essere risolti
usando lalgoritmo di Gauss-Jordan, per`o, invece che risolverli singolarmente, possiamo risolverli simultaneamente cio`e possiamo applicare lalgoritmo di Gauss-Jordan
69
alla matrice (A|In ) che si ottiene affiancando alla matrice A la matrice identica, si
otterr`a cos` la matrice (In |C) e risulter`a C = B = A1 .
Ad esempio, supponiamo di voler determinare linversa della matrice a coefficienti
reali
1 2
A=
.
3 4
Consideriamo quindi la matrice
1 2 1 0
3 4 0 1
e applichiamo
di Gauss-Jordan. Con operazione r2 r2 3r1
ad essa lalgoritmo
1 2
1 0
otteniamo
, poi mediante loperazione r2 21 r2 otteniamo
3
1
0
2
1 2 1 0
. Operando infine la trasformazione r1 r1 2r2 otteniamo la
0 1 32 12
1 0 2 1
matrice
. Pertanto
0 1 32 21
2 1
1
.
A =
3
12
2
3.8
70
1 x3 + x4
2
0
= 2x3 + 2x4 .
1 1
2 1
s2 = (1, 2, 0, 1)
71
Ma
(x2 x3 x4 , x2 , x3 , x4 ) = x2 (1, 1, 0, 0) + x3 (1, 0, 1, 0) + x4 (1, 0, 0, 1)
da cui si ha facilmente che
{(1, 1, 0, 0), (1, 0, 1, 0), (1, 0, 0, 1)}
`e una base di S0 .
Un sistema lineare qualsiasi AX = B potrebbe non avere il vettore nullo come
soluzione, quindi in generale le soluzioni di un sistema lineare non omogeneo non
sono un sottospazio vettoriale dello spazio numerico; per`o le soluzioni del sistema
AX = B sono sempre legate a quelle del sistema lineare omogeneo AX = 0 ad esso
associato, infatti sussiste la seguente.
Proposizione 3.8.2 Sia AX = B un sistema lineare di m equazioni in n incognite
`e una sua soluzione,
su un campo K. Se il sistema AX = B `e compatibile e X
+ Y con Y soluzione del sistema lineare
allora tutte le altre soluzioni sono del tipo X
omogeno associato.
Dimostrazione Se Z `e una soluzione del sistema AX = B, allora AZ = B.
= B, quindi A(Z X)
=0eZ=X
+ (Z X).
Viceversa,
Daltra parte anche AX
+ Y ) = AX
+ AY = B + 0 = B e quindi
se Y `e soluzione di AX = 0, allora A(X
72
Concludiamo con la seguente importante osservazione, che caratterizza i sottospazi dello spazio vettoriale numerico. Abbiamo visto che le soluzioni di un sistema
lineare omogeneo sono un sottospazio vettoriale dello spazio vettoriale numerico di
cui sappiamo calcolarne la dimensione (cfr. proposizione 3.8.1). In realt`a, dato
un campo K e un intero positivo n, i sottospazi di Kn sono sempre lo spazio delle
soluzioni di un sistema lineare omogeneo. Sia W un sottospazio di Kn . Se W = {0}
allora esso `e lo spazio delle soluzioni del sistema lineare omogeneo In X = 0 (dove
come al solito In dentota la matrice identica su K di ordine n). Supponiamo quindi
che W 6= {0} e sia {w1 , . . . , wr } una sua base. Un vettore w `e un elemento di W
se e solo se linsieme {w1 , . . . , wr , w} `e legato e quindi se e solo se la matrice A su
K le cui righe (o colonne) sono i vettori w1 , . . . , wr , w ha rango r. Fissato in A un
minore non singolare di ordine r, imponendo a tutti agli orlati di questo minore di
essere singolari, si ottiene un sistema lineare omogeneo il cui spazio delle soluzioni
`e proprio W : questo sistema lineare omogeneo si dice essere una rappresentazione
cartesiana di W .
Ad esempio, consideriamo il sottospazio W di R4 generato dai vettori (1, 0, 1, 0)
e (1, 0, 0, 1). Sia w = (x1 , x2 , x3 , x4 ) il generico elemento di W e imponiamo alla
matrice
1 1 x1
0
0 x2
A=
1
0 x3
0
1 x4
1 0
di avere rango 2. Scelto M = A(3, 4 | 1, 2) =
come minore non singolare
0 1
di ordine 2, il torema degli orlati 3.5.6 garantisce che A ha rango 2 se e solo se gli
orlati di M sono singolari ovvero se e solo se
0 0 x2 1 1 x1
= 0.
1 0 x3 = 1
0
x
3
0 1 x4 0
1 x4
Otteniamo cos` il sistema lineare omogeneo
x2 = 0
x1 + x3 + x4 = 0
il cui spazio delle soluzioni coincide con W .
3.9
73
R,R
= c1
A
R0 LA cR : V W.
E semplice accorgersi che questa volta le0 colonne di A rappresentano le compo0
nenti in R0 dei trasformati mediante R,R
degli elementi di R, sicch`e Im R,R
corA
A
0
risponde attraverso lisomorfismo
coordinato cR allo 0 spazio delle colonne di A e
0
quindi risulta dim(Im R,R
)
=
(A).
Invece, ker R,R
`e costituito da quei vettori
A
A
di V le cui componenti in R sono soluzione
del sistema lineare AX = 0, sicch`e
0
attraverso lisomorfismo coordinato ker R,R
corrisponde
allo spazio delle soluzioni
A
R,R0
del sistema lineare omogeneo AX = 0 e quindi dim(ker A ) = n (A).
Partendo ora da unapplicazione lineare tra due spazi vettoriali, un riferimento
R del dominio e un riferimento
R0 del codominio, si vuole associare a una matrice
0
A tale da aversi che R,R
= . Siano dunque V e W due spazi vettoriali non nulli
A
sul campo K di dimensione finita, e si fissi un riferimento R = (e1 , . . . , en ) in V
ed un riferimento R0 = (e01 , . . . , e0m ) in W ; in particolare, quindi, si sta supponendo
che dim(V ) = n e che dim(W ) = m. Consideriamo inoltre unapplicazione lineare
: V W . Per ogni j = 1, . . . , n, siano (a1j , . . . , amj ) le componenti del vettore
(ej ) nella base R0 , e sia A = (aij ) la matrice m n su K le cui colonne sono le
componenti dei trasformati mediante dei vettori della base R nella base R0 . Se
v = 1 e1 + + n en `e il generico elemento di V (con ogni i K) allora
(v) = 1 (e1 ) + + n (en ) =
= 1 (a11 e01 + + am1 e0m ) + + n (a1n e01 + + amn e0m ) =
= (1 a11 + + n a1n )e01 + + (1 am1 + + n amn )e0m
e pertanto, per lunicit`a delle componenti (in R0 ), si ottiene
[(v)]R0 = A[v]R
(3.4)
dove [v]R indica il vettore colonna delle componenti di v in R e [(v)]R0 il vettore colonna delle componenti di (v) in R0 . La matrice A si dice matrice associata allapplicazione lineare rispetto ai riferimenti R e R0 , e si scrive anche
A = MR,R0 (). Se V = W e R = R0 , si parla semplicemente di matrice associata a
nel riferimento R e si scrive MR ().
La propriet`a (3.4) caratterizza la matrice associata, infatti se A Mm,n (K) `e tale
R per ogni v V , `e evidente che [(ej )]R0 = A[e
j ]R `e la j-esima
che [(v)]R0 = A[v]
dunque A = MR,R0 () e quindi A = A.
colonna di A;
Sempre la propriet`a (3.4) assicura che due applicazioni lineari e di V in W
coincidono se e soltanto se risulta MR,R0 () = MR,R0 (). Cos` A = MR,R0 () se e
0
0
soltanto se = R,R
, quindi R,R
`e lunica applicazione lineare di V in W che ha A
A
A
74
75
Fissiamo i riferimenti R = ((1, 0), (0, 1)) e R0 = ((1, 0, 1), (0, 1, 0), (0, 0, 1)) in R2 e
R3 rispettivamente, e andiamo a determinare A = MR,R0 (). Essendo
(1, 0) = (2, 1, 0) = 2(1, 0, 1) 1(0, 1, 0) 2(0, 0, 1)
e
(0, 1) = (3, 1, 0) = 3(1, 0, 1) + 1(0, 1, 0) + 3(0, 0, 1)
otteniamo subito che
2 3
A = 1 1 .
2 3
1 1
1 0
0 1
0 0
M1 =
, M2 =
, M3 =
, M4 =
0 0
1 0
0 0
0 1
1 1 0 0
A = MR,R0 () = 0 0 0 0 .
1 0 0 0
Una base per C(A) `e costituita dalle colonne A1 e A2 di A e queste colonne sono le
componenti in R0 di (M1 ) = 1 e (M2 ) = 1 + x2 , rispettivamente, sicch`e
Im = L[1, 1 + x2 ].
Inoltre, poich`e una base per il sistema lineare omogeneo AX = 0 `e cositituita dai
vettori (0, 0, 1, 0) e (0, 0, 0, 1), che sono le componenti in R di M3 e M4 , si ha che
0 1
0 0
0 x
ker = L[M3 , M4 ] = L
,
=
: x, y R .
0 0
0 1
0 y
76
3.10
Sia V uno spazio vettoriale non nullo su un campo K di dimensione finita n, e consideriamo due riferimenti R = (e1 , . . . , en ) ed R0 = (e01 , . . . , e0n ) di V . Se esprimiamo
ogni ej come combinazione lineare dei vettori di R0 scrivendo
ej = p1j e01 + p2j e02 + + pnj e0n ,
dove gli scalari p1j , p2j , . . . , pnj K sono univocamente determinati, si viene a formare una matrice P = (pij ) quadrata di ordine n su K le cui colonne sono le
componenti dei vettori di R nella base R0 ; pertanto P = MR,R0 (V ) `e la matrice
associata allendomorismo identico V di V nei riferimenti R e R0 . La matrice P si
chiama matrice di passaggio dal riferimento R al riferimento R0 .
Teorema 3.10.1 Sia V uno spazio vettoriale non nullo su un campo K di dimensione finita n. Siano inoltre R e R0 due riferimenti di V e P Mn (K) la matrice
di passaggio da R a R0 . Allora
(i) P `e invertibile e P 1 `e la matrice di passaggio da R0 a R;
(ii) per ogni elemento v di V si ha che [v]R0 = P [v]R e [v]R = P 1 [v]R0 ;
(iii) se P 0 `e la matrice di passaggio da R0 ad un terzo riferimento R00 , allora P 0 P
`e la matrice di passaggio da R a R00 .
77
A = MR () =
0 1
.
1 0
78
e che P
1 0
AP =
.
0 1
CAPITOLO 4
Diagonalizzazione di endomorfismi
e matrici
4.1
80
81
Proposizione 4.1.3 Sia V uno spazio vettoriale di dimensione finita n sul campo
K e sia un endomorfismo di V . Allora il polinomio caratteristico di non dipende
dal riferimento che si fissa in V .
Dimostrazione Se A e B sono matrici associate a in due riferimenti distinti
di V , allora il teorema 3.10.2 assicura che esiste una matrice invertibile P di Mn (K)
tale che B = P 1 AP . Si ha cos` che
B In = P 1 AP In = P 1 AP P 1 P =
= P 1 AP P 1 (In )P = P 1 (A In )P
e quindi per il teorema di Binet 3.3.6 si ha
det(B In ) = det(P 1 (A In )P ) = det(P 1 )det(A In )det(P ) = det(A In ),
essendo det(P 1 )det(P ) = 1.
t
u
82
0 0 . . . 0
0 0 . . . 0 B
.. . .
..
A = ...
. .
.
0 0 . . . 0
O
C
dove B `e una matrice t (n t), O `e la matrice nulla (n t) t e C `e una matrice
quadrata dordine n t. Si ha allora che det(A In ) = (0 )t det(C Int ),
e pertanto ma (0 ) t = mg (0 ).
t
u
4.2
83
Endomorfismi diagonalizzabili
84
sulla diagonale prima m1 valori uguali a 1 , poi m2 valori uguali a 2 e cos` via. Ne
consegue che
p () = det(A I) = (1 )m1 (2 )m2 (t )mt
(4.1)
cos` 1 , . . . , t sono tutte e sole le radici distinte del polinomio caratteristico, quindi
ma (i ) = mi per ogni i = 1, ..., t e m1 + + mt = gr(p ()) = dim(V ).
(iii) (i) Siano 1 , . . . , t gli autovalori distinti di di molteplicit`a m1 , . . . , mt ,
rispettivamente. Lo spazio somma W degli autospazi `e somma diretta per la proposizione 4.1.2 e quindi segue dalle ipotesi e dalla formula di Grassmann 2.5.8 che
W ha dimensione pari a m1 + + mt = dim(V ); pertanto segue dalla proposizione 2.5.7 che V = W e cos`, fissata una base Bi in ciascun autospazio V (i ),
linsieme B = B1 Bt `e una base per V fatta di autovettori di e `e quindi
diagonalizzabile.
t
u
Se `e un endomorfismo del K-spazio vettoriale V , con V di dimensione n, la condizione (iii) nel precedente teorema si pu`o esprimere dicendo che il polinomio caratteristico ha n radici in K ciascuna contata con la propria molteplicit`a, e se 1 , . . . , t
sono le radici distinte allora per ciascuna di esse la molteplicit`a algebrica coincide
con quella geometrica. In maniera alternativa si potrebbe anche dire che tutte le
radici del polinomio caratteristico sono in K e per ciascuna di esse la molteplicit`a
algebrica coincide con quella geometrica; questo assicura che il polinomio caratteristico di un endomorfismo diagonalizzabile `e completamente riducibile ovvero ha una
fattorizzazione come in (4.1). Dunque, ad esempio, un endomorfismo di Q3 se ha
2
come polinomio caratteristico
( 2) (che ha solo 0 come radice razionale, e poi
85
= (1 )(2 ) + 2 = 2 +
0 1
1 0
0 0
dalla matrice
0
0
1
3 0 0
A= 0 0 3
0 3 0
86
= (3 )(2 9)
6x = 0
3y + 3z = 0
3y + 3z = 0
ha per base {(0, 1, 1)}, pertanto una base per V (3) `e costituita dal vettore
2
f3 = c1
e {f1 , f2 , f3 }.
R (0, 1, 1) = x x . In definitiva la base di R2 [x] cercata `
4.3
Matrici diagonalizzabili
Sia K un campo e sia A una matrice quadrata di ordine n su K. Fissato in Kn il riferimento canonico R sappiamo che esiste un (unico) endomorfismo LA : Kn Kn
tale che A = MR (LA ); in particolare, LA (X) = AX per ogni X Kn (qui i vettori di Kn sono intesi come vettori colonna). Si possono allora estendere i concetti di autovalore, autovettore e autospazio relativamente alla matrice A riferendosi
allendomorfismo LA . A tal fine, per comodit`a di scrittura, ci si riferir`a qui ai vettori
di Kn come vettori colonna. Un vettore non nullo v di Kn `e detto autovettore di A se
esiste uno scalare K, detto autovalore relativo a v, tale che Av = v. Si osservi
quindi che v `e un autovettore per A se e solo se `e un autovettore per LA , cos` come
`e un autovalore per A se e solo se lo `e per LA . Si definisce infine autospazio per A
relativo ad un autovalore di A linsieme
VA () = {v Kn | Av = v},
sicch`e VA () = VLA ().
87
2 3 0
A= 2 1 0
0 0 4
Il polinomio caratteristico `e
2
3
0
2
1
0
0
0
4
= ( 4)(2 3 4),
88
a determinare una base per lo spazio delle soluzioni del sistema lineare omogeneo
(A 4I3 )X = 0, ossia
2x + 3y = 0
2x 3y = 0
Esso ha per base {(3, 2, 0), (0, 0, 1)}, sicch`e lo spazio delle sue soluzioni ha dimensione
2 = ma (4) e A `e quindi diagonalizzabile.
Per determinare una matrice invertibile P che rende A simile ad una matrice
diagonale dobbiamo determinare una base per R3 fatta di autovettori per A. A
tal fine, occorre determinare una base per le soluzioni di (A + I3 )X = 0, ossia del
sistema
3x + 3y = 0
2x + 2y = 0
5z = 0
Una base per le soluzioni di questo sistema `e quindi {(1, 1, 0)} e quindi una base
di R3 fatta da autovettori di A `e
{(3, 2, 0), (0, 0, 1), (1, 1, 0)}.
Pertanto la matrice P cercata `e la matrice che ha questi vettori per colonna
3 0 1
2 0 1
0 1 0
`e la matrice diagonale simile ad A `e
4 0 0
D = P 1 AP = 0 4 0
0 0 1
ossia `e la matrice diagonale che ha sulla diagonale gli autovalori di A ripetuti tante
volte quant`e la loro molteplicit`a e messi nello stesso ordine con cui abbiamo considerato gli autospazi.
CAPITOLO 5
90
Un prodotto scalare si pu`o definire anche per lo spazio vettoriale dei vettori liberi
V (del piano o dello spazio). Siano v e w due vettori liberi. Se v oppure w `e nullo,
poniamo v w = 0; se invece v e w sono entrambi non nulli, poniamo
d
v w = |v||w| cos(v,
w)
dove |v| e |w| rappresenta il modulo di v e w, rispettivamente. Si pu`o provare che
lapplicazione cos` definita `e un prodotto scalare, detto prodotto scalare geometrico.
Sia V uno spazio euclideo in cui sia s il prodotto scalare, e sia v un elemento di
V . Si dice norma di v il numero reale non negativo
kvk = s(v, v);
si dice invece modulo (o lunghezza) il numero
p
p
|v| = s(v, v) = kvk.
Evidentemente |v| 0 e |v| = 0 se e solo se v = 0; inoltre, se R, allora
|v| = |||v|. Un vettore di modulo 1 si dice versore, si osservi che comunque si
u
consideri un vettore non nullo u allora |u|
= |u|1 u `e un versore.
Proposizione 5.1.1 Sia V uno spazio euclideo di prodotto scalare s. Se u e v sono
elementi di V , allora
(i) Disuguaglianza di Cauchy-Schwarz: s(u, v)2 s(u, u)s(v, v) e in questa
relazione vale luguaglianza se e solo se u e v sono linearmente dipendenti;
(i) Disuguaglianza di triangolare: |u + v| |u| + |v|.
Se u e v sono vettori non nulli dello spazio euclideo V (di prodotto scalare s), la
disuguaglianza di Cauchy-Schwartz assicura che
!2
s(u, v)
1
|u||v|
o equivalentemente
1
s(u, v)
1
|u||v|
s(u, v)
,
|u||v|
91
t
u
Proviamo ora il seguente risultato che prende il nome di processo di ortonormalizzazione di Gram-Schmidt.
Teorema 5.1.4 Ogni spazio euclideo non nullo di dimensione finita ha una base
ortonormale.
Dimostrazione Sia V uno spazio euclideo non nullo (il cui prodotto scalare
denotiamo con s) di dimensione finita n e sia B = {v1 , . . . , vn } una sua base. Per
ogni i = 1, . . . , n sia Wi = L[v1 , . . . , vi ] (sicch`e Wn = V ) e proviamo per induzione
che ogni Wi ha una base ortonormale. Per i = 1, posto
u1 =
v1
,
|v1 |
`e evidente che {u1 } `e una base ortonormale per Wi . Sia i > 1 e supponiamo che
{u1 , . . . , ui1 } sia una base ortonormale per Wi1 . Consideriamo
vi0 = vi
i1
X
j=1
s(vi , uj )uj .
92
Allora vi0 6= 0 altrimenti vi Wi1 e questo sarebbe in contraddizione col fatto che
{v1 , . . . , vi } `e una base per Wi ; inoltre, per ogni k = 1, . . . , i1 essendo {u1 , . . . , ui1 }
ortonormale si ha che
s(vi0 , uk )
= s(vi , uk )
i1
X
j=1
Pertanto, posto
ui =
vi0
,
|vi0 |
si ha che {u1 , . . . , ui1 , ui } `e un insieme ortonormale, e quindi libero per la proposizione 5.1.3, ed inoltre
Wi = L[v1 , . . . , vi ] = L[Wi1 , vi ] = L[u1 , . . . , ui1 , vi ] = L[u1 , . . . , ui1 , ui ]
e cos` {u1 , . . . , ui } `e una base ortonormale di Wi , come volevamo.
t
u
s(v20 , v20 ) =
!
1 1
2 , , 0 = (2, 0, 0) (1, 1, 0) = (1, 1, 0).
2 2
2 poniamo
v0
u2 = 20 =
|v2 |
!
1
1
, , 0 .
2
2
Infine sia
v30 = v3 s(v3 , u1 )u1 s(v3 , u2 )u2 = (0, 0, 1) 0 0 = (0, 0, 1).
Poich`e |v30 | = 1, `e
u3 =
v30
= (0, 0, 1).
|v30 |
93
j=1
n X
n
X
i=1
j=1
i=1
j=1
i=1
j=1
n
X
xi yj s(ei , ej ) =
xi y i ,
i=1
sicch`e s(u, v) coincide col prodotto scalare standard in Rn tra le componenti (u)R di
u e le componenti (v)R di v.
t
u
I riferimenti ortonormali sono quindi dei riferimenti in cui il prodotto scalare `e
riconducibile al prodotto scalare standard nello spazio numerico su R. Ci chiediamo
ora che propriet`a deve avere la matrice di passaggio tra due riferimenti ortonormali.
A tal fine introduciamo il seguente concetto. Una matrice invertibile A Mn (R) si
dice ortogonale se A1 = At . Poich`e risulta essere (At )1 = (A1 )t , se A `e ortogonale
allora anche A1 = At `e ortogonale ed inoltre, ricordando che det(A) = det(At ) e
che det(A)det(A1 ) = 1, si ha che det(A) = 1. Un esempio di matrice ortogonale
`e chiaramente la matrice identica. Sussiste la seguente.
Proposizione 5.1.6 Sia V uno spazio euclideo di dimensione finita, e siano R ed
R0 due suoi riferimenti e P la matrice di passaggio da R0 a R. Supponiamo inoltre
che R sia ortonormale. Allora R0 `e ortonormale se e solo se P `e ortogonale.
Siano V uno spazio vettoriale euclideo ed X una parte non vuota di V . Un
vettore v di V si dice ortogonale (o normale) ad X se v x per ogni x X, in tal
caso si scrive v X. Sia poi
X = {v V | v X}.
Si verifica facilmente che X `e un sottospazio di V . Se W `e un sottospazio, il
sottospazio W prende il nome di complemento ortogonale di W in V . Si noti che
se S `e un sistema di generatori per W allora un vettore v di V `e ortogonale a W se
e solo se v `e ortogonale ad ogni vettore in S.
94
Teorema 5.1.7 Sia V uno spazio euclideo di dimensione finita e sia W un sottospazio di V . Allora V = W W . Inoltre risulta essere (W ) = W e
dim(W ) = dim(V ) dim(W ).
Dimostrazione Sia B = {v1 , . . . , vt } una base ortonormale di W (che esiste per
il teorema 5.1.4) e sia v V . Denotato con s il prodotto scalare in V , poniamo
w1 = s(v, v1 )v1 + + s(v, vt )vt
e
w2 = v w1 .
Allora w1 W e per ogni i = 1, . . . , t, essendo B ortonormale, si ha che
s(w2 , vi ) = s(v, vi )
t
X
j=1
t
u
Ad esempio, determiniamo in R4 (con il prodotto scalare standard) il complemento ortogonale del sottospazio
W = {(x, y, z, t) | x + y z + t = 2y t = t = 0}.
E semplice accorgersi che una base per W `e {(1, 0, 1, 0)}, dunque W `e costituito
da tutti i vettori (x, y, z, t) di R4 tali che
(x, y, z, t) (1, 0, 1, 0) = 0,
quindi
W = {(x, y, z, t) | x + z = 0}
e pertanto una base per W `e costituita dai vettori (1, 0, 1, 0), (0, 1, 0, 0) e (0, 0, 0, 1).
5.2
95
Diagonalizzazione ortogonale
Sia V un spazio euclideo reale e indichiamo con s il prodotto scalare. Un endomorfismo di V si dice ortogonalmente diagonalizzabile se V possiede una base
ortonormale di autovettori di . Al fine di determinare condizioni che assicurino
che un endomorfismo sia ortogonalmente diagonalizzabile, introduciamo il seguente
concetto. Un endomorfismo di V si dice simmetrico (o autoaggiunto) se comunque
si considerino gli elementi u e v in V si ha che
s(u, (v))) = s((u), v).
r=1
96
97
1 0
0
A = 0 1 2
0 2 1
e determiniamo una matrie ortogonale che rende A simile ad una matrice diagonale.
Il polinomio caratteristico di A `e det(AI3 ) = (1)(2 +23) le cui radici sono
1 con molteplicit`a 2, e 3 con molteplicit`a 1. Una base ortonormale dellautospazio
VA (1) si ottiene ortonormalizzando una base per lo spazio delle
soluzioni del sistema
2
lineare omogeno (AI3 )X = 0, e risulta essere {(1, 0, 0),(0, 2 , 22 )}. Analogamente
si trova che una base ortonormale di VA (3) `e {(0, 22 , 22 )}. Pertanto una base
ortonormale di R3 fatta da autovettori di A `e
(
!)
!
2 2
2 2
,
, 0,
,
.
B = (1, 0, 0), 0,
2 2
2 2
Quindi la matrice ortogonale P che rende A simile ad una matrice diagonale `e la
matrice di passaggio da B al riferimento canonico di Rn e quindi la matrice le cui
colonne sono i vettori del riferimento B
1 0
0
P = 0 22 22
2
0 22
2
e una matrice diagonale simile ad A `e la matrice
1 0 0
D = P t AP = 0 1 0
0 0 3
che ha sulla diagonale principale gli autovalori di A ripetuti tante volte quant`e la
loro molteplicit`a.
CAPITOLO 6
Geometria analitica
6.1
Spazi affini
Q = P + v se e solo se P Q = v,
inoltre, si pone P v = P + (v).
Un primo esempio di spazio affine `e il seguente. A partire dallinsieme E dei punti
del piano (rispettivamente dello spazio) della geometria elementare e dallo spazio
vettoriale V dei vettori liberi del piano (rispettivamente dello spazio), si pu`o definire
lapplicazione
: (P, Q) E E PQ V.
La proposizione 2.1.1 assicura che per ogni vettore v e per ogni punto P di E esiste
un unico punto Q E tale che (P, Q) = v; inoltre la definizione della somma in V
assicura che la relazione di Chasles `e verificata. Dunque E `e uno spazio affine.
Un altro esempio di spazio affine ci `e dato da ogni spazio vettoriale. Infatti, se
V `e uno spazio vettoriale su un campo K, lapplicazione
(u, v) V V v u V
99
(ii) Se P, Q A allora QP = P Q.
(iii) Per ogni P A e per ogni v, w V si ha P + (v + w) = (P + v) + w.
(iv) Se P, Q, S e T sono punti di A e P Q = ST , allora P S = QT .
Dimostrazione (i)
Dalla relazione di Chasles segue che P P + P P = P P ,
cui QP = P Q.
(iv)
Poich`e P Q = ST , la (ii) assicura che QP = T S e quindi usando la
relazione di Chasles si ha QT = QP + P T = T S + P T = P T + T S = P S.
t
u
Un sottoinsieme non vuoto B dello spazio affine A si dice sottospazio affine se
B = {Q A | (P, Q) B } = p1 (B)
ovvero se
B = {P + v | v B }
B = P + B;
100
Geometria analitica
A `
e un sottospazio affine (di se stesso) di spazio direttore V (dunque A = V ).
Daltra parte, qualsiasi sia il punto P si ha che P + {0} = {P } e quindi i punti sono
sottospazi affini (qui con abuso di terminologia si `e identificato implicitamente P
con {P }).
Si osservi che se B `e un sottospazio affine, restringendo il dominio dellapplicazione
si ottiene lapplicazione
B : (P, Q) B B (P, Q) B
{T A | P T W } = {T A | QT W }
ovvero P + W = Q + W .
t
u
(in tal caso B = {0}), mentre se dim(B) = 1 si dice che B `e una retta (affine) e in
tal caso B si dice direzione della retta e ogni suo vettore non nullo (che lo genera) `e
detto vettore direzionale della retta. Ancora, se dim(B) = 2 si dice che B `e un piano
(affine) mentre se dim(A) = n e dim(B) = n 1 si dice che B `e un iperpiano (affine).
In generale, lintersezione di due sottospazi affini pu`o non essere un sottospazio
affine in quanto potrebbe essere vuota, sussiste per`o la seguente.
101
B B0 6= , allora B B0 `
e un sottospazio affine di spazio direttore B B 0 . Inoltre
se P B B0 , allora B B0 = P + ( B B 0 ).
e che B0 = P + B 0 , e si ha
Q B B0 P Q B e P Q B P Q B B 0 Q P + ( B B 0 ).
t
u
Due sottospazi affini B e B0 dello spazio affine A si dicono paralleli, e si scrive
BkB0 , se B `
e contenuto in B 0 oppure B 0 `e contenuto in B . Si noti che in generale
il parallelismo tra sottospazi affini `e una relazione riflessiva e simmetrica ma non in
generale transitiva; per`o risulta essere transitiva tra sottospazi di uguale dimensione
vkB, quando v B ; mentre quando A `e euclideo, si usa dire anche che un vettore
ovvero se v B .
Sussiste la seguente di cui si omette la dimostrazione.
Proposizione 6.1.4 Sia A uno spazio affine di dimensione n e siano B e B0 due
iperpiani non paralleli di A. Allora B B0 `e un sottospazio affine di dimensione
n 2.
Supponiamo che lo spazio affine A abbia dimensione finita n, e si fissino un punto
a R; in tal caso, i punti U1 , . . . , Un di A unici per essere tali da aversi OUi = ei per
ogni i = 1, . . . , n, si dicono punti unitari. Talvolta le rette affini O + L[ei ] vengono
dette assi del riferimento. Inoltre, se il riferimento R `e ortogonale, il riferimento
affine R si dice ortogonale, se invece R `e ortonormale allora R si dice ortogonale e
monometrico.
Fissato il riferimento affine R = (O, R) e considerato un punto P di A, si pu`o
cR : P A cR (OP ) Kn .
102
Geometria analitica
lunico punto tale che v = OP , si scrive v = (x1 , . . . , xn ) per indicare che (x1 , . . . , xn )
si scrive Q P per indicare il vettore P Q e il motivo `e legato alla (i) della seguente.
P Q = (y1 x1 , . . . , yn xn ).
(ii) Se si suppone che V sia uno spazio euclideo si prodotto scalare s in cui sia
stato fissato come R un riferimento ortonormale, considerati u = (x1 , . . . , xn )
e v = (y1 , . . . , yn ) due vettori di V , si ha che
s(u, v) = x1 y1 + + xn yn = (x1 , . . . , xn ) (y1 , . . . , yn )
x1 y1 + + xn yn
p
cos u
d
,v = p 2
.
x1 + + x2n y12 + + yn2
Dimostrazione Si ha che P Q = P O + OQ = OQ OP e quindi lisomorfismo
t
u
103
x1 b1 = a11 x1 + + a1n xn
..
.
x0 b = a x + + a x
n
n1 1
nn n
n
ovvero
x1 = a11 x1 + + a1n xn + b1
..
(6.1)
.
x0 = a x + + a x + b
n1 1
nn n
n
n
Le equazioni (6.1) sono le formule di passaggio dal riferimento R al riferimento R0 .
Tali formule possono essere anche scritte in forma matriciale come X 0 = AX + B.
Concludiamo questa sezione con la seguente osservazione. Nello spazio affine A
di dimensione n, fissiamo un riferimento affine R = (O, R). Consideriamo poi un
sistema lineare compatibile AX = B su K con A matrice m n di rango n h. La
proposizione 3.8.1 e la proposizione 3.8.2 garantiscono che le soluzioni del sistema
AX = B sono tutte e sole le coordinate in R dei punti di un sottospazio affine di
A di dimensione h la cui giacitura corrisponde, attraverso lisomorfismo coordinato
cR , al sottospazio dello spazio vettoriale numerico Kn che ha per rappresentazione
cartesiana AX = 0. Viceversa, si potrebbe provare che se B `e un sottospazio affine
di dimensione h allora le coordinate dei punti di B verificano un opportuno sistema
lineare compatibile AX = B su K con (A) = n h.
6.2
104
Geometria analitica
sottospazi affini propri non banali, ovvero le rette di E2 , in seguito si riterr`a fissato
un riferimento R = (O, R) in E2 che per comodit`a assumeremo essere monometrico
e ortogonale, ovvero il riferimento vettoriale R = (e1 , e2 ) `e ortonormale.
6.2.1
r = P0 +
r = {P E2 | P0 P
r}
r = {P E2 | t R : P0 P = tv}.
(6.2)
105
=1
det
=0
x x0 y y 0
x x0 y y 0
ovvero
m(x x0 ) l(y y0 ) = 0
(6.4)
(6.5)
106
Geometria analitica
Esempi
1) Scrivere lequazione della retta r passante per il punto (2, 1) e di vettore direzionale (4, 3).
In forma parametrica, la retta r `e rappresentata dalle equazioni
x = 2 + 4 t
y = 1 + 3t
con t R. La forma cartesiana si ottiene dalla relazione 3(x + 2) 4(y 1) = 0.
Sviluppando i calcoli si ottiene che lequazione cartesiana `e 3x 4y + 10 = 0. Si
osservi che tale equazione si pu`o anche pervenire dalla relazione
x+2 y1
=0
4
3
2) Scrivere lequazione della retta r passante per i punti P (1, 2) e Q(0, 2).
Il vettore direzionale di r `e il vettore P Q = (1, 4) sicch`e in forma parametrica
otteniamo
x=1+t
y = 2 4 t
mentre in forma cartesiana otteniamo 4x 1(y 2) = 0 ovvero 4x + y 2 = 0.
6.2.2
Due rette affini sono parallele se hanno lo stesso spazio direttore e quindi considerate
le rette r, di vettore direzionale v = (l, m), ed r0 , di vettore direzionale v0 = (l0 , m0 ),
si ha che r ed r0 sono parallele se e solo se L[v] = L[v0 ], ovvero se e solo se v e
v0 sono proporzionali e quindi paralleli per la proposizione 2.1.2. Pertanto r ed r0
sono parallele se e solo se attraverso lisomorfismo coordinato cR risulta che (l, m)
ed (l0 , m0 ) sono proporzionali.
Le rette r ed r0 si dicono ortogonali, e si scrive r r0 , se tali sono i loro vettori
direzionali v e v0 , ossia se e solo se v v0 = 0. Pertanto la proposizione 6.1.5 assicura
che r ed r0 sono ortogonali se e solo se ll0 + mm0 = 0. Si noti che se r ed r0 sono
ortogonali allora v v0 = 0 e quindi, essendo v e v0 non nulli, v e v0 sono non
proporzionali. Dunque rette ortogonali non possono essere parallele.
Proposizione 6.2.2 Siano r : ax + by + c = 0 ed r0 : a0 x + b0 y 0 + c = 0 due rette
del piano affine euclideo E2 . Allora
(i) r ed r0 sono parallele se e solo se (a, b) e (a0 , b0 ) sono proporzionali.
107
Esempi
1) Scrivere lequazione cartesiana della retta r per P0 (2, 3) parallela alla retta
s : 5x 2y + 3 = 0.
Il vettore direzionale di s `e v = (2, 5), sicch`e r : 5(x 2) 2(y + 3) = 0 ovvero
r : 5x 2y 16 = 0.
2) Scrivere lequazione cartesiana della retta r per P0 (2, 3) e ortogonale al vettore
v = (2, 5).
Se P `e il generico punto di r, allora P P0 deve essere un vettore ortogonale a v,
pertanto r `e linsieme dei punti P (x, y) tali che (P P0 ) v = 0. Cos` lequazione di
r `e data da 0 = (x 2, y + 3) (2, 5) = 2(x 2) + 5(y + 3) ovvero `e 2x + 5y + 11 = 0.
3) Dato il punto P0 (2, 3) e la retta r : 2x + 5y + 1 = 0, scrivere lequazione della
retta s per P0 parallela ad r e della retta t per P0 ortogonale ad r.
108
Geometria analitica
6.2.3
Si dice fascio di rette linsieme delle rette passanti per un punto C del piano detto
centro, e in tal caso si parla di fascio proprio, oppure linsieme delle rette parallele
ad una retta fissata, e in tal caso si parla di fascio improprio.
Se r : ax + by + c = 0 `e una retta del piano, `e chiaro che le rette ad essa parallela
sono descritte dallequazione ax + by + k = 0 al variare di k in R.
Invece, se C(x0 , y0 ) `e un punto del piano, il fascio di rette di centro C `e costituito
da quelle rette di equazione ax + by + c = 0 tali che ax0 + by0 + c = 0, quindi `e
costituito da rette che hanno equazione del tipo ax + by ax0 by0 = 0 dove a e b
sono numeri reali non entrambi nulli.
Un fascio di rette pu`o essere anche descritto da due sue rette, si potrebbe infatti
provare il seguente:
Teorema 6.2.4 Siano r : ax + by + c = 0 e r0 : a0 x + b0 y + c0 = 0 due rette distinte
di un fascio F. Allora tutte e solo le rette di F hanno equazione
(ax + by + c) + (a0 x + b0 y + c0 ) = 0
(6.6)
Esempi
1) Scrivere lequazione della retta per il punto A(3, 1) appartenente al fascio individuato dalle rette r : x + 2y 4 = 0 ed
x = 1 + 2t
s:
y =3+t
Scriviamo dapprima s in forma cartesiana s : x 2y + 5 = 0, cos` da ottenere che
la generica retta del fascio ha equazione del tipo
(x + 2y 4) + (x 2y + 5) = 0
Imponendo lappartenenza di A ricaviamo +6 = 0, una cui soluzione `e ad esempio
= 6 e = 1. Pertanto la retta del fascio cercata `e la retta 5x + 14y 29 = 0.
109
2) Scrivere lequazione del fascio improprio delle rette parallele alla retta di equazione
x + 2y 4 = 0.
In tal caso la generica retta del fascio, dovendo avere vettore direzionale (2, 1),
ha equazione del tipo x + 2y + c = 0 al variare di c in R.
6.2.4
b2 x aby ac a2 y abx bc
0
0
0
0
,
a2 + b 2
a2 + b 2
110
Geometria analitica
|ax0 + by0 + c|
.
a2 + b 2
Infine, date due rette r ed r0 del piano, si definisce distanza tra r ed r0 il pi`
u
piccolo tra i valori d(P, Q) al variare di P r e di Q r0 .
d(r, r0 ) = min{d(P, Q) | P r e Q r0 }.
Evidentemente, d(r, r0 ) = 0 se r ed r0 sono incidenti, altrimenti d(r, r0 ) = d(P, r0 )
per ogni P r.
6.3
111
(iii) (u + v) w = (u w) + (v w);
(iv) (u v) = (u) v = u (v);
(v) Se ukv allora u v = 0. In particolare, 0 u = u 0 = 0.
(vi) (u v) u = 0 = (u v) v.
x1 x2 x3
P = y1 y2 y3 ,
z1 z2 z3
la condizione c) assicura che det(P ) > 0: questa condizione si esprime anche dicendo
che R0 ha lo stesso orientamento di R. Nella pratica, per stabilire il verso del vettore
u v si sa la regola della mando destra: si tiene la mano piatta e posizionata in
modo che le dita (indice, medio, anulare e mignolo) siano allineate con il vettore u;
queste, poi, vengono ruotate verso il vettore v e cos` il pollice indicher`a il verso di
u v.
Si osservi infine che e1 e2 `e un vettore libero di modulo 1 e direzione ortogonale
sia ad e1 che e2 , sicch`e essendo un vettore libero univocamente determinato dal
suo modulo, dalla sua direzione e dal suo verso (ed essendo det(I3 ) = 1) si ha che
e1 e2 = e3 . Analogamente risulta e2 e3 = e1 e e3 e2 = e1 .
112
6.3.1
Geometria analitica
= P0 +
= {P E3 | P0 P
}
e quindi, considerati due vettori non nulli v = (l, m, n) e v0 = (l0 , m0 , n0 ) entrambi
paralleli al piano ma non paralleli tra di loro, la proposizione 2.1.2 ed il lemma 2.1.3
garantiscono che
= L[v, v0 ]. Cos` si ha
= {P E3 | s, t R : P0 P = sv + tv0 }.
x = x0 + ls + l0 t
y = y0 + ms + m0 t
z = z0 + ns + n0 t
(6.7)
113
(6.8)
dove
a = mn0 m0 n,
b = l0 n ln0 ,
c = lm0 l0 m
sono non tutti nulli altrimenti (l, m, n) e (l0 , m0 , n0 ) sarebbero proporzionali e quindi
i vettori v = (l, m, n) e v0 = (l0 , m0 , n0 ) sarebbero paralleli per la proposizione 2.1.2.
Posto d = ax0 by0 cz0 nella (6.8), si ottiene
ax + by + cz + d = 0.
(6.9)
(6.10)
t
u
114
Geometria analitica
direttore
ha per base i vettori v = (b, a, 0) e v0 = (c, 0, a) e quindi esso
corrisponde, attraverso lisomorfismo coordinato, al sottospazio di R3 la cui base `e
formata dai vettori (b, a, 0) e (c, 0, a); `e semplice verificare che la rappresentazione
cartesiana di tale sottospazio `e lequazione ax+by+cz = 0. Si noti inoltre che avendo
V3 dimensione 3 e
dimensione 2, il teorema 5.1.7 assicura che
ha dimensione
Esempi
1) Scrivere lequazione del piano passante per il punto P0 (4, 3, 2) e parallelo ai
vettori v = (1, 1, 0) e v0 = (2, 1, 3).
La rappresentazione parametrica di si ottiene subito ed `e
x = 4 + s + 2t
y =3s+t
:
z = 2 + 3t
mentre la rappresentazione cartesiana si ottiene facilmente da
x4 y3 z+2
1
=0
1
0
2
1
3
ed `e x + y z 9 = 0.
2) Scrivere lequazione del piano per i punti A(1, 0, 1), B(2, 0, 0) e C(2, 1, 3).
Chiaramente, `e il piano per A parallelo al vettore B A = (1, 0, 1) ed al
vettore C A = (1, 1, 2), quindi `e il piano di equazioni parametriche
x=1+s+t
y=t
:
z = 1 s + 2t
Mentre da
x1 y z1
1
0 1 = 0
1
1
2
6.3.2
Due piani affini e 0 sono paralleli quando i loro spazi direttori coincidono
= 0 .
Siano : ax + by + cz + d = 0, 0 : a0 x + b0 y + c0 z + d0 = 0, n = (a, b, c) il vettore
115
116
Geometria analitica
Esempi
1) Considerati tre piani nello spazio : x 4y + 3z + 6 = 0, 0 : x + y + z 2 = 0 e
00 : 2x 8y + 6z = 0 si ha che i vettori ortogonali a , 0 e 00 sono n = (1, 4, 3),
n0 = (1, 1, 1) e n00 = (2, 8, 6), rispettivamente. Essendo n n0 = 0 si ha che e 0
sono ortogonali, mentre essendo n00 = 2n i piani e 00 sono paralleli, sicch`e 0 e 00
sono ortogonali. Inoltre essendo (1, 4, 3, 6) e (2, 8, 6, 0) non proporzionali, i piani
e 00 non sono coincidenti.
2) Considerato il piano : 2x + 3y 5z + 1 = 0 si rappresenti il piano per A(4, 2, 4)
parallelo a e due piani per lorigine ortogonali a .
Ogni piano parallelo a ha equazione del tipo 2x + 3y 5z + d = 0 con d R.
Imponendo che A appartenga ad uno di questi piani si ottiene d = 8 6 + 20 = 6
e quindi il piano per A parallelo a ha equazione 2x + 3y 5z + 6 = 0.
Ora, un piano per lorigine ha equazione del tipo ax+by +cz = 0 e un tale piano `e
ortogonale a se e solo se 0 = (a, b, c) (2, 3, 5) = 2a + 3b 5c. Scelte due soluzioni
non nulle di questa equazione, ad esempio, (5, 0, 2) e (1, 1, 1) possiamo concludere
che due piani per lorigine e ortogonali a sono 5x + 2z = 0 e x + y + z = 0.
6.3.3
r = P0 +
r = {P E3 | P0 P
r}
ed essendo
r = L[v], anche
r = {P E3 | t R : P0 P = tv}.
Evidentemente anche qui ritroviamo il concetto di retta della geometria elementare:
117
x = x0 + l t
y = y0 + m t
z = z0 + n t
(6.12)
x = x0 + (x1 x0 )t
y = y0 + (y1 y0 )t
(6.13)
z = z0 + (z1 z0 )t
Si osservi che un punto P (x, y, z) `e sulla retta per P0 (x0 , y0 , z0 ) di vettore direzionale v = (l, m, n) se e solo se P P0 L[v] e quindi se e solo se
l
m
n
=1
x x0 y y0 z z0
Poich`e v `e un vettore non nullo, supposto ad esempio l 6= 0, il teorema degli Orlati 3.5.6 assicura che gli orlati del minore (l) devono essere singolari e quindi che
l
m
l
n
=0=
x x0 y y 0
x x0 z z0
da cui si ricava che una rappresentazione della retta `e
mx + ly + (mx0 ly0 ) = 0
r:
nx + lz + (nx0 lz0 ) = 0
(6.14)
0 : a0 x + b 0 y + x 0 z + d 0 = 0
118
Geometria analitica
Esempi
1) Scrivere lequazione della retta r per i punti A(3, 5, 1) e B(2, 1, 0).
Un vettore direzionale della retta r `e il vettore A B = (1, 4, 1) e quindi
parametricamente la retta `e rappresentata da
x=3+t
y = 5 + 4t
r:
z = 1 t
Per ottenere la rappresentazione cartesiana ricaviamo t da una delle equazioni e
sostituiamo nelle altre. Ricavando t dalla terza, si ha t = 1 z e cos`
x+z2=0
r:
y + 4z 1 = 0
2) Scrivere in forma parametrica la retta
x y + 2z = 2
r:
2x + 3y z = 4
E semplice accorgersi che P0 (1, 1, 1) `e un punto di r. Daltra parte un vettore
direzionale di r `e il vettore v = (1, 1, 2) (2, 3, 1) = (5, 5, 5). Quindi anche
(1, 1, 1) `e un vettore parallelo ad r e pertanto in forma parametrica si ha
x=1t
y =1+t
r:
z =1+t
6.3.4
119
x = x0 + l t
x = x00 + l0 s
0
y = y00 + m0 s
y = y0 + m t
r:
e r :
z = z00 + n0 s
z = z0 + n t
si avrebbe r = P +
r = P +
r 0 = r0 . Inoltre sempre nel caso in cui r e r0 sono
propriamente parallele si ha che esiste un unico piano
x = x0 + l t + (x00 x0 )s
y = y0 + m t + (y00 y0 )s
:
z = z0 + n t + (z00 z0 )s
che le contiene; infatti, ponendo s = 0 e facendo variare t in R, le precedenti
equazioni descrivono i punti di r (e quindi r `e contenuto in ), mentre ponendo
s = 1 e facendo variare t in R, ricordando che (l0 , m0 , n0 ) `e proporzionale ad (l, m, n)
perch`e r e r0 sono parallele, si ha che le precedenti equazioni descrivono i punti di r0
(e quindi anche r0 `e contenuto in ). In definitiva, quindi, due rette affini parallele
dello spazio coincidono (e in tal caso `e evidente che esistono infiniti piani che le contengono) oppure sono complanari e disgiunte; pertanto, rette parallele dello spazio
sono complanari.
Due rette r e r0 sono incidenti se r r0 6= . Supponiamo che le rette r e r0 sono
incidenti. Se P r r0 , risulta r r0 = P + (
r
r 0 ) per la proposizione 6.1.3.
r = P +
r 0 = r0 se
Poich`e dim( r r 0 ) 1, si ha che r = r r 0 = r 0 e r = P +
0
0
0
dim( r r ) = 1, oppure r r = {P } se dim( r r ) = 0. Supponiamo che r 6= r0 .
120
Geometria analitica
x=1
x=2
y=t
y=0
r:
e
r0 :
z=0
z=s
Esempi
1) Consideriamo le rette
x=2+t
x+y2=0
0
y = t
r:
r :
xyz1=0
z = 1 + 2t
00
r :
2y + z = 0
2x z 3 = 0
x+y2=0
xyz1=0
2y
+z =0
2x z 3 = 0
ci si accorge che le rette r e r00 sono propriamente parallele, infatti tale sistema `e
incompatibile e quindi r e r00 non hanno punti in comune.
2) Consideriamo le rette
x=2t
y = 2t
r:
z = 1 + 3t
x = 1 + 2t
0
y = 3 + t
r :
z=4
x=1t
00
y = 1 + 2t
r :
z =2+t
121
e v0 v00 = 0, le rette r e r0 sono ortogonali cos` come anche r0 e r00 sono ortogonali.
Invece, v v00 = 8 6= 0 e quindi r e r00 non sono ortogonali. Daltra parte v e v00
non sono proporzionali e quindi r e r00 non sono neanche parallele. Scrivendo la
rappresentazione cartesiana di r ed r00
2x + y 4 = 0
x+z3=0
00
r:
e
r :
3x + z 5 = 0
y 2z 5 = 0
`e semplice poi accorgersi che il sistema
2x + y 4 = 0
3x + z 5 = 0
x+z3=0
y 2z 5 = 0
`e incompatibile, sicch`e r r00 = e quindi r e r00 sono sghembe.
3) Assegnata la retta
r:
x+y2=0
xyz1=0
x=1t
y =2+t
z = 3 2t
Ricavando t dalla prima e sostituendo nelle altre, otteniamo la sua forma cartesiana:
x+y3=0
xyz2=0
Ora, un vettore di componenti (l, m, n) `e ortogonale a v se e solo se risulta
0 = (1, 1, 2) (l, m, n) = l + m 2n. Pertanto due rette per lorigine ortogonali
a r sono
x = 2t
x = t
y=0
y = 3t
z=t
z = 2t
6.3.5
122
Geometria analitica
piano se e solo se
r
= (
) (cfr. teorema 5.1.7) e quindi se solo se v `e
r 6
, quindi
r
`e un sottospazio proprio di
r e pertanto, poich`e
r ha
e quindi
r
= {0}; in particolare ancora la proposizione 2.5.7 e la formula di
con u
r ev
, e la proposizione 2.1.1 assicura che esistono un unico punto
Esempi
1) Il piano : 2x y 3z + 5 = 0 e la retta
x+y1=0
y+z2=0
123
x = 1 + 6t
y = 3t
z = 2 + 9t
`e ortogonale a .
2) Considerato il punto A(1, 1, 2) ed il piano : 2x + z 4 = 0, determinare la
retta r per A ortogonale a .
Essendo n = (2, 0, 1) ortogonale a , la retta r ha equazioni parametriche
x = 1 + 2t
y=1
z = 2 + t
6.3.6
Si dice fascio di piani linsieme dei piani passanti per una retta r detta asse del
fascio, e in tal caso si parla di fascio proprio, oppure linsieme dei piani paralleli ad
un piano fissato, e in tal caso si parla di fascio improprio.
Se consideriamo : ax + by + cz + d = 0 e 0 : a0 x + b0 y + c0 z + d0 = 0 due piani
distinti, allora se e 0 non sono paralleli, essi individuano un fascio proprio di
asse la retta 0 , mentre se e 0 sono paralleli individuano un fascio improprio.
Infatti si potrebbe provare il seguente:
Teorema 6.3.7 Siano : ax + by + cz + d = 0 e 0 : a0 x + b0 y + c0 z + d0 = 0 due
piani distinti di un fascio F. Allora tutte e soli i piani di F hanno equazione
(ax + by + cz + d) + (a0 x + b0 y + c0 z + d0 ) = 0
(6.16)
Esempi
1) Rappresentare il piano passante per il punto A(1, 2, 2) e per la retta
x 2y + z + 1 = 0
r:
2x + y z 3 = 0
Il piano `e un piano del fascio di asse r e quindi pu`o essere rappresentato da
unequazione del tipo
(x 2y + z + 1) + (2x + y z 3) = 0.
124
Geometria analitica
x+y1=0
3x z = 0
6.3.7
Abbiamo gi`a osservato che, differentemente da quanto accade nel piano, nello spazio
due rette possono essere ortogonali pur non essendo non incidenti. Due rette si
dicono perpendicolari se ortogonali ed incidenti. Chiaramente a due rette parallele
si possono condurre infinte rette perpendicolari ad entrambe, infatti per ogni punto
125
sulluna si pu`o considerare la retta per quel punto perpendicolare allaltra. Invece
nel caso di due rette non parallele, si ha che di rette pependicolari ad entrambe ne
esite solo una: tale retta si chiama comune perpendicolare.
Proposizione 6.3.8 Siano r ed r0 due rette non parallele dello spazio. Allora esiste
ununica retta p perpendicolare ad entrambe.
Dimostrazione Sia v un vettore direzionale di r e sia v0 un vettore direzionale
di r0 . Se r ed r0 sono incidenti nel punto P , allora la retta p per P di vettore
direzionale v = v v0 `e chiaramente ortogonale ed incidente ad r ed r0 ; inoltre essa
`e unica infatti ogni altra retta p0 ortogonale ed incidente ad r ed r0 `e necessariamente
parallela a p ed interseca il piano per r ed r0 in un unico punto che necessariamente
deve essere P , sicch`e p = p0 .
Supponiamo quindi che r ed r0 non siano incidenti, sicch`e r ed r0 sono sghembe.
Consideriamo per r ed r0 una rappresentazione parametrica
x = x0 + l t
x = x00 + l0 s
y = y0 + m t
y = y00 + m0 s
r:
ed
r0 :
z = z00 + n0 s
z = z0 + n t
Sia Pt (x0 +lt, y0 +mt, z0 +nt) il generico punto di r e sia Qs (x00 +l0 s, y00 +m0 s, z00 +n0 s)
il generico punto di s. La retta p(t, s) per Pt e Qs `e per costruzione incidente sia r
che r0 , inoltre essa `e ortogonale ad r ed r0 se il suo vettore direzionale
(v v)t + (v v0 )s + v P0 Q0 = 0
(6.17)
(v v0 )t + (v0 v0 )s + v0 P0 Q0 = 0
Questultimo sistema lineare in t e s ha la matrice dei coefficienti che ha per determinante
(v v)(v0 v0 ) + (v v0 )2
Poich`e i vettori v e v0 sono non paralleli e quindi indipendenti per la proposizione 2.1.2,
segue quindi dalla disuguaglianza di Cauchy-Schwarz (cfr. proposizione 5.1.1) che
il sistema (6.17) `e di Cramer: sia (t0 , s0 ) la sua unica soluzione. Allora dallunicit`a
della soluzione, segue che la retta p = p(t0 , s0 ) `e lunica comune perpendicolare ad
r ed r0 .
t
u
126
Geometria analitica
Esempi
1) Le rette
x=1t
y=4
r:
z = 2 + 3t
ed
s:
4x y + 4 = 0
y + 2z + 2 = 0
sono incidenti nel punto P (0, 4, 1). La comune perpendicolare alle rette r ed s sar`a
quindi la retta per P ortogonale al piano che contiene r ed s. Considerato un
vettore direzionale v = (1, 0, 3) di r ed un vettore direzionale v0 = (1, 4, 2) di s, il
piano `e ortogonale al vettore n = (1, 0, 3) (1, 4, 2) = (12, 5, 4) e quindi la
comune perpendicolare ad r ed s `e la retta
x = 12t
y = 4 + 5t
z = 4 + t
2) Le rette
x=2t
y = 2t
r:
z = 1 + 3t
ed
x=1t
y = 1 + 2t
s:
z =2+t
risultano essere sghembe. Per determinare la comune perpendicolare possiamo procedere come segue. Un vettore ortogonale ad entrambe le rette si ottiene facendo
il prodotto vettoriale dei vettori direzionali delle rette ed `e quindi il vettore v =
(1, 2, 3) (1, 2, 1) = (4, 2, 0). La comune perpendicolare ad r ed s `e una retta
che giace sul piano per r parallelo a v e sul piano 0 per s parallelo a v. Una
rappresentazione cartesiana per r `e
2x + y 4 = 0
3x + z 5 = 0
6.3.8
127
Se P1 (x1 , y1 , z1 ) e P2 (x2 , y2 , z2 ) sono due punti dello spazio, si definisce distanza tra
P1 e P2 il modulo del vettore P2 P1 = (x2 x1 , y2 y1 , z2 z1 ); pertanto segue
dalla propoposizione 6.1.5 che:
p
d(P1 , P2 ) = |P2 P1 | = (x2 x1 )2 + (y2 y1 )2 + (z2 z1 )2 .
Se poi S e T sono insiemi (non vuoti) di punti dello spazio, si dice distanza tra
S e T il numero reale positivo
d(S, T ) = min{d(P, Q) | P S e Q T }.
.
a2 + b 2 + c 2
=
=
a2 + b 2 + c 2
a2 + b 2 + c 2
e dunque, ricordando che P e che quindi d = ax by cz, si ha
d(P0 , r) =
.
a2 + b 2 + c 2
128
Geometria analitica
|2 1 1 3 + 1 (1) 4|
6
p
d(P, ) =
= = 6.
6
22 + (1)2 + 12
Distanza punto retta
Se P `e un punto ed r `e una retta, allora d(P, r) = d(P, H) dove H `e il punto di
intersezione tra r ed il piano per P ortogonale ad r.
xy+3=0
, il
4x z + 9 = 0
piano per P ortogonale ad r ha equazione : x + y + 4z 3 = 0 ed interseca r nel
punto H(2, 1, 1), cos` d(P, r) = d(P, H) = 11.
Ad esempio, considerati il punto P (1, 2, 0) e la retta r :
x=2t
y = 2t
r:
e
r0
z = 1 + 3t
x=1t
y = 1 + 2t
:
z =2+t
5
2 11 13
e Q 5 , 5 , 5 la cui distanza 5 rappresenta la distanza di r da r0 . Si osservi che
129
x = 25 + 52 t
+ 15 t
y = 11
5
13
z= 5
In realt`a, se si considera il piano per r parallelo ad r0 , si ottiene che la distanza
tra le rette sghembe r e r0 `e d(r, r0 ) = d(r0 , ) = d(P, ) per ogni P r0 .
Ad esempio, considerando le rette dellesempio di sopra, una rappresentazione
cartesiana di r `e
2x + y 4 = 0
3x + z 5 = 0
e quindi un piano per r ha equazione del tipo (2x + y 4) + (3x + z 5) = 0 e
sar`a parallelo ad r0 se (2 + 3, , ) (1, 2, 1) = 0, dunque ricaviamo che il piano
cercato `e : 2x + y 4 = 0 e cos`, considerando ad esempio il punto P (1, 1, 2) di r0 ,
otteniamo
5
|2 + 1 4|
0
=
.
d(r, r ) = d(P, ) =
5
4+1
Distanza piano piano
Se e 0 sono due piani e 0 6= allora d(, 0 ) = 0, altrimenti nel caso in
cui i piani e 0 sono propriamente paralleli si ha che d(, 0 ) = d(P, 0 ) comunque
si consideri un punto P su .
CAPITOLO 7
Le coniche
7.1
Dal punto di vista della geometria elementare, si dice conica una sezione piana di
un cono a due falde. Se la conica `e ottenuta intersecando un cono a due falde con un
piano passante per il vertice, si parla di conica degenere. Le possibili coniche degeneri
sono una coppia di rette incidenti nel vertice (iperbole degenere), una coppia di rette
coincidenti passanti per il vertice (parabola degenere), ed un punto che coincide col
vertice (ellisse degenere). Le coniche non degeneri, invece, si ottengono intersecando
un cono a due falde con un piano non passante per il vertice, esse sono lellisse,
liperbole e la parabola.
7.1.1
Circonferenza
(x x0 )2 + (y y0 )2 = R.
(7.1)
Si verifica che ogniequazione del tipo (7.1) rappresenta una circonferenza di centro
(a, b) e raggio a2 + b2 c. Si osservi che se R = 0 otteniamo il luogo costituito
dal solo punto C che possiamo considerare come una circonferenza degenere di raggio
nullo; mentre se R < 0 allora abbiamo una circonferenza immaginaria.
131
Per una circonferenza, il centro `e un centro di simmetria, cos` come ogni retta
per il centro (cio`e ogni diametro) `e un asse di simmetria. Si osservi infine che se si
sceglie un riferimento in cui il centro coincide con lorigine, allora la circonferenza
di centro lorigine e raggio R `e descritta dallequazione x2 + y 2 = R2 .
7.1.2
Ellisse
Si dice ellisse il luogo geometrico dei punti del piano equidistanti da due punti fissi
detti fuochi.
Siano F 0 ed F 00 i due fuochi dellellisse, e scegliamo un riferimento del piano tale
che un asse coincida con la retta per F 0 e F 00 , lorigine O sia nel punto medio del
segmento F 0 F 00 e laltro asse passi per O e sia ortogonale allasse gi`a fissato. In un
tale riferimento, esiste un c R tale che F 0 (c, 0) e F 00 (c, 0).
Sia a > c, e si consideri il luogo geometrico dei punti del piano P (x, y) tali che
d(P, F 0 ) + d(P, F 00 ) = 2a.
Esplicitando la precedente relazione si ottiene
p
p
(x + c)2 + y 2 + (x c)2 + y 2 = 2a,
elevando al quadrato ambo i membri si ha
p
p
(x + c)2 + y 2 + (x c)2 + y 2 + 2 (x + c)2 + y 2 (x c)2 + y 2 = 4a2
ossia
p
p
2x2 + 2y 2 + 2c2 4a2 = 2 (x + c)2 + y 2 (x c)2 + y 2 .
Pertanto
p
p
x2 + y 2 + c2 2a2 = (x + c)2 + y 2 (x c)2 + y 2
132
Le coniche
Per lellisse (7.2) gli assi del sistema di riferimento sono gli assi di simmetria
dellellisse cos` come lorigine del riferimento (cio`e il centro) `e centro di simmetria.
Si osservi infine che se a = b, allora (7.2) descrive una circonferenza di centro lorigine
e raggio a.
7.1.3
133
Iperbole
Una iperbole `e il luogo geometrico dei punti del piano la cui differenza delle distanze
da due punti fissi detti fuochi `e costante.
Siano F 0 e F 00 i due fuochi delliperbole, e scegliamo un riferimento tale che un
asse coincida con la retta per F 0 e F 00 , lorigine O sia nel punto medio del segmento
F 0 F 00 e laltro asse sia ortogonale a quello gi`a fissato e sia passante per O. In un
tale riferimento, esiste un c R tale che F 0 (c, 0) e F 00 (c, 0).
Sia a < c, e si consideri il luogo geometrico dei punti del piano P (x, y) tali che
d(P, F 0 ) d(P, F 00 ) = 2a,
ossia tali che
p
p
(x + c)2 + y 2 (x c)2 + y 2 = 2a.
Sviluppando i calcoli come visto nel caso dellellisse otteniamo
(c2 a2 )x2 a2 y 2 = a2 (c2 a2 ).
Ponendo b =
x2 y 2
2 = 1.
a2
b
La (7.3) rappresenta liperbole di fuochi F 0 e F 00 .
(7.3)
134
Le coniche
I punti A0 (a, 0) e A00 (a, 0) (che sono i punti di intersezione delliperbole con
lasse passante per i fuochi) si dicono vertici (reali) delliperbole, mentre le rette
s0 : bx ay = 0,
s00 : bx + ay = 0
(7.4)
7.1.4
Parabola
Siano r una retta del piano ed F un punto del piano che non giace su r. Si dice
parabola di fuoco F e direttrice r il luogo geometrico dei punti del piano equidistanti
da F e da r.
Scegliamo un riferimento in modo tale che un asse passi per F e sia perpendicolare
a r. Se H `e il punto di intersezione tra r e lasse fissato, scegliamo lorigine O nel
punto medio del segmento F H, e laltro asse lo scegliamo come la retta per O
parallela alla retta r. Se d(F, r) = p > 0 si ha che nel riferimento fissato `e F ( p2 , 0).
Il generico punto P (x, y) della parabola sar`a tale da aversi
d(P, F ) = d(P, r)
ovvero
r
p 2
p
+ y2 = x + .
2
2
(7.5)
Il luogo geometrico descritto dalla (7.5) rappresenta una parabola passante per
lorigine O che si dice vertice della parabola.
135
Si noti infine che per la parabola (7.5) lasse di equazione y = 0 `e asse di simmetria.
7.2
Consideriamo il piano affine euclideo E2 e in esso supponiamo sia fissato un riferimento affine R(O, R), sicch`e un punto di E2 `e individuato da una coppia di numeri
reali. Essendo un numero reale un particolare numero complesso, possiamo pensare
al piano euclideo E2 come ad una parte di un insieme, che indicheremo con E2C , i cui
elementi (o punti) nel fissato riferimento R hanno come coordinate una coppia di
numeri complessi; tale insieme si chiama ampliamento complesso di E2 . I punti di
E2C che hanno per coordinate una coppia di numeri reali si diranno punti reali, gli
altri invece saranno chiamati punti immaginari. Osserviamo che se consideriamo un
altro riferimento R0 (O0 , R0 ), la matrice di passaggio da R a R0 `e una matrice reale
e dunque se un punto `e reale o immaginario in R tale `e anche in R0 , sicch`e lessere
un punto reale o immaginario `e indipendente dal sistema di riferimento fissato.
Una retta di E2C sar`a linsieme delle soluzioni complesse di unequazione algebrica
del tipo ax + by + c = 0 con a, b, c C e (a, b) 6= (0, 0), in particolare quando
a, b, c R la retta si dir`a retta reale. Ad esempio, la retta x y + 1 = 0 `e una retta
reale che ha sia punti reali che immaginari infatti sono suoi punti (0, 1) e (i, i + 1),
cos` come ix + y 1 = 0 `e una retta complessa che ha sia punti reali che immaginari
essendo (0, 1) e (i, 2) suoi punti. Ancora xi+1 = 0 `e un esempio di retta complessa
priva di punti reali essendo un suo punto del tipo (i 1, y).
Sia L2C linsieme delle rette di E2C . Due rette di E2C , r : ax + by + c = 0 ed
136
Le coniche
7.3 Le coniche
137
2
C
Rispetto ad un sistema di coordinate omogenee assegnato cR , le rette di E
sono rappresentate da equazioni lineari omogenee del tipo ax1 + bx2 + cx3 = 0 con
(a, b, c) C3 \ {(0, 0, 0)}. In forma parametrica, invece, le rette sono descritte da
equazioni del tipo
x1 = y1 + z1
x2 = y2 + z2
x3 = y3 + z3
al variare di (, ) C \ {(0, 0)}, dove (y1 , y2 , y3 ) e (z1 , z2 , z3 ) rappresentano le
coordinate omogenee di due punti distinti della retta. In modo compatto si usa dire
2C sono rappresentate in forma parametrica con equazioni del tipo
che le rette di E
xi = yi + zi con i = 1, 2, 3 e al variare di (, ) in C2 \ {(0, 0)}. In particolare
la retta impropria r `e rappresentata dallequazione x3 = 0 (e quindi `e una retta
reale), mentre la generica retta propria r = r [r]k `e rappresentata dallequazione
r : ax1 + bx2 + cx3 = 0 se nel riferimento affine R risulta essere r : ax + by + c = 0.
Osserviamo che se r ed s sono rette di E2C , allora le corrispondenti rette ampliate r
2C si intersecano sempre in un punto che sar`a un punto proprio se r ed s
ed s di E
sono incidenti (in tal caso il punto proprio `e il punto di incidenza) o improprio se
r ed s sono parallele (in tal caso il punto improprio `e la loro direzione comune). In
particolare, la retta propria ax1 + bx2 + cx3 = 0 ha in comune con la retta impropria
un solo punto, la sua direzione (b, a, 0).
7.3
Le coniche
2C in cui si `e fissato un
Consideriamo dora in avanti il piano proiettivo complesso E
sistema di coordinate omogenee cR indotto da un fissato riferimento affine ortogonale
e monometrico R(O, R) del piano affine euclideo E2 .
Si dice conica il luogo dei punti le cui coordinate omogenee verificano unequazione omogenea di secondo grado a coefficienti complessi (non tutti nulli) del tipo:
a11 x21 + 2a12 x1 x2 + a22 x22 + 2a13 x1 x3 + 2a23 x2 x3 + a33 x23 = 0.
(7.6)
La matrice simmetrica
aij xi xj = 0
(7.7)
138
Le coniche
dove
x1
X = x2 .
x3
(7.8)
(7.9)
che si dice equazione non omogenea associata a . In pratica, il luogo descritto dalla
(7.9) coincide con la parte propria del luogo descritto in coordinate omogenee dalla
(7.6). Chiaramente per`o possiede anche dei punti impropri che si possono studiare
solo in coordinate omogenee mediante la (7.6), tali punti hanno la terza coordinata
omogenea nulla e cosituiscono lintersezione tra e la retta impropria.
Osserviamo che una conica reale pu`o non possedere punti reali, oppure possedere
un solo punto reale, o anche infiniti punti reali, per`o possiede sempre infiniti punti
immaginari. Ad esempio la conica reale : x21 +x22 +x23 = 0 non ha punti reali perch`e
lunica soluzione reale dellequazione omogenea che la definisce `e la terna (0, 0, 0)
2C .
che non rappresenta nessun punto di E
Esempio 1 Se r : ax1 + bx2 + cx3 = 0 ed s : a0 x1 + b0 x2 + c0 x3 = 0 sono rette,
allora la loro unione `e una conica perch`e `e descritta da unequazione omogenea di
secondo grado del tipo
(ax1 + bx2 + cx3 )(a0 x1 + b0 x2 + c0 x3 ) = 0.
Esempio 2 Se F 0 e F 00 sono due punti reali del piano, e k `e una costante reale
positiva maggiore della distanza tra F 0 e F 00 , il luogo geometrico dei punti P tali
che d(P, F 0 ) + d(P, F 00 ) = k pu`o essere rappresentato in un opportuno riferimento
da unequazione del tipo b2 x2 + a2 y 2 = a2 b2 (con a e b numeri reali positivi). In
coordinate omogenee lequazione
b2 x21 + a2 x22 a2 b2 x23 = 0
rappresenta una conica chiamata ellisse la cui parte reale coincide con . Nel caso
paricolare in cui F 0 = F 00 , la conica che si ottiene `e detta circonferenza.
Esempio 3
Se F 0 e F 00 sono due punti reali e distinti del piano, e k `e una
costante reale positiva minore della distanza tra F 0 e F 00 , il luogo geometrico dei
139
7.4
Nello studio delle coniche, il primo passo consiste nello stabilire quanti punti possono essere comuni ad una conica ed una retta. Dal prossimo risultato segue, in
particolare, che se una retta ha in comune con una conica (almeno) tre punti allora
la retta `e contenuta nella conica.
2C . Se r non `e contenuta in
Teorema 7.4.1 Siano r una retta e una conica di E
, allora r consiste in uno oppure due punti.
Dimostrazione Supponiamo che la retta r sia descritta (nel riferimento fissato)
in forma parametrica dalle equazioni xi = yi + zi , con i = 1, 2, 3, al variare di
(, ) in C2 \ {(0, 0)}. Se `e la conica di matrice associata A = (aij ) descritta dalla
(7.6), lintersezione tra r `e `e descritta da
3
X
i,j=1
3
3
X
X
aij yi yj 2 + 2
aij yi zj +
aij zi zj 2 = 0.
i,j=1
(7.10)
i,j=1
le cui soluzioni non nulle forniscono le coordinate omogenee dei punti di intersezione
tra r e . Ma la (7.10) o `e sempre verificata, e in tal caso r `e contentuta in ,
oppure ha sempre due soluzioni non nulle eventualmente coincidenti. Poich`e in
corrispondenza di queste soluzioni si individuano i punti di r che appartengono
anche a , il teorema `e provato.
t
u
140
Le coniche
141
Teorema 7.4.6 Sia una conica reale non degenere di matrice associata A. Allora
(
e`
142
Le coniche
7.5
Polarit`
a definita da una conica
Y AZ =
3
X
aij yi zj = 0.
i,j=1
143
Poich`e il teorema 7.4.3 assicura che le soluzioni non nulle del sistema AX = 0
sono tutte e sole le coordinate omogenee dei punti doppi di , se P `e un punto
2C . Se invece P non `e un punto doppio per ,
doppio per risulta essere (P ) = E
allora le coordinate omogenee (y1 , y2 , y3 ) di P non sono una soluzione del sistema
AX = 0 e quindi lequazione
(a11 y1 + a12 y2 + a13 y3 )x1 + (a12 y1 + a22 y2 + a23 y3 )x2 + (a13 y1 + a23 y2 + a33 y3 )x3 = 0
rappresenta una retta. Ma la precendente equazione ha per soluzioni tutte e sole le
coordinate omogenee dei punti che sono in (P ), quindi se P non `e doppio allora
(P ) `e una retta, detta retta polare (o semplicemente polare) di P .
Evidentemente un punto appartiene alla propria polare se e solo se appartiene
alla conica, si ha inoltre la seguente.
Proposizione 7.5.3 Siano una conica non degenere e P un punto di . Allora
la polare (P ) `e la retta tangente in P .
Dimostrazione Sia A = (aij ) la matrice associata a e siano (y1 , y2 , y3 ) le
coordinate omogenee del punto P . Poich`e `e non degenere, il punto P non `e un
punto doppio e quindi il luogo polare (P ) `e una retta. Sia r : xi = yi + zi (con
i = 1, 2, 3 e (, ) C2 \ {(0, 0)}) la retta tangente in P . Posto
a=
3
X
aij yi yj ,
i,j=1
b=
3
X
i,j=1
aij yi zj ,
c=
3
X
aij zi zj ,
i,j=1
t
u
Supponiamo ora che sia non degenere, sicch`e `e priva di punti doppi per il
teorema 7.4.2 e quindi
2C
2C (P ) L
:P E
2C nellinsieme L
2C delle sue rette; tale applicazione si chiama
`e unapplicazione di E
polarit`a associata a .
144
Le coniche
3
X
j=1
o anche
d : l(a11 x1 + a12 x2 + a13 x3 ) + m(a12 x1 + a22 x2 + a23 x3 ) = 0,
(7.11)
145
(che dunque sono le polari dei suoi due punti impropri) e si dice iperbole equilatera
uniperbole che ha i due asintoti che sono ortogonali tra loro.
Un diametro che risulta essere ortogonale alla direzione ad esso coniugata si dice
asse; inoltre, un punto proprio si dice vertice se appartiene allintersezione di un asse
con la conica. Consideriamo il diametro d coniugato alla direzione P (l, m, 0) che
ha equazione (7.11), e osserviamo che esso ha per direzione il punto improprio
((l a12 + m a22 ), l a11 + m a12 , 0),
quindi d `e un asse se e solo se la sua direzione `e ortogonale a (l, m, 0) e quindi se e
solo se
a12 l2 (a11 a22 )lm a12 m2 = 0.
(7.13)
Una soluzione non nulla dellequazione (7.13) fornisce quindi la direzione di un asse
della conica. Un asse r della conica non degenere `e sempre un asse di simmetria
per , ovvero se P `e un punto di e P 0 `e il punto sulla retta per P ortogonale a r
tale che d(P, r) = d(P 0 , r), allora anche P 0 `e un punto di .
Si potrebbe provare che se `e una parabola, allora ha un unico asse. Se invece
`e una conica a centro, invece, allora ha due assi ortogonali tra loro ed inoltre,
se (P ) `e un asse e Q `e la sua direzione, allora (Q ) `e lasse di ortogonale
a (P ). Se si suppone poi che sia reale, si ha che gli assi sono reali e si prova
inoltre che una parabola reale ha un unico vertice reale, unellisse reale (che non sia
una circonferenza) ha quattro vertici reali mentre uniperbole invece ha due vertici
reali e due immaginari coniugati. Si ha inoltre:
Proposizione 7.5.4 Sia una conica non degenere e sia V un suo vertice. Allora
la polare (V ) `e la retta tangente in V ed `e una retta ortogonale allasse di che
passa per V .
Dimostrazione La polare (V ) `e la retta tangente in V per la proposizione 7.5.3. Sia d lasse di a cui V appartiene e sia P il punto improprio tale
che d = (P ). Il teorema di reciprocit`a 7.5.2 assicura che P (V ), pertanto
(V ) ha per direzione P e quindi `e ortogonale a d.
t
u
7.5.1
Esempi
Sia una conica reale non degenere. Se `e una conica a centro (cio`e ellisse o
iperbole), allora ha due assi ortogonali tra loro: essi permettono di individuare un
riferimento affine, che ha per origine il centro della conica, in cui lequazione della
conica `e in forma canonica. Se invece `e una parabola, allora ha un solo asse d
ed un solo vertice V . Se si considera la retta r per il vertice di ortogonale allasse
d, che coincide con la polare (V ) per la proposizione 7.5.4, allora le rette d ed r
146
Le coniche
2
0 2
A = 0 1 1
2 1 3
e cos` det(A) = 8 e det(A33 ) = 2 < 0. Pertanto `e uniperbole.
Andiamo a determinare gli assi. Lequazione (7.13) scritta per la conica che
stiamo considerando `e 3lm = 0: le soluzioni di questa equazione determinano i
punti impropri (0, 1, 0) e (1, 0, 0) e gli assi saranno i diametri coniugati a queste
direzioni ovvero le rette y = 1 e x = 1; si noti che il primo asse ha per direzione
u1 = (1, 0) mentre il secondo asse ha per direzione u2 = (0, 1), e che entrambi questi
vettori sono normalizzati (cio`e hanno modulo 1).
Il centro C della conica, essendo il punto di intersezione di due diametri, sar`a il
punto di intersezione degli assi e quindi `e il punto di coordinate (1, 1).
Consideriamo
ortonormale R0 = (u1 , u2 ) di V2 e la matrice (orto il riferimento
1 0
gonale) P =
di passaggio da R0 a R. Le relazioni
0 1
x
X
1
=P
+
,
y
Y
1
ovvero le equazioni
x=X +1
,
y =y+1
permettono di passare dal riferimento R al riferimento affine monometrico ortogonale R0 = (C, R0 ) (la cui origine `e il centro della conica), in cui lequazione della
conica diventa 2X 2 Y 2 4 = 0.
Al fine di scrivere le equazioni degli asintoti, si devono determinare i punti impropri della conica, si deve quindi scrive lequazione di in coordinate omogenee
2x21 x22 4x23 = 0 e poi si deve intersecare con la retta
impropria
che ha equazione
0
(in R ) sono 2X 2Y = 0 e 2X + 2Y = 0.
2) Studiare la conica la cui parte propria ha equazione 2x2 2xy +2y 2 +2x1 = 0.
147
La matrice associata a `e
2 1 1
0
A = 1 2
1
0 1
e cos` det(A) = 5 e det(A33 ) = 3 > 0. Pertanto `e unellisse. Per determinare gli
assi risolviamo lequazione (7.13) che nel nostro caso `e m2 l2 = 0. Essa determina
le direzioni (1, 1, 0) e (1, 1, 0) e quindi gli assi hanno equazione x + y + 1 = 0
e 3x + 3y 1 = 0 il cui punto di intersezione, ovvero il centro, ha coordinate
( 32 , 13 ). Normalizzando i vettori (1, 1, 0) e (1, 1, 0) otteniamo i vettori ( 12 , 12 , 0)
e ( 12 , 12 , 0) e considerando il cambiamento di riferimento determinato dalle relazioni
!
1
1
X
32
x
+
,
= 12 1 2
Y
13
y
2
2
si individua il riferimento affine monometrico ortogonale R0 in cui lequazione di
`e in forma canonica ed `e X 2 + 3Y 2 = 53 .
3) Studiare la conica la cui parte propria ha equazione x2 2xy + y 2 2x 2y = 0.
La matrice associata a `e
1 1 1
A = 1 1 1
1 1 0
e cos` det(A) = 4 e det(A33 ) = 0. Pertanto `e una parabola. Per determinare
lasse risolviamo lequazione (7.13) che nel nostro caso `e m2 l2 = 0. Essa determina
le direzioni (1, 1, 0) e (1, 1, 0) la prima delle quali `e coniugata alla retta impropria
(che non `e diametro) mentre la seconda individua lunico asse della parabola che
ha equazione x = y. Lintersezione tra lasse e la parabola determina il vertice:
dunque, in coordinate omogenee, il punto V (0, 0, 1) `e il verice della parabola. Per
la proposizione 7.5.4, la retta per V ortogonale allasse `e la retta (V ) : y = x.
Normalizzando le direzioni (1, 1, 0) di (V ) e (1, 1, 0) dellasse, otteniamo i vettori
( 12 , 12 , 0) e ( 12 , 12 , 0) e considerando il cambiamento di riferimento determinato
dalle relazioni
!
1
1
x
X
0
2
2
=
+
,
1
1
y
Y
0
2
2
si individua il riferimento il riferimento affine
monometrico ortogonale R0 in cui
lequazione di `e in forma canonica ed `e X 2 2Y = 0.
148
Le coniche
7.6
Sia una conica reale la cui matrice associata, nel fissato riferimento affine ortogonale e monometrico R(O, R), sia A = (aij ). Vogliamo studiare la parte propria di
che `e descritta dallequazione
a11 x2 + 2a12 xy + a22 y 2 + 2a13 x + 2a23 y + a33 = 0.
e determinare un opportuno riferimento in cui lequazione di `e in forma canonica;
in particolare, quanto qui segue prover`a il teorema 7.4.7.
x
Per semplicit`a si scrittura siano L = a13 a23 ed X =
. Lequazione di
y
`e composta da una parte quadratica
q(x, y) = a11 x2 + 2a12 xy + a22 y 2 = X t A33 X,
che `e un polinomio omogeneo di secondo grado, e una parte lineare
`(x, y) = 2a13 x + 2a23 y = 2LX,
che `e un polinomio omogeneo di primo grado, e con le posizioni precedenti lequazione
di si scrive come
q(x, y) + `(x, y) + a33 = 0.
Se A33 `e la matrice nulla, lequazione di `e `(x, y) + a33 = 0 e `e lunione di due
rette: la retta impropria e la retta che in R ha equazione 2a13 x + 2a23 y + a33 = 0.
Si pu`o quindi supporre che A33 non sia la matrice nulla. La matrice A33 `e reale
e simmetrica al pari di A, quindi `e ortogonalmente diagonalizzabile e pertanto `e
possibile determinare una matrice ortogonale P = (pij ) tale che
0
t
P A33 P = D =
0
sia la matrice diagonale che ha sulla diagonale principale gli autovalori e della
matrice A33 ; si noti esplicitamente che gli autovalori e non sono entrambi nulli
altrimenti D, e quindi A33 , sarebbe la matrice nulla. La matrice ortogonale P 1 =
P t si pu`o pensare come la matrice di passaggio dal riferimento affine ortogonale e
monometrico R(O, R) ad un altro riferimento affine ortogonale e monometrico. Pi`
u
0
0
dettagliatamente, se e1 e e2 sono i versori le cui componenti in R = (e1 , e2 ) sono le
colonne della matrice P , ovvero
e01 = p11 e1 + p21 e2
X = P X0
(7.14)
0
y
y
149
Conviene qui sottolineare, visto che in seguito servir`a, che le componenti in R del
vettore e01 sono quindi un versore che genera lautospazio VA33 (), mentre le componenti in R del vettore e02 sono un versore che genera lautospazio VA33 ().
In R0 la parte quadratica dellequazione di diventa
q(x0 , y 0 ) = (P X 0 )t A33 (P X) =
= (X 0 )t P t A33 P X =
= (X 0 )t DX =
= (x0 )2 + (y 0 )2
mentre la parte lineare di diventa
`(x0 , y 0 ) = 2L(P X 0 ) = 2(LP )X 0 = 2a013 x0 + 2a023 x0
dove
a013 = a13 p11 + a23 p21
Dunque in R0 lequazione di `e
(x0 )2 + (y 0 )2 + 2a013 x0 + 2a023 y 0 + a33 = 0;
(7.15)
e quindi nel riferimento R00 (O00 , R0 ) ottenuto mediante il cambio di riferimento descritto dalle equazioni
(
a0
X = x0 + 13
(7.16)
a0
Y = y 0 + 23
(quindi per passare da R0 a R00 si sposta solo lorigine del riferimento) si ottiene che
la conica `e rappresentata dallequazione
X 2 + Y 2 + = 0
dove
= a33
a0213 a0223
(7.17)
150
Le coniche
e b2 = ,
a2 =
b2 = ,
b2 =
151
invece, in R00 hanno equazioni X = 0 e Y = 0 e quindi sono le rette per O00 parallele
ai versori e01 ed e02 ; pertanto in R gli assi della conica sono le rette per il centro di
numeri direttori i generatori degli autospazi VA33 () e VA33 (). Infine, nel caso in cui
(7.18)
X = x0
Y = y0 +
a023
dove
= a33
a0223
.
Pertanto se = 0 allora `e lunione di due rette reali coincidenti (che coincidono con lasse delle ascisse). Mentre se 6= 0 allora `e unione di due rette
parallele che saranno reali se e sono discordi, o saranno immaginarie (ma
con direzione reale) se e sono concordi.
(vii) a013 6= 0 In tal caso la (7.18) si pu`o scrivere come
a33 a0223
a0 2
y 0 + 23 + 2a013 x0 +
= 0,
2a023
e mediante le equazioni
(
X = x0 +
Y = y0 +
a33 a0223
2a023
a023
(7.19)
(7.20)
152
Le coniche
Osservazione: Nel riferimento R00 lequazione della parabola `e del tipo (7.20),
e anche in tal caso per valgono le note propriet`a di simmetria. Cos` quando `e la
parabola che in R00 ha equazione (7.20), nel riferimento R00 il vertice di coincide con
lorigine , sicch`e le equazioni (7.14) e (7.19) permettono di indivuduare le coordinate
del vertice della conica nel riferimento R. Lasse di , invece, in R00 ha equazione
Y = 0 ed `e quindi la retta per lorigine parallela al vettore e01 ; dunque in R lasse
di `e la retta affine passante per il vertice della conica i cui numeri direttori sono
dati dal generatore dellautospazio VA33 (0) di A33 relativo allautovalore nullo. (Si
noti che poiche A33 `e simmetrica, i suoi autospazi sono ortogonali tra loro e quindi
la direttrice di , essendo ortogonale allasse, sar`a la retta affine che ha i cui numeri
direttori sono dati dal generatore dellautospazio di A33 relativo allautovalore non
nullo).
7.7
Esempi
Consideriamo il piano affine euclideo E2 nel quale si `e fissato un riferimento ortogonale monometrico R(O, R).
1) Studiare la conica : x2 + y 2 + 2xy + 3 = 0.
Si vede subito che
pertanto la conica
`
e
lunione
di
rette
immaginarie
parallele
r
:
x
+
y
+
i
3=0e
1
7.7 Esempi
153
1 0 1
A = 0 4 0 .
1 0 7
Essendo det(A) = 24 6= 0, la conica `e non degenere. Daltra parte det(A33 ) = 4 > 0 e
quindi la conica `e una ellisse ed osservando che x2 +4y 2 +2x+7 = (x+1)2 +(2y)2 +6
si capisce che `e unellisse immaginaria.
7) Studiare la conica : 2x2 + 2xy + 2y 2 + x 2y 3 = 0.
La matrice associata alla conica in R `e
1
2 1
2
A = 1 2 1 .
1
1 3
2
Poich`e det(A) = 25
e det(A33 ) = 3 > 0, la conica `e unellisse. Andiamo a
2
determinare lequazione in forma canonica di . A tal fine occorre diagonalizzare
ortogonalmente la matrice simmetrica A33 . Gli autovalori di
A33 sono
1 e 3, la
1 0
matrice ortogonale che rende A33 simile alla matrice diagonale
`e la matrice
0 3
!
12 12
.
P =
1
1
2
3 2 0
2 0
02
02
x + 3y
x
y 3 = 0.
2
2
154
Le coniche
=0
4
12
6
e pertanto le equazioni
(
X = x0 3 4 2
(7.22)
Y = y 0 122
permettono di passare ad un altro riferimento affine ortogonale e monometrico R00
in cui lequazione di `e in forma canonica ed `e
25
= 0.
6
Andiamo ora a determinare gli assi e il centro C della conica nel riferimento
R. In R00 , il centro coincide con lorigine e quindi ha coordinate
(0, 0), sicch`e dalle
3 2
0
equazioni (7.22) ricaviamo che in R il centro ha coordinate ( 4 , 122 ) e le equazioni
(7.21) ci danno che in R le coordinate del centro sono date dal prodotto
! !
!
3 2
3 2
1
1
23
2
2
4
P 42 =
=
5
2
1
1
X 2 + 3Y 2
12
12
2x 2y + 3 = 0.
2
3
1
A= 3 0
0 .
1 0 1
Poich`e det(A) = 3 e det(A33 ) = 3 < 0, la conica `e uniperbole. Andiamo a
determinare lequazione in forma canonica di . Come di consueto si pu`o trovare
che una matrice ortogonale che diagonalizza A33 `e la matrice
!
3
1
2
2
P =
3
1
2
7.7 Esempi
155
3 0
0 1
le equazioni
(
x = 23 x0 12 y 0
y = 21 x0 + 23 y 0
3x02 y 02 3x0 + y 0 1 = 0.
Completando ai quadrati nella precedente equazione si individuano le equazioni
X = x0 63
(7.23)
Y = y 0 12
che permettono di passare ad un altro riferimento R00 in cui lequazione di `e in
forma canonica ed `e
3X 2 Y 2 1 = 0.
3
1
3 x0
y0 + = 0
6
2
ovvero
3x0 y 0 = 0
x0 = 23 x + 21y
y 0 = 21 x + 23 y
e cos` in R lequazione di r diventa
3
1
x+ y
2
2
!
3
1
x+
y =0
2
2
ovvero
r : x = 0.
Allo stesso modo si pu`o ricavare che in R laltro asintoto ha equazione
s : x + 3y 1 = 0.
156
Le coniche
1 1 0
A = 1 1 1 .
0
1 1
Essendo det(A) = 1 e det(A33 ) = 0, la conica `e una parabola. Vogliamo ora determinare lequazione canonica. Una matrice ortogonale che diagonalizza la matrice
A33 `e la matrice
!
P =
1
2
1
2
1
2
12
0 0
e risulta essere D = P A33 P =
. Tramite P , come consueto, si individua
0 2
un nuovo riferimento affine ortogonale monometrico R0 , legato ad R dalle equazioni
(
x = 12 x0 + 12 y 0
,
(7.24)
y = 12 x0 12 y 0
t
0
2(y )2 2y 0 + 2x0 + 1 = 0.
Completando al quadrato si individuano le equazioni
(
X = x0 + 3 2 2
Y = y 0 42
(7.25)
2Y 2 + 2X = 0.
In R00 il vertice V di coincide con lorigine del
sistema
di riferimento e cos`
3 2
0
tramite le equazioni (7.25) si ricava che in R `e V 2 , 42 , poi, tramite le
equazioni (7.24), si ricava che in R `e V 18 , 58 . Dalla matrice D deduciamo
che il generatore dellautospazio relativo allautovalore nullo della matrice A33 `e la
prima colonna della matrice P , e quindi anche il vettore (1, 1). Pertanto lasse della
parabola ha in R equazioni parametriche
x = 81 + t
(7.26)
y = 85 + t
ovvero equazione cartesiana 2x 2y 1 = 0.