Professional Documents
Culture Documents
Antonio Iannizzotto
Una matrice (reale) `e
a11 . . .
A = ...
am1 . . .
a1n
... ,
amn
a1j
Cj = . . . ,
amj
per ogni 1 i m, 1 j n. Si usa anche la scrittura sintetica A = [aij ] e linsieme delle matrici
n
con m righe e n colonne si denota Rm
n . Le matrici quadrate di ordine n sono gli elementi di Rn .
Inoltre, le sottomatrici di A sono le matrici ottenute intersecando alcune righe con alcune colonne
di A (anche non consecutive).
e la matrice
La somma delle matrici A e B = [bij ], entrambe in Rm
n, `
A + B = [aij + bij ] Rm
n.
La somma di matrici `e commutativa, associativa e dotata di elemento neutro (la matrice nulla [0]);
lopposta di A `e A = [aij ].
Il prodotto di uno scalare R per la matrice A `e la matrice
A = [aij ] Rm
n.
Il prodotto `e associativo (rispetto allo scalare) e distributivo rispetto alla somma.
Il prodotto righe per colonne `e unoperazione che associa a due matrici A = [aij ] Rm
n , B = [bij ]
Rnp la matrice
"
AB =
n
X
#
aih bhj Rm
p
h=1
(il termine di posto (i, j) si ottiene moltiplicando i termini della ima riga di A per quelli della
jma colonna di B e sommando). Il prodotto righe per colonne si pu`o effettuare fra due matrici
solo se il numero delle colonne della prima `e uguale al numero delle righe della seconda. Esso `e
associativo ma non commutativo, nemmeno nel caso speciale delle matrici quadrate.
Esempio 1 Si ha:
1 1 2 1
2
=
2 0 0 0
4
2
0
1 1
0 2
1
4
=
0
0
1
,
2
2
.
0
Ristretto allinsieme Rnn , il prodotto righe per colonne ammette un elemento neutro
I = [ij ] (ij `e lindice di Kronecker),
detto matrice identit`
a. Si pone dunque il problema di individuare le matrici invertibili in Rnn ,
ovvero quelle matrici A per le quali esiste la matrice inversa A1 Rnn tale che
AA1 = A1 A = I.
Esempio 2 La matrice
1 2
1 0
`e invertibile, in quanto
1
1
1 2 0
=
0
1 0 12 12
0
.
1
Esempio 3 La matrice
1 1
0 0
non `e invertibile, in quanto per ogni b11 , . . . b22 R si ha
1 1 b11 b12
b + b21 b12 + b22
= 11
.
0 0 b21 b22
0
0
Per caratterizzare le matrici invertibili si introducono i determinanti, che si definiscono mediante
un procedimento induttivo. Dapprima, sia A = [aij ] R22 , il suo determinante `e il numero reale
det(A) = a11 a22 a12 a21 .
Siano ora n N, n 3 e A Rnn una matrice, e supponiamo di saper calcolare i determinanti delle
matrici quadrate di ordine n 1. Per ogni 1 i, j n definiamo la sottomatrice complementare
del termine aij come la sottomatrice Aij di A ottenuto escludendo la riga Ri e la colonna Cj .
Poniamo
d=
n
X
j=1
Il seguente risultato prova che la scelta della prima riga nel calcolo di d non influenza il risultato:
Teorema 4 (di Laplace). Per ogni i, j {1, . . . n} si ha
2
(i)
n
X
j=1
(ii)
n
X
i=1
3
1
2
1
0
0 1
+
2 0
2 0
+
1 3
1
= 15
0
(suggerimento pratico: conviene sviluppare il determinante rispetto alla riga, o alla colonna, che
contiene pi`
u termini nulli).
Segue un elenco delle pi`
u utili propriet`
a dei determinanti ( R, A, B Rnn ):
(i) se A0 `e ottenuta da A scambiando due righe o due colonne, det(A0 ) = det(A);
(ii) se A0 `e ottenuta da A moltiplicando per una riga o una colonne, det(A0 ) = det(A);
(iii) det(A) = n det(A);
(iv) se A ha una riga (colonna) nulla, det(A) = 0;
(v) se A ha due righe (colonne) uguali, det(A) = 0;
(vi) se A ha due righe (colonne) proporzionali, det(A) = 0;
(vii) det(AB) = det(A)det(B);
Attraverso il determinante, otteniamo un criterio di invertibilit`a per le matrici, e insieme una
formula per la matrice inversa:
Teorema 6 Una matrice A Rnn `e invertibile se e solo se det(A) 6= 0 e in tal caso
(1)i+j det(Aji )
1
A =
.
det(A)
3
Proof.
det(A)det(A1 ) = 1,
da cui det(A) 6= 0.
Viceversa, se det(A) 6= 0, definiamo la matrice B ponendo per ogni i, j {1, . . . n}
bij =
(1)i+j det(Aji )
.
det(A)
n
X
aih bhj
h=1
n
X
1
aih (1)h+j det(Ajh )
det(A)
ij ,
h=1
cio`e C = I, da cui B = A1 .
1 0 1
A = 1 0 1 .
0 2 0
Si ha det(A) = 4, dunque linversa esiste ed `e
1
12 0
2
1
0
A1 = 0
2 .
1
1
0
2
2
Matrici e determinanti sono la base per un metodo molto generale (non lunico) per lo studio dei
sistemi lineari. Cominciamo prendendo in esame il seguente sistema di n equazioni lineari in n
incognite:
a11 x1 + . . . + a1n xn = b1
...
(1)
,
an1 x1 + . . . + ann xn = bn
dove n N (n 2) e aij R pe ogni i, j {1, . . . n}. Il sistema (1) si pu`o riscrivere nella forma
sintetica
AX = B,
avendo definito le matrici dei coefficienti A = [aij ] Rnn , delle incognite X = [xi ] Rn1 e dei
termini noti B = [bi ] Rn1 .
Teorema 8 (di Cramer). Se det(A) 6= 0, il sistema (1) ammette ununica soluzione.
Proof.
X = A1 B.
Infatti, si ha
A(A1 B) = B.
Inoltre, tale soluzione `e lunica possibile.
Una regola pratica per determinare la soluzione di (1), sotto lipotesi det(A) 6= 0, `e la seguente:
per ogni j {1, . . . n}, definiamo le matrici di sostituzione
det(Bj )
.
det(A)
Si vede facilmente che questo procedimento, noto come il metodo di Cramer, `e equivalente a quello
delineato nella prova del Teorema 8.
Esempio 9 Risolviamo il sistema
x1 x2 = 2
2x2 + x3 = 0
.
3x1 + x2 x3 = 1
La matrice dei
1
A = 0
3
coefficienti `e
1 0
2
1 ,
1 1
x1 = 76
x2 = 56 .
x3 = 53
Per le matrici rettangolari, la nozione di determinante `e generalizzata da quella di rango. Sia
A = [aij ] Rm
n (m, n N).
Il rango (o caratteristica) di A `e il massimo ordine di una sottomatrice quadrata invertibile di A
e si denota (A).
Esempio 10
2
A = 0
1
Sia
1
1
0
1
1 .
1
5
2 1 1
1 0 1
A=
0 1 1 .
2 1 2
Si ha (A) = 2, perche la sottomatrice in corsivo `e invertibile, mentre quelle di ordine 3 che la
contengono no.
Possiamo ora risolvere tutti sistemi lineari (senza le limitazioni imposte dal Teorema 8), perdendo
in genrale lunicit`
a della soluzione. Consideriamo il seguente sistema di m equazioni in n incognite:
a11 x1 + . . . + a1n xn = b1
...
(2)
,
am1 x1 + . . . + amn xn = bn
n
m
per m, n N. Come al solito si definiscono le matrici A Rm
n , X R1 , B R1 e si riformula (2)
nella forma
AX = B.
Si definisce anche la matrice completa del sistema
a11 . . . a1n b1
. . . . . .
A|B = . . .
am1 . . . amn bm
Teorema 13 (di RoucheCapelli). Il sistema (2) ammette soluzioni se e solo se (A) = (A|B) =
p, e in tal caso la soluzione dipende da n (A) variabili libere.
Una fantasiosa notazione per esprimere quanto sopra `e: il sistema ha n(A) soluzioni. Il caso
descritto nel Teorema 8 corrisponde a 0 soluzioni.
x1 = t
x2 = 2 2t (t R).
x3 = 3t 2
Per trovare le soluzioni del sistema (2), si pu`o impiegare il metodo di Cramer generalizzato:
(i) calcoliamo (A), (A|B).
Se (A) < (A|B), (2) non ha soluzioni. Se (A) = (A|B) = p, individuiamo una sottomatrice
quadrata C Rpp di A invertibile:
(ii) trascurando m p equazioni e portando a secondo membro n p variabili, otteniamo un
sistema di p equazioni in p incognite
(3)
CX 0 = D,
x2 + 3x3 + 3x4 = 1
x1 + x3 + x4 = 0 .
2x1 + x2 + x3 = 1
Abbiamo
0
A = -1
2
1 3 2
1
0 1 1 , B = 0 .
1 1 0
1
1 0
2
0
1
1
0
2
0 1 1 2 ;
0 1 1
0
2 1 1 3
0 1 1 1 .
1 3 4 3
7
2x1 + x3 = 2
x1 + x2 = 0
;
2x
2 + x3 x4 = 4
x1 x2 + x4 = 4
x1 + 2x2 x3 = 0
x2 x3 = 2
;
x1 + x3 = 0
x1 x3 = 3
2x1 + 2x2 = 1
;
x1 + 2x2 + x3 = 2
x2 + 2x3 = 2
x1 + x2 + x3 = 1
2x1 + 2x2 + 3x3 = 1 ;
2x2 2x4 = 0
x1 + x2 x3 + x4 = 0
x1 + x2 x4 = 1
;
2x1 x2 + x3 + x4 = 2
x1 x2 + x3 = 1
2x1 + x3 + x4 = 4 .
x1 + x3 = 0
Esercizio 18 Al variare di k R, calcolare il rango delle seguenti matrici:
1 1 k
0 k 0 ;
1 0 1
k 1 1
1 k 1 ;
1 1 k
k 1 2
0 3 0 .
k 0 2
Esercizio 19 Al variare di a, b, c R, calcolare il rango della matrice
a 0 0
0 b 0 ,
0 0 c
determinando (ove possibile) la matrice inversa.
x1 + 2x3 = 1
x2 + x3 = 2
;
x1 + 2x2 + kx3 = 0
kx2 + 2kx3 = 0
;
x1 + kx2 = 1
kx1 + x2 x3 + x4 = 0
x1 + kx2 x3 = 1
;
x2 x3 x4 = 0
(k 1)x1 + x2 = k + 1
;
3x1 + (k + 1)x2 = 9
kx1 + x2 = k + 1
.
x1 + kx2 = 2