Professional Documents
Culture Documents
Introducción a órdenes
parciales matriciales
Néstor Thome
Araceli Hernández
www.smm.org.mx
Néstor Thome
Profesor Titular de Universidad
Araceli Hernández
Profesora Adjunta
Facultad de Ingeniería
Tabla de símbolos 2
Apéndice 64
Índice alfabético 70
Bibliografía 71
1
Prólogo
Este libro corresponde a las notas de un curso del mismo nombre impartido en la
Universidad Nacional de La Pampa de Argentina durante el curso académico 2016.
La intención de estas notas es introducir al lector en temas relacionados con
órdenes parciales definidos sobre el anillo de las matrices complejas o sobre alguna
subclase especial.
Para ello es necesario un primer capítulo en el que se presentan las nociones bá-
sicas de matrices inversas generalizadas. El concepto de matriz inversa generalizada
es un concepto básico para definir posteriormente las relaciones binarias que serán
relaciones de orden o preorden.
En el segundo capítulo se introducen y caracterizan el preorden espacio, el orden
parcial menos y el orden parcial estrella.
Finalmente, en el tercer capítulo se introduce la clase de matrices EP y se estudia
el orden parcial estrella sobre esta clase de matrices.
Cada capítulo finaliza con una serie de ejercicios mediante los cuales el lector
puede completar los detalles necesarios para entender completamente los resultados
expuestos previamente o bien para realizar práctica numérica con ejemplos guiados.
Se trata de unas notas autocontenidas. De hecho, en un Anexo se demuestra un
teorema de Análisis Matricial necesario en el Capítulo 3 que no suele encontrarse
en los textos habituales. El nivel necesario requerido para poder seguir el temario
corresponde al de un alumno que haya estudiado algún curso de Álgebra Lineal o
Análisis Matricial.
Los autores agradecen cualquier sugerencia que el lector quiera realizar enviando
un correo electrónico.
Los autores.
1
Tabla de símbolos
2
Capítulo 1
3
Capítulo 1. 4
Se denotará por GI (A) y por GD (A) al conjunto de todas las inversas a izquierda
y a derecha de A, respectivamente.
Puede ocurrir que para una matriz compleja rectangular dada A no exista ningu-
na matriz X que cumpla AX = I pero sí cumpla la relación más relajada AXA = A
o bien XAX = X. Pensadas como aplicaciones lineales, AX = I indica que AX se
comporta como la identidad sobre todo el espacio mientras que AXA = A indica que
AX se comporta como la identidad sobre R(A) (comprobarlo). Estas observaciones
dan origen a dos tipos de inversas generalizadas.
Definición 1.2 Sea A ∈ Cm×n una matriz dada. Se dice que la matriz X ∈ Cn×m
es una {1}-inversa o inversa interior de A si satisface la ecuación matricial:
(1) AXA = A.
e f
si existe/n, debe/n cumplir que
a b
1 0 1 1 0 1 1 0 1
c d = .
0 1 0 0 1 0 0 1 0
e f
Definición 1.3 Sea A ∈ Cm×n una matriz dada. Se dice que la matriz X ∈ Cn×m
es una {2}-inversa o inversa exterior de A si satisface la ecuación matricial:
(2) XAX = X.
Ejemplo 1.3 Para la matriz A del ejemplo 1.2 se tiene que las mismas {1}-inversas
halladas también satisfacen la condición de ser {2}-inversas de A.
Definición 1.4 Sea A ∈ Cm×n una matriz dada. Se dice que la matriz X ∈ Cn×m es
la inversa de Moore-Penrose de A si satisface las cuatro ecuaciones matriciales
siguientes:
(1) AXA = A,
(2) XAX = X,
Definición 1.5 Sea A ∈ Cn×n una matriz cuadrada dada. Se dice que la matriz
X ∈ Cn×n es la inversa de grupo de A si satisface las tres ecuaciones matriciales
siguientes:
(1) AXA = A,
(2) XAX = X,
(5) AX = XA.
1. rg(Ak+1 ) = rg(Ak ),
2. R(Ak+1 ) = R(Ak ),
3. N(Ak+1 ) = N(Ak ).
Definición 1.6 Sea A ∈ Cn×n una matriz cuadrada dada. Se dice que la matriz
X ∈ Cn×n es la inversa de Drazin de A si satisface las tres ecuaciones matriciales
siguientes:
(2) XAX = X,
(5) AX = XA,
Nota 1.1 En caso de existir la inversa ordinaria A−1 de una matriz cuadrada A,
todas las inversas generalizadas que cumplan la propiedad de
las inversas
interiores
1 0
coinciden con A−1 . Sin embargo, tomando A = I2 y X = se observa que
0 0
A es invertible y X es una {2}-inversa de A con X 6= I2 .
Teorema 1.1 Sea A ∈ Cm×n . Si existe una matriz X ∈ Cn×m que satisface las
cuatro propiedades de la inversa de Moore-Penrose dadas en la definición 1.4 de
página 5 entonces dicha matriz es única.
1. AX1 A = A
2. X1 AX1 = X1
3. (AX1 )∗ = AX1
4. (X1 A)∗ = X1 A
5. AX2 A = A
6. X2 AX2 = X2
7. (AX2 )∗ = AX2
8. (X2 A)∗ = X2 A.
Por lo tanto, X1 = X2 .
A = MN .
0 0 0
Demostración. Sea A ∈ Cm×n
r una matriz tal que sus columnas son a1 , a2 , . . . , an ,
es decir
h i
0 0 0
A= a1 a2 · · · an .
entonces rg(N ) = r. Por último, R(A) = R(M ) y N(A) = N(N ) puesto que
R(A) ⊆ R(M ) y N(N ) ⊆ N(A) y cada par de subespacios tiene la misma dimensión.
A† = N ∗ (N N ∗ )−1 (M ∗ M )−1 M ∗ .
Demostración. Llamando
X = N ∗ (N N ∗ )−1 (M ∗ M )−1 M ∗ ,
= [M (M ∗ M )−1 M ∗ ]∗
= M (M ∗ M )−1 M ∗
= M N N ∗ (N N ∗ )−1 (M ∗ M )−1 M ∗
= AX.
y
1 −1
1 0 1 2 −1
M ∗M =
=
0 1
−1 1 0 −1 2
1 0
y por lo tanto
1 2 1
(M ∗ M )−1 = .
3 1 2
Nota 1.2 En el ejemplo 1.4 de la página 5 se indicó una matriz X que satisface las
cuatro condiciones de la definición de inversa de Moore-Penrose. Ahora sí es posible
asegurar que dicha matriz X es la inversa de Moore-Penrose A† de la matriz A allí
indicada.
Nota 1.3 El teorema 1.3, además de probar que cualquier matriz rectangular A
admite una inversa de Moore-Penrose (que es única por el teorema 1.1), da un
método que permite calcularla. Se observa que la inversa de Moore-Penrose de la
factorización de rango A = M N también puede escribirse como
A† = N † M † .
(Comprobarlo.)
(a) (A† )† = A.
(c) (λA)† = λ† A† .
A∗ Axi = λi xi , i = 1, 2, . . . , n.
Por otro lado, por ser A∗ A una matriz hermítica se tiene que todos sus valores
propios son reales, i.e.: λi ∈ R, i = 1, 2, . . . , n. Por tanto, para cada i = 1, 2, . . . , n
resulta que:
λ1 ≥ λ2 ≥ . . . ≥ λl > λl+1 = . . . = λn = 0.
Se define:
p
σi := + λi , i = 1, 2, . . . , l
e
1
yi :=
Axi , i = 1, 2, . . . , l.
σi
Entonces para cada i = 1, 2, . . . , l resulta que:
1 1 1 1 1
hyi , yi i = yi∗ yi = (Axi )∗ (Axi ) = 2 x∗i A∗ Axi = 2 ||Axi ||2 = λi = 1
σi σi σi σi λi
y para j 6= i se tiene que:
1 1 1 ∗ ∗ 1 ∗
hyj , yi i = yj∗ yi = (Axj )∗ (Axi ) = xj (A Axi ) = x λi xi = 0.
σj σi σj σi σj σi j
Por lo tanto, {y1 , y2 , . . . , yl } es un conjunto ortogonal de vectores de Cm×1 .
En particular, como el conjunto {y1 , y2 , . . . , yl } es linealmente independiente, por
el teorema de la base incompleta es posible extenderlos a una base de Cm×1
0
B = {y1 , y2 , . . . , yl , yl+1 , . . . , ym },
Σ O
(a) U ∗ AV = donde Σ = diag(σ1 , σ2 , . . . , σr ) y
O O
(b) l = r (= rg(A)).
para todo j = 1, 2, . . . , m.
Además, como se ha visto en (1.2) λi = ||Axi ||2 con lo que se tiene que λi = 0 si
y sólo si Axi = 0 y esto ocurre para i = l + 1, . . . , n.
Se concluye que para i = l + 1, . . . , n y para todo j = 1, 2, . . . , m es yj∗ Axi =
yj∗ 0 = 0, y finalmente
Σ O
Σ1 = ∈ Cm×n .
O O
Para demostrar la parte (b) se usará (a) y el hecho que el rango es invariante por
matrices invertibles. En efecto, si
A = U Σ1 V ∗ ,
es: √
√2 0 − √13 3 0 0 √1 − √12 0
6 2
A= 1 √1 − √13 . 0 1 0 . √1 √1
− 6
√
2 2 2 .
0
√1 √1 √1 0 0 0 0 0 1
6 2 3
| {z } | {z } | {z }
U Σ1 V∗
A† = V Σ†1 U ∗ ,
siendo
Σ† O
1 1 1
Σ†1 = †
, con Σ = diag , ,..., .
O O σ1 σ2 σr
1 1 2
1
= −1 2 1 .
3
0 0 0
(1) AXA = A,
(2) XAX = X,
e = M 1/2 AN −1/2
A y e = N 1/2 XM −1/2 .
X
(1) AXA = A ⇐⇒ (M 1/2 AN −1/2 )(N 1/2 XM −1/2 )(M 1/2 AN −1/2 ) =
M 1/2 AN −1/2 ⇐⇒ A
eXeA
e = A.
e
(2) XAX = X ⇐⇒ (N 1/2 XM −1/2 )(M 1/2 AN −1/2 )(N 1/2 XM −1/2 ) =
N 1/2 XM −1/2 ⇐⇒ X
eAeX
e = X.
e
Ax = b con A ∈ Cm×n y b ∈ Cm ,
el vector x ∈ Cn×1 de norma 2 mínima que minimiza la expresión kAx − bk2 está
dado por x = A† b.
(b) X = A† .
(a) Para cada b ∈ Cm , de entre todas las soluciones en mínimos cuadrados (con
respecto a la norma inducida por M ) de Ax = b, el vector Xb es la única
solución con norma inducida por N mínima.
(b) X = A†(M,N ) .
e = M 1/2 AN −1/2 ,
A eb = M 1/2 b y e = N 1/2 x
x
permite reescribir
kxk2N = x∗ N x
= x∗ (N 1/2 )∗ N 1/2 x
= [N 1/2 x]∗ N 1/2 x
= kN 1/2 xk22
xk22 .
= ke
Del Teorema 1.6 se tiene que para cada b ∈ Cm , de entre todas las solu-
ciones en mínimos cuadrados de Aeex = eb, el vector x e†eb es la única solu-
e = A
ción con mínima norma, con lo que N 1/2 x = (M 1/2 AN −1/2 )† M 1/2 b, es decir, x =
N −1/2 (M 1/2 AN −1/2 )† M 1/2 b = A†(M,N ) b termina la demostración.
⊥M
(c) Sm = M −1/2 (M 1/2 Sm )⊥ y Sn⊥N = N −1/2 (N 1/2 Sn )⊥ .
1.3. Ejercicios
(1) Calcular la inversa de Moore-Penrose de las matrices
1 1 −1
1 1
A= y B= 2 0 −2
0 0
−1 1 1
mediante
(b) Probar de dos formas diferentes que AA† y A† A son proyectores ortogonales
(es decir, son matrices hermíticas e idempotentes).
(c) Una matriz A ∈ Cn×n de rango r > 0 se llama EP si cumple que AA† = A† A.
Se denota por ⊕⊥ la suma directa ortogonal.
Demostrar que:
23
Capítulo 2. 24
Ejemplo 2.1
1 2 1 1 1 0 1 0
s , s ,
0 0 0 0 0 1 0 0
1 0 1 0 1 0 1 0
s y s .
0 1 0 2 0 0 0 2
Proposición 2.1 Sean A, B ∈ Cm×n . Entonces las siguientes condiciones son equi-
valentes.
(a) A s B.
De manera semejante, de R(A∗ ) ⊆ R(B ∗ ) se deduce que existe una matriz Y tal que
A∗ = B ∗ Y , es decir A = Y ∗ B. Multiplicando a derecha por B − B se tiene
y
R(A∗ ) = R((AB − B)∗ ) = R((B ∗ (B − )∗ A∗ ) ⊆ R(B ∗ ).
Por lo tanto, A s B.
Nota 2.1 Si A, B ∈ Cm×n son tales que A s B entonces rg(A) ≤ rg(B) (véase
ejercicio 2).
Es claro que:
Si A s O entonces A = O.
Teorema 2.1 Sean A, B ∈ Cm×n con rg(A) = a y rg(B) = b. Las siguientes condi-
ciones son equivalentes.
(a) A s B.
y por ser rg(A1 ) = a se tiene que R(A) = R(A1 ). Del mismo modo, R(B) = R(B1 ).
Además, de
R(A1 ) = R(A) ⊆ R(B) = R(B1 )
También, por ser (A∗2 , A∗1 ) una factorización de rango completo de A∗ y (B2∗ , B1∗ )
una factorización de rango completo de B ∗ , se obtiene
Así, de
R(A∗2 ) = R(A∗ ) ⊆ R(B ∗ ) = R(B2∗ )
se tiene que existe una matriz T2 ∈ Ca×b tal que A∗2 = B2∗ T2∗ . Por lo tanto, A2 = T2 B2
y
A = A1 A2 = B1 (T1 T2 )B2 ,
De forma análoga,
B = B1 B2 = A1 T1−1 T2−1 A2 ,
a < b. En este caso, como A s B, se tiene que R(A) ⊆ R(B) y existe alguna
columna de B que no es combinación lineal de las columnas de A.
Como R(A) = R(A1 ), existe una matriz E ∈ Cm×(b−a) (con rango columna
h i
completo) tal que las columnas de A1 E forman una base de R(B).
Como R(A∗ ) = R(A∗2 ), existe una matriz F ∗ ∈ Cn×(b−a) (con rango columna
h i
completo) tal que las columnas de A2 F ∗ ∗ forman una base de R(B ∗ ), es
A2
decir, F tiene rango completo por filas y las filas de forman una base
F
del espacio fila de B.
Por ser
h i
R(B1 ) = R(B) = R A1 E ,
h i
se puede escribir B1 = A1 E R1 , para alguna matriz invertible R1 ∈ Cb×b .
Análogamente, de
h i
R A∗2 F ∗ = R(B ∗ ) = R(B2∗ )
A2
se puede escribir B2 = R2 , para alguna matriz invertible R2 ∈ Cb×b .
F
Por lo tanto,
h i A2
B = B1 B2 = A1 E R1 R2 ,
F
y se obtiene la representación buscada tomando la matriz invertible R =
R1 R2 ∈ Cb×b .
si a < b entonces
h i A2
B= A1 E R ,
F
donde las matrices por bloques tienen rango completo. En este caso, R(A) =
h i
R(A1 ) ⊆ R A1 E = R(B) (¿Por qué es válida la última igualdad?). De
h i
forma similar, R(A∗ ) = R(A∗2 ) ⊆ R A∗2 F ∗ = R(B ∗ ). De nuevo, se llega
a A s B.
Corolario 2.1 Sean A, B ∈ Cm×n con rg(A) = a y rg(B) = b > 0. Las siguientes
condiciones son equivalentes.
(a) A s B.
entonces
TA O
A = PB QB
O O
(c) Si
Ia O O
A = PA
O Ob−a O QA
O O O
Nota 2.2 Si A ∈ Cm×n tiene rango completo por columnas entonces admite inversa
a izquierda y si tiene rango completo por filas admite inversa a derecha. (Si rg(A) =
n, basta probar que A∗ A es invertible y usar (A∗ A)−1 A∗ como candidata a inversa
a izquierda.)
Lema 2.3 Sean A, B ∈ Cm×n dos matrices no nulas. Las siguientes condiciones
son equivalentes.
D := (I − CC − )B 6= O,
donde (A2 )(D) es una inversa a derecha de A2 y (D1 )(I) es una inversa a izquierda
de D1 . Entonces C = es una {1}-inversa de C (verificarlo) y
AC − B = Y CC − CX = Y CX,
Antes de proceder con caracterizaciones del orden parcial menos, serán de utili-
dad los siguientes resultados.
BB = B = B y B = BB = = B = ,
y además que
BB = A = AB = B = AB = A = A.
con
h i A2
A1 D1 ∈ Cm×(a+d) y ∈ C(a+d)×n .
D2
(a) =⇒ (b) y (d) Si se supone que rg(B) = rg(A) + rg(B − A) = a + d, se tiene
que (2.2) es una factorización de rango completo de B puesto que
h i A h i
2
a + d = rg(B) = rg A1 D1 ≤ rg A1 D1 ≤ a + d,
D2
y de forma semejante
A2
rg = a + d.
D2
Por otro lado es conocido que BB − B = B para cualquier B − ∈ G1 (B). Luego,
h i A h i A h i A
2
A1 D1 B − A1 D1 2 = A1 D1 2 .
D2 D2 D2
h i A2
Puesto que A1 D1 admite inversa a izquierda y admite inversa a de-
D2
recha, la igualdad anterior se puede simplificar, quedando
A h i
2 B − A1 D1 = Ia+d
D2
e igualando se tiene
A2 B − A1 = Ia , A2 B − D1 = O, D2 B − A1 = O, D2 B − D1 = Id .
AB − A = A1 A2 B − A1 A2 = A1 A2 = A,
es decir B − ∈ G1 (A), que es (b). Procediendo de la misma forma con las otras
igualdades se llega a:
AB − (B − A) = O, (B − A)B − A = O, (B − A)B − (B − A) = B − A.
AB − B = XBB − B = XB = A.
Se debe probar que R(A) ∩ R(B − A) = {0}. Sea y ∈ R(A) ∩ R(B − A). Entonces
y = Ax = (B − A)z para algunos vectores x y z. Entonces
y = Ax = AB − (Ax) = AB − (B − A)z = AB − Bz − AB − Az = Az − Az = 0.
A− (B − A) = B − AB − (B − A) = O,
y que
Ia O
R(A∗ ) ∩ R((B − A)∗ ) = {0} ⇐⇒ R ∩ R(Z ∗ ) = {0}. (2.4)
O O
Por lo tanto, Z11 x = 0 con lo que Z1 x = 0 para algún x 6= 0. Esto implica que
N(Z1 ) 6= {0} lo que contradice que rg(Z1 ) = z por el teorema de la dimensión. Se
ha probado entonces que rg(Z12 ) = z.
Z11
Observando ahora que tanto la matriz ∈ Cm×z como la submatriz Z12
Z12
tienen rango z, las filas de Z11 deben ser combinación lineal de las filas de Z12 . Luego,
debe existir una matriz M tal que Z11 = M Z12 .
De forma semejante se demuestra que Z21 = Z22 N para alguna matriz N . Luego,
Z = Z1 Z2
Z11 h i
= Z21 Z22
Z12
M Z12 h i
= Z22 N Z22
Z12
M Z12 Z22 N M Z12 Z22
= .
Z12 Z22 N Z12 Z22
Para eliminar las dependencias lineales en los bloques fila y columna de Z y llegar
así a la forma canónica requerida es necesario utilizar matrices elementales por filas
y columnas. Considerando para ello
Ia M Ia O
P := PA y Q := QA
O I N I
(g) =⇒ (a) Si
Ia O O O
A=P Q y B−A=P Q
O O O Y
Como
Ia O
B = A + (B − A) = P Q,
O Y
entonces rg(B) = a + rg(Y ) = rg(A) + rg(B − A).
Es evidente que cualquiera de las condiciones del Teorema 2.2 sirve para realizar la
definición anterior por ser todas ellas equivalentes.
utilizando todas las condiciones equivalentes del teorema que las caracteriza.
Se recuerda que un orden parcial sobre un conjunto (no vacío) es una relación
binaria que es reflexiva, antisimétrica y transitiva.
y
rg(A) = rg(B) + rg(A − B) ≥ rg(B).
A ≤∗ B ⇐⇒ A∗ A = A∗ B y AA∗ = BA∗ .
Demostración. Comprobarlo.
AB = O ⇐⇒ R(B) ⊆ N(A),
Teorema 2.4 Sean A, B ∈ Cm×n . Entonces las siguientes condiciones son equiva-
lentes.
(a) A ≤∗ B.
A∗ (B − A) = O y (B − A)A∗ = O.
A = U1 D1 V1 y B = U1 D2 V1
A = U D3 V y B = U D4 V
El siguiente resultado muestra la relación existente entre las tres relaciones bi-
narias definidas.
A ≤∗ B =⇒ A ≤− B =⇒ A s B.
y la segunda con
1 0 1 0
A= y B= .
0 2 0 1
2.4. Ejercicios
(1) Sean A, B ∈ Cm×n . Si R(A) ⊆ R(B) demostrar que existe una matriz C ∈ Cn×n
tal que A = BC. ¿Es cierta la recíproca?
(2) Demostrar que si A, B ∈ Cm×n son tales que A s B entonces rg(A) ≤ rg(B).
¿Es posible encontrar un par de matrices distintas A, B ∈ Cm×n tales que A s
B y rg(A) = rg(B)? Justificar.
(4) Sea A ∈ Cm×n una matriz de rango a > 0. Demostrar que si (A1 , A2 ) es una
factorización de rango completo de A entonces (A∗2 , A∗1 ) es una factorización de
rango completo de A∗ .
(5) Sea
1 0
A= .
0 0
(7) Sea √ √ √
i/ 2 i/ 2 2 0
A= √ √ W,
−i/ 2 i/ 2 0 1
con W ∈ C2×2 una matriz unitaria. Hallar todas las matrices B ∈ C2×2 tales
que A s B.
(9) (a) ¿Cuáles son todas las matrices B ∈ C2×2 tales que
1 2
A= ≤− B?
3 4
(b) Demostrar que si A, B ∈ Cm×n son tales que rg(A) = rg(B) y cumplen la
desigualdad A ≤− B entonces A = B.
(c) A partir de los apartados anteriores conjeturar qué otras matrices serán
elementos maximales en Cn×n .
(10) Sean A, B ∈ Cn×n dos proyectores. Demostrar que las siguientes condiciones son
equivalentes.
(a) B − A es un proyector.
(b) AB = BA = A.
(d) A s B.
D1 = diag(α1 , . . . , αn ), D2 = diag(β1 , . . . , βn )
Concluir que si D1 tiene todos sus elementos no nulos en las primeras posicio-
nes diagonales y D2 tiene todos sus elementos nulos en las últimas posiciones
diagonales entonces D1 y D2 tienen la siguiente forma:
(12) Sean U1 ∈ Cn×n , V1 ∈ Cm×m dos matrices unitarias y D1 ∈ Rm×n una matriz
con elementos no negativos en la diagonal principal de forma que
A = U1 D1 V1 .
A = U DV.
0 0 0 0 0 1
utilizando todas las condiciones equivalentes del teorema que las caracteriza.
(a) A ≤∗ B =⇒ A∗ ≤∗ B ∗ .
(b) A ≤∗ B =⇒ B − A ≤∗ B.
3.1. Introducción
Uno de los resultados fundamentales del Álgebra Lineal es el Teorema de Des-
composición Ortogonal, el cual asegura que toda matriz A ∈ Cm×n proporciona
una descomposición para cada uno de los espacios Cm y Cn como suma directa de
subespacios complementarios y ortogonales:
De aquí puede verse que dada una matriz A existe un único proyector ortogonal
PR(A),N(A∗ ) ∈ Cm×m que proyecta sobre R(A) a lo largo de N(A∗ ), así como también
existe un único proyector ortogonal QR(A∗ ),N(A) ∈ Cn×n que proyecta sobre R(A∗ ) a
lo largo de N(A).
Las matrices cuadradas A ∈ Cn×n cuyos proyectores PR(A),N(A∗ ) y QR(A∗ ),N(A)
coinciden se denominan matrices EP , abreviación de Equal Projectors. Recordando
que para A ∈ Cn×n , la matriz AA† es un proyector ortogonal sobre R(A) a lo largo
de N(A∗ ), y A† A proyecta sobre R(A∗ ) paralelamente a N(A), se tiene que A es EP
si AA† = A† A. Este tipo de matrices satisface que R(A) ⊥ N(A) y es por ello que
algunos autores también las llaman RP N , Range Perpendicular to Nullspace [12].
45
Capítulo 3. 46
(EP5) AA† = A† A.
Cabe aclarar que en (EP4) los bloques nulos que aparecen pueden estar ausentes.
Notar también que una matriz no nula A ∈ Cn×n es EP si y sólo si existe una
matriz unitaria VA ∈ Cn×n y una matriz no singular CA ∈ Ca×a tales que A =
VA (O ⊕ CA )VA∗ .
Estas son sólo algunas de las condiciones equivalentes que permiten caracterizar
las matrices EP y pueden encontrarse en la literatura.
Con EP se denota el conjunto de todas las matrices cuadradas complejas EP
de tamaño n × n. Este conjunto extiende al conjunto de matrices normales (por lo
tanto al de hermíticas también) y al conjunto las matrices no singulares.
Hermı́ticas
No
singulares
N ormales
EP
En la figura anterior se puede ver que toda matriz normal es EP pero la afirma-
ción recíproca no es verdadera como lo muestra la matriz
1 i
A=
i 0
(comprobarlo).
En la sección que sigue se presentan algunas propiedades y descomposiciones de
matrices EP que serán utilizadas más adelante.
y
B = UB (CB ⊕ O)UB∗ (3.2)
Teorema 3.1 Sean A, B ∈ Cn×n tales que A es una matriz EP no nula represen-
tada como en (3.1). Entonces las siguientes afirmaciones son equivalentes:
(a) AB = BA.
(a) AB = BA.
(b) (X ∗ CA X) CB = CB (X ∗ CA X), X ∗ CA Y = O, Y ∗ CA X = O.
que es equivalente a
X ∗ CA XCB = CB X ∗ CA X, X ∗ CA Y = O y Y ∗ CA X = O
Teorema 3.3 Sea A ∈ Cn×n una matriz no nula. Las siguientes afirmaciones son
equivalentes:
Demostración. (a) ⇒ (b) Como A es una matriz EP , por (EP2) existe una ma-
triz no singular Q ∈ Cn×n tal que A = A∗ Q. Se considera la siguiente descomposición
de Q:
X Y
Q = UA UA∗ ,
Z T
donde la partición se realiza de acuerdo al tamaño de los bloques de A. Reempla-
zando en A = A∗ Q se obtiene
∗ ∗
C X CA Y C O
A = A ,
O O O O
Teorema 3.4 Sea A ∈ Cn×n una matriz no nula. Entonces las siguientes afirma-
ciones son equivalentes:
(OE3) A† A = B † A y AA† = AB † .
(a) A∗ (A∗ Q − B) = O.
(c) A∗ (P A∗ − B) = O.
(d) (P A∗ − B)A∗ = O.
Notar que bajo las mismas hipótesis los apartados (a)-(d) también se satisfacen si
se reemplaza ∗ por †.
(a) A ≤∗ B.
con X ≤∗ CB .
y
∗
X CB O
A∗ B = UB UB∗ .
∗
Y CB O
La igualdad A∗ A = A∗ B es equivalente a la validez de las siguientes cuatro condicio-
nes X ∗ X + Z ∗ Z = X ∗ CB , X ∗ Y + Z ∗ T = O, Y ∗ X + T ∗ Z = Y ∗ CB e Y ∗ Y + T ∗ T = O.
La última igualdad puede expresarse como
∗
Y Y
=O
T T
que es equivalente a Y T = O, es decir, Y = O y T = O. Realizando un
cálculo similar, de AA∗ = BA∗ se obtiene XX ∗ = CB X ∗ y Z = O. Por lo tanto,
A = UB (X ⊕ O)UB∗ con X ≤∗ CB .
(b) ⇒ (a) Se puede demostrar fácilmente realizando los productos correspon-
dientes.
(b) XCB = CB X.
(c) X † CB = CB X † .
(e) (X ∗ − CB )X = (X ∗ − X)CB .
(b) AB = BA.
El siguiente teorema muestra un resultado similar al del Teorema 3.5, pero ahora
cuando el predecesor es una matriz EP .
Teorema 3.7 Sean A, B ∈ Cn×n tales que A es una matriz EP no nula expresada
como en (3.1). Las siguientes afirmaciones son equivalentes:
(a) A ≤∗ B.
(d) B † (A − B) = (A − B)B † .
(U (W ⊕ T )V )† = V ∗ (W † ⊕ T † )U ∗ . (3.5)
Observación 3.3 Sean A, B ∈ Cn×n tales que AB = BA. Las siguientes afirma-
ciones son equivalentes:
(a) A ≤∗ B.
(c) BA† = A† A.
(e) A† (A − B) = (A − B)A† .
(a) A ≤∗ B.
A = V (C ⊕ O ⊕ O)V ∗ , B = V (C ⊕ T ⊕ O)V ∗ ,
Como AAD es un proyector tal que R(AAD ) = R(Ak ) y N(AAD ) = N(Ak ) entonces
se tiene que I −AAD = Aπ . En particular, si la matriz A es EP entonces Aπ se puede
calcular reemplazando la inversa de Drazin por la inversa de grupo o la inversa de
Moore-Penrose: Aπ = I − AA# = I − AA† .
Recordar que para toda matriz A ∈ Cn de índice k, la inversa de Drazin, AD ,
es la única matriz que satisface las condiciones AD AAD = AD , AAD = AD A y
Ak+1 AD = Ak . En particular, si A tiene índice a lo sumo 1, la inversa de Drazin
coincide con la inversa de grupo de A, denotada por A# , que es la única matriz que
satisface AA# A = A, A# AA# = A# y AA# = A# A.
Lema 3.1 [5, 4] Sea A ∈ Cn , ı́nd(A) ≤ 1. Las siguientes afirmaciones son válidas:
(a) Aπ es idempotente.
(b) AAπ = Aπ A = A# Aπ = Aπ A# = O.
A = P (C ⊕ O)P −1 . (3.6)
Demostración. Por el Lema 3.1 (d), se tiene que AA# = P (Ia ⊕ O)P −1 y f (A) =
P (O ⊕ In−a )P −1 . Como f (A)# = f (A) entonces f (f (A)) = P (Ia ⊕ O)P −1 . Luego,
se satisface que f (f (A)) = A si y sólo si C = Ia .
P = U (Ir ⊕ O)U ∗ ,
con r = rg(P ). Con POn se denota el conjunto de todos los proyectores ortogonales
de tamaño n × n.
Por el Lema 3.2 (a), es claro que f (EP) ⊆ EP, pero en general no se cumple
la igualdad como se puede mostrar mediante la matriz A = diag(2, 0). Se supone
que existe M ∈ C2×2 ∩ EP tal que A = f (M ). Por el Lema 3.1 (h), rg(M ) = 1. Si
M = U diag(c, 0)U ∗ , con U ∈ C2×2 una matriz unitaria y c un número complejo no
nulo, es fácil ver que f (M ) = U diag(0, 1)U ∗ , lo cual es una contradicción porque
/ σ(f (M )). Por lo tanto, EP 6⊆ f (EP).
2 ∈ σ(A) y 2 ∈
Demostración. Sea A = O. Por el Lema 3.1 (e) se tiene que g(A) = In . Si B ∈ Cn×n
es tal que B ≤∗ g(A), entonces tomando U = In y T = B se tiene que B ∈ POn
pues B = B ∗ = B 2 .
Sea A 6= O. Por ser A una matriz EP se puede expresar como en (3.1), A =
UA (CA ⊕ O)UA∗ , con UA ∈ Cn×n unitaria y CA ∈ Ca×a no singular, entonces f (A) =
UA (O ⊕ In−a )UA∗ . Sea B ∈ Cn×n tal que B ≤∗ g(A). Luego, B = UA (O ⊕ T )UA∗ ,
donde T ≤∗ In−a , esto es, T = T ∗ = T 2 .
y
BB † AA† = BA† AA† = BA† = AA† .
3.5. Ejercicios
(1) Demostrar que toda matriz normal es EP . Comprobar que la matriz
1 i
A=
i 0
es EP pero no es normal.
(2) Hallar todas las matrices A ∈ C3×3 que sean EP y tales que A ≤∗ B para
1 i 0
B=
i 0 0 .
0 0 0
0 0 0
hallar todas las matrices B ∈ C3×3 tales que A ≤∗ B.
(5) Sean A, B ∈ Cn×n tales que A ≤∗ B. Demostrar que las siguientes afirmaciones
son equivalentes:
(a) A es EP .
(b) A† y B conmutan.
(c) A y B † conmutan.
(6) Sean A, B ∈ Cn×n tales que A ≤∗ B. Demostrar que las siguientes afirmaciones
son equivalentes:
(a) A es normal.
(b) A∗ y B conmutan.
(c) A y B ∗ conmutan.
(7) Mostrar que las siguientes matrices satisfacen que A ≤∗ B y B es EP pero que
A no es EP .
1 1 1 1
A= y B= .
0 0 1 −1
(8) Mostrar que las siguientes matrices satisfacen que A ≤∗ B y A es una matriz
EP pero B no lo es.
1 0 0 1 0 0
A=
0 0 0
y B=
0 1 1 .
0 0 0 0 0 0
1 i 0
(9) Sea C =
i 0 0 .
0 0 0
(a) Existen una matriz unitaria U ∈ Cn×n y dos matrices diagonales DA , DB ∈ Rn×n
tales que
A = U DA U ∗ y B = U DB U ∗ .
(b) AB = BA.
(b) =⇒ (a) Como A∗ = A, existe una matriz unitaria U1 ∈ Cn×n tal que
λ1 Is O
A = U1 U1∗ ,
O D
64
Capítulo 3. 65
lo que equivale a
λ1 W λ1 X λ1 W XD
= ,
DY DZ λ1 Y ZD
es decir
con DZ = ZD.
Como B es hermítica, se tiene que
W O
B1 := U1∗ BU1 =
O Z
W = QDW Q∗ y Z = T DZ T ∗ .
Entonces
∗
∗
QDW Q O Q O DW O Q O
B = U1 U1∗ = U1 U1∗ .
∗
O T DZ T O T O DZ O T
Denotando
Q O
R := U1
O T
se tiene que
DW O
B = R R∗
O DZ
y
λ1 Is O
A = U1 U1∗
O D
∗
Q O Q∗ (λ1 Is )Q O Q O
= U1 U1∗
∗
O T O T DT O T
λ1 Is O
= R R∗ .
∗
O T DT
A = U DA V ∗ y B = U DB V ∗ .
AB ∗ = (U DA V ∗ )(U DB V ∗ )∗ = (U DA V ∗ )(V DB
∗ ∗ ∗ ∗
U ) = U D A DB U
dj gji = di gij .
P ∗ DP = D1 y P ∗ GP = M,
Q∗ HR = N
Definiendo ahora,
P O P O
U2 := , V2 := , U := U1 U2 y V := V1 V2
O Q O R
se obtiene
D1 O M O
U ∗ AV = y U ∗ BV = .
O O O N
Por último, el resultado que sigue caracteriza el hecho de que dos matrices del
mismo tamaño tengan una descomposición en valores singulares de forma simultá-
nea.
A = U D1 V ∗ y B = U D2 V ∗
A = W DA V ∗ y B = W DB V ∗ .
T
y por tanto DA DB es hermítica y definida no negativa. Por ser DA y DB matrices
T
diagonales, claramente también se cumple que DB DA es hermítica y definida no ne-
gativa. Luego, un elemento diagonal de DA es negativo si y sólo si el corresponidente
elemento de la diagonal de DB es negativo. Si el i-ésimo elemento de la diagonal
de DA fuese no negativo, reemplazar la i-ésima columna de W denotada por wi por
el vector −wi y los elementos diagonales de DA y DB por sus respectivos opuestos.
Se repite este razonamiento para todos los elementos diagonales negativos de DA y
se llaman U , D1 y D2 a las matrices obtenidas de W , DA y DB , rrespectivamente.
Entonces
A = U D1 V ∗ y B = U D2 V ∗ ,
Inversa
a derecha, 3
a izquierda, 3
de Drazin, 6, 57
de grupo, 5, 57
de Moore-Penrose, 5
de Moore-Penrose ponderada, 16
exterior, 5
interior, 4
Matriz EP , 45
Orden parcial
estrella, 41
menos, 31, 38
Preorden espacio, 24
Proyector, 59
ortogonal, 59
correspondiente al valor propio nulo,
57
Rango completo, 8
70
Bibliografía
[2] R.B. Bapat. Linear Algebra and Linear Models. 2da Edición, Springer, 2000.
[4] N. Castro-González, J.J. Koliha, Y. Wei. Perturbation of the Drazin inverse for
matrices with equal eigenprojections at zero. Linear Algebra and its Applica-
tions, 312, 335-347, 2000.
[7] R.A. Horn, C.R. Johnson. Matrix Analysis, Cambridge University Press, Cam-
bridge, 1985.
71
Capítulo 3. 72
[11] A. Hernández, M. Lattanzi, N. Thome, F. Urquiza. The star partial order and
the eigenprojection at 0 on EP matrices. Applied Mathematics and Compu-
tation, 218, 21, 10669-10678, 2012.
[12] C.D. Meyer. Matrix Analysis and Applied Linear Algebra, SIAM, Filadelfia,
2000.
[14] S.K. Mitra, P. Bhimasankaram, S.B. Malik, Matrix partial orders, shorted ope-
rators and applications. World Scientific Publishing Company, 2010.
[15] S. Puntanen, G.P.H. Styan, J. Isotalo. Matrix tricks for linear statistical models,
Ed. Springer, Londres, 2011.
[16] C.R. Rao, S.K. Mitra. Generalized inverse of matrices and its applications. John
Wiley & Sons, Nueva York, 1971.