You are on page 1of 75

Publicaciones Electrónicas

Sociedad Matemática Mexicana

Introducción a órdenes
parciales matriciales

Néstor Thome
Araceli Hernández

www.smm.org.mx

Serie: Cursos. Vol. 4 (2017)


ISBN: 978-607-8008-09-4
INTRODUCCIÓN A
ÓRDENES PARCIALES MATRICIALES

Néstor Thome
Profesor Titular de Universidad

Departamento de Matemática Aplicada

Instituto Universitario de Matemática Multidisciplinar

Universitat Politècnica de València, España

Correo electrónico: njthome@mat.upv.es.

Araceli Hernández
Profesora Adjunta

Facultad de Ingeniería

Universidad Nacional de La Pampa, Argentina

Correo electrónico: aracelih@ing.unlpam.edu.ar.


Índice general

Tabla de símbolos 2

1. Introducción a matrices inversas generalizadas 3


1.1. La inversa generalizada de Moore-Penrose . . . . . . . . . . . . . . . 6
1.2. Inversa de Moore-Penrose ponderada . . . . . . . . . . . . . . . . . . 16
1.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

2. Órdenes parciales matriciales 23


2.1. El preorden espacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.2. El orden parcial menos . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3. El orden parcial estrella . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

3. Orden parcial estrella y matrices EP 45


3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.2. Propiedades de las matrices EP . . . . . . . . . . . . . . . . . . . . . 47
3.3. Orden parcial estrella en el conjunto de matrices EP . . . . . . . . . 50
3.4. Proyector espectral asociado al valor propio nulo de matrices EP . . 57
3.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

Apéndice 64

Índice alfabético 70

Bibliografía 71

1
Prólogo

Este libro corresponde a las notas de un curso del mismo nombre impartido en la
Universidad Nacional de La Pampa de Argentina durante el curso académico 2016.
La intención de estas notas es introducir al lector en temas relacionados con
órdenes parciales definidos sobre el anillo de las matrices complejas o sobre alguna
subclase especial.
Para ello es necesario un primer capítulo en el que se presentan las nociones bá-
sicas de matrices inversas generalizadas. El concepto de matriz inversa generalizada
es un concepto básico para definir posteriormente las relaciones binarias que serán
relaciones de orden o preorden.
En el segundo capítulo se introducen y caracterizan el preorden espacio, el orden
parcial menos y el orden parcial estrella.
Finalmente, en el tercer capítulo se introduce la clase de matrices EP y se estudia
el orden parcial estrella sobre esta clase de matrices.
Cada capítulo finaliza con una serie de ejercicios mediante los cuales el lector
puede completar los detalles necesarios para entender completamente los resultados
expuestos previamente o bien para realizar práctica numérica con ejemplos guiados.
Se trata de unas notas autocontenidas. De hecho, en un Anexo se demuestra un
teorema de Análisis Matricial necesario en el Capítulo 3 que no suele encontrarse
en los textos habituales. El nivel necesario requerido para poder seguir el temario
corresponde al de un alumno que haya estudiado algún curso de Álgebra Lineal o
Análisis Matricial.
Los autores agradecen cualquier sugerencia que el lector quiera realizar enviando
un correo electrónico.
Los autores.

1
Tabla de símbolos

Cm×n espacio de matrices complejas de tamaño m × n.


Cm espacio de matrices complejas de tamaño m × 1.
In matriz identidad de tamaño n × n.
On matriz nula de tamaño n × n.
Cm×n
r conjunto de matrices de tamaño m × n y de rango r.
N(A) subespacio núcleo de A.
R(A) subespacio imagen de A.
rg(A) rango de la matriz A.
ı́nd(A) índice de A.
A∗ traspuesta conjugada de A.
A−1 inversa de A.
#
A inversa de grupo de A.
A† inversa de Moore-Penrose de A.
AD inversa de Drazin de A.
Aπ proyector correspondiente al valor propio nulo de A.
σ(A) espectro o conjunto de valores propios de A.
PM,N proyector ortogonal sobre M paralelamente a N .
≤∗ orden parcial estrella.
A†(M,N ) inversa de Moore-Penrose de A ponderada respecto a M y N .
A~(M,N ) traspuesta conjugada de A ponderada respecto a M y N .

2
Capítulo 1

Introducción a matrices inversas


generalizadas

La utilidad de la inversa de una matriz para resolver infinidad de problemas


prácticos es indiscutible. Sin embargo, no siempre se puede asegurar que la matriz
del problema que se pretende resolver tenga inversa. Por ejemplo, al resolver sis-
temas de ecuaciones lineales, puede darse el caso de que no tenga solución o bien
tener infinitas. Esto hace plantearse otras alternativas para obtener una solución al
problema en algún sentido que se deberá establecer. En concreto, se trata de bus-
car otro tipo de inversas que proporcionen la respuesta o que aporten técnicas que
permitan resolver el problema inicial.
Se comenzará con las inversas laterales de una matriz que pueden definirse para
matrices rectangulares y constituyen un primer tipo de generalización de la inversa
ordinaria.

Definición 1.1 Sea A ∈ Cm×n . Se llama inversa a izquierda (resp. derecha)


de A a cualquier matriz X ∈ Cn×m tal que XA = In (resp. AX = Im ).

Ejemplo 1.1 Sean las matrices


 
1 1  
  1  5 11 −8 
A= 2 1  y B= .
  35 5 4 13
−1 2
Entonces
BA = I2 pero AB 6= I3 .

3
Capítulo 1. 4

Es decir, que B es una inversa a izquierda pero no una inversa a derecha de A.

Se denotará por GI (A) y por GD (A) al conjunto de todas las inversas a izquierda
y a derecha de A, respectivamente.

Puede ocurrir que para una matriz compleja rectangular dada A no exista ningu-
na matriz X que cumpla AX = I pero sí cumpla la relación más relajada AXA = A
o bien XAX = X. Pensadas como aplicaciones lineales, AX = I indica que AX se
comporta como la identidad sobre todo el espacio mientras que AXA = A indica que
AX se comporta como la identidad sobre R(A) (comprobarlo). Estas observaciones
dan origen a dos tipos de inversas generalizadas.

Definición 1.2 Sea A ∈ Cm×n una matriz dada. Se dice que la matriz X ∈ Cn×m
es una {1}-inversa o inversa interior de A si satisface la ecuación matricial:

(1) AXA = A.

Ejemplo 1.2 Sea la matriz


 
1 0 1
A=  ∈ C2×3 .
0 1 0

Entonces, su/s {1}-inversa/s


 
a b
 
X=
 c d ,

e f
si existe/n, debe/n cumplir que
 
  a b    
1 0 1   1 0 1 1 0 1
  c d  = .
0 1 0 0 1 0 0 1 0
 
e f

Luego, resolviendo el sistema de ecuaciones lineales que resulta se tiene que


 
a b
 
X=  0 1 ,
 a, b ∈ C.
1 − a −b

Introducción a órdenes parciales matriciales


Capítulo 1. 5

Se observa que en este caso existen infinitas {1}-inversas de A.

Definición 1.3 Sea A ∈ Cm×n una matriz dada. Se dice que la matriz X ∈ Cn×m
es una {2}-inversa o inversa exterior de A si satisface la ecuación matricial:

(2) XAX = X.

Ejemplo 1.3 Para la matriz A del ejemplo 1.2 se tiene que las mismas {1}-inversas
halladas también satisfacen la condición de ser {2}-inversas de A.

Por lo tanto, una matriz puede tener infinitas inversas exteriores.


Se denotará por G1 (A) y por G2 (A) al conjunto de todas las {1}-inversas y {2}-
inversas de A, respectivamente.

Definición 1.4 Sea A ∈ Cm×n una matriz dada. Se dice que la matriz X ∈ Cn×m es
la inversa de Moore-Penrose de A si satisface las cuatro ecuaciones matriciales
siguientes:

(1) AXA = A,

(2) XAX = X,

(3) (AX)∗ = AX, es decir AX es hermítica,

(4) (XA)∗ = XA, es decir XA es hermítica.

Ejemplo 1.4 Para la matriz A del ejemplo 1.2 se tiene que


 
1/2 0
 
X=  0 1


1/2 0

satisface las cuatro condiciones de la inversa de Moore-Penrose.

Definición 1.5 Sea A ∈ Cn×n una matriz cuadrada dada. Se dice que la matriz
X ∈ Cn×n es la inversa de grupo de A si satisface las tres ecuaciones matriciales
siguientes:

(1) AXA = A,

Introducción a órdenes parciales matriciales


Capítulo 1. 6

(2) XAX = X,

(5) AX = XA.

Para A ∈ Cn×n , se recuerda que se llama índice de A, se denota por ı́nd(A), al


menor entero no negativo k tal que satisface alguna de las afirmaciones equivalentes:

1. rg(Ak+1 ) = rg(Ak ),

2. R(Ak+1 ) = R(Ak ),

3. N(Ak+1 ) = N(Ak ).

Definición 1.6 Sea A ∈ Cn×n una matriz cuadrada dada. Se dice que la matriz
X ∈ Cn×n es la inversa de Drazin de A si satisface las tres ecuaciones matriciales
siguientes:

(2) XAX = X,

(5) AX = XA,

(6) Ak+1 X = Ak , donde k = ı́nd(A).

Nota 1.1 En caso de existir la inversa ordinaria A−1 de una matriz cuadrada A,
todas las inversas generalizadas que cumplan la propiedad de
 las inversas
 interiores
1 0
coinciden con A−1 . Sin embargo, tomando A = I2 y X =   se observa que
0 0
A es invertible y X es una {2}-inversa de A con X 6= I2 .

1.1. La inversa generalizada de Moore-Penrose


Se cree que la noción de inversa generalizada de una matriz apareció por prime-
ra vez cuando E. H. Moore definió una única inversa para una matriz cualquiera,
llamada por él general reciprocal. Aunque su primera publicación fue en 1920 parece
ser que los resultados se obtuvieron antes. Varios años más tarde, recién en 1955, R.
Penrose publicó otra definición para esta misma inversa generalizada. Esta definición
es la que hoy se conoce con el nombre de inversa de Moore-Penrose.

Introducción a órdenes parciales matriciales


Capítulo 1. 7

Se probará que este tipo de inversa generalizada existe siempre y además es


única. Se comenzará demostrando la unicidad de dicha matriz.

Teorema 1.1 Sea A ∈ Cm×n . Si existe una matriz X ∈ Cn×m que satisface las
cuatro propiedades de la inversa de Moore-Penrose dadas en la definición 1.4 de
página 5 entonces dicha matriz es única.

Demostración. Sean X1 y X2 dos matrices de tamaño n × m que satisfacen las


cuatro propiedades en la definición 1.4. Es decir se tiene que:

1. AX1 A = A

2. X1 AX1 = X1

3. (AX1 )∗ = AX1

4. (X1 A)∗ = X1 A

5. AX2 A = A

6. X2 AX2 = X2

7. (AX2 )∗ = AX2

8. (X2 A)∗ = X2 A.

Es necesario probar que X1 = X2 . En efecto, usando las propiedades 2, 5, 4, 8 y


1 resulta que:

X1 = X1 AX1 = X1 AX2 AX1


= (X1 A)∗ (X2 A)∗ X1 = A∗ X1∗ A∗ X2∗ X1
= (AX1 A)∗ X2∗ X1 = A∗ X2∗ X1 = (X2 A)∗ X1
= X2 AX1 .

Por otro lado, usando las propiedades 6, 7, 1, 3 y 5 resulta que:

X2 = X2 AX2 = X2 (AX2 )∗ = X2 X2∗ A∗ = X2 X2∗ (AX1 A)∗


= X2 X2∗ A∗ X1∗ A∗ = X2 (AX2 )∗ (AX1 )∗ = X2 AX2 AX1
= X2 AX1 .

Introducción a órdenes parciales matriciales


Capítulo 1. 8

Por lo tanto, X1 = X2 . 

En caso de existir la inversa de Moore-Penrose de la matriz A se denotará por


A† . Se estudia ahora la existencia de dicha inversa.
Se recuerda que una matriz A ∈ Cm×n
r es de rango completo por columnas
si r = n, se dice de rango completo por filas si r = m, y es de rango completo
si r = rg(A) = mı́n{m, n}.

Teorema 1.2 Sea A ∈ Cm×n


r una matriz rectangular dada. Entonces existen dos
matrices M y N tales que M ∈ Cm×r
r y N ∈ Cr×n
r que satisfacen:

A = MN .

Esta expresión de la matriz A se conoce con el nombre de una factorización de


rango completo de A, y se denota por (M, N ). En este caso,

R(A) = R(M ) N(A) = N(N ).

0 0 0
Demostración. Sea A ∈ Cm×n
r una matriz tal que sus columnas son a1 , a2 , . . . , an ,
es decir
h i
0 0 0
A= a1 a2 · · · an .

Como rg(A) = r podemos suponer que a1 , a2 , . . . , ar son las r columnas lineal-


mente independientes de A. Luego, para cada i = 1, 2, . . . , n se tiene que
r
0
X
ai = αij aj ,
j=1

y los escalares de esta combinación lineal están unívocamente determinados. Es decir


que:
h i
0 0
A = a1 · · · an
h i
= α11 a1 + · · · + α1r ar . . . αn1 a1 + · · · + αnr ar
 
α11 · · · αn1
.. .. 
h i
= ..
a1 · · · ar   . . . .
| {z }
M α1r · · · αnr
| {z }
N

Introducción a órdenes parciales matriciales


Capítulo 1. 9

Como {a1 , . . . , ar } es linealmente independiente, entonces rg(M ) = r y además como

r = rg(A) = rg(M N ) ≤ rg(N ) ≤ r

entonces rg(N ) = r. Por último, R(A) = R(M ) y N(A) = N(N ) puesto que
R(A) ⊆ R(M ) y N(N ) ⊆ N(A) y cada par de subespacios tiene la misma dimensión.


Dada una matriz rectangular A ∈ Cm×n


r , del teorema 1.2 se puede observar que
siempre existen dos matrices M ∈ Cm×r
r y N ∈ Cr×n
r tales que A = M N y es claro
que existen (M ∗ M )−1 y (N N ∗ )−1 .

Teorema 1.3 Sea A ∈ Cm×n


r y sea A = M N una factorización de rango completo
de A. Entonces la inversa de Moore-Penrose de A existe y está dada por:

A† = N ∗ (N N ∗ )−1 (M ∗ M )−1 M ∗ .

Demostración. Llamando

X = N ∗ (N N ∗ )−1 (M ∗ M )−1 M ∗ ,

si se prueba que X satisface las cuatro propiedades de la definición 1.4 entonces


usando la unicidad de la inversa de Moore-Penrose, se deduce que A† = X y el
teorema queda probado. En efecto:

AXA = M N N ∗ (N N ∗ )−1 (M ∗ M )−1 M ∗ M N


= MN
= A.

XAX = N ∗ (N N ∗ )−1 (M ∗ M )−1 M ∗ M N N ∗ (N N ∗ )−1 (M ∗ M )−1 M ∗


= N ∗ (N N ∗ )−1 (M ∗ M )−1 M ∗
= X.

(AX)∗ = [M N N ∗ (N N ∗ )−1 (M ∗ M )−1 M ∗ ]∗

Introducción a órdenes parciales matriciales


Capítulo 1. 10

= [M (M ∗ M )−1 M ∗ ]∗
= M (M ∗ M )−1 M ∗
= M N N ∗ (N N ∗ )−1 (M ∗ M )−1 M ∗
= AX.

(XA)∗ = [N ∗ (N N ∗ )−1 (M ∗ M )−1 M ∗ M N ]∗


= [N ∗ (N N ∗ )−1 N ]∗
= N ∗ (N N ∗ )−1 N
= N ∗ (N N ∗ )−1 (M ∗ M )−1 M ∗ M N
= XA.

De esta manera el teorema queda demostrado. 

Ejemplo 1.5 Considerar la siguiente factorización de rango completo de A:


   
1 −1 0  1 −1
    1 0 0
A=
 0 = 0
1 0   1   .
0 1 0

1 0 0 1 0 | {z }
| {z } N
M

Luego se tiene que:


 
   1 0

1 0 0 1 0
NN∗ =  (N N ∗ )−1 = I2
 
 0 1  =   y así
0 1 0 0 1
 
0 0

y  
  1 −1  
1 0 1 2 −1
M ∗M = 
 
=
 0 1   
−1 1 0 −1 2

1 0
y por lo tanto  
1 2 1 
(M ∗ M )−1 = .
3 1 2

Introducción a órdenes parciales matriciales


Capítulo 1. 11

Multiplicando según se indica en el teorema 1.3 resulta que:


   
1 0    1 1 2
1  2 1 1 0 1
†  = 1  −1 2 1  .
 
A =  0 1   
3 
1 2 −1 1 0 3 
0 0 0 0 0

Nota 1.2 En el ejemplo 1.4 de la página 5 se indicó una matriz X que satisface las
cuatro condiciones de la definición de inversa de Moore-Penrose. Ahora sí es posible
asegurar que dicha matriz X es la inversa de Moore-Penrose A† de la matriz A allí
indicada.

Nota 1.3 El teorema 1.3, además de probar que cualquier matriz rectangular A
admite una inversa de Moore-Penrose (que es única por el teorema 1.1), da un
método que permite calcularla. Se observa que la inversa de Moore-Penrose de la
factorización de rango A = M N también puede escribirse como

A† = N † M † .

(Comprobarlo.)

Proposición 1.1 Sea A ∈ Cm×n y λ† ∈ C definida por



 1 si λ 6= 0
† λ
λ =
0 si λ = 0

entonces la inversa de Moore-Penrose de A satisface las siguientes propiedades:

(a) (A† )† = A.

(b) (A∗ )† = (A† )∗ .

(c) (λA)† = λ† A† .

(d) A∗ = A∗ AA† = A† AA∗ .

(e) (A∗ A)† = A† (A∗ )† .

(f ) A† = (A∗ A)† A∗ = A∗ (AA∗ )† .

Introducción a órdenes parciales matriciales


Capítulo 1. 12

(g) Si D ∈ Cn×n es una matriz diagonal siendo d1 , d2 , . . . , dn los elementos de su


0 0 0
diagonal principal, entonces D† es una matriz diagonal siendo d1 , d2 , . . . , dn los
0 1 0
elementos de su diagonal principal, donde di = si di 6= 0 y di = 0 si di = 0.
di
(h) (U AV )† = V ∗ A† U ∗ , siendo U y V dos matrices unitarias.

(i) G2 (O) = {O} (y por tanto On† = On ).

(j) Si m = n y existe la inversa ordinaria A−1 entonces A† = A−1 .

Demostración. Las demostraciones son técnicas y pueden demostrarse usando la


definición de inversa de Moore-Penrose. 

Utilizando la descomposición en valores singulares de la matriz A y las propieda-


des (g) y (h) de la proposición anterior es posible hallar la inversa de Moore-Penrose
A† .

Teorema 1.4 Sea A ∈ Cm×n


r . Entonces existen dos matrices unitarias U ∈ Cm×m
y V ∈ Cn×n , y una matriz diagonal Σ = diag(σ1 , σ2 , . . . , σr ) tales que
 
Σ O
A=U  V ∗, (1.1)
O O

siendo σ1 ≥ σ2 ≥ . . . ≥ σr > 0. Esta factorización se llama descomposición en


valores singulares de A, siendo los números σ1 , σ2 , . . . , σr los valores singulares
de A y donde r = rg(A).

Demostración. Como A∗ A es una matriz hermítica, entonces A∗ A es diagonaliza-


ble mediante una matriz unitaria V , es decir existe una base B = {x1 , x2 , . . . , xn }
formada por vectores propios de A∗ A de manera tal que

 1, i = j
hxi , xj i = x∗i xj = δij =
6 j.
 0, i =

Luego, si λ1 , λ2 , . . . , λn son los valores propios de A∗ A se tiene que

A∗ Axi = λi xi , i = 1, 2, . . . , n.

Introducción a órdenes parciales matriciales


Capítulo 1. 13

Es posible definir entonces la matriz:


h i
V = x1 x2 . . . xn .

Por otro lado, por ser A∗ A una matriz hermítica se tiene que todos sus valores
propios son reales, i.e.: λi ∈ R, i = 1, 2, . . . , n. Por tanto, para cada i = 1, 2, . . . , n
resulta que:

0 ≤ ||Axi ||2 = x∗i A∗ Axi = x∗i (λi xi ) = λi x∗i xi = λi hxi , xi i = λi . (1.2)

Es posible suponer que

λ1 ≥ λ2 ≥ . . . ≥ λl > λl+1 = . . . = λn = 0.

Se define:
p
σi := + λi , i = 1, 2, . . . , l

e
1
yi :=
Axi , i = 1, 2, . . . , l.
σi
Entonces para cada i = 1, 2, . . . , l resulta que:
1 1 1 1 1
hyi , yi i = yi∗ yi = (Axi )∗ (Axi ) = 2 x∗i A∗ Axi = 2 ||Axi ||2 = λi = 1
σi σi σi σi λi
y para j 6= i se tiene que:
1 1 1 ∗ ∗ 1 ∗
hyj , yi i = yj∗ yi = (Axj )∗ (Axi ) = xj (A Axi ) = x λi xi = 0.
σj σi σj σi σj σi j
Por lo tanto, {y1 , y2 , . . . , yl } es un conjunto ortogonal de vectores de Cm×1 .
En particular, como el conjunto {y1 , y2 , . . . , yl } es linealmente independiente, por
el teorema de la base incompleta es posible extenderlos a una base de Cm×1
0
B = {y1 , y2 , . . . , yl , yl+1 , . . . , ym },

que además, por el procedimiento de Gram-Schmidt, pueden elegirse tales que:



 1, i = j
hyi , yj i = δij =
 0, i 6= j

para todo i = 1, 2, . . . , m, y para todo j = 1, 2, . . . , m.


Con estos vectores es posible definir la matriz
h i
U := y1 y2 . . . ym .

Faltan comprobar dos hechos:

Introducción a órdenes parciales matriciales


Capítulo 1. 14

 
Σ O
(a) U ∗ AV =   donde Σ = diag(σ1 , σ2 , . . . , σr ) y
O O

(b) l = r (= rg(A)).

En efecto. Primero se prueba (a).


   
y1∗ y ∗ Ax1 y1∗ Ax2 . . . y1∗ Axn
   1 
 y∗  h i  y ∗ Ax1 y ∗ Ax2 . . . y ∗ Axn 
∗  2   2 2 2
U AV =  .  A x1 x2 . . . xn =  .

 ..  .. .. ..
 

 . . . 

∗ ∗ ∗ ∗
ym ym Ax1 ym Ax2 . . . ym Axn

Si se llama Σ1 a esta última matriz, como Axi = σi yi para i = 1, 2, . . . , l, se tiene


que: 
 σ j=i
i
yj∗ Axi = yj∗ σi yi = σi yj∗ yi = σi δij =
6 i
 0 j=

para todo j = 1, 2, . . . , m.
Además, como se ha visto en (1.2) λi = ||Axi ||2 con lo que se tiene que λi = 0 si
y sólo si Axi = 0 y esto ocurre para i = l + 1, . . . , n.
Se concluye que para i = l + 1, . . . , n y para todo j = 1, 2, . . . , m es yj∗ Axi =
yj∗ 0 = 0, y finalmente
 
Σ O
Σ1 =   ∈ Cm×n .
O O
Para demostrar la parte (b) se usará (a) y el hecho que el rango es invariante por
matrices invertibles. En efecto, si

A = U Σ1 V ∗ ,

siendo U y V matrices unitarias (y por lo tanto invertibles) se tiene que

r = rg(A) = rg(U Σ1 V ∗ ) = rg(Σ1 ) = l,

como se quería demostrar. 

Introducción a órdenes parciales matriciales


Capítulo 1. 15

Ejemplo 1.6 Una descomposición en valores singulares de la matriz


 
1 −1 0
 
A=  0 1 0 

1 0 0

es:    √   
√2 0 − √13 3 0 0 √1 − √12 0
6 2
     
A= 1 √1 − √13  .  0 1 0 . √1 √1
 − 6

2     2 2 .
0 
√1 √1 √1 0 0 0 0 0 1
6 2 3
| {z } | {z } | {z }
U Σ1 V∗

El siguiente resultado muestra una manera de calcular la inversa de Moore-


Penrose de una matriz A a partir de su descomposición en valores singulares.

Teorema 1.5 Para una descomposición en valores singulares A = U Σ1 V ∗ de la


matriz A ∈ Cm×n
r , se tiene que su inversa de Moore-Penrose está dada por

A† = V Σ†1 U ∗ ,

siendo  
Σ† O
 
1 1 1
Σ†1 = †
 , con Σ = diag , ,..., .
O O σ1 σ2 σr

Demostración. Por la propiedad (h) de la proposición 1.1 se tiene que A = U Σ1 V ∗


implica A† = (U Σ1 V ∗ )† = V Σ†1 U ∗ . La forma de la matriz Σ†1 se obtiene de la pro-
piedad (g) de la misma proposición. 

Ejemplo 1.7 Usando la descomposición en valores singulares de la matriz A dada


en el ejemplo 1.6, el teorema 1.5 indica que la inversa de Moore-Penrose de A es:
2 1 1
 
1 1
  
√ √ 0 1 
√ −√ √
 2 2   √3 0 0   6 6 6 

 1 1   1 1 
A =  −√ √ 0 . 
0 1 0 .
  0 √ √ 

2 2     2 2 
1 1 1 
 
0 0 1 0 0 0 −√ −√ √
| {z } | {z } 3 3 3
† | {z }
V Σ1 U∗

Introducción a órdenes parciales matriciales


Capítulo 1. 16

 
1 1 2
1 
=  −1 2 1  .
3 
0 0 0

1.2. Inversa de Moore-Penrose ponderada


Para finalizar, se realizará una extensión de la inversa de Moore-Penrose al caso
ponderado.
Para ello, a lo largo de esta sección se asumirá que M ∈ Cm×m y N ∈ Cn×n
son dos matrices hermíticas definidas positivas donde M 1/2 y N 1/2 representan sus
respectivas raíces cuadradas.

Definición 1.7 Sean M ∈ Cm×m y N ∈ Cn×n dos matrices hermíticas definidas


positivas y sea A ∈ Cm×n . Una matriz X ∈ Cn×m se llama la inversa de Moore-
Penrose de A ponderada por las matrices M y N si cumple:

(1) AXA = A,

(2) XAX = X,

(3) (M AX)∗ = M AX, es decir M AX es hermítica,

(4) (N XA)∗ = N XA, es decir N XA es hermítica.

Dadas las matrices A, M y N y una solución X, se construyen las matrices

e = M 1/2 AN −1/2
A y e = N 1/2 XM −1/2 .
X

A continuación se demuestra que X es una solución simultánea para las cuatro


ecuaciones matriciales de la Definición 1.7 si y sólo si X
e es una solución simultánea
para las cuatro ecuaciones matriciales de la Definición de inversa de Moore-Penrose
de A.
e En efecto,

(1) AXA = A ⇐⇒ (M 1/2 AN −1/2 )(N 1/2 XM −1/2 )(M 1/2 AN −1/2 ) =
M 1/2 AN −1/2 ⇐⇒ A
eXeA
e = A.
e

(2) XAX = X ⇐⇒ (N 1/2 XM −1/2 )(M 1/2 AN −1/2 )(N 1/2 XM −1/2 ) =
N 1/2 XM −1/2 ⇐⇒ X
eAeX
e = X.
e

Introducción a órdenes parciales matriciales


Capítulo 1. 17

(3) (M AX)∗ = M AX ⇐⇒ [M 1/2 (M 1/2 AN −1/2 )(N 1/2 XM −1/2 )M 1/2 ]∗ =


M 1/2 (M 1/2 AN −1/2 )(N 1/2 XM −1/2 )M 1/2 ⇐⇒ [M 1/2 A e 1/2 ]∗ =
eXM
M 1/2 A e 1/2 ⇐⇒ (A
eXM e ∗=A
eX) e pues M 1/2 es hermítica.
eX,

(4) (N XA)∗ = N XA ⇐⇒ [N 1/2 (N 1/2 XM −1/2 )(M 1/2 AN −1/2 )N 1/2 ]∗ =


N 1/2 (N 1/2 XM −1/2 )(M 1/2 AN −1/2 )N 1/2 ⇐⇒ [N 1/2 X e 1/2 ]∗ =
e AN
N 1/2 X e 1/2 ⇐⇒ (X
e AN e∗=X
e A) e pues N 1/2 es hermítica.
e A,

Es sabido que existe una única Xe tal que Xe = A e† , es decir X


e coincide con
la inversa de Moore-Penrose de Ae 1 . Entonces la existencia y unicidad conocida
para la inversa de Moore-Penrose Xe de Ae implica la existencia y unicidad para la
inversa de Moore-Penrose X de A ponderada por M y N . Se denotará entonces, sin
ambigüedad, X = A†(M,N ) .
Luego, además de haber probado que siempre existe una única matriz X en las
condiciones de la Definición 1.7 se tiene la siguiente representación para A†(M,N ) :

X e† ⇐⇒ N 1/2 XM −1/2 = (M 1/2 AN −1/2 )†


e =A

⇐⇒ X = N −1/2 (M 1/2 AN −1/2 )† M 1/2 .

Así se tiene que


A†(M,N ) = N −1/2 (M 1/2 AN −1/2 )† M 1/2 .

Se sabe que cuando se resuelve de manera aproximada por mínimos cuadrados


un sistema de ecuaciones lineales (inconsistente) del tipo

Ax = b con A ∈ Cm×n y b ∈ Cm ,

el vector x ∈ Cn×1 de norma 2 mínima que minimiza la expresión kAx − bk2 está
dado por x = A† b.

Teorema 1.6 (Penrose) Sean A ∈ Cm×n y X ∈ Cn×m . Entonces las siguientes


condiciones son equivalentes:

(a) Para cada b ∈ Cm , de entre todas las soluciones en mínimos cuadrados de


Ax = b, el vector Xb es la única solución con mínima norma.
1 e† que podría escribirse como (A)
No debe confundirse la expresión A e † con A
f† .

Introducción a órdenes parciales matriciales


Capítulo 1. 18

(b) X = A† .

Ahora, si en lugar de usar la norma 2, se consideran las normas inducidas por


las matrices M y N :

kxk2M = x∗ M x, para todo x ∈ Cm×1 ,

kxk2N = x∗ N x, para todo x ∈ Cn×1 ,

una generalización del problema anterior consiste en resolver de manera aproximada


por mínimos cuadrados un sistema de ecuaciones lineales (inconsistente) del tipo
Ax = b, con A ∈ Cm×n , b ∈ Cm×1 , considerando que el residuo Ax − b está afectado
por distintos pesos dados por la matriz M y de modo que x tenga norma mínima
ponderada de acuerdo a los pesos dados por la matriz N . Es decir, se debe minimizar
la expresión
kAx − bk2M = (Ax − b)∗ M (Ax − b)

encontrando x tal que kxk2N = x∗ N x tome el valor más pequeño posible.

Teorema 1.7 Sean A ∈ Cm×n y X ∈ Cn×m . Entonces las siguientes condiciones


son equivalentes:

(a) Para cada b ∈ Cm , de entre todas las soluciones en mínimos cuadrados (con
respecto a la norma inducida por M ) de Ax = b, el vector Xb es la única
solución con norma inducida por N mínima.

(b) X = A†(M,N ) .

Demostración. El cambio de variables

e = M 1/2 AN −1/2 ,
A eb = M 1/2 b y e = N 1/2 x
x

permite reescribir

kAx − bk2M = (Ax − b)∗ M (Ax − b)


= (Ax − b)∗ (M 1/2 )∗ M 1/2 (Ax − b)
= [M 1/2 (Ax − b)]∗ M 1/2 (Ax − b)

Introducción a órdenes parciales matriciales


Capítulo 1. 19

= kM 1/2 Ax − M 1/2 bk22


= k(M 1/2 AN −1/2 )(N 1/2 x) − M 1/2 bk22
ex − ebk2
= kAe 2

kxk2N = x∗ N x
= x∗ (N 1/2 )∗ N 1/2 x
= [N 1/2 x]∗ N 1/2 x
= kN 1/2 xk22
xk22 .
= ke

Del Teorema 1.6 se tiene que para cada b ∈ Cm , de entre todas las solu-
ciones en mínimos cuadrados de Aeex = eb, el vector x e†eb es la única solu-
e = A
ción con mínima norma, con lo que N 1/2 x = (M 1/2 AN −1/2 )† M 1/2 b, es decir, x =
N −1/2 (M 1/2 AN −1/2 )† M 1/2 b = A†(M,N ) b termina la demostración. 

A continuación se dan algunas propiedades de la inversa de Moore-Penrose pon-


derada. Se debe tener en cuenta que la ortogonalidad debe ser considerada en función
del producto escalar utilizado en cada caso (euclídeo, inducido por M o inducido
por N ) y que se define la matriz traspuesta conjugada de A ponderada con
respecto a M y N como
A~(M,N ) = N −1 A∗ M.

Lema 1.1 Sean A ∈ Cm×n y Sm , Sn subespacios de Cm y Cn , respectivamente.


Entonces se satisfacen las siguientes afirmaciones:

(a) R(AA†(M,N ) ) = R(A) y N(AA†(M,N ) ) = N(A~(M,N ) ).

(b) R(A†(M,N ) A) = R(A~(M,N ) ) y N(A†(M,N ) A) = N(A).

⊥M
(c) Sm = M −1/2 (M 1/2 Sm )⊥ y Sn⊥N = N −1/2 (N 1/2 Sn )⊥ .

(d) N(A~(M,N ) ) = (R(A))⊥M .

Introducción a órdenes parciales matriciales


Capítulo 1. 20

(e) R(A~(M,N ) ) = (N(A))⊥N .

(f) AA†(M,N ) es un proyector M -ortogonal sobre el espacio R(A) a lo largo del


espacio N(A~(M,N ) ).

(g) A†(M,N ) A es un proyector N -ortogonal sobre el espacio R(A~(M,N ) ) a lo largo


del espacio N(A).

(h) Cm = M 1/2 R(A) ⊕⊥ M 1/2 N(A~(M,N ) )


= M 1/2 R(A) ⊕⊥ M −1/2 N(A∗ ).

(i) Cn = N 1/2 R(A~(M,N ) ) ⊕⊥ N 1/2 N(A)


= N −1/2 R(A∗ ) ⊕⊥ N 1/2 N(A).

(j) R(A†(M,N ) ) = R(A†(M,N ) A) = R(N −1 A∗ ) y


R((A†(M,N ) )∗ ) = R((AA†(M,N ) )∗ ) = R(M A).

Demostración. Las demostraciones siguen de las definiciones. 

Introducción a órdenes parciales matriciales


Capítulo 1. 21

1.3. Ejercicios
(1) Calcular la inversa de Moore-Penrose de las matrices
 
  1 1 −1
1 1  
A=  y B= 2 0 −2 
0 0
 
−1 1 1
mediante

(a) una factorización de rango completo.

(b) una descomposición en valores singulares.

(2) Demostrar que si A ∈ Cn×n es hermítica e idempotente entonces A† = A.

(3) Demostrar que si D = diag(d1 , . . . , dn ) ∈ Cn×n entonces D† = diag(d†1 , . . . , d†n )


donde 
 1/d d 6= 0
i i
d†i = .
 0 di = 0

(4) Encontrar un ejemplo que muestre que, en general, no se cumple que

Si B = SAS −1 entonces B † = SA† S −1 .

(5) Demostrar que si B = U AV con U, V ∈ Cn×n unitarias y A ∈ Cn×n entonces


B † = V ∗ A† U ∗ .

(6) Dada la matriz A ∈ Cn×n de rango r > 0, se considera una descomposición de


Hartwig-Spindelböck de la forma
 
ΣK ΣL
A=W  W ∗, (1.3)
O O

donde W ∈ Cn×n es una matriz unitaria, Σ = diag(σ1 , σ2 , . . . , σr ) ∈ Rr×r es una


matriz diagonal con σ1 ≥ σ2 ≥ . . . ≥ σr > 0 y las dos matrices K ∈ Cr×r y
L ∈ Cr×(n−r) son tales que KK ∗ + LL∗ = Ir . Se pide:

(a) Probar que  


K ∗ Σ−1 O
A† = W   W ∗.
∗ −1
LΣ O

Introducción a órdenes parciales matriciales


Capítulo 1. 22

(b) Probar de dos formas diferentes que AA† y A† A son proyectores ortogonales
(es decir, son matrices hermíticas e idempotentes).

(c) Una matriz A ∈ Cn×n de rango r > 0 se llama EP si cumple que AA† = A† A.
Se denota por ⊕⊥ la suma directa ortogonal.
Demostrar que:

(i) A es EP si y sólo si existe una matriz unitaria U ∈ Cn×n y una matriz


invertible C ∈ Cr×r tales que
 
C O
A=U  U ∗.
O O

(ii) Si A es EP entonces N(A) = N(A∗ ).


(iii) Si A es EP entonces R(A) = R(A∗ ).
(iv) A es EP si y sólo si Cn = R(A) ⊕⊥ N(A).

Introducción a órdenes parciales matriciales


Capítulo 2

Órdenes parciales matriciales

En la literatura se pueden encontrar varias relaciones de orden parcial o de preor-


den definidas a partir de alguna inversa generalizada. Se recuerda que un preorden
sobre un conjunto no vacío es una relación binaria que es reflexiva y transitiva. Si
además esta relación cumple la propiedad de antisimetría entonces se denomina rela-
ción de orden parcial. En este capítulo se trabajará con el pre-orden espacio definido
sobre el conjunto de matrices rectangulares y los órdenes parciales menos y estrella
definidos en el mismo conjunto.
En la primera sección se presentará el preorden espacio y se estudiarán algunas
propiedades del mismo que involucran inversas generalizadas. Esta relación binaria
se considera la base de todas las relaciones de órdenes parciales siguientes, ya que
adicionando algunas condiciones a su definición se puede transformar en una relación
de orden parcial. El nombre de este preorden se debe a que en su definición se
involucran los espacios imagen y núcleo de una matriz.
En las secciones siguientes se estudiará el orden parcial menos en el conjunto de
matrices rectangulares y luego, sobre el mismo conjunto, se trabajará con el orden
parcial estrella.

2.1. El preorden espacio


Se recuerda que R(A) denota el espacio imagen de la matriz A ∈ Cm×n .

23
Capítulo 2. 24

Definición 2.1 Sean A, B ∈ Cm×n . Se define la relación binaria

A s B ⇐⇒ R(A) ⊆ R(B) y R(A∗ ) ⊆ R(B ∗ ).

Lema 2.1 s define un preorden sobre Cm×n .

Demostración. Es inmediata de la definición. 

El preorden s se llama preorden espacio puesto que involucra el espacio


imagen de matrices en la condición R(A) ⊆ R(B) y el espacio núcleo en la condición
R(A∗ ) ⊆ R(B ∗ ) por ser equivalente a N(B) ⊆ N(A).

Ejemplo 2.1
       
1 2 1 1 1 0 1 0
  s  ,   s  ,
0 0 0 0 0 1 0 0
       
1 0 1 0 1 0 1 0
  s   y   s  .
0 1 0 2 0 0 0 2

Ejemplo 2.2 Sean A = diag(a1 , . . . , an ) y B = diag(b1 , . . . , bn ) dos matrices a


coeficientes complejos. Entonces A s B si y sólo si bi 6= 0 cuando ai 6= 0, i =
1, . . . , n.

Ejemplo 2.3 Sean A, B ∈ Cn×n dos matrices (hermíticas) definidas no negativas.


Entonces
A s A + B y B s A + B.

Recordar que G1 (A) denota el conjunto de todas las {1}-inversas de A.

Proposición 2.1 Sean A, B ∈ Cm×n . Entonces las siguientes condiciones son equi-
valentes.

(a) A s B.

(b) A = BB − A = AB − B para toda B − ∈ G1 (A).

(c) A = BB − A = AB − B para alguna B − ∈ G1 (A).

Introducción a órdenes parciales matriciales


Capítulo 2. 25

Demostración. (a) =⇒ (b) Suponiendo que A s B se tiene que R(A) ⊆ R(B) y


R(A∗ ) ⊆ R(B ∗ ). De la primera inclusión se deduce que A = BX para alguna matriz
X (véase ejercicio 1). Multiplicando a izquierda por BB − se tiene

BB − A = BB − BX = BX = A, para toda B − ∈ G1 (A).

De manera semejante, de R(A∗ ) ⊆ R(B ∗ ) se deduce que existe una matriz Y tal que
A∗ = B ∗ Y , es decir A = Y ∗ B. Multiplicando a derecha por B − B se tiene

AB − B = Y ∗ BB − B = Y ∗ B = A, para toda B − ∈ G1 (A),

con lo que se prueba (b).


(b) =⇒ (c) Es inmediata.
(c) =⇒ (a) Si existe una matriz B − ∈ G1 (A) tal que A = BB − A = AB − B
entonces
R(A) = R(BB − A) ⊆ R(B)

y
R(A∗ ) = R((AB − B)∗ ) = R((B ∗ (B − )∗ A∗ ) ⊆ R(B ∗ ).

Por lo tanto, A s B. 

Nota 2.1 Si A, B ∈ Cm×n son tales que A s B entonces rg(A) ≤ rg(B) (véase
ejercicio 2).

Lema 2.2 Sean A, B ∈ Cm×n . Si A s B entonces P AQ s P BQ para todo par


de matrices invertibles P ∈ Cm×m y Q ∈ Cn×n .

Demostración. Se demuestra usando propiedades del espacio imagen de una ma-


triz (véase ejercicio 3). 

Es claro que:

Si A s O entonces A = O.

O s B para toda matriz B.

Introducción a órdenes parciales matriciales


Capítulo 2. 26

Teorema 2.1 Sean A, B ∈ Cm×n con rg(A) = a y rg(B) = b. Las siguientes condi-
ciones son equivalentes.

(a) A s B.

(b) Si (B1 , B2 ) es una factorización de rango completo de B entonces A = B1 T B2


para alguna matriz T ∈ Cb×b .

(c) Si (A1 , A2 ) es una factorización de rango completo de A se tiene que:

Si a = b entonces B = A1 RA2 para alguna matriz invertible R ∈ Cb×b .

Si a < b entonces existen matrices E ∈ Cm×(b−a) y F ∈ C(b−a)×n y una


matriz invertible R ∈ Cb×b tales que
 
h i A2
A1 E y  
F

tienen rango completo y


 
h i A2
B= A1 E R .
F

para alguna matriz invertible R ∈ Cb×b .

Demostración. Si B = O, por la observación anterior, A = O y corresponde a un


caso irrelevante. Sea entonces B 6= O.
(a) =⇒ (b) El resultado es evidente para A = O (tomando T = O). Sea entonces
A 6= O y sea (A1 , A2 ) una factorización de rango completo de A, es decir, A = A1 A2
con A1 ∈ Cm×a , A2 ∈ Ca×n y rg(A1 ) = rg(A2 ) = a. Sea B = B1 B2 con B1 ∈ Cm×b ,
B2 ∈ Cb×n y rg(B1 ) = rg(B2 ) = b.
Como A s B entonces R(A) ⊆ R(B) y R(A∗ ) ⊆ R(B ∗ ). Luego,

R(A) = R(A1 A2 ) ⊆ R(A1 )

y por ser rg(A1 ) = a se tiene que R(A) = R(A1 ). Del mismo modo, R(B) = R(B1 ).
Además, de
R(A1 ) = R(A) ⊆ R(B) = R(B1 )

se tiene que existe una matriz T1 ∈ Cb×a tal que A1 = B1 T1 .

Introducción a órdenes parciales matriciales


Capítulo 2. 27

También, por ser (A∗2 , A∗1 ) una factorización de rango completo de A∗ y (B2∗ , B1∗ )
una factorización de rango completo de B ∗ , se obtiene

R(A∗ ) = R(A∗2 ) y R(B ∗ ) = R(B2∗ ).

Así, de
R(A∗2 ) = R(A∗ ) ⊆ R(B ∗ ) = R(B2∗ )

se tiene que existe una matriz T2 ∈ Ca×b tal que A∗2 = B2∗ T2∗ . Por lo tanto, A2 = T2 B2
y
A = A1 A2 = B1 (T1 T2 )B2 ,

lo que prueba (b) tomando T = T1 T2 ∈ Cb×b .


(b) =⇒ (a) El resultado es evidente para A = O. Sea entonces A 6= O. Sea
(B1 , B2 ) una factorización (fija) de rango completo de B. Por (b), A = B1 T B2 para
alguna matriz T ∈ Cb×b . Luego,

R(A) = R(B1 T B2 ) ⊆ R(B1 ) = R(B).

De forma análoga,

R(A∗ ) = R(B2∗ T ∗ B1∗ ) ⊆ R(B2∗ ) = R(B ∗ ).

Se tiene entonces que A s B.


(a) =⇒ (c) La condición (c) carece de sentido para el caso A = O. Sea entonces
A 6= O. Se supone que A s B y sean (A1 , A2 ) una factorización (fija) de rango
completo de A y (B1 , B2 ) una factorización de rango completo de B que se deberá
determinar. Como antes,

R(A) = R(A1 ), R(A∗ ) = R(A∗2 ), R(B) = R(B1 ) y R(B ∗ ) = R(B2∗ ).

De R(A) ⊆ R(B) se tiene R(A1 ) ⊆ R(B1 ), de donde A1 = B1 T1 para alguna


matriz T1 ∈ Cb×a . También, de R(A∗ ) ⊆ R(B ∗ ) se tiene R(A∗2 ) ⊆ R(B2∗ ), de donde
A2 = T2 B2 para alguna matriz T2 ∈ Ca×b . Ahora se analizan dos situaciones:

a = b. En este caso, rg(A1 ) = rg(A2 ) = rg(B1 ) = rg(B2 ) y

a = rg(A) = rg(B1 T1 ) ≤ rg(T1 ) ≤ a,

Introducción a órdenes parciales matriciales


Capítulo 2. 28

de donde T1 es invertible. De forma similar, T2 es invertible. Por lo tanto,

B = B1 B2 = A1 T1−1 T2−1 A2 ,

con lo que B = A1 RA2 para la matriz invertible R = T1−1 T2−1 ∈ Ca×a .

a < b. En este caso, como A s B, se tiene que R(A) ⊆ R(B) y existe alguna
columna de B que no es combinación lineal de las columnas de A.

Como R(A) = R(A1 ), existe una matriz E ∈ Cm×(b−a) (con rango columna
h i
completo) tal que las columnas de A1 E forman una base de R(B).

Como R(A∗ ) = R(A∗2 ), existe una matriz F ∗ ∈ Cn×(b−a) (con rango columna
h i
completo) tal que las columnas de A2 F ∗ ∗ forman una base de R(B ∗ ), es
 
A2
decir, F tiene rango completo por filas y las filas de   forman una base
F
del espacio fila de B.

Por ser
h i
R(B1 ) = R(B) = R A1 E ,
h i
se puede escribir B1 = A1 E R1 , para alguna matriz invertible R1 ∈ Cb×b .

Análogamente, de
h i
R A∗2 F ∗ = R(B ∗ ) = R(B2∗ )
 
A2
se puede escribir B2 = R2  , para alguna matriz invertible R2 ∈ Cb×b .
F
Por lo tanto,  
h i A2
B = B1 B2 = A1 E R1 R2  ,
F
y se obtiene la representación buscada tomando la matriz invertible R =
R1 R2 ∈ Cb×b .

(c) =⇒ (a) De nuevo, la condición (c) carece de sentido para el caso A = O.


Sea entonces A 6= O y sea (A1 , A2 ) una factorización (fija) de rango completo de A.
Entonces A = A1 A2 con A, A1 y A2 de rango a y R(A) = R(A1 ). Por (c),

Introducción a órdenes parciales matriciales


Capítulo 2. 29

si a = b entonces B = A1 RA2 para alguna matriz invertible R ∈ Ca×a . En


este caso, R(B) ⊆ R(A1 ) = R(A) y de a = b se tiene R(B) = R(A). También,
R(B ∗ ) = R(A∗2 R∗ A∗1 ) ⊆ R(A∗2 ) = R(A∗ ) y por tanto R(B ∗ ) = R(A∗ ) dado que
a = b. Se llega a A s B.

si a < b entonces  
h i A2
B= A1 E R ,
F
donde las matrices por bloques tienen rango completo. En este caso, R(A) =
h i
R(A1 ) ⊆ R A1 E = R(B) (¿Por qué es válida la última igualdad?). De
h i
forma similar, R(A∗ ) = R(A∗2 ) ⊆ R A∗2 F ∗ = R(B ∗ ). De nuevo, se llega
a A s B.

Corolario 2.1 Sean A, B ∈ Cm×n con rg(A) = a y rg(B) = b > 0. Las siguientes
condiciones son equivalentes.

(a) A s B.

(b) Si existen matrices invertibles PB ∈ Cm×m y QB ∈ Cn×n tales que


 
Ib O
B = PB   QB
O O

entonces  
TA O
A = PB   QB
O O

para alguna matriz TA ∈ Cb×b .

(c) Si
 
Ia O O
 
A = PA 
 O Ob−a O  QA

O O O

Introducción a órdenes parciales matriciales


Capítulo 2. 30

para matrices invertibles PA ∈ Cm×m y QA ∈ Cn×n entonces si b ≥ a se tiene


que  
TB O
B = PA   QA
O O
para alguna matriz invertible TA ∈ Cb×b .

Demostración. Es un ejercicio sencillo. 

2.2. El orden parcial menos


Sean A, B ∈ Cm×n . Puesto que B = A + (B − A), se cumple que

rg(B) = rg(A + (B − A)) ≤ rg(A) + rg(B − A),

con lo que siempre es válida la desigualdad

rg(B − A) ≥ rg(B) − rg(A).

La cuestión a estudiar en esta sección es cuándo se verifica la igualdad.

Nota 2.2 Si A ∈ Cm×n tiene rango completo por columnas entonces admite inversa
a izquierda y si tiene rango completo por filas admite inversa a derecha. (Si rg(A) =
n, basta probar que A∗ A es invertible y usar (A∗ A)−1 A∗ como candidata a inversa
a izquierda.)

Lema 2.3 Sean A, B ∈ Cm×n dos matrices no nulas. Las siguientes condiciones
son equivalentes.

(a) AC − B es invariante bajo la elección de C − ∈ G1 (C), es decir, de la {1}-inversa


C − de C.

(b) R(B) ⊆ R(C) y R(A∗ ) ⊆ R(C ∗ ).

Demostración. (a) =⇒ (b) Por hipótesis se supone que el producto AC − B es


invariante bajo la elección de la {1}-inversa C − de C. Ahora se supone, por el
absurdo, que R(B) * R(C). Entonces para cualquier {1}-inversa C − de C, la matriz

D := (I − CC − )B 6= O,

Introducción a órdenes parciales matriciales


Capítulo 2. 31

pues si fuese D = O sería R(B) ⊆ N(I − CC − ) = R(CC − ) ⊆ R(C), y esto es una


contradicción.
Fijando una matriz C − , se tiene que D (que depende C − ) también está fija. Sean
(A1 , A2 ) y (D1 , D2 ) factorizaciones de rango completo de A y de D, respectivamente
y sea
C = := C − + (A2 )(D) (D1 )(I) (I − CC − )

donde (A2 )(D) es una inversa a derecha de A2 y (D1 )(I) es una inversa a izquierda
de D1 . Entonces C = es una {1}-inversa de C (verificarlo) y

AC = B = AC − B + A(A2 )(D) (D1 )(I) (I − CC − )B = AC − B + A1 D2 .


| {z }
=D

Como A1 admite inversa a izquierda, se tiene que A1 D2 6= O (comprobarlo), lo que


lleva a una contradicción (¿por qué?). Por lo tanto, R(B) ⊆ R(C). De forma análoga
se prueba que R(A∗ ) ⊆ R(C ∗ ).
(b) =⇒ (a) De R(B) ⊆ R(C) se tiene que B = CX para alguna matriz X y de
R(A∗ ) ⊆ R(C ∗ ) que A = Y C para alguna matriz Y . Luego,

AC − B = Y CC − CX = Y CX,

para cualquier elección de la {1}-inversa C − de C. 

Antes de proceder con caracterizaciones del orden parcial menos, serán de utili-
dad los siguientes resultados.

Proposición 2.2 Sean A, B ∈ Cm×n y sea B − ∈ G1 (B) una {1}-inversa fija de B


tal que BB − A = AB − B = AB − A = A. Entonces existe una {1, 2}-inversa B = de
B tal que BB = A = AB = B = AB = A = A.

Demostración. Por hipótesis, BB − A = AB − B = AB − A = A para B − ∈ G1 (B).


Sea B = := B − BB − . Es fácil probar que

BB = B = B y B = BB = = B = ,

y además que
BB = A = AB = B = AB = A = A.

Introducción a órdenes parciales matriciales


Capítulo 2. 32

Proposición 2.3 Sean A, B ∈ Cm×n y sea A− ∈ G1 (A) una {1}-inversa fija de A


tal que AA− B = BA− A = A. Entonces existe una {1, 2}-inversa A= de A tal que
AA= B = BA= A = A.

Demostración. Es similar a la de la Proposición 2.2. 

Teorema 2.2 Sean A, B ∈ Cm×n dos matrices distintas no nulas de rangos a y b,


respectivamente. Las siguientes condiciones son equivalentes.

(a) rg(B) = rg(A) + rg(B − A).

(b) G1 (B) ⊆ G1 (A).

(c) R(A) ∩ R(B − A) = {0} y R(A∗ ) ∩ R((B − A)∗ ) = {0}.

(d) BB − A = AB − B = AB − A = A para toda B − ∈ G1 (B).

(e) existe una matriz A− ∈ G1 (A) tal que A− A = A− B y AA− = BA− .

(f ) existe una matriz A− ∈ G1 (A) tal que AA− B = BA− A = A.

(g) Existen matrices invertibles P ∈ Cm×m y Q ∈ Cn×n tales que


   
Ia O O O
A=P Q y B−A=P  Q
O O O Y

para alguna matriz Y ∈ C(m−a)×(n−a) .

Demostración. Al ser A, B ∈ Cm×n dos matrices distintas no nulas se evitan los


casos triviales (pero en estos casos también es cierto el resultado).
Sean (A1 , A2 ) y (D1 , D2 ) dos factorizaciones de rango completo de A y de la
diferencia B − A, respectivamente. Es conocido que:

R(A) = R(A1 ) y R(B − A) = R(D1 ). (2.1)

Así, si d denota el rango de B − A, se tiene que


 
h i A2
B = A + (B − A) = A1 A2 + D1 D2 = A1 D1   (2.2)
D2

Introducción a órdenes parciales matriciales


Capítulo 2. 33

con  
h i A2
A1 D1 ∈ Cm×(a+d) y   ∈ C(a+d)×n .
D2
(a) =⇒ (b) y (d) Si se supone que rg(B) = rg(A) + rg(B − A) = a + d, se tiene
que (2.2) es una factorización de rango completo de B puesto que
  
h i A h i
2
a + d = rg(B) = rg  A1 D1   ≤ rg A1 D1 ≤ a + d,
D2

y de forma semejante  
A2
rg   = a + d.
D2
Por otro lado es conocido que BB − B = B para cualquier B − ∈ G1 (B). Luego,
     
h i A h i A h i A
2
A1 D1   B − A1 D1  2  = A1 D1  2  .
D2 D2 D2
 
h i A2
Puesto que A1 D1 admite inversa a izquierda y   admite inversa a de-
D2
recha, la igualdad anterior se puede simplificar, quedando
 
A h i
 2  B − A1 D1 = Ia+d
D2

y, multiplicando por bloques,


   
− −
A B A1 A2 B D1 I O
 2 = a 
D2 B − A1 D2 B − D1 O Id

e igualando se tiene

A2 B − A1 = Ia , A2 B − D1 = O, D2 B − A1 = O, D2 B − D1 = Id .

Multiplicando la primera igualdad a izquierda por A1 y a derecha por A2 se llega a

AB − A = A1 A2 B − A1 A2 = A1 A2 = A,

es decir B − ∈ G1 (A), que es (b). Procediendo de la misma forma con las otras
igualdades se llega a:

AB − (B − A) = O, (B − A)B − A = O, (B − A)B − (B − A) = B − A.

Introducción a órdenes parciales matriciales


Capítulo 2. 34

Operando se llega a las tres igualdades de (d).


(b) =⇒ (c) Por hipótesis, para cada B − ∈ G1 (B) se tiene que AB − A = A, es
decir AB − A es invariante para cualquier elección de B − ∈ G1 (B). Del Lema 2.3
se deduce que R(A) ⊆ R(B) y R(A∗ ) ⊆ R(B ∗ ). Se tiene entonces garantizada la
existencia de una matriz X tal que A = XB. Así,

AB − B = XBB − B = XB = A.

Se debe probar que R(A) ∩ R(B − A) = {0}. Sea y ∈ R(A) ∩ R(B − A). Entonces
y = Ax = (B − A)z para algunos vectores x y z. Entonces

y = Ax = AB − (Ax) = AB − (B − A)z = AB − Bz − AB − Az = Az − Az = 0.

De forma similar se prueba que R(A∗ ) ∩ R((B − A)∗ ) = {0}.


(d) =⇒ (b) Es inmediato.
(d) =⇒ (e) Por hipótesis, para cada B − ∈ G1 (B) se tiene que BB − A = AB − B =
AB − A = A.
Como A− := B − AB − también es una {1}-inversa de A (comprobarlo), de
AB − (B − A) = O se cumple que

A− (B − A) = B − AB − (B − A) = O,

es decir, A− A = A− B con A− ∈ G1 (A). Similarmente, de (B − A)B − A = O se llega


a
(B − A)A− = (B − A)B − AB − = O,

es decir, AA− = BA− . Por lo tanto, se ha demostrado (e).


(e) =⇒ (f) Es inmediato.
(f) =⇒ (e) Sea A− ∈ G1 (A) una matriz tal que AA− B = BA− A = A. La
Proposición 2.3 asegura que existe una {1, 2}-inversa A= de A tal que AA= B =
BA= A = A. Luego, multiplicando AA= B = A a izquierda por A= se tiene A= A =
A= B y multiplicando a derecha BA= A = A por A= se llega a AA= = BA= . Luego,
se cumple (e).
(f) =⇒ (c) Sea y ∈ R(A) ∩ R(B − A). Entonces y = Ax = (B − A)z para algunos
vectores x y z. Sea A− ∈ A{1} una matriz fija tal que AA− B = BA− A = A. Luego,

y = Ax = AA− (Ax) = AA− (B − A)z = AA− Bz − AA− Az = Az − Az = 0,

Introducción a órdenes parciales matriciales


Capítulo 2. 35

de donde se tiene que R(A) ∩ R(B − A) = {0}. De forma semejante se demuestra


que R(A∗ ) ∩ R((B − A)∗ ) = {0}.
(c) =⇒ (g) Siempre es posible (¿por qué?) considerar una factorización de la
matriz A ∈ Cm×n de rango a > 0 dada por su forma normal de rango a partir de
 
Ia O
A = PA   QA ,
O O

donde PA ∈ Cm×m y QA ∈ Cn×n son invertibles.


Sea B − A = PA ZQA , con Z a determinar. Es claro que las condiciones de la
hipótesis pueden reescribirse como (comprobarlo):
 
Ia O
R(A) ∩ R(B − A) = {0} ⇐⇒ R   ∩ R(Z) = {0} (2.3)
O O

y que
 
Ia O
R(A∗ ) ∩ R((B − A)∗ ) = {0} ⇐⇒ R   ∩ R(Z ∗ ) = {0}. (2.4)
O O

Ahora se considera una factorización de rango completo de la matriz Z, de rango


z > 0, dada por  
Z11 h i
Z = Z1 Z2 =   Z21 Z22 ,
Z12
donde las particiones se realizan de acuerdo a los tamaños de (2.3) y (2.4), es decir
con
Z11 ∈ Ca×z , Z12 ∈ C(m−a)×z , Z21 ∈ Cz×a y Z22 ∈ Cz×(n−a) .
 
Z11
En esta situación se tiene que R(Z) = R  .
Z12
Ahora se probará que rg(Z12 ) = z. En efecto, si fuese rg(Z12 ) < z, como
dim(N(Z12 )) + dim(R(Z12 )) = z, se tendría que N(Z12 ) 6= {0}. Sea entonces x 6= 0
tal que Z12 x = 0. Luego,
       
Z Z x Z x I O
 11  x =  11  =  11  ∈ R  a  ∩ R(Z) = {0}.
Z12 Z12 x 0 O O

Introducción a órdenes parciales matriciales


Capítulo 2. 36

Por lo tanto, Z11 x = 0 con lo que Z1 x = 0 para algún x 6= 0. Esto implica que
N(Z1 ) 6= {0} lo que contradice que rg(Z1 ) = z por el teorema de la dimensión. Se
ha probado entonces que rg(Z12 ) = z.  
Z11
Observando ahora que tanto la matriz   ∈ Cm×z como la submatriz Z12
Z12
tienen rango z, las filas de Z11 deben ser combinación lineal de las filas de Z12 . Luego,
debe existir una matriz M tal que Z11 = M Z12 .
De forma semejante se demuestra que Z21 = Z22 N para alguna matriz N . Luego,

Z = Z1 Z2
 
Z11 h i
=   Z21 Z22
Z12
 
M Z12 h i
=   Z22 N Z22
Z12
 
M Z12 Z22 N M Z12 Z22
=  .
Z12 Z22 N Z12 Z22

Para eliminar las dependencias lineales en los bloques fila y columna de Z y llegar
así a la forma canónica requerida es necesario utilizar matrices elementales por filas
y columnas. Considerando para ello
   
Ia M Ia O
P := PA   y Q :=   QA
O I N I

es fácil comprobar (hacerlo como ejercicio) que


   
Ia O O O
A=P Q y B−A=P   Q.
O O O Y

(g) =⇒ (a) Si
   
Ia O O O
A=P Q y B−A=P  Q
O O O Y

con P ∈ Cm×m y Q ∈ Cn×n invertibles se tiene que

rg(A) = rg(Ia ) = a y rg(B − A) = rg(Y ).

Introducción a órdenes parciales matriciales


Capítulo 2. 37

Como  
Ia O
B = A + (B − A) = P   Q,
O Y
entonces rg(B) = a + rg(Y ) = rg(A) + rg(B − A). 

Definición 2.2 Sean A, B ∈ Cm×n . Se dice que A ≤− B si existe una {1}-inversa


A− de A tal que
A− A = A− B y AA− = BA− .

Es evidente que cualquiera de las condiciones del Teorema 2.2 sirve para realizar la
definición anterior por ser todas ellas equivalentes.

Ejemplo 2.4 Es fácil comprobar que A ≤− B para las matrices


   
1 1 0 1 1 0
   
A=  0 0 0 
 y B =  0 0 0 
 
0 0 0 0 0 1

utilizando todas las condiciones equivalentes del teorema que las caracteriza.

Se recuerda que un orden parcial sobre un conjunto (no vacío) es una relación
binaria que es reflexiva, antisimétrica y transitiva.

Teorema 2.3 La relación binaria ≤− define un orden parcial sobre Cm×n .

Demostración. La reflexividad es una consecuencia directa de la condición (a) del


Teorema 2.2 (que, como se ha indicado, es trivialmente válido para matrices A y B
iguales).
Para probar la antisimetría se supone que A ≤− B y que B ≤− A para dos
matrices A, B ∈ Cm×n . Por la condición (a) del Teorema 2.2 se tiene que

rg(B) = rg(A) + rg(B − A) ≥ rg(A)

y
rg(A) = rg(B) + rg(A − B) ≥ rg(B).

Luego, rg(A) = rg(B) con lo que rg(A − B) = 0, es decir, A = B.

Introducción a órdenes parciales matriciales


Capítulo 2. 38

La transitividad es una consecuencia directa de la condición (b) del Teorema 2.2.




El orden parcial definido por la relación binaria ≤− se denomina orden parcial


menos.

2.3. El orden parcial estrella


Si en la definición de orden parcial menos, en lugar de utilizar una {1}-inversa
generalizada de A, se utiliza su inversa de Moore-Penrose, es posible considerar otra
relación binaria. Sin embargo, por cuestiones de sencillez en las demostraciones, se
dará la siguiente definición.

Definición 2.3 Sean A, B ∈ Cm×n . Se define la relación binaria

A ≤∗ B ⇐⇒ A∗ A = A∗ B y AA∗ = BA∗ .

Ejemplo 2.5 Es fácil comprobar que A ≤∗ B para las matrices


   
1 1 0 1 1 0
   
A=  0 0 0 
 y B =  0 0 0 .
 
0 0 0 0 0 1

Lema 2.4 Sean A, B ∈ Cm×n . Si A ≤∗ B entonces U AV ≤∗ U BV para todo par


de matrices unitarias U ∈ Cm×m y V ∈ Cn×n .

Demostración. Comprobarlo. 

Lema 2.5 Sea A ∈ Cm×n . Entonces:

(a) R(A† ) = R(A∗ ).

(b) N(A† ) = N(A∗ ).

Demostración. Se deduce utilizando las propiedades (d) y (f) de la inversa de


Moore-Penrose demostradas en la Proposición 1.1. 

Introducción a órdenes parciales matriciales


Capítulo 2. 39

El siguiente resultado da caracterizaciones para la relación binaria ≤∗ . En parte


de la demostración se utiliza la siguiente propiedad:

AB = O ⇐⇒ R(B) ⊆ N(A),

para cualquier par de matrices A ∈ Cm×n y B ∈ Cn×p .

Teorema 2.4 Sean A, B ∈ Cm×n . Entonces las siguientes condiciones son equiva-
lentes.

(a) A ≤∗ B.

(b) A† A = A† B y AA† = BA† .

(c) R(A) ⊥ R(B − A) y R(A∗ ) ⊥ R((B − A)∗ ).

(d) Existen matrices unitarias U ∈ Cm×m y V ∈ Cn×n tales que


   
Da O O Da O O
   
A=U
 O V
O O  y B=U
 O  V,
Db−a O 
O O O O O O

donde Da ∈ Ca×a y Db−a ∈ C(b−a)×(b−a) son matrices diagonales definidas posi-


tivas.

Demostración. (a) ⇐⇒ (b) Se cumple que A∗ A = A∗ B y AA∗ = BA∗ si y sólo si

A∗ (B − A) = O y (B − A)A∗ = O.

Aplicando el Lema 2.5 se tiene que

A∗ (B − A) = O ⇐⇒ R(B − A) ⊆ N(A∗ ) = N(A† ) ⇐⇒ A† (B − A) = O

(B − A)A∗ = O ⇐⇒ R(A† ) = R(A∗ ) ⊆ N(B − A) ⇐⇒ (B − A)A† = O.

Por lo tanto, A∗ A = A∗ B y AA∗ = BA∗ es equivalente a A† A = A† B y AA† = BA† .


(a) ⇐⇒ (c) Se deduce de la propiedad M ∗ N = O ⇐⇒ R(M ) ⊥ R(N ) .

Introducción a órdenes parciales matriciales


Capítulo 2. 40

(a) =⇒ (d) Si A∗ A = A∗ B y AA∗ = BA∗ es claro que A∗ B y BA∗ son matrices


hermíticas y definidas no negativas. Por el teorema 3 del Apéndice, existen matrices
unitarias U1 ∈ Cm×m y V1 ∈ Cn×n tales que

A = U1 D1 V1 y B = U1 D2 V1

donde D1 y D2 son matrices diagonales con elementos no negativos en la diagonal


(es decir, D1 y D2 sólo tienen elementos no nulos en algunas de sus posiciones (i, i)
aunque no son necesariamente matrices cuadradas). Por el Lema 2.4, D1 ≤∗ D2 . Es
posible demostrar (véanse ejercicios) que existen dos matrices unitarias U ∈ Cm×m
y V ∈ Cn×n tales que

A = U D3 V y B = U D4 V

donde D3 = diag(Da , O, O) y D4 = diag(Da , Db−a , O) donde Da ∈ Ca×a y Db−a ∈


C(b−a)×(b−a) , lo que demuestra (d).
(d) =⇒ (a) Es una sencilla comprobación. 

El siguiente resultado muestra la relación existente entre las tres relaciones bi-
narias definidas.

Teorema 2.5 Sean A, B ∈ Cm×n . Entonces

A ≤∗ B =⇒ A ≤− B =⇒ A s B.

Demostración. Si se cumple A ≤∗ B, por el Teorema 2.4 se tiene A† A = A† B


y AA† = BA† . Tomando A− = A† se tiene A− A = A− B y AA− = BA− con
A− ∈ G1 (A). Luego, A ≤− B.
Si A ≤− B entonces el Teorema 2.2 asegura que AB − A = A para toda B − ∈
G1 (B). Luego, AB − A es invariante bajo la elección de B − ∈ G1 (B). El Lema 2.3
permite afirmar que R(A) ⊆ R(B) y R(A∗ ) ⊆ R(B ∗ ) (si bien en ese Lema se
descartan los casos triviales, también son válidas estas inclusiones para esos casos).
Por lo tanto, A s B. 
Las recíprocas de las implicaciones anteriores no son ciertas. La primera se puede
comprobar con las matrices
   
1 1 1 0
A=  y B= 
0 0 0 1

Introducción a órdenes parciales matriciales


Capítulo 2. 41

y la segunda con
   
1 0 1 0
A=  y B= .
0 2 0 1

Teorema 2.6 La relación binaria ≤∗ define un orden parcial sobre Cm×n .

Demostración. La reflexividad es evidente.


Si A, B ∈ Cm×n son tales que A ≤∗ B y B ≤∗ A, el Teorema 2.5 asegura que
A ≤− B y B ≤− A. Puesto que ≤− es un orden parcial, A = B, con lo que se prueba
la antisimetría.
Sean A, B ∈ Cm×n tales que A ≤∗ B y B ≤∗ C. Por el Teorema 2.4 se tiene que
   
Da O O Da O O
   
A=U  O O O   V y B = U  O Db−a O  V,
 
O O O O O O

con Da y Db−a matrices diagonales definidas positivas. Sea


 
C11 C12 C13
 
C=U  C21 C22 C23  V,

C31 C32 C33

particionada de modo que las multiplicaciones implicadas puedan realizarse. Usando


que B ≤∗ C, y realizando las multiplicaciones de la definición, se llega a
 
Da O O
 
C=U  O Db−a O
 V.

O O C33

Ahora es fácil comprobar que A ≤∗ C. Por lo tanto, ≤∗ es transitiva.



El orden parcial definido por la relación binaria ≤∗ se denomina orden parcial
estrella. Ahora queda clara la relación entre el nombre del orden parcial en relación
a la inversa generalizada utilizada (véase Teorema 2.4).

Introducción a órdenes parciales matriciales


Capítulo 2. 42

2.4. Ejercicios
(1) Sean A, B ∈ Cm×n . Si R(A) ⊆ R(B) demostrar que existe una matriz C ∈ Cn×n
tal que A = BC. ¿Es cierta la recíproca?

(2) Demostrar que si A, B ∈ Cm×n son tales que A s B entonces rg(A) ≤ rg(B).
¿Es posible encontrar un par de matrices distintas A, B ∈ Cm×n tales que A s
B y rg(A) = rg(B)? Justificar.

(3) Sean A, B ∈ Cm×n . Demostrar que A s B implica P AQ s P BQ para todo


par de matrices invertibles P ∈ Cm×m y Q ∈ Cn×n .

(4) Sea A ∈ Cm×n una matriz de rango a > 0. Demostrar que si (A1 , A2 ) es una
factorización de rango completo de A entonces (A∗2 , A∗1 ) es una factorización de
rango completo de A∗ .

(5) Sea  
1 0
A= .
0 0

Encontrar todas las matrices B ∈ C2×2 tales que A s B.

(6) Hallar b1 , b2 ∈ C tales que


   
1 1 1 b1
A=  s   = B.
0 0 0 b2

(7) Sea  √ √  √ 
i/ 2 i/ 2 2 0
A= √ √   W,
−i/ 2 i/ 2 0 1

con W ∈ C2×2 una matriz unitaria. Hallar todas las matrices B ∈ C2×2 tales
que A s B.

(8) Sea A ∈ Cm×n


a , a > 0. Demostrar que las siguientes condiciones son equivalentes:

(a) (A1 , A2 ) es una factorización de rango completo de A.

Introducción a órdenes parciales matriciales


Capítulo 2. 43

(b) Existen matrices invertibles P ∈ Cm×m y Q ∈ Cn×n tales que


 
Ia O
A=P  Q.
O O

(9) (a) ¿Cuáles son todas las matrices B ∈ C2×2 tales que
 
1 2
A=  ≤− B?
3 4

(b) Demostrar que si A, B ∈ Cm×n son tales que rg(A) = rg(B) y cumplen la
desigualdad A ≤− B entonces A = B.

(c) A partir de los apartados anteriores conjeturar qué otras matrices serán
elementos maximales en Cn×n .

(10) Sean A, B ∈ Cn×n dos proyectores. Demostrar que las siguientes condiciones son
equivalentes.

(a) B − A es un proyector.

(b) AB = BA = A.

(c) rg(B − A) = rg(B) − rg(A), es decir A ≤− B.

(d) A s B.

(11) Sean D1 , D2 ∈ Cn×n dos matrices diagonales

D1 = diag(α1 , . . . , αn ), D2 = diag(β1 , . . . , βn )

tales que D1 ≤∗ D2 . Demostrar que:

(a) Si βi = 0 para algún i entonces αi = 0.

(b) Si αi 6= 0 para algún i entonces βi = αi .

Concluir que si D1 tiene todos sus elementos no nulos en las primeras posicio-
nes diagonales y D2 tiene todos sus elementos nulos en las últimas posiciones
diagonales entonces D1 y D2 tienen la siguiente forma:

D1 = diag(D3 , O, O) y D2 = diag(D3 , D4 , O),

donde D3 y D4 son matrices diagonales con elementos no nulos en su diagonal.

Introducción a órdenes parciales matriciales


Capítulo 2. 44

(12) Sean U1 ∈ Cn×n , V1 ∈ Cm×m dos matrices unitarias y D1 ∈ Rm×n una matriz
con elementos no negativos en la diagonal principal de forma que

A = U1 D1 V1 .

Demostrar que existen dos matrices unitarias U ∈ Cn×n y V ∈ Cm×m y una


matriz diagonal por bloques D ∈ Cm×n tal que D = diag(Σ, O) con Σ diagonal
con todos sus elementos positivos y

A = U DV.

(13) Comprobar que A ≤∗ B para las matrices


   
1 1 0 1 1 0
   
A=
 0 0 0 
 y B=
 0 0 0 .

0 0 0 0 0 1

utilizando todas las condiciones equivalentes del teorema que las caracteriza.

(14) Sean A, B ∈ Cm×n . Demostrar que

(a) A ≤∗ B =⇒ A∗ ≤∗ B ∗ .

(b) A ≤∗ B =⇒ B − A ≤∗ B.

¿Son válidas las implicaciones recíprocas?

Introducción a órdenes parciales matriciales


Capítulo 3

Orden parcial estrella y matrices EP

3.1. Introducción
Uno de los resultados fundamentales del Álgebra Lineal es el Teorema de Des-
composición Ortogonal, el cual asegura que toda matriz A ∈ Cm×n proporciona
una descomposición para cada uno de los espacios Cm y Cn como suma directa de
subespacios complementarios y ortogonales:

Cm = R(A) ⊕ N(A∗ ) y Cn = R(A∗ ) ⊕ N(A).

De aquí puede verse que dada una matriz A existe un único proyector ortogonal
PR(A),N(A∗ ) ∈ Cm×m que proyecta sobre R(A) a lo largo de N(A∗ ), así como también
existe un único proyector ortogonal QR(A∗ ),N(A) ∈ Cn×n que proyecta sobre R(A∗ ) a
lo largo de N(A).
Las matrices cuadradas A ∈ Cn×n cuyos proyectores PR(A),N(A∗ ) y QR(A∗ ),N(A)
coinciden se denominan matrices EP , abreviación de Equal Projectors. Recordando
que para A ∈ Cn×n , la matriz AA† es un proyector ortogonal sobre R(A) a lo largo
de N(A∗ ), y A† A proyecta sobre R(A∗ ) paralelamente a N(A), se tiene que A es EP
si AA† = A† A. Este tipo de matrices satisface que R(A) ⊥ N(A) y es por ello que
algunos autores también las llaman RP N , Range Perpendicular to Nullspace [12].

Definición 3.1 Una matriz A ∈ Cn×n es EP si se satisface alguna de las siguientes


condiciones equivalentes:
(EP1) R(A)⊥ N(A).

45
Capítulo 3. 46

(EP2) R(A) = R(A∗ ).

(EP3) N(A) = N(A∗ ).

(EP4) A = O o existe una matriz unitaria UA ∈ Cn×n y una matriz no singular


CA ∈ Ca×a tales que
A = UA (CA ⊕ O)UA∗ .

(EP5) AA† = A† A.

Cabe aclarar que en (EP4) los bloques nulos que aparecen pueden estar ausentes.
Notar también que una matriz no nula A ∈ Cn×n es EP si y sólo si existe una
matriz unitaria VA ∈ Cn×n y una matriz no singular CA ∈ Ca×a tales que A =
VA (O ⊕ CA )VA∗ .
Estas son sólo algunas de las condiciones equivalentes que permiten caracterizar
las matrices EP y pueden encontrarse en la literatura.
Con EP se denota el conjunto de todas las matrices cuadradas complejas EP
de tamaño n × n. Este conjunto extiende al conjunto de matrices normales (por lo
tanto al de hermíticas también) y al conjunto las matrices no singulares.

Hermı́ticas
No
singulares
N ormales
EP

En la figura anterior se puede ver que toda matriz normal es EP pero la afirma-
ción recíproca no es verdadera como lo muestra la matriz
 
1 i
A= 
i 0

(comprobarlo).
En la sección que sigue se presentan algunas propiedades y descomposiciones de
matrices EP que serán utilizadas más adelante.

Introducción a órdenes parciales matriciales


Capítulo 3. 47

3.2. Propiedades de las matrices EP


Como se mencionó en la sección anterior, si A, B ∈ Cn×n son matrices EP no
nulas, de rangos a y b respectivamente, se puede asumir que ellas están dadas como

A = UA (CA ⊕ O)UA∗ (3.1)

y
B = UB (CB ⊕ O)UB∗ (3.2)

donde UA , UB ∈ Cn×n son matrices unitarias y CA ∈ Ca×a , CB ∈ Cb×b son no


singulares. Cabe aclarar que si las matrices A o B son no singulares, esto es, a = n
o b = n, entonces el bloque nulo está ausente. Generalmente estos casos no se
consideran en las demostraciones de este capítulo.
Los primeros resultados de esta sección muestran algunas propiedades que satis-
facen las matrices EP . En particular, el primer teorema caracteriza a las matrices
que conmutan con una matriz EP dada.

Teorema 3.1 Sean A, B ∈ Cn×n tales que A es una matriz EP no nula represen-
tada como en (3.1). Entonces las siguientes afirmaciones son equivalentes:

(a) AB = BA.

(b) Existen matrices X ∈ Ca×a y T ∈ C(n−a)×(n−a) tales que B = UA (X ⊕ T )UA∗ ,


con CA X = XCA .

Demostración. Se considera la siguiente descomposición de B:


 
X Y
B = UA   UA∗
Z T
donde la partición ha sido realizada de acuerdo al tamaño de los bloques de A. La
igualdad AB = BA es equivalente a
   
CA X CA Y XCA O
 = ,
O O ZCA O
que a su vez equivale a CA X = XCA , Y = O y Z = O. 

Cuando ambas matrices A y B son EP se obtiene el siguiente resultado sobre su


conmutatividad.

Introducción a órdenes parciales matriciales


Capítulo 3. 48

Teorema 3.2 Sean A, B ∈ Cn×n matrices


 EPno nulas expresadas como en (3.1) y
X Y
(3.2), respectivamente. Si UA∗ UB =  , con X ∈ Ca×b , Y ∈ Ca×(n−b) , Z ∈
Z T
C(n−a)×b y T ∈ C(n−a)×(n−b) , entonces las siguientes afirmaciones son equivalentes:

(a) AB = BA.

(b) (X ∗ CA X) CB = CB (X ∗ CA X), X ∗ CA Y = O, Y ∗ CA X = O.

(c) CA (XCB X ∗ ) = (XCB X ∗ )CA , ZCB X ∗ = O, XCB Z ∗ = O.

Demostración. (a) ⇔ (b) Sustituyendo las respectivas descomposiciones de A


y B en (a) y reemplazando UA∗ UB por
 
X Y
 
Z T

se obtiene UA (CA XCB ⊕ O)UB∗ = UB (CB X ∗ CA ⊕ O)UA∗ . Multiplicando a izquier-


da por UB∗ y a derecha por UB ambos miembros de la igualdad y reemplazando
nuevamente UA∗ UB por su descomposición en bloques se tiene
   
X ∗ CA XCB O C B X ∗ CA X CB X ∗ CA Y
 = ,
Y ∗ CA XCB O O O

que es equivalente a

X ∗ CA XCB = CB X ∗ CA X, X ∗ CA Y = O y Y ∗ CA X = O

por ser CA y CB matrices no singulares. 


X Y
(a) ⇔ (c) Sustituyendo UB = UA   en la descomposición de B se
Z T
obtiene  
∗ ∗
XCB X XCB Z
B = UA   UA∗ .
∗ ∗
ZCB X ZCB Z
Reemplazando en AB = BA se obtiene
   
∗ ∗ ∗
C XCB X CA XCB Z XCB X CA O
 A = 

O O ZCB X CA O

que es claramente equivalente a la condición (c). 

Introducción a órdenes parciales matriciales


Capítulo 3. 49

Teorema 3.3 Sea A ∈ Cn×n una matriz no nula. Las siguientes afirmaciones son
equivalentes:

(a) A es EP (expresada como en (3.1)).

(b) Existen una matriz no singular T ∈ C(n−a)×(n−a) y una matriz arbitraria Z ∈


C(n−a)×a tales que A = A∗ Q, donde
 
∗ −1
(CA ) CA O
Q = UA   UA∗ .
Z T

(c) Existen una matriz no singular T ∈ C(n−a)×(n−a) y una matriz arbitraria Z ∈


C(n−a)×a tales que A = A† Q, donde
 
CA2 O
Q = UA   UA∗ .
Z T

Demostración. (a) ⇒ (b) Como A es una matriz EP , por (EP2) existe una ma-
triz no singular Q ∈ Cn×n tal que A = A∗ Q. Se considera la siguiente descomposición
de Q:  
X Y
Q = UA   UA∗ ,
Z T
donde la partición se realiza de acuerdo al tamaño de los bloques de A. Reempla-
zando en A = A∗ Q se obtiene
   
∗ ∗
C X CA Y C O
 A = A ,
O O O O

es decir, X = (CA∗ )−1 CA e Y = O. Luego


 
∗ −1
(CA ) CA O
Q = UA   UA∗ .
Z T

La no singularidad de T se deriva de la no singularidad de Q.


(b) ⇒ (a) Si existe una matriz no singular Q tal que A = A∗ Q entonces A y A∗
son equivalentes por columnas, esto es, R(A) = R(A∗ ), por lo tanto A es EP por
(EP2).

Introducción a órdenes parciales matriciales


Capítulo 3. 50

(a) ⇔ (c) La demostración es similar a la prueba de la equivalencia anterior


teniendo en cuenta que R(A† ) = R(A∗ ). 

El siguiente resultado es similar al del Teorema 3.3 y se puede demostrar en


forma análoga al mismo.

Teorema 3.4 Sea A ∈ Cn×n una matriz no nula. Entonces las siguientes afirma-
ciones son equivalentes:

(a) A es EP (expresada como en (3.1)).

(b) Existen una matriz no singular T ∈ C(n−a)×(n−a) y una matriz arbitraria Y ∈


Ca×(n−a) tales que A = P A∗ , donde
 
CA (CA∗ )−1 Y
P = UA   UA∗ .
O T

(c) Existen una matriz no singular T ∈ C(n−a)×(n−a) y una matriz arbitraria Y ∈


Ca×(n−a) tales que A = P A† , donde
 
C2 Y
P = UA  A  UA∗
O T

Demostración. La demostración es similar a la del Teorema 3.3 considerando


que A y B son equivalentes por filas si y sólo si N(A) = N(B) y usando la propiedad
N(A∗ ) = N(A† ). 

3.3. Orden parcial estrella en el conjunto de matri-


ces EP
En la primera parte de esta sección se muestran algunas caracterizaciones del
orden parcial estrella sobre el conjunto de matrices EP . Recordar que dadas dos
matrices A, B ∈ Cm×n se tiene que A ≤∗ B si y sólo si se satisface alguna de las
siguientes afirmaciones equivalentes:

Introducción a órdenes parciales matriciales


Capítulo 3. 51

(OE1) A∗ A = A∗ B y AA∗ = BA∗ .

(OE2) A† A = A† B y AA† = BA† .

(OE3) A† A = B † A y AA† = AB † .

(Demostrar la equivalencia con la última afirmación). En este caso, las matrices


A∗ B, BA∗ , A† B y BA† son hermíticas. Además, si B = O entonces A = O.
En el resto de esta sección se caracterizan los predecesores y sucesores de una
matriz EP dada y se muestran descomposiciones de dichas matrices cuando ambas
son EP .

De los Teoremas 3.3 y 3.4 se deriva la siguiente observación.

Observación 3.1 Sean A, B ∈ Cn×n tales que A es una matriz EP no nula y


A ≤∗ B. Entonces existen matrices no singulares P, Q ∈ Cn×n tales que las siguientes
afirmaciones son válidas:

(a) A∗ (A∗ Q − B) = O.

(b) (A∗ Q − B)A∗ = O.

(c) A∗ (P A∗ − B) = O.

(d) (P A∗ − B)A∗ = O.

Notar que bajo las mismas hipótesis los apartados (a)-(d) también se satisfacen si
se reemplaza ∗ por †.

En el siguiente resultado se caracterizan los predecesores de una matriz EP


considerando el orden parcial estrella.

Teorema 3.5 Sean A, B ∈ Cn×n tales que B es una matriz EP no nula. Si B se


representa como en (3.2) entonces las siguientes afirmaciones son equivalentes:

(a) A ≤∗ B.

(b) Existe X ∈ Cb×b tal que


A = UB (X ⊕ O)UB∗ , (3.3)

con X ≤∗ CB .

Introducción a órdenes parciales matriciales


Capítulo 3. 52

Demostración. (a) ⇒ (b) Sea B = UB (CB ⊕ O)UB∗ , donde UB ∈ Cn×n es


unitaria, CB ∈ Cb×b es no singular y se considera la siguiente descomposición de A:
 
X Y
A = UB   UB∗
Z T

donde la partición se ha realizado conforme al tamaño de los bloques de B. Entonces


 
∗ ∗ ∗ ∗
X X +Z Z X Y +Z T
A∗ A = UB   UB∗
∗ ∗ ∗ ∗
Y X +T Z Y Y +T T

y  

X CB O
A∗ B = UB   UB∗ .

Y CB O
La igualdad A∗ A = A∗ B es equivalente a la validez de las siguientes cuatro condicio-
nes X ∗ X + Z ∗ Z = X ∗ CB , X ∗ Y + Z ∗ T = O, Y ∗ X + T ∗ Z = Y ∗ CB e Y ∗ Y + T ∗ T = O.
La última igualdad puede expresarse como
 ∗  
Y Y
   =O
T T
 
que es equivalente a Y T = O, es decir, Y = O y T = O. Realizando un
cálculo similar, de AA∗ = BA∗ se obtiene XX ∗ = CB X ∗ y Z = O. Por lo tanto,
A = UB (X ⊕ O)UB∗ con X ≤∗ CB .
(b) ⇒ (a) Se puede demostrar fácilmente realizando los productos correspon-
dientes. 

En general, si B es una matriz EP y A ≤∗ B, entonces A no es necesariamente


una matriz EP (ver los ejercicios).
El siguiente resultado caracteriza los predecesores EP de una matriz EP dada.

Teorema 3.6 Sean A, B ∈ Cn×n tales que B es una matriz EP no nula y A ≤∗ B.


Bajo las descomposiciones de A y B dadas en (3.3) y (3.2), respectivamente, las
siguientes afirmaciones son equivalentes:

(a) A es una matriz EP .

Introducción a órdenes parciales matriciales


Capítulo 3. 53

(b) XCB = CB X.

(c) X † CB = CB X † .

(d) X(X ∗ − CB ) = CB (X ∗ − X).

(e) (X ∗ − CB )X = (X ∗ − X)CB .

(f) X es una matriz EP .

Demostración. Considerando B expresada como en (3.2), por el Teorema 3.5,


existe X ∈ Cb×b tal que A = UB (X ⊕ O)UB∗ , con X ≤∗ CB .
(a) ⇔ (b) Como A ≤∗ B, por (OE3) y (EP5) se tiene que A es EP si y sólo
si A y B † conmutan. Así, reemplazando las respectivas descomposiciones de A y
B en AB † = B † A, usando que UB es unitaria y que CB† = CB−1 , se obtiene que
XCB = CB X.
De forma similar, las equivalencias (a) ⇔ (c), (b) ⇔ (d), (b) ⇔ (e) y (c) ⇔ (f)
se pueden demostrar usando (OE1) y (OE2). 

Observación 3.2 Si se satisface alguna de las afirmaciones equivalentes (a)-(f) del


Teorema 3.6, entonces:

X = XCB X † y X ∗ = X ∗ CB X † = CB∗ XX † = CB∗ X † CB = CB∗ CB X † .

Corolario 3.1 Sean A, B ∈ Cn×n tales que B es una matriz EP y A ≤∗ B. Enton-


ces las siguientes afirmaciones son equivalentes:

(a) A es una matriz EP .

(b) AB = BA.

(c) A(A∗ − B) = B(A∗ − A).

(d) (A∗ − B)A = (A∗ − A)B.

El siguiente teorema muestra un resultado similar al del Teorema 3.5, pero ahora
cuando el predecesor es una matriz EP .

Introducción a órdenes parciales matriciales


Capítulo 3. 54

Teorema 3.7 Sean A, B ∈ Cn×n tales que A es una matriz EP no nula expresada
como en (3.1). Las siguientes afirmaciones son equivalentes:

(a) A ≤∗ B.

(b) Existe T ∈ C(n−a)×(n−a) tal que

B = UA (CA ⊕ T )UA∗ . (3.4)

Demostración. (a) ⇒ (b) Se considera A = UA (CA ⊕ O)UA∗ como en (3.1) y la


siguiente descomposición de B:
 
X Y
B = UA   UA∗
Z T

donde la partición se realiza de acuerdo al tamaño de los bloques de A.


Reemplazando las respectivas descomposiciones de A y B en AA∗ = BA∗ y A∗ A =
A∗ B se obtiene que X = CA , Y = O y Z = O. Es decir, B = UA (CA ⊕ T )UA∗ .
(b) ⇒ (a) Utilizando las descomposiciones mencionadas para A y B y realizando
los cálculos correspondientes se puede comprobar que AA∗ = BA∗ y A∗ A = A∗ B. 

De forma similar a lo expresado anteriormente, si A es una matriz EP y A ≤∗ B,


entonces B no necesariamente es EP (ver los ejercicios).
En el siguiente teorema se caracterizan los sucesores EP de una matriz EP dada.

Teorema 3.8 Sean A, B ∈ Cn×n no nulas tales que A ≤∗ B, A es una matriz


EP representada como en (3.1) y se considera a B expresada como en (3.4). Las
siguientes afirmaciones son equivalentes:

(a) B es una matriz EP .

(b) T es una matriz EP .

(c) B(A† − B † ) = (A† − B † )B.

(d) B † (A − B) = (A − B)B † .

Introducción a órdenes parciales matriciales


Capítulo 3. 55

Demostración. Recordar que si W ∈ Cn×n , T ∈ Cs×s y U, V ∈ C(n+s)×(n+s) ,


con U y V matrices unitarias, entonces

(U (W ⊕ T )V )† = V ∗ (W † ⊕ T † )U ∗ . (3.5)

Sean A = UA (CA ⊕ O)UA∗ y B = UA (CA ⊕ T )UA∗ como en (3.1) y (3.4), respecti-


vamente.
(a) ⇔ (b) Utilizando la propiedad 3.5 se tiene que B † = UA (CA−1 ⊕ T † )UA∗ . Por
(EP5), B es una matriz EP si y sólo si T también es EP .
(a) ⇒ (c) Usando (OE2) y (EP5) se obtiene B(A† − B † ) = BA† − BB † =
A† B − B † B = (A† − B † )B.
(c) ⇒ (a) Como A ≤∗ B y A es una matriz EP , por (OE2) resulta que A† y B
conmutan, entonces de (c) se obtiene BB † = B † B, esto es, B es una matriz EP .
(a) ⇔ (d) Como A ≤∗ B y A es una matriz EP , por (OE3) resulta que A y B †
conmutan. Luego, usando (EP5) se obtiene que el apartado (d) es equivalente a la
condición BB † = B † B. 

Observación 3.3 Sean A, B ∈ Cn×n tales que AB = BA. Las siguientes afirma-
ciones son equivalentes:

(a) A ≤∗ B.

(b) A(A∗ − B) = B(A∗ − A) y (A∗ − B)A = (A∗ − A)B.

Observación 3.4 Sean A, B ∈ Cn×n tales que A ≤∗ B y A es una matriz EP . Por


el Teorema 3.1 se obtiene que A y B conmutan (verificarlo). De esta manera, se
satisfacen las siguientes propiedades:

(a) A(A∗ − B) = B(A∗ − A).

(b) (A∗ − B)A = (A∗ − A)B.

(c) BA† = A† A.

(d) A(A† − B † ) = (A† − B † )A.

(e) A† (A − B) = (A − B)A† .

Introducción a órdenes parciales matriciales


Capítulo 3. 56

El siguiente resultado generaliza el Teorema 2.1 de Merikoski y Liu dado en [13].

Teorema 3.9 Sean A, B ∈ Cn×n matrices EP no nulas. Entonces las siguientes


afirmaciones son equivalentes:

(a) A ≤∗ B.

(b) Existe una matriz unitaria V ∈ Cn×n tal que

A = V (C ⊕ O ⊕ O)V ∗ , B = V (C ⊕ T ⊕ O)V ∗ ,

donde C ∈ Ca×a es no singular y T ∈ C(b−a)×(b−a) es no singular o no está


presente.

Demostración. (a)⇒(b) Sea B = UB (CB ⊕O)UB∗ como en (3.2). Por el Teorema


3.5, existe X ∈ Cb×b tal que A = UB (X ⊕ O)UB∗ con X ≤∗ CB . Como A es no nula
es claro que X también lo es. Por el Teorema 3.6, X es una matriz EP , entonces se
puede considerar X = UX (CX ⊕ O)UX∗ , donde UX ∈ Cb×b es unitaria y CX ∈ Ca×a es
una matriz no singular. Como X ≤∗ CB , por el Teorema 3.7 existe T ∈ C(b−a)×(b−a)
tal que CB = UX (CX ⊕ T )UX∗ . Por lo tanto, T es una matriz no singular cuando
b > a. Tomando C = CX , se obtiene B = V (C ⊕ T ⊕ O)V ∗ , donde V = UB (UX ⊕ I)
es una matriz unitaria. Mediante un cálculo similar se obtiene A = V (C ⊕O ⊕O)V ∗ .
(b) ⇒ (a) Se puede demostrar fácilmente que se satisface (OE2). 

Observación 3.5 Cuando el Teorema 3.9 se restringe a matrices normales (respec-


tivamente, hermíticas), los bloques C y T son matrices normales (respectivamente,
hermíticas), obteniéndose de esta manera los resultados de Merikoski y Liu de [13].

Introducción a órdenes parciales matriciales


Capítulo 3. 57

3.4. Proyector espectral asociado al valor propio nu-


lo de matrices EP
Se recuerda que el índice de una matriz A ∈ Cn×n , denotado por ı́nd(A), es el
menor entero no negativo k tal que satisface alguna de las afirmaciones equivalen-
tes: rg(Ak+1 ) = rg(Ak ), R(Ak+1 ) = R(Ak ), o N(Ak+1 ) = N(Ak ). Las matrices no
singulares tienen índice igual a cero y la matriz nula tiene índice igual a uno.
Se sabe que para toda matriz cuadrada A ∈ Cn de índice k, los subespacios R(Ak )
y N(Ak ) son complementarios. El proyector espectral correspondiente al valor propio
nulo, Aπ , es la única matriz idempotente que verifica

R(Aπ ) = N (Ak ) y N(Aπ ) = R(Ak ).

Como AAD es un proyector tal que R(AAD ) = R(Ak ) y N(AAD ) = N(Ak ) entonces
se tiene que I −AAD = Aπ . En particular, si la matriz A es EP entonces Aπ se puede
calcular reemplazando la inversa de Drazin por la inversa de grupo o la inversa de
Moore-Penrose: Aπ = I − AA# = I − AA† .
Recordar que para toda matriz A ∈ Cn de índice k, la inversa de Drazin, AD ,
es la única matriz que satisface las condiciones AD AAD = AD , AAD = AD A y
Ak+1 AD = Ak . En particular, si A tiene índice a lo sumo 1, la inversa de Drazin
coincide con la inversa de grupo de A, denotada por A# , que es la única matriz que
satisface AA# A = A, A# AA# = A# y AA# = A# A.

El propósito de esta sección es comenzar a estudiar el proyector espectral corres-


pondiente al valor propio nulo de una matriz EP y su relación con el orden parcial
estrella.

En el siguiente lema se listan algunos resultados conocidos en la literatura nece-


sarios para lo que sigue.

Lema 3.1 [5, 4] Sea A ∈ Cn , ı́nd(A) ≤ 1. Las siguientes afirmaciones son válidas:

(a) Aπ es idempotente.

(b) AAπ = Aπ A = A# Aπ = Aπ A# = O.

Introducción a órdenes parciales matriciales


Capítulo 3. 58

(c) Aπ = O si y sólo si A es no singular.

(d) Si ı́nd(A) = 1 y rg(A) = a > 0 entonces existen matrices no singulares C ∈


Ca×a y P ∈ Cn×n tales que

A = P (C ⊕ O)P −1 . (3.6)

En este caso, A# = P (C −1 ⊕ O)P −1 y Aπ = P (O ⊕ In−a )P −1 .

(e) Si Aπ es no singular entonces A = O. Recíprocamente, si A = O entonces


Aπ = In .

(f) Aπ tiene índice a lo sumo 1.

(g) (Aπ )π = O si y sólo si A = O.

(h) rg(Aπ ) = n − rg(A).

Sea EP el conjunto de todas las matrices cuadradas complejas EP de tamaño


n × n. Se sabe que si A ∈ EP entonces ı́nd(A) ≤ 1.

Lema 3.2 Sea A ∈ Cn , ı́nd(A) ≤ 1.

(a) Si A ∈ EP entonces Aπ es hermítica.

(b) Si Aπ ∈ EP entonces A ∈ EP.

Demostración. (a) Sigue directamente de la propiedad (AA† )∗ = AA† .


(b) Por el apartado (c) del Lema 3.1, si Aπ = O entonces A es no singular,
por lo tanto, A ∈ EP. Si Aπ es una matriz EP no nula, por (EP4) existe una
matriz unitaria U ∈ Cn×n y una matriz no singular C ∈ C(n−a)×(n−a) tales que
Aπ = U (C ⊕ O)U ∗ . Como Aπ es idempotente, se obtiene C 2 = C, esto es C = In−a .
De A# A = AA# = In − Aπ se tiene que AA# = U (O ⊕ Ia )U ∗ . Considerando la
siguiente descomposición de A:
 
X Y
A=U  U ∗,
Z T

donde las particiones se han realizado conforme al tamaño de los bloques de Aπ , de


A = (AA# )A se obtiene X = O, Y = O. De forma similar, de A = A(A# A) se

Introducción a órdenes parciales matriciales


Capítulo 3. 59

obtiene Z = O. Por lo tanto A = U (O ⊕ T )U ∗ y así AA# = U (O ⊕ T T # )U ∗ , de


donde resulta T T # = Ia . Luego, T es no singular y A es EP . 

Notar que si Aπ es EP entonces A puede no ser hermítica (es suficiente considerar


una matriz A, no singular y no hermítica).

Sea f la función matricial en el conjunto de matrices cuadradas de índice a lo


sumo 1 definida por f (A) = Aπ para cada A ∈ Cn , ı́nd(A) ≤ 1. Por el Lema
3.1, f está bien definida y f (f (O)) = O. Sin embargo, en general, f (f (A)) 6= A.
Por ejemplo, si se considera la matriz A = diag(2, 0), entonces A# = diag(1/2, 0),
Aπ = diag(0, 1) = (Aπ )# y f (f (A)) = diag(1, 0).
Por el Lema 3.1, se tiene que f (f (A)) = O si y sólo si A = O. Además, f (f (A)) =
In si y sólo si A es no singular.

Lema 3.3 Sea f la función previamente definida y A ∈ Cn , ı́nd(A) = 1, una matriz


no nula representada como en (3.6). Entonces f (f (A)) = A si y sólo si C = Ia .

Demostración. Por el Lema 3.1 (d), se tiene que AA# = P (Ia ⊕ O)P −1 y f (A) =
P (O ⊕ In−a )P −1 . Como f (A)# = f (A) entonces f (f (A)) = P (Ia ⊕ O)P −1 . Luego,
se satisface que f (f (A)) = A si y sólo si C = Ia . 

Recordar que una matriz cuadrada P ∈ Cn×n es un proyector si y sólo si es


idempotente, es decir, P 2 = P ; y es un proyector ortogonal si también satisface
P ∗ = P . Además, una caracterización que se utiliza en este trabajo es la siguiente:
P es un proyector ortogonal si y sólo si existe una matriz unitaria U ∈ Cn×n tal que

P = U (Ir ⊕ O)U ∗ ,

con r = rg(P ). Con POn se denota el conjunto de todos los proyectores ortogonales
de tamaño n × n.

Observación 3.6 Sea A ∈ EP. Entonces f (f (A)) = A si y sólo si A es un proyector


ortogonal.

Introducción a órdenes parciales matriciales


Capítulo 3. 60

Por el Lema 3.2 (a), es claro que f (EP) ⊆ EP, pero en general no se cumple
la igualdad como se puede mostrar mediante la matriz A = diag(2, 0). Se supone
que existe M ∈ C2×2 ∩ EP tal que A = f (M ). Por el Lema 3.1 (h), rg(M ) = 1. Si
M = U diag(c, 0)U ∗ , con U ∈ C2×2 una matriz unitaria y c un número complejo no
nulo, es fácil ver que f (M ) = U diag(0, 1)U ∗ , lo cual es una contradicción porque
/ σ(f (M )). Por lo tanto, EP 6⊆ f (EP).
2 ∈ σ(A) y 2 ∈

Sea g : EP −→ EP la restricción de la función f al conjunto EP. Por el Lema


3.2 (a), g está bien definida. Es claro que g no es sobreyectiva; además, g no es
inyectiva como lo muestran las matrices A, B ∈ Cn×n tales que A = diag(2, 0, ..., 0)
y B = diag(3, 0, ..., 0)).
El siguiente lema caracteriza el intervalo

[O, g(A)] = {B ∈ Cn ,ı́nd(B) ≤ 1 : O ≤∗ B ≤∗ g(A)},

donde A ∈ Cn×n es una matriz EP .

Lema 3.4 Sea A ∈ Cn×n una matriz EP . Entonces

[O, g(A)] = {U (O ⊕ T )U ∗ : U es unitaria y T ∈ POn−a } ⊆ POn .

Demostración. Sea A = O. Por el Lema 3.1 (e) se tiene que g(A) = In . Si B ∈ Cn×n
es tal que B ≤∗ g(A), entonces tomando U = In y T = B se tiene que B ∈ POn
pues B = B ∗ = B 2 .
Sea A 6= O. Por ser A una matriz EP se puede expresar como en (3.1), A =
UA (CA ⊕ O)UA∗ , con UA ∈ Cn×n unitaria y CA ∈ Ca×a no singular, entonces f (A) =
UA (O ⊕ In−a )UA∗ . Sea B ∈ Cn×n tal que B ≤∗ g(A). Luego, B = UA (O ⊕ T )UA∗ ,
donde T ≤∗ In−a , esto es, T = T ∗ = T 2 . 

Teorema 3.10 La función g definida arriba es monótona decreciente.

Demostración. Sean A, B ∈ Cn×n matrices EP tales que A ≤∗ B. Entonces se


tiene que

AA† BB † = ABA† B † = BAA† B † = BA† AB † = BB † AB † = BB † AA†

Introducción a órdenes parciales matriciales


Capítulo 3. 61

y
BB † AA† = BA† AA† = BA† = AA† .

Estas últimas igualdades son equivalentes a g(B) = g(B)g(A) y g(B) = g(A)g(B).


Por lo tanto, g(B) ≤∗ g(A). 

Las matrices A = diag(1, 0, ..., 0) y B = diag(2, 0, ..., 0) son matrices EP que


satisfacen g(A) ≤∗ g(B) pero B ∗ A. Se puede establecer el siguiente resultado
para una subclase importante de matrices.

Teorema 3.11 Sean A, B ∈ POn . Si g(B) ≤∗ g(A) entonces A ≤∗ B.

Demostración. El teorema se puede demostrar aplicando el Teorema 3.10 y la Ob-


servación 3.6. 

Introducción a órdenes parciales matriciales


Capítulo 3. 62

3.5. Ejercicios
(1) Demostrar que toda matriz normal es EP . Comprobar que la matriz
 
1 i
A= 
i 0

es EP pero no es normal.

(2) Hallar todas las matrices A ∈ C3×3 que sean EP y tales que A ≤∗ B para
 
1 i 0
 
B=
 i 0 0 .

0 0 0

(3) Dada la matriz


 
1 i 0
 
 i 0 0 ,
A= 

0 0 0
hallar todas las matrices B ∈ C3×3 tales que A ≤∗ B.

(4) Sean A, B ∈ Cm×n tales que A ≤∗ B. Probar que A† ≤∗ B † .

(5) Sean A, B ∈ Cn×n tales que A ≤∗ B. Demostrar que las siguientes afirmaciones
son equivalentes:

(a) A es EP .

(b) A† y B conmutan.

(c) A y B † conmutan.

(6) Sean A, B ∈ Cn×n tales que A ≤∗ B. Demostrar que las siguientes afirmaciones
son equivalentes:

(a) A es normal.

(b) A∗ y B conmutan.

(c) A y B ∗ conmutan.

Introducción a órdenes parciales matriciales


Capítulo 3. 63

(7) Mostrar que las siguientes matrices satisfacen que A ≤∗ B y B es EP pero que
A no es EP .
   
1 1 1 1
A=  y B= .
0 0 1 −1

(8) Mostrar que las siguientes matrices satisfacen que A ≤∗ B y A es una matriz
EP pero B no lo es.
   
1 0 0 1 0 0
   
A=
 0 0 0 
 y B=
 0 1 1 .

0 0 0 0 0 0

 
1 i 0
 
(9) Sea C = 
 i 0 0 .

0 0 0

(a) Encontrar todas las matrices A que sean EP y satisfagan A ≤∗ C.

(b) Encontrar todas las matrices B tales que C ≤∗ B.

Introducción a órdenes parciales matriciales


Apéndice

El siguiente resultado proporciona la condición necesaria y suficiente para que


dos matrices hermíticas sean unitariamente diagonalizables de forma simultánea.

Teorema 1 Sean A, B ∈ Cn×n matrices hermíticas. Las siguientes condiciones son


equivalentes:

(a) Existen una matriz unitaria U ∈ Cn×n y dos matrices diagonales DA , DB ∈ Rn×n
tales que
A = U DA U ∗ y B = U DB U ∗ .

(b) AB = BA.

Demostración. (a) =⇒ (b) Reemplazando A y B por las expresiones de la hipótesis


se tiene que:

AB = (U DA U ∗ )(U DB U ∗ ) = U DA DB U ∗ = U DB DA U ∗ = (U DB U ∗ )(U DA U ∗ ) = BA.

(b) =⇒ (a) Como A∗ = A, existe una matriz unitaria U1 ∈ Cn×n tal que
 
λ1 Is O
A = U1   U1∗ ,
O D

con λ1 ∈ σ(A) − σ(D) y D ∈ R(n−s)×(n−s) una matriz diagonal.


Se particiona  
W X
B = U1   U1∗ ,
Y Z

con W ∈ Cs×s y Z ∈ C(n−s)×(n−s) . Suponiendo que AB = BA se tiene


     
λI O W X W X λI O
 1 s  =  1 s 
O D Y Z Y Z O D

64
Capítulo 3. 65

lo que equivale a    
λ1 W λ1 X λ1 W XD
 = ,
DY DZ λ1 Y ZD
es decir

(1) λ1 X = XD, (2) DY = λ1 Y y (3) DZ = ZD.

De (2) y teniendo en cuenta que λ1 ∈


/ σ(D) debe ser Y = O. De manera similar, de
(1) y puesto que λ1 ∈
/ σ(D) debe ser X = O. Luego,
 
W O
B = U1   U1∗ ,
O Z

con DZ = ZD.
Como B es hermítica, se tiene que
 
W O
B1 := U1∗ BU1 =  
O Z

también lo es. En consecuencia, W ∗ = W y Z ∗ = Z. Por lo tanto, W y Z son


unitariamente diagonalizables, es decir existen matrices unitarias Q ∈ Cs×s y T ∈
C(n−s)×(n−s) y matrices diagonales DW ∈ Cs×s y DZ ∈ C(n−s)×(n−s) tales que

W = QDW Q∗ y Z = T DZ T ∗ .

Entonces
     ∗

QDW Q O Q O DW O Q O
B = U1   U1∗ = U1     U1∗ .

O T DZ T O T O DZ O T

Denotando  
Q O
R := U1  
O T
se tiene que  
DW O
B = R  R∗
O DZ
y
 
λ1 Is O
A = U1   U1∗
O D

Introducción a órdenes parciales matriciales


Capítulo 3. 66

   ∗
Q O Q∗ (λ1 Is )Q O Q O
= U1     U1∗

O T O T DT O T
 
λ1 Is O
= R  R∗ .

O T DT

De este modo, el problema se ha deflaccionado, es decir se ha reducido a uno similar


de tamaño menor. Ahora A2 := T ∗ DT y B2 := DZ son matrices hermiíticas de ta-
maño (n−1)×(n−1) que conmutan pues DZ = ZD. Tras realizar un razonamiento
similar para todos los valores propios de A se obtiene el resultado. 

El siguiente resultado es semejante al anterior, extendido ahora al caso de matri-


ces rectangulares, es decir, permite realizar una transformación de ejes principales
para matrices no hermíticas.

Teorema 2 Sean A, B ∈ Cm×n . Las siguientes condiciones son equivalentes:

(a) Existen dos matrices unitarias U ∈ Cm×m y V ∈ Cn×n tales que

A = U DA V ∗ y B = U DB V ∗ .

con DA , DB ∈ Rm×n matrices (rectangulares) diagonales y DA con elementos no


negativos en la diagonal.

(b) AB ∗ y B ∗ A son hermíticas.

Demostración. (a) =⇒ (b) Reemplazando las expresiones de A y B por las de la


hipótesis se tiene que:

AB ∗ = (U DA V ∗ )(U DB V ∗ )∗ = (U DA V ∗ )(V DB
∗ ∗ ∗ ∗
U ) = U D A DB U

que es hermítica puesto (AB ∗ )∗ = U (DA DB


∗ ∗ ∗ ∗
) U y DA DB lo es (Comprobarlo como
ejercicio). De forma semejante se demuestra que B ∗ A es hermítica. Se observa que
AB ∗ ∈ Cm×m , B ∗ A ∈ Cn×n , DA DB
∗ ∗
∈ Cm×m y DB DA ∈ Cn×n .
(b) =⇒ (a) Se considera una descomposición en valores singulares de A, es decir,
 
D O
U1∗ AV1 =  
O O

Introducción a órdenes parciales matriciales


Capítulo 3. 67

con U1 ∈ Cm×m y V1 ∈ Cn×n unitarias y D ∈ Rr×r una matriz diagonal definida


positiva.
Sea  
G K
U1∗ BV1 =  
L H
una partición acorde a los tamaños de los bloques de U1∗ AV1 . Ahora, de
 
∗ ∗
DG DL
AB ∗ = U1   U1∗
O O

y del hecho que AB ∗ es hermítica se tiene que DG∗ es hermítica y L = O pues D


es invertible. Análogamente, usando que B ∗ A es hermítica se llega a que G∗ D es
hermítica y K = O.
Sean G = [gij ]ri,j=1 y D = diag(d1 , . . . , dr ). Usando que DG∗ es hermítica se
obtiene
di gji = dj gij .

Del hecho que G∗ D es hermítica se llega a

dj gji = di gij .

(Comprobar los cálculos anteriores como ejercicio). Operando se consigue

(d2j − d2i )gij = 0, ∀i, j.

Si di = dj , se llega a gji = gij . Si di 6= dj , se llega a gij = 0. En ambos casos, gji = gij ,


para todo i, j, con lo cual G es hermítica.
Por lo tanto, como G y D son dos matrices hermíticas que conmutan, se tiene
que existe una matriz unitaria P ∈ Cr×r tal que

P ∗ DP = D1 y P ∗ GP = M,

con D1 y M matrices diagonales con elementos reales en la diagonal.


Realizando una descomposición en valores singulares a H se llega a

Q∗ HR = N

con N diagonal con elementos diagonales reales y Q y R unitarias.

Introducción a órdenes parciales matriciales


Capítulo 3. 68

Definiendo ahora,
   
P O P O
U2 :=  , V2 :=  , U := U1 U2 y V := V1 V2
O Q O R

se obtiene
   
D1 O M O
U ∗ AV =   y U ∗ BV =  .
O O O N

(Comprobarlo como ejercicio). 

Por último, el resultado que sigue caracteriza el hecho de que dos matrices del
mismo tamaño tengan una descomposición en valores singulares de forma simultá-
nea.

Teorema 3 Sean A, B ∈ Cm×n . Las siguientes condiciones son equivalentes:

(a) Existen dos matrices unitarias U ∈ Cm×m y V ∈ Cn×n tales que

A = U D1 V ∗ y B = U D2 V ∗

con D1 , D2 ∈ Rm×n matrices (rectangulares) diagonales con elementos no nega-


tivos en la diagonal.

(b) AB ∗ y B ∗ A son hermíticas y al menos una de ellas definida no negativa.

Demostración. (a) =⇒ (b) Esta implicación se prueba con un razonamiento pa-


recido al utilizado en la demostración de (a) =⇒ (b) del Teorema 2. En realidad,
se puede probar no sólo que AB ∗ y B ∗ A son hermíticas y al menos una de ellas es
definida no negativa sino que las dos lo son.
(b) =⇒ (a) Como AB ∗ y A∗ B son hermíticas, del Teorema 2 se tiene que existen
dos matrices unitarias W ∈ Cm×m y V ∈ Cn×n tales que

A = W DA V ∗ y B = W DB V ∗ .

con DA , DB ∈ Rm×n matrices (rectangulares) diagonales y DA con elementos no


negativos en la diagonal. Por ser, por ejemplo, AB ∗ definida no negativa, se tiene
que
AB ∗ = W DA V ∗ (W DB V ∗ )∗ = W DA DB

W∗

Introducción a órdenes parciales matriciales


Capítulo 3. 69

T
y por tanto DA DB es hermítica y definida no negativa. Por ser DA y DB matrices
T
diagonales, claramente también se cumple que DB DA es hermítica y definida no ne-
gativa. Luego, un elemento diagonal de DA es negativo si y sólo si el corresponidente
elemento de la diagonal de DB es negativo. Si el i-ésimo elemento de la diagonal
de DA fuese no negativo, reemplazar la i-ésima columna de W denotada por wi por
el vector −wi y los elementos diagonales de DA y DB por sus respectivos opuestos.
Se repite este razonamiento para todos los elementos diagonales negativos de DA y
se llaman U , D1 y D2 a las matrices obtenidas de W , DA y DB , rrespectivamente.
Entonces
A = U D1 V ∗ y B = U D2 V ∗ ,

con U y V unitarias y D1 y D2 diagonales no negativas. 

Introducción a órdenes parciales matriciales


Índice alfabético

Índice de una matriz, 6

Descomposición en valores singulares, 12


de forma simultánea, 68

Factorización de rango completo, 8

Inversa
a derecha, 3
a izquierda, 3
de Drazin, 6, 57
de grupo, 5, 57
de Moore-Penrose, 5
de Moore-Penrose ponderada, 16
exterior, 5
interior, 4

Matriz EP , 45

Orden parcial
estrella, 41
menos, 31, 38

Preorden espacio, 24
Proyector, 59
ortogonal, 59
correspondiente al valor propio nulo,
57

Rango completo, 8

Traspuesta conjugada ponderada, 19

70
Bibliografía

[1] O.M. Baksalary, G.P.H. Styan, G. Trenkler. On a matrix decomposition of


Hartwig and Spindelböck. Linear Algebra and its Applications, 430, 2798–2812,
2009.

[2] R.B. Bapat. Linear Algebra and Linear Models. 2da Edición, Springer, 2000.

[3] A. Ben-Israel, T. Greville. Generalized inverses: theory and applications. Se-


gunda edición, Springer, Nueva York, 2003.

[4] N. Castro-González, J.J. Koliha, Y. Wei. Perturbation of the Drazin inverse for
matrices with equal eigenprojections at zero. Linear Algebra and its Applica-
tions, 312, 335-347, 2000.

[5] S.L. Campbell, C.D. Meyer. Generalized Inverse of Linear Transformations.


Dover, Nueva York, Segunda Edición, 1991.

[6] C. Eckart, G. Young. A principal axis transformation for non-hermitian matri-


ces. Bulletin of the American Mathematical Society, 45, 2, 118-121, 1939.

[7] R.A. Horn, C.R. Johnson. Matrix Analysis, Cambridge University Press, Cam-
bridge, 1985.

[8] A. Hernández. Órdenes parciales y pre-órdenes definidos a partir de matrices in-


verses generalizadas. Tesis doctoral, Universitat Politècnica de València, marzo
de 2016.

[9] A. Hernández, M. Lattanzi, N. Thome. On a partial order defined by the weigh-


ted Moore-Penrose inverse. Applied Mathematics and Computation, 219.14,
7310-7318, 2013.

71
Capítulo 3. 72

[10] A. Hernández, M. Lattanzi, N. Thome. Weighted binary relations involving the


Drazin inverse. Applied Mathematics and Computation, 253, 215-223, 2015.

[11] A. Hernández, M. Lattanzi, N. Thome, F. Urquiza. The star partial order and
the eigenprojection at 0 on EP matrices. Applied Mathematics and Compu-
tation, 218, 21, 10669-10678, 2012.

[12] C.D. Meyer. Matrix Analysis and Applied Linear Algebra, SIAM, Filadelfia,
2000.

[13] J. K. Merikoski, X. Liu. On the star partial ordering of normales matrices.


Journal of Inequalities in Pure and Applied Mathematics, 7, 1, Art. 17, 2006.

[14] S.K. Mitra, P. Bhimasankaram, S.B. Malik, Matrix partial orders, shorted ope-
rators and applications. World Scientific Publishing Company, 2010.

[15] S. Puntanen, G.P.H. Styan, J. Isotalo. Matrix tricks for linear statistical models,
Ed. Springer, Londres, 2011.

[16] C.R. Rao, S.K. Mitra. Generalized inverse of matrices and its applications. John
Wiley & Sons, Nueva York, 1971.

[17] G. Wang, Y. Wei, S. Qiao, Generalized Inverses: Theory and Computations,


Science Press, 2003.

[18] H. Yanai, K. Takeuchi, Y. Takane. Projection matrices, generalized inverses,


and singular value decomposition, Ed. Springer, Londres, 2011.

Introducción a órdenes parciales matriciales

You might also like