Professional Documents
Culture Documents
para el dominio de la
Ingeniera de los
Algoritmos Numricos
ISBN: 978-84-9160-826-4
www.editorialcirculorojo.com
info@editorialcirculorojo.com
Ninguna parte de esta obra puede ser reproducida por algn medio, sin el permiso expreso de
sus autores. Crculo Rojo no se hace responsable del contenido de la obra y/o las opiniones que el
autor manifieste en ella.
Dirjase a CEDRO (Centro Espaol de Derechos Reprogrficos) si necesita fotocopiar o escanear algn fragmento
de esta obra (www.conlicencia.com; 91 702 19 70 / 93 272 04 47).
El papel utilizado para imprimir este libro es 100% libre de cloro y, por tanto,
ecolgico.
A mi familia.
III
IV
ndice
Prefacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . IX
1 Conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
2 Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.1 Espacios vectoriales con estructuras adicionales . . . . . . . . . 9
2.1.1 Espacios normados y espacios mtricos . . . . . . . . 9
2.1.2 Espacios con producto interior . . . . . . . . . . . . 21
2.1.3 Espacios de Hilbert . . . . . . . . . . . . . . . . . . 21
2.1.4 Espacios de Lebesgue y espacios de Sobolev . . . . . 25
3 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.1 Normas de matrices . . . . . . . . . . . . . . . . . . . . . . . . 32
3.2 Matrices interesantes . . . . . . . . . . . . . . . . . . . . . . . 35
3.3 Valores propios, valores singulares y formas cuadrticas . . . . 39
3.3.1 Valores propios . . . . . . . . . . . . . . . . . . . . 39
3.3.2 Valores singulares . . . . . . . . . . . . . . . . . . . 45
3.4 Formas cuadrticas . . . . . . . . . . . . . . . . . . . . . . . . 48
4 Funciones, sucesiones y series de funciones . . . . . . . . . . . . . . 51
4.1 Derivada y diferenciabilidad . . . . . . . . . . . . . . . . . . . 53
4.1.1 Subgradiente y subdiferencial . . . . . . . . . . . . . 56
4.2 Integral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.3 Sucesiones de funciones, series funcionales y de potencias. Con-
vergencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.3.1 Convergencia puntual . . . . . . . . . . . . . . . . . 58
4.3.2 Convergencia uniforme . . . . . . . . . . . . . . . . 59
4.3.3 Series funcionales . . . . . . . . . . . . . . . . . . . 61
4.3.4 Series de potencias . . . . . . . . . . . . . . . . . . 61
4.4 Resultados importantes de anlisis funcional . . . . . . . . . . 62
5 Optimizacin y Programacin Matemtica . . . . . . . . . . . . . . 69
5.1 Condiciones necesarias y sucientes de existencia de un punto
mnimo de una funcin . . . . . . . . . . . . . . . . . . . . . . 69
5.2 Conjuntos convexos y geometra de la convexidad . . . . . . . 70
5.2.1 Conos apropiados y desigualdades generalizadas . . . 80
5.2.2 Elementos mnimos y minimales. Cono dual . . . . . 80
5.2.3 Hiperplano separador. Lema de Farkas . . . . . . . . 84
5.3 Caracterizacin de las soluciones del problema de optimizacin
y condiciones que cumple un punto ptimo . . . . . . . . . . . 90
V
VI j ndice
Bibliografa 225
E STE libro tiene que ver con el anlisis numrico, la computacin cientca e in-
genieril y los elementos de matemticas que yo entiendo son fundamentales para
entender una parte de sus porqus. Los componentes que se presentan se explican de
forma sucinta y directa con el objeto de poder poner en marcha, o analizar, herramien-
tas y mtodos numricos para modelizar y resolver problemas reales que surgen en las
ciencias y la ingeniera.
El contenido del libro complementa el programa de la asignatura Matemticas de
la EspecialidadIngeniera Elctrica, que desde hace varios aos dicto en la Escuela
Tcnica Superior de Ingenieros Industriales, de la Universidad Politcnica de Madrid,
en Espaa.
Todo el material bastante estndar que se expone en las pginas de este libro
es una sntesis muy densa de lo que este autor entiende puede ser una buena base para
consolidar (y consultar) unos fundamentos matemticos slidos de mucho de en lo que se
basan las tcnicas y algoritmos numricos que permiten, mediante el Clculo y Anlisis
Matemtico, y la Ingeniera de sus Mtodos Numricos, modelizar y simular la realidad
con la que ingenieros y cientcos se enfrentan a diario para poner sus conocimientos
al servicio de resolver los diversos problemas prcticos que acucian a la sociedad. La
experiencia del autor se reere a este respecto a algo tan amplio como la ingeniera
de los sistemas econmico-elctricos, aunque es extensible a otros muchos campos del
conocimiento y la ciencia aplicada. Esos puntos de vista deben ser ampliados en muchas
direcciones si se quieren construir otros edicios de conocimiento matemtico aplicado
a otras reas del saber prctico.
Los aspectos ms generales cubiertos en este libro son el anlisis matemtico y fun-
cional bsico, el lgebra matricial, la optimizacin matemtica de problemas lineales
y no lineales, la convexidad y dualidad de estos, elementos de clculo integral bsico,
campos escalares y vectoriales, los nmeros complejos y el clculo estocstico y la si-
mulacin numrica. Con el n de hacer mucho ms intuitiva la comprensin de cmo
funcionan las matemticas y los algoritmos detrs de muchos de los procedimientos y
mtodos que hoy en da estn presentes en los desarrollos del Big Data, la simulacin
y la optimizacin matemtica, y otras cada da ms extensas cuestiones de la econo-
ma digital con la que convivimos asiduamente, tambin se presentan el mtodo de los
elementos nitos para resolver ecuaciones en derivadas parciales, el anlisis de compo-
nentes principales, el anlisis y la transformada de Fourier, la transformada del coseno
para compresin de imgenes y vdeo y la transformada de Laplace.
Al nal del libro se listan quinientas ochenta y una referencias de las que he sacado
casi todo el conocimiento que utilizo sobre la temtica objeto del libro. Deberan ser
muchas ms pues hay muchos pequeos detalles que expongo que apenas consult unos
IX
X j Prefacio
minutos en algn libro, artculo o en Internet para retener la idea, el resultado, o el efecto
de un gura para resaltarlo. No me qued con el nombre del autor, el departamento o
departamentos universitarios que lo utilizan, o la editorial que lo public. Si omito por
error la resea o el trabajo correspondiente, ruego su clemencia a esos mis inspiradores.
El resultado que es materialmente este libro no habra sido posible sin el concurso,
inconsciente o perfectamente consciente, de muchas personas individuales y colectivas.
Me gustara mencionar aqu las contribuciones concretas de autores a los que he se-
guido fundamentalmente como Stephen Boyd, colega de la Universidad de Stanford,
David Nualart, Ignacio Villanueva, Timothy Sauer, David Luenberger, Francisco Javier
Sayas, David Aledo y Manuel Contreras. Tambin a mis compaeros del Departamento
de Ingeniera Matemtica de la Universidad Politcnica de Madrid. Sobre su esfuerzo me
han permitido aupar mis humildes conocimientos a hombros de los de ellos. Me gustara
tambin agradecer sus materiales e inmateriales aportaciones a todos mis alumnos de la
Escuela Tcnica Superior de Ingenieros Industriales de Madrid, de los que he aprendido
muchsimas cosas en mi tarea como profesor en la cotidianidad de las clases en las que
trato de transmitirles lo que creo es bueno para su formacin, adems del conocimiento
prctico sobre el que baso mis aportaciones.
La elaboracin del libro ha sido posible gracias al editor WinEdt y al software para
preparacin de documentos cientcos y tcnicos denominado LATEX. Este sistema y la
multitud de programas y aplicaciones que lo soportan y potencian es una maravilla de la
expresin tcnica digital moderna de la tipografa de siempre. Tambin quiero mencio-
nar, y agradecer, lo til que me ha sido W IKIPEDIA como fuente de inspiracin, material,
vericacin y conocimiento.
1 | Conjuntos
1DWXUDOHV
XQR
1DWXUDOHVSULPRV
(QWHURV
5DFLRQDOHV &HUR
1DWXUDOHV&RPSXHVWRV
&RPSOHMRV
5HDOHV (QWHURVQHJDWLYRV
)UDFFLyQSURSLD
)UDFFLRQDULRV
)UDFFLyQLPSURSLD
,UUDFLRQDOHV
,UUDFLRQDOHVDOJHEUDLFRV
7UDVFHQGHQWHV
,PDJLQDULRV
Como regla general, las funciones que tienen inters en ingeniera, y cualesquiera
aplicaciones de las matemticas, son funciones que tienen algn tipo de buen com-
portamiento que nos permite utilizarlas de forma habitual para modelizar y simular
fenmenos de la vida cotidiana.
La imagen de un elemento x 2 S con la aplicacin f W S ! T es el elemento
f .x/ 2 T . El conjunto imagen f .S / = ff .x/ 2 T; para todo x 2 S g. La imagen de un
subconjunto S 0 S con la aplicacin f sera, por consiguiente, el subconjunto imagen
f .S 0 /. El conjunto S se conoce como origen o dominio de denicin de la aplicacin, o
funcin, y el T como dominio de valores.
Una aplicacin f W S ! T se dice inyectiva si para cualquier par de elementos
x; y 2 S, x y, se cumple que f .x/ f .y/. Ejemplo, la aplicacin f W R ! R,
denida por f .x/ D x 2 , no es inyectiva, pues f .1/ D f .1/ D 1.
Una aplicacin f W S ! T se dice suprayectiva sobreyectiva, epiyectiva, suryec-
tiva o exhaustiva si el conjunto imagen f .S / es igual a todo el conjunto T ; es decir,
para todo y 2 T existe un x 2 S tal que f .x/ D y.
Una aplicacin se dice biyectiva si es inyectiva y suprayectiva. Ejemplo, si Jn es el
conjunto de los nmeros enteros de 1 a n, Jn D f1; : : : ; ng, y se dene una aplicacin
W Jn ! Jn que modica el orden de disposicin de los elementos de Jn estas
aplicaciones se denominan permutaciones, tal aplicacin es biyectiva.
Un conjunto S se dice numerable si existe una biyeccin entre N y S : a cada unos de
los n elementos k, 1 k n, se le asocia un elemento ak 2 S , esto es: k 7! ak .
Una sucesin de elementos de un conjunto T es una aplicacin de N en T : a cada
elemento n 1 se le hace corresponder un x .n/ 2 T : n 7! x .n/ . Tal sucesin se desig-
na x1 ; x2 ; : : : xn ; : : :, o fx .1/ ; x .2/ ; : : : g. Tambin en algunos casos fx .n/ gn1 e incluso
fxn g1nD1 .
Si fxi g es una sucesin de nmeros reales y existe un nmero real S tal que 1: para
cada " > 0 existe un N tal que para todo n > N se tiene que xn < S C y 2: para
cada " > 0 y M > 0 existe un n > M tal que xn > S ", entonces S se denomina
lmite superior de la sucesin fxn g, escribindose S D lKm supn!1 xn . Si fxn g no est
acotada por arriba mayorada se escribe lKm sup xn D C1. El lmite inferior de la
sucesin fxn g es lKm inf xn D lKm sup.xn /. Si lKm sup xn D lKm inf xn D S , entonces
lKm xn D S.
Los conjuntos dotados de ciertas leyes de composicin o asociacin interna adicin,
multiplicacin, divisin o cualquier otra, se dice que poseen una estructura algebrai-
ca. Alguna estructuras algebraicas fundamentales son el grupo, el anillo (Z por ejemplo),
el cuerpo (R y C, por ejemplo), el espacio vectorial, el lgebra, etc.
4 j 1-Conjuntos
2-Espacios vectoriales j 5
2 | Espacios vectoriales
Denicin 2.1 Un espacio vectorial E es una estructura algebraica creada a partir de
un conjunto no vaco, una ley de composicin interna denida para los elementos del
conjunto, adicin, C, con las siguientes propiedades grupo conmutativo
y una ley de composicin externa, producto por un escalar, , denida entre dicho
conjunto y otro conjunto con estructura de cuerpo, K, con las siguientes propiedades,
1 x D x; 0x D
.x/ D ./x asociativa
. C /x D x C x distributiva
.x C y/ D x C y; distributiva
D ;
Dejamos aqu de momento los ejemplos pues otros que enunciaremos y utilizaremos
en el libro requieren la introduccin de otras estructuras adicionales en los espacios vec-
toriales como son una norma y el producto interior. Seguiremos enunciando ejemplos al
introducir estas estructuras.
Proposicin 2.1 En cualquier espacio vectorial se cumple que:
1. x C y D x C z implica que y D z.
2. x D y con 0 implica x D y.
3. x D x con x implica D .
4. . /x D x x.
5. .x y/ D x y.
6. D .
7. ./x D .x/ D .x/.
8x; y 2 M H) x C y 2 M;
8x 2 M y 8 2 K H) x 2 M:
La interseccin de una familia cualquiera de subespacios de E es un subespacio de
E.
Un conjunto de vectores x1 ; x2 ; : : : ; xk se dicen linealmente dependientes si existen
P
escalares i , no todos cero, tales que kiD1 i xi D 0 ; linealmente independientes, si
X
k
i xi D 0 H) i D 0; 0i k:
iD1
forman una base en dicho espacio; ste, por tanto, tiene dimensin n. Esta base se
denomina base cannica o base estndar de K n . En esta base, cualquier vector x T D
x1 ; x2 ; : : : ; xn se puede expresar de la siguiente forma:
2 3 2 3 2 3 2 3
x1 1 0 0
6 x2 7 607 617 607
6 : 7 D x1 6 : 7 C x2 6 : 7 C C xn 6 : 7 :
4 :: 5 4 :: 5 4 :: 5 4 :: 5
xn 0 0 1
V
x0
M
que se conoce tambin como regla del tringulo. Es una generalizacin del hecho de que
un lado de un tringulo no puede ser mayor que la suma de los otros dos en un espacio
eucldeo multidimensional, como se puede constatar en la gura 2.2.
v
uCv
Lema 2.3 En un espacio vectorial normado se cumple que kxk kyk kx yk para
cualesquiera dos vectores x e y.
Con la introduccin de normas adecuadas, casi todos los ejemplos de espacios vec-
toriales arriba indicados se pueden convertir en espacios vectoriales normados.
Ejemplo 2.7 El espacio vectorial C a; b de funciones continuas en el intervalo de la
recta real a; b junto con la norma kxk D mKaxatb jx.t /j es un espacio vectorial
normado.
Comprobemos si esta norma satisface las propiedades requeridas. Es obvio que kxk
0 y es cero slo si la funcin x.t/ es igual a cero. La regla del tringulo se obtiene de la
expresin
mKax jx.t / C y.t/j mKax.jx.t/j C jy.t/j/ mKax jx.t /j C mKax jy.t /j:
Ejemplo 2.8 El espacio vectorial Da; b de todas las funciones continuas en el intervalo
a; b de la recta real, con derivadas continuas de primer orden, junto con la norma de-
nida as, kxk D mKaxat b jx.t/j C mKaxatb jx.t/j,
P es un espacio vectorial normado.
Ejemplo 2.9 El espacio eucldeo ndimensional, denotado como Rn o E n , es el es-
pacio vectorial
p normado por excelencia con la norma eucldea dada por la expresin
kxk2 D jx1 j2 C C jxn j2 . Sus elementos lo constituyen sucesiones ordenadas de n
elementos cualesquiera de K, o n-uplas x D x1 ; : : : ; xn . Si los elementos son comple-
jos se tendra el espacio Cn .
En el espacio vectorial K n , para 1 p < 1, se tiene la familia de normas
p
p
kxkp D jx1 jp C C jxn jp
Esta norma tambin se conoce como norma innito o norma del supremo.
Estas normas cumplen, cualquiera que sea x 2 K n , que
i 2
2
kxk
x11 D
= |xijx
| ij D1
i=1
iD1
q
q
kxk
x22 D
= jx
|x11|j22+C|xjx j DxT xx T x D 1
2 2
2 | 2=
kxk1
D mK i ij D 1
ax jx
1i21i2
2.1.1.2 Convergencia
La adherencia de cualquier conjunto S es el conjunto cerrado ms pequeo que contiene
a S . Se puede demostrar que un conjunto es cerrado si y slo si toda sucesin convergente
de elementos de S tiene un lmite en ese conjunto.
14 j 2-Espacios vectoriales
Denicin 2.19 Se dice que en un espacio vectorial normado una sucesin innita de
vectores fxn g converge a un vector x si la sucesin fkx xn kg converge a cero. En
este caso se escribe xn ! x.
Todos los elementos del vector deben converger a cero, lo que hace difcil caracterizar
la convergencia en espacios que no sean Rn .
Proposicin 2.4 Si la sucesin innita de vectores converge, el lmite es nico.
kx yk D kx xn C xn yk kx xn k C kxn yk ! 0:
dice que si S es un conjunto compacto, de cada sucesin o sucesin innita fxn gn2N de
elementos de dicho conjunto es posible extraer una subsucesin fx` g`2L ; L N que
converge a un elemento del propio conjunto S .
2-Espacios vectoriales j 15
Si frk g es una sucesin de nmeros reales y sk D sup fri W i kg, entonces fsk g
converge a un nmero real s0 ; a este nmero se le denomina lmite superior de frk g y se
expresa como lKm sup .rk / o lKmk!1 .rk / . El lmite superior de una sucesin de nmeros
reales es el mayor punto de acumulacin de la sucesin. De forma similar se dene el
lmite inferior.
Sea E un espacio vectorial normado; se dice que una sucesin fxn g en E converge a
un lmite v 2 E, si para todo " > 0, existe un N 2 N tal que a partir de l, n N , se
cumple que kxn vk < ".
Cuando una sucesin fxn g admite un vector lmite v slo tiene ese vector como
lmite (si existe lmite es nico.) Se escribe lKmn!1 fxn g D v, lo que es equivalente a
lKmn!1 kxn vk D 0. En particular, xn ! 0 si y slo si kxn k ! 0.
Denicin 2.21 Una sucesin fxn g en un espacio vectorial normado por k k se
denomina sucesin de Cauchy, por Augustin Louis Cauchy, Francia 1789-1857, si
kxn xm k ! 0 al tender n; m ! 1. En otras palabras, si para todo " > 0 existe
un N 2 N tal que cualesquiera que sean n; m N , se cumple que kxn xm k < ".
Toda sucesin convergente es una sucesin de Cauchy pero pueden existir espacios
normados con sucesiones de Cauchy que no son convergentes.
y
`1 .N/ D x D fxn g1 N
nD1 2 C tal que x est acotada :
Denicin 2.23 El conjunto L1 a; b, de todas las funciones del cuerpo de los nmeros
reales cuyo valor absoluto es integrable en el intervalo a; b, es un espacio vectorial
funcional. Tambin lo es L2 a; b, el conjunto de todas las funciones reales al cuadrado
integrables en a; b. Es de destacar que en ambos casos estas funciones no tienen por
que ser continuas en ese intervalo.
2-Espacios vectoriales j 17
1
X
jxn jp < 1:
nD1
Es decir ( 1
)
X
p
` .N/ D x D fxn g1
nD1
N
2 C tal que p
jxn j < 1 :
nD1
El espacio `1 es `1 .N/ D x D fxn g1 N
nD1 2 C tal que x est acotada .
1
!1=p
X
p
kxkp D jxi j :
i D1
Figura 2.4: Grca de sucesin de Cauchy que no converge a una funcin continua
Ejemplo 2.11 Tambin es fcil ver que en C 0; 1 la sucesin de funciones cuyas gr-
cas son las de la gura 2.5 es una sucesin de Cauchy para cualquier norma k kp , pero
no tiene lmite en C 0; 1.
Ejemplo 2.12 El espacio normado C 0; 1 es un espacio de Banach. Para probar que
es completo tendramos que probar que toda sucesin de Cauchy en l tiene lmite.
20 j 2-Espacios vectoriales
1
fn .x/ n
= =
0 1 x
= =
1
n
Figura 2.5
Supongamos que fxn g es una sucesin de Cauchy en C 0; 1. Para cada t 2 0; 1,
jxn .t/ xm .t /j kxn xm k ! 0 por lo que fxn g es una sucesin de Cauchy de
nmeros reales. Como el conjunto de los nmeros reales es completo existe un nmero
real x.t / al que converge la sucesin: xn .t / ! x.t/. Las funciones xn convergen en
consecuencia punto a punto a la funcin x.
Ahora probemos que esta convergencia punto a punto en uniforme en t 2 0; 1, es
decir, dado un " > 0 existe un N tal que jxn .t / x.t/j < " para todo t 2 0; 1 y n N .
Dado un " > 0 escogemos un N tal que kxn xm k < "=2 para n; m > N . Entonces
para n > N
jxn .t / x.t/j jxn .t / xm .t /j C jxm .t / x.t /j
kxn xm k C jxm .t / x.t /j:
Escogiendo un m sucientemente grande (que depender de t ), cada trmino del miem-
bro de la derecha de la expresin anterior se puede hacer menor que "=2 de tal manera
que jxn .t / x.t /j < " para n > N .
Queda por probar que la funcin x es continua y que la sucesin fxn g converge a x
de acuerdo con la norma de C 0; 1. Para probar la continuidad de x, jamos " > 0. Para
todo , t y m,
jx.t C / x.t/j jx.t C / xn .t C /j
C jxn .t C / xn .t /j C jxn .t / x.t /j:
Como fxn g converge uniformemente a x, n se puede escoger de tal manera que los
trminos primero y ltimo de esta expresin se hagan menores que "=3 para todo .
Como xn es continua, se puede escoger un que haga el segundo trmino menor que
"=3. Como consecuencia de ello, x es continua. La convergencia de xn a x en C 0; 1 se
desprende directamente de la convergencia uniforme.
2-Espacios vectoriales j 21
Denicin 2.30 Sea E un espacio vectorial sobre un cuerpo K (R o C); una forma
sesquilineal vez y media lineal sobre E es una aplicacin hji W E E ! K que
verica (la barra designa complejo conjugado):
de manera que kf .x/k D kxk. Por este motivo a los operadores unitarios tambin se les
denomina operadores isomtricos.
Denicin 2.31 Un espacio de Hilbert es un espacio
p prehilbertiano completo respecto
de la norma asociada al producto escalar kk D h; i . Dicho de otra forma, un espacio
prehilbertiano que con esta norma da un espacio de Banach. Todo espacio de Hilbert
es un espacio de Banach, pero el recproco no es cierto.
El espacio eucldeo n-dimensional, expresado Rn o En , es un espacio de Hilbert de
dimensin nita. Visto as, un espacio de Hilbert sera la generalizacin de un espacio
eucldeo, incluida la dimensin innita. El producto escalar en un espacio eucldeo es
una forma bilineal. En particular, dados dos vectores en R2 de la forma u D a; bT y
2-Espacios vectoriales j 23
v D c; d T , su producto escalar viene dado por hu; vi D ac Cbd . que se puede vericar
que es una forma bilineal.
Dos vectores cuyo producto escalar es cero se denominan ortogonales; si sus kk2 son
la unidad se denominan ortonormales. Para dos vectores ortogonales se tiene la identidad
donde
xT y
D
kxkkyk
cumple que 1 1, para cualesquiera x e y.
Dos vectores son ortogonales si x T y D 0 (
D =2; D 0); alineados, si x T y D
kxkkyk (
D 0; D 1); opuestos, si x T y D kxkkyk (
D ; D 1). Forman
un ngulo agudo si x T y > 0 (
< =2; > 0) y un ngulo obtuso si x T y < 0
(
> =2; < 0).
Una familia cualquiera de vectores distintos del nulo y ortogonales dos a dos es una
familia libre. Si M es un subespacio de un espacio prehilbertiano E de dimensin nita,
el subespacio ortogonal de M , M ? , es el subespacio formado por todos los vectores
ortogonales a los de M , siendo un subespacio suplementario de M ; es decir M M ? D
E. Cualquier x 2 E, por consiguiente, se puede expresar como x D a C b, con a 2 M
y b 2 M ?.
Como km .i/
! cuando i ! 1, km
xk22 2 .j /
m.i / k22
! 0 cuando i; j ! 1. Es
decir, fm.i/ g es una sucesin de Cauchy; como M es un subespacio cerrado, la sucesin
fm.i / g tiene un lmite m0 en M y, debido a la continuidad de la norma, kx m0 k2 !
.
El teorema de la proyeccin pone en evidencia que la solucin del problema
minimizar kt x yk
t
x
tx
0
Figura 2.6: Solucin de minimizar t ktx yk
df .x/ f .x C h/ f .x/
f 0 .x/ D D lKm ;
dx h!0 h
supuesto ese lmite existe. Una funcin f que es derivable en un punto x D a es continua
en a. La derivada es una medida de la rapidez, o tasa (gradiente), con la que cambia el
valor de dicha funcin segn cambie el valor de su variable independiente.
Por otro lado, si f W C ! C, se dene la integral denida de esta funcin en el
intervalo a; b,
l b
I.f / D f .x/ dx;
a
como el lmite de las sumas de Riemann por Georg Friedrich Bernhard Riemann,
Alemania 1826-1866
P
Rn D niD1 .xi C1 xi /f .ti /; x1 D a; xnC1 D b; xi ti xiC1 ; cuando la particin
en subintervalos se hace muy na.
La integracin, proceso inverso a la derivacin, se basa en la idea de sumar todas las
partes constituyentes de un todo.
Denicin 2.32 Un espacio de Lebesgue, por Henr Lon Lebesgue, Francia 1875-
1941, es el espacio vectorial de las funciones al cuadrado integrables en Rn , es
26 j 2-Espacios vectoriales
decir, Z
L2 ./ D f W ! R jf j2 < 1 :
El requerir que las funciones sean integrables no supone ninguna limitacin importante
en la prctica ingenieril o cientca pues como hemos aprendido durante mucho tiempo
toda funcin continua a trozos, es decir con a lo sumo una cantidad nita o nume-
rable de discontinuidades, es integrable. El 99,99 % de las funciones que se utilizan en
ingeniera, economa y ciencias sociales en general son integrables.
2-Espacios vectoriales j 27
R
El espacio vectorial L2 ./ dotado del producto interior hf; gi D f .x/g.x/dx es
un espacio de Hilbert.
En el espacio C 0; 1 de funciones continuas del intervalo 0; 1 en C, son normas las
dadas por
"Z #1=p
1
p
kf kp D jf .t/j dt :
0
Z 1 1=p
p
jx.t/j dt <1
0
son tambin espacios normados. Casos particulares son L1 .a; b/ de funciones cuyo
valor absoluto es integrable en a; b y L2 .a; b/ de funciones al cuadrado integrables
en a; b.
En particular, el conjunto de todas las funciones tales que
Z
f 2 .x/ dx < 1
Denicin 2.33 Un espacio de Sobolev por Sergi Lvvich Sobolv, Rusia 1908-
1989 es un espacio vectorial de funciones dotado de una norma que es combinacin
de normas Lp de la funcin y de sus derivadas hasta un orden dado. Formalmente para
dos dimensiones es
@u @u
W 1;2 ./ D u 2 L2 ./ ; 2 L2 ./ :
@x1 @x2
El nmero 1 se reere al orden de las derivadas parciales y el 2 que las mismas deben
pertenecer a L2 ./.
Las funciones que pertenecen a W 1;2 ./ no tienen que ser derivables en todos los
puntos; es suciente que sean continuas con derivadas parciales continuas por tramos en
el dominio de denicin y que satisfagan las condiciones apuntadas. Esto se explicita
en que las derivadas de este espacio se entienden en un sentido dbil que hagan que el
espacio sea completo si toda sucesin de Cauchy en l tiene lmite y por lo tanto
sea un espacio de Banach. En sentido dbil no es sino una generalizacin del concepto
de derivada a funciones no necesariamente derivables pero si integrables localmente en
el sentido de Lebesgue en un dominio dado de Lp ./.
La norma correspondiente de este espacio completo es
Z Z 1=2 Z Z Z !1=2
@u 2 @u 2
kukW 1;2 ./D 2
jruj C juj2
D C C juj 2
;
@x1 @x2
denominada en ingeniera norma de energa. Las funciones que usan esta forma ni-
ta son funciones de energa nita. Intuitivamente, un espacio de Sobolev es un espacio
de funciones con derivadas de orden suciente para un dominio de aplicacin determi-
nado y equipado con una norma que mida adecuadamente tamao y regularidad en las
funciones.
El producto escalar (producto interior) en un espacio de Sobolev W 1;2 ./ es
Z Z
u
v D hujvi D uv dx C ru rv dx:
3-Matrices j 29
3 | Matrices
Denicin 3.1 Una matriz es una formacin rectangular de numeros reales o comple-
jos ordenados en m las y n columnas
2 3
a11 a12 a1n
6 a21 a22 a2n 7
6 : :: : : :: 7 :
4 :: : : : 5
am1 am2 amn
contribuy de forma decisiva a que A D .aij / se concibiese como una cantidad alge-
braica nica.
Si en lgebra lineal E y F son dos espacios vectoriales de dimensiones nitas n y
m sobre el mismo cuerpo K. Una aplicacin lineal g W E ! F , g 2 L.E; F /, est
30 j 3-Matrices
X
m
g.ej / D aij fi ; 1 j n:
i D1
X
n
yD xi a i ;
i D1
Dicho de otra forma, la imagen de una matriz es el subespacio generado por los vec-
tores columna de la matriz; los vectores la tambin generan un subespacio que no es
otro que la imagen de A T .
Para una matriz A 2 Rmn se cumple que:
ker A T D .Im.A//?
Im A T D .ker.A//?
?
ker.A/ D Im A T
?
Im.A/ D ker A T :
0 Ke T 0
rA rA
Ke
T Im
A A
Im
rango.A/ D dim.Im.A//:
Una matriz A 2 K mn se dice de rango completo si rango.A/ D mKn.m; n/. Una
matriz cuadrada A 2 K nn se denomina singular si rango.A/ < n; regular si
rango.A/ D n. Tambin se cumple que rango.A/ D rango.A T /.
32 j 3-Matrices
dim.ker.A// C rango.A/ D n ;
1) kAk D 0 H) A D 0:
2) kAk D jj kAk:
3) kA C Bk kAk C kBk:
4) kABk kAk kBk:
Existen normas sobre el espacio Rmn que no son normas matriciales pues no cum-
plen la propiedad 4). As, si se dene
P
donde la traza de una matriz A de orden n es niD1 ai i . La norma de Frobenius cumple
que
kABkF kAkF kBkF :
para A mn
yB mn
, que congura al espacio de las matrices m n como un espacio
prehilbertiano. El producto escalar en el espacio Sn de las matrices simtricas n n est
dado por
X
n X
n X
n X
hX jY i D traza.X Y / D xij yij D ai i bi i C 2 aij bij :
i D1 j D1 i D1 i <j
Denicin 3.7 Una norma matricial kk sobre Rmn se dice consistente o compatible
con una norma vectorial k k0 sobre Rn cuando para cada matriz A y cada vector x se
cumple que
kAxk0 kAk kxk0 :
Ejemplo 3.1 El efecto que produce aplicar la transformacin lineal basada en la matriz
12
AD
02
[2, 2]T
[0, 1]T
A1 = 4
[1, 0]T
norma
norma11
[1, 0]T
A2 2,9208
norma
norma22
A = 3
norma
norma1
Figura 3.2: Efecto de una aplicacin lineal sobre la bola unidad para diferentes normas
denominada norma A o norma de energa pues suele corresponder con la energa fsica
de ciertos sistemas del vector x, para una matriz A simtrica y denida positiva. Al
resultado de hxjyiA D hAxjyi se le denomina producto interior de A o producto
escalar de energa. La matriz A 1=2 es la nica matriz denida positiva solucin de la
ecuacin matricial X 2 D X X D A.
La extensin de las matrices ortogonales al campo complejo son las matrices unita-
rias.
Denicin 3.10 Una matriz U 2 Cnn , cuya inversa es su compleja conjugada,
U H U D U U H D I, es una matriz unitaria
Todos los valores propios de las matrices unitarias tienen mdulo unidad. Como las
ortogonales, una matriz unitaria no modica ni los ngulos ni las normas, .U x/H .U y/ D
x H U H U y D x H y. Si y D x, jjU xjj2 D jjxjj2 .
Denicin 3.11 Una matriz de permutacin es una matriz cuadrada cuyas columnas
estn formadas por las de la matriz unidad permutadas. Una matriz de permutacin es
una matriz ortogonal.
Denicin 3.12 Una matriz se dice simtrica si se verica que A D A T . Para una
matriz cualquiera A 2 Rmn , la matriz A T A es simtrica. Si A 2 Cnn es igual a su
traspuesta conjugada, A D B D A H , bij D aNj i , se dice hermtica. El conjunto de las
matrices simtricas n n se designa mediante Sn .
Denicin 3.14 Se dice que una matriz A 2 Cnn de coecientes aij es de diagonal
dominante por las cuando cumple que
X
n
jai i j jaij j; i D 1; : : : ; n:
j D1;j i
X
n
jai i j jaj i j; i D 1; : : : ; n:
j D1;j i
Lema 3.1 Para que una matriz simtrica sea denida positiva es necesario que todos
los coecientes de la diagonal principal sean positivos.
Lema 3.2 Para que una matriz simtrica A sea denida positiva es necesario que el
coeciente de mayor valor absoluto est en la diagonal principal. Ms concretamente,
mKaxi j jaij j < mKaxk akk :
A es denida positiva.
Es importante destacar que este hltimoicriterio dene una condicin suciente, no
322
necesaria. En efecto, la matriz Q D 2 3 2 es denida positiva pues
223
cualquiera que sea x 0, es siempre positiva. Esa matriz, sin embargo, no satisface el
lema 3.2.
38 j 3-Matrices
Denicin 3.15 Una matriz de Vandermonde es una matriz que presenta una progre-
sin geomtrica en cada la; como esta:
2 3
1 1 12 : : : 1n1
6 1 2 22 : : : 2n1 7
6 7
6 2 n1 7
V D 6 1 3 3 : : : 3 7 :
6: : : : : 7
4 :: :: :: : : :: 5
1 n n2 : : : nn1
Su nombre se debe a Alexandre-Thophile Vandermonde, Francia 1735-1796.
Denicin 3.16 Una matriz de Hankel es una matriz cuadrada con todas sus diago-
nales de derecha a izquierda paralelas numricamente. Es decir, tiene la forma
2 3
a b c d e
6b c d e f 7
6 7
H D 6c d e f g 7 :
4d e f g h 5
e f g h i
El primero que formul esta matriz fue Hermann Hankel, Alemania 1839-1873.
Denicin 3.17 Una matriz de Hessenberg es una matriz triangular excepto por una
subdiagonal adyacente a la diagonal principal.
@
@
@
@
@
@
0 @
@
@
Fue formulada por primera vez por Karl Adolf Hessenberg, Alemania 1904-1959.
A partir del teorema de Cayley-Hamilton tambin es fcil comprobar que existe un po-
1
1 2
p de grado mximo n 1 tal que2 A
linomio D p.A/. Como ejemplo, la matriz
34 tiene como polinomio caracterstico x 5x 2. El teorema de Cayley-Hamilton
dice que A 2 5A 2I D 0, lo cual se puede comprobar inmediatamente. La inver-
sa de A se puede obtener de esta ecuacin a partir de A .A 5I/ D 2I. En efecto,
A 1 D 12 .A 5I/.
Igual que cualquier matriz tiene asociado un polinomio caracterstico, cualquier po-
linomio tiene asociado una matriz compaera.
Un polinomio a0 C a1 x C a2 x 2 C : : : C an x n se dice que es mnico si an D 1.
La matriz compaera de un polinomio mnico p.t/ D c0 C c1 t C C cn1 t n1 C t n
es 2 3
0 0 : : : 0 c0
61 0 : : : 0 c1 7
C .p/ D 6 40:: 1:: :: :: : 0:: c2::5
7
: : : : :
0 0 : : : 1 cn1
Los valores propios de esta matriz C .p/ son las races del polinomio p.t /. El polinomio
mnimo q.t / de una matriz A es el polinomio mnico nico de grado mnimo tal que
q.A/ D 0.
Una matriz real de orden n no tiene necesariamente valores propios reales pero, como
consecuencia del teorema fundamental del lgebra, cualquier matriz compleja tiene al
menos un valor propio complejo. Su nmero mximo de valores propios es n.
Proposicin 3.4 Al aplicrsele a cualquier vector la transformacin que representa A
ese vector tiende a orientarse en la direccin del vector propio dominante de A. Si
aquel vector est en la direccin de alguno de los vectores propios de A, se expande o
contrae por un factor que determina el correspondiente valor propio.
La matriz A D 21 12 tiene como valores propios 3 y 1. Los vectores propios asocia-
dos son 1 1T y 1 1T . El efecto de aplicarla sobre distintos vectores se puede ver en
la gura 3.3: en magenta y azul (en grises con mayor o menor intensidad) los vectores
propios; otros en rojo que si se orientan.
Siendo un valor propio de una matriz A, el conjunto de soluciones del sistema de
ecuaciones
.I A/x D 0
es un subespacio de K n que se denomina subespacio propio asociado al valor propio ,
designndose con E . Si n es la multiplicidad de como raz de la ecuacin caracte-
rstica de A, se cumple que
dim.E / n :
La interseccin de subespacios propios correspondientes a valores propios distintos se
reduce al subespacio nulo; esto es H) E \ E D ;.
42 j 3-Matrices
L
De este modo, la suma de subespacios propios es directa. Se cumple que 2.A/ E
D K n si y slo si para cada 2 .A/, dim.E / D n ; en ese caso existe una base de
K n formada toda ella por vectores propios de A.
El teorema central en el estudio de los mtodos y algoritmos numricos para el clcu-
lo y anlisis de valores y vectores propios es el de la descomposicin de Schur por Issai
Schur, Alemania 1875-1941.
AU D U T o U H AU D T :
Teorema 3.6 Para cualquier matriz hermtica A 2 Cnn existe una matriz unitaria U
tal que
U H AU D D;
donde D es una matriz diagonal.
1. Los valores propios de A son nmeros reales.
2. Se pueden obtener vectores propios de A que sean ortonormales.
En este caso se dice que la matriz A es semejante a una matriz diagonal: la matriz A
3-Matrices j 43
Teorema 3.8 Descomposicin de Jordan. Para una matriz A 2 Cnn existe una matriz
regular X 2 Cnn tal que X 1 AX D diag.J 1 ; : : : ; J k / donde
2 3
i 1
6 i 1 0 7
Ji D 64 7 2 Cni ni
5
0 1
i
Una matriz simtrica denida positiva tiene todos sus valores propios reales y po-
sitivos; si es semidenida, alguno es cero. Si la matriz es negativa denida, todos sus
valores propios son negativos.
Si A es hermtica, el producto x H Ax es un nmero real. Los valores propios de
una matriz hermtica, en consecuencia, son nmeros reales. En una matriz hermtica los
vectores propios correspondientes a dos valores propios distintos son ortogonales entre
s.
Un resultado importante para averiguar el orden de magnitud de los valores propios
de una matriz es el que sigue.
44 j 3-Matrices
Teorema 3.9 De Gersgorin. Los valores propios de una matriz A 2 Cnn se encuen-
tran en la unin de los n discos de Gershgorin, cada uno de los cuales est centrado en
akk , k D 1; : : : ; n, y tiene de radio
X
n
rk D jakj j:
j D1
j k
X
n
. akk /xk D akj xj ; k D 1; : : : ; n;
j D1
j k
Teorema 3.10 Sea A una matriz simtrica n n. Las siguientes propiedades de A son
equivalentes.
A 0: A 0:
.A/ 0. .A/ > 0.
A D D D para alguna D rectan- A D D T D para alguna D rectangular de
T
gular. rango n.
A D T para alguna nn trian- A D T para alguna nn triangular su-
gular superior. perior no degenerada.
A D B 2 para alguna B simtrica. A D B 2 para alguna B simtrica no dege-
nerada.
A D B para alguna B 0.
2
A D B 2 para alguna B 0.
3-Matrices j 45
Denicin 3.23 Los valores singulares de A son las longitudes de los semiejes del
hiperelipsoide E denido, a partir de la esfera unidad y el operador A, por
E D fy W y D Ax; kxk2 D 1g :
En la gura 3.4 se describe grcamente el caso en que m D n D 2.
2 1
x Ax
A D U V T ;
h i
donde D r 0 , 2 Rmn y r D diag.1 ; 2 ; : : : ; r /, con 1 2
0 0
r > 0. Si las matrices U y V se escriben como U D u1 ; : : : ; um y V D v1 ; : : : ; vn ,
los ui y vi son los vectores singulares izquierdos y derechos, respectivamente, corres-
pondientes a los valores singulares i , i D 1; : : : ; r.
V D x V 1 2 Rnn y U D y U 1 2 Rmm
(siempre es posible ampliar un conjunto de vectores ortogonales hasta formar una base
ortonormal de Rn ). Como U T1 Ax D U T1 y D 0, la matriz U T AV tiene la siguiente
estructura: T
y wT
A1 D U T AV D A x V 1 D ;
U T1 0 B
donde
h B DiU T1 AV 1 2 R.m1/.n1/ y wT D y T AV 1 . Dado que kA1 w
k2 D
2 CwT w
Bw
2
C wT
w, como
2
q
2
kA1 w
k2 kA1 k2 k w
k2 D kA1 k2 2 C wT w ;
Figura 3.5: Proyeccin de cuatro vectores en el subespacio de dimensin uno que mejor
los representa: recta de trazos
A D V U T ;
donde
D diag.11 ; : : : ; r1 ; 0; : : : ; 0/ 2 Rnm :
1 T
Si A 2 Rmn es de rango completo y m > n, A D A T A A ; si m < n,
T 1
A D A AA
T
.
q.x/ D x T Qx ;
X
p X
pCq
q.x/ D yi2 yi2 :
iD1 i DpC1
por lo que el rango de la forma cuadrtica es el nmero total teniendo en cuenta las
multiplicidades de valores propios no nulos de Q, mientras que la signatura coincide
con la diferencia entre los nmeros de valores propios positivos y negativos. En particu-
lar, la forma cuadrtica asociada a Q es denida positiva si y slo si todos los valores
propios de Q son positivos.
En ciertos casos es importante acotar el cociente de una forma cuadrtica al cuadrado
3-Matrices j 49
(a) (b)
x2
x1
Q.x/
(c) (d)
x T Qx
r.x/ D ; x 0:
xT x
Mediante una transformacin ortogonal x D Py, este cociente se escribe como
1 y12 C C n yn2
r.x/ D ;
y12 C C yn2
x T Qx
mi n .Q/ max .Q/ :
xT x
vT Qv
Estas acotaciones no se pueden mejorar ya que si Qv D v, vT v
D .
50 j 3-Matrices
4-Funciones, sucesiones y series de funciones j 51
Figura 4.1: Grco de una funcin (convexa) y su epigrafo. Otra funcin sinusoidal (no
convexa) y su epigrafo
df .x/ f .x C h/ f .x/
f 0 .x/ D D lKm ;
dx h!0 h
si ese lmite existe. Una funcin f que es derivable en un punto x D a es continua en
a.
La derivada es una medida de la rapidez, o tasa (gradiente), con la que cambia el
valor de dicha funcin segn cambie el valor de su variable independiente. Representa,
desde el punto de vista geomtrico, la pendiente de la recta tangente a la funcin en el
punto x D a.
En el caso de funciones escalares de varias variables, f W Rn ! R, o funciones
vectoriales, f W Rn ! Rm , denidas en un entorno de x, se introduce el concepto de
diferenciabilidad.
Una funcin de varias variables en general, f , es diferenciable en un entorno de un
punto x si existen todas las derivadas parciales de la funcin, la aplicacin Df .x/ y
adems se verica que
kf .x C h/ f .x/ Df .x/hk
lKm D D 0:
h!0 khk
T
@f .x/ @f .x/ @f .x/
rf .x/ D ; ;:::; :
@x1 @x2 @xn
y da lugar a la derivada de Frchet. Existe otro que conocemos como derivada direc-
cional, o derivada de Gteaux por Ren Eugne Gteaux, Francia 1889-1914
(muerto en la primera gueera mundial muy joven), que dice que la funcin f es diferen-
ciable Gteaux a lo largo de cualquier vector h de Rn si existe la funcin
f .x C th/ f .x/
g.h/ D lKm :
t!0 t
Si una funcin es Frchet diferenciable en x es tambin Gteaux diferenciable en ese
punto. Lo contrario no siempre es as. Esto es anlogo al hecho de que la existencia de
derivadas en todas las direcciones en un punto no garantiza la total diferenciabilidad (e
incluso la continuidad) en ese punto.
Ejemplo 4.1 La funcin f W R2 ! R denida por
(
x3
2 Cy 2 si .x; y/ .0; 0/
f .x; y/ D x
0 si .x; y/ D .0; 0/
cuya grca es la de la gura 4.2, es continua y diferenciable Gteaux en el punto .0; 0/,
con derivada ( 3
a
si .a; b/ .0; 0/
g.a; b/ D a2 Cb 2
0 si .a; b/ D .0; 0:/
La funcin g no es un operador lineal y no es diferenciable en el sentido de Frchet.
cuya grca es la de la gura 4.3, es diferenciable Gteaux en el punto .0; 0/, con deri-
vada g.a; b/ D 0 en todas las direcciones. Sin embargo f no es continua en .0; 0/, lo
que se puede ver acercndose al origen de coordenadas a lo largo de la curva y D x 3 ,
por lo que f no puede ser diferenciable Frchet en el origen.
como la matriz n n
2 3
@2 f .x/ @2 f .x/ @2 f .x/
6 @ 2 x1 @x1 @x2 @x1 @xn 7
6 7
6 @2 f .x/ @2 f .x/ @2 f .x/ 7
6 7
6 7
r 2 f .x/ D 6 @x2 @x1 @ 2 x2 @x2 @xn 7 :
6 :: :: :: :: 7
6 : 7
6 : : : 7
4 @2 f .x/ 2
@ f .x/ @ f .x/ 5
2
@xn @x1 @xn @x2 @2 xn
A esta matriz tambin se la puede ver designada como F .x/.
Denicin 4.5 Una funcin f W Rn ! Rm es afn si es la suma de una funcin lineal
y una constante; es decir, tiene la forma f .x/ D Ax Cb, donde A 2 Rmn y b 2 Rm .
f (x )
f (x 1) + g 1T (x x 1)
f (x 2) + g 2T (x x 2)
f (x 2) + g 3T (x x 2)
x1 x2
epi( f )
(g, 1)
f (x) = |x| f (x )
x
x
1
4.2 Integral
Denicin 4.8 Si f W C ! C, se dene la integral denida de esta funcin en el
intervalo a; b,
l b
I.f / D f .x/ dx;
a
P
como el lmite de las sumas de Riemann Rn D niD1 .xi C1 xi /f .ti /; x1 D a; xnC1 D
b; xi ti xiC1 ; cuando la particin en subintervalos se hace muy na.
La integracin, proceso inverso a la derivacin, se basa en la idea de sumar todas las
partes constituyentes de un todo.
Teorema 4.2 Teorema fundamental del clculo. Supongamos f W R ! R una funcin
continua en el intervalo
Rx a; b.
1. Si g.x/ D a f .t / dt entonces g 0 .x/ D f .x/.
Rb
2. a f .x/ dx D F .b/ F .a/, donde F es la funcin primitiva de f , es decir,
F0 D f .
Ese lmite es un nmero, como el de una sucesin numrica. Todas las funciones de
la sucesin deben estar denidas en el mismo intervalo, as como la funcin lmite. El
lmite de una sucesin de funciones continuas no tiene por qu ser una funcin continua.
Lo mismo ocurre con la derivabilidad y la integrabilidad, que no se mantienen.
4-Funciones, sucesiones y series de funciones j 59
lKm jan aj D 0:
n!1
o, de forma equivalente, si
Demostracin. Sea x0 2 I . Puesto que sabemos por hiptesis que lKmn!1 supx2I f
jfn .x/ f .x/jg D 0; y adems
se sigue que lKmn!1 jfn .x0 / f .x0 /j D 0, lo que implica que lKmn!1 fn .x0 / D
f .x0 /.
La implicacin recproca no es cierta. Una sucesin puede converger puntualmente y
no hacerlo uniformemente.
60 j 4-Funciones, sucesiones y series de funciones
Aunque pueda parecer lo contrario, las relaciones de esta convergencia con las otras
que hemos formulado anteriormente no son sencillas.
Proposicin 4.6 Si I es un intervalo acotado, para toda f W I ! R la norma 2 de f
en I es menor o igual que una constante por la norma del supremo de f en I .
jfn .x/j Mn :
P
2. La serie n Mn converge.
P
Entonces existe una funcin f W I ! R tal que, para todo x 2 I la serie n fn .x/
converge absolutamente a f .x/. Adems, dicha serie converge uniformemente a f .
P1
Denicin 4.12 Dada una serie de potencias nD0 an x n , su radio de convergencia
es el nmero
( 1
)
X
D sup jx0 j 2 R tales que an xon converge :
nD0
El teorema que sigue fue formulado por Niels Henrik Abel, Noruega 1802-1829. En
su nombre se da anualmente desde 2003, por la La Academia Noruega de Ciencias y
Letras, el Premio Abel, que es considerado como el Premio Nobel de Matemticas. De
hecho, su montante es el mismo que un equivalente Nobel.
P
Teorema 4.11 Teorema de Abel. Sea unaP serie de potencias 1 n
nD0 an x de modo que
1
existe un x0 2 R tal que la serie numrica nD0 an x0 es convergente.
n
P Sea ahora r 2R
tal que r < jx0 j. Entonces, para todo x 2 R tal que jxj r la serie 1nD0 na x n
conver-
ge absolutamente. Adems se tiene que la serie de potencias converge uniformemente
en el intervalo r; r. Adems la funcin f W r; r ! R denida como
1
X
f .x/ D an x n
nD0
es derivable y
1
X
0
f .x/ D nan x n1 ;
nD1
Las siete primeras aproximaciones de la funcin sen.x/ por este teorema se pueden
ver en la gura 4.7.
El teorema de Taylor nos dice que el polinomio de Taylor aproxima a la funcin f
tanto mejor cuanto mayor es n y ms cerca estemos de x0 . Tambin, que si conocemos
el valor de una funcin y sus derivadas en un punto x0 , entonces podemos aproximar el
valor de la funcin en un punto x por un polinomio y la aproximacin ser tanto mejor
cuanto ms cerca est el punto y cuantas ms derivadas consideremos.
Resulta natural extender la nocin de polinomio de Taylor, dejando que n tienda a
innito, a la de serie de Taylor centrada en x0 como
1
X f .k/ .x0 /
.x x0 /k :
k
kD0
Tambin, preguntarse si, dada una funcin innitamente derivable f , la serie de Taylor
converge en todo punto a la funcin f .
Existe una clase muy amplia de funciones f , denominadas analticas, que verican
que su serie de Taylor converge al menos puntualmente a la funcin f . Obviamente
1
X f .k/ .x0 /
f .x/ D .x x0 /k
k
kD0
64 j 4-Funciones, sucesiones y series de funciones
Figura 4.7: Funcin sen.x/ y, en x D 0, las aproximaciones por Taylor de primer orden,
de orden 3, 5, 7, 9, 11 y 13
a c b
f(c)
a c b
Teorema 4.17 Primer teorema del valor medio de las integrales. Si f W R ! R es una
funcin continua en el intervalo a; b, existe entonces al menos un nmero c entre a y
b tal que
Z b
f .x/ dx D f .c/.b a/:
a
f(c)
a c b
Teorema 4.20 Integracin por partes. Sean u.x/ y v.x/ funciones reales continuas con
Z Entonces
derivadas continuas. Z
u0 .x/v.x/ dx D u.x/v.x/ u.x/v 0 .x/ dx.
xi D i .xmC1 ; xmC2 ; : : : ; xn / ; i D 1; 2; : : : ; m:
Este teorema, formulado por Cauchy, sirve para caracterizar puntos ptimos en pro-
gramacin matemtica con y sin condiciones, solucin de ecuaciones lineales y no linea-
les y otras bastantes cosas.
Ejemplo 4.4 Consideremos la ecuacin x12 C x2 D 0. Una solucin de la misma es
x1 D x2 D 0. En un entorno de esta solucin, sin embargo, no hay funcin tal que
x1 D .x2 /. En esta solucin no se cumple la condicin .c/ del teorema de la funcin
68 j 4-Funciones, sucesiones y series de funciones
y = f(x)
y
puede que no se pueda conseguir nada del problema ni saber si hay uno o varios ptimos.
El anlisis de la convexidad de funciones y de problemas de optimizacin fue funda-
do en la segunda mitad del siglo XX por Moritz Werner Fenchel, Alemania 1905-1988,
Jean Jaques Moreau, Francia 1923-2014, y Ralph Tyrrell Rockafellar, EE.UU. 1935.
X
p
xD i xi ;
i D1
Pp
donde i D1 i D 1, i 0, i D 1; : : : ; p.
Denicin 5.1 El conjunto interseccin de todos los conjuntos convexos que contie-
nen a un subconjunto S Rn se llama envoltura convexa convex hull de S
(gura 5.4) y se designa por conv.S /.
72 j 5-Optimizacin y Programacin Matemtica
f(x,y) = - x - y
ptimo local
ptimo global
C D fa C l W a 2 Rn ; l 2 Lg ;
afnmente independientes.
v1 v1 v1 v4
v1 v2 v2 v3 v2 v3
S0 S1 S2 S3
Figura 5.5: El simplex S1
es un segmento de recta. El tringulo S2
proviene de seleccio-
nar un punto v3 que no est en la recta que contiene a S 1 y despus formar la envolvente
convexa con S 1 . El tetraedro S 3 se produce al elegir un punto v4 que no est en el plano
de S 2 y despus formar la envolvente convexa con S 2
Si a D 17 , b D 30 , c D 93 y p D 53 , el punto p en el centro de la gura 5.7 tiene
por coordenadas baricntricas tres nmeros no negativos ma , mb y mc tales que p es el
centro de masa de un sistema que consiste en le tringulo (sin masa) y las masas ma , mb
y mc en los vrtices correspondientes. Las masas estn unvocamente determinadas al
requerir que su suma sea 1.
a
rea = srea(abc )
rea = t rea(abc ) p
c
rea = rrea(abc )
b
A .
x1 C .1
/ x2 / D
Ax1 C .1
/ Ax2
D
b C .1
/ b
D b;
0 0
1 x1 C C
k xk ,
1 ; : : : ;
k 0, es la envoltura cnica de C , cone.C /.
0 0
Figura 5.9: Envoltura cnica de los dos conjuntos de la gura 5.4
H+
y
x
x
0
H
a H
Figura 5.11: Hiperplano x1 C 4x2 D 11 y los semiespacios en los que divide R2
a
H + = {y | aT(y y p ) 0}
yp c
H = {y | aT(y y p ) = 0} = N (aT ) + y p
y d
H = {y | aT(y y p ) 0}
N (aT ) = {y | aTy = 0}
Figura 5.12: De Dattorro [2016] con su notacin: un hiperplano @H, desplazado del origen
una distancia y los semiespacios HC y H ; el ker.a> / D N .a> /, contenido en H .
La zona sombreada es una pieza rectangular de semiespacio H con respecto al cual el
vector a es normal, saliendo de esa zona, hacia HC . Los puntos c y d son equidistantes
del hiperplano y el vector c d es normal al mismo
78 j 5-Optimizacin y Programacin Matemtica
k
x1 C .1
/x2 xc k2 D k
.x1 xc / C .1
/.x2 xc /k2
kx1 xc k2 C .1
/kx2 xc k2
r
5-Optimizacin y Programacin Matemtica j 79
E D fx j .x xc /> P 1 .x xc / 1g;
Ejemplo 5.1 La norma cono de segundo orden con respecto a la norma eucldea es
C D f.x; t / j kxk2 tg
( > )
x x I 0 x
D 0; t 0 :
t t 0 1 t
1
t
0.5
0
1
1
0
0
x2 1 1 x1
1
Figura 5.14: Frontera de la norma cono en R3 : f.x1 ; x2 ; t/ j .x12 C x22 / 2 tg
80 j 5-Optimizacin y Programacin Matemtica
En esta expresin x K se reere a todos los puntos que son comparables con x y
menores o iguales que x de acuerdo con K . El nico punto en comn con S es x. El
elemento mnimo es un elemento minimal.
Si K D RC el concepto de elemento mnimo y minimal coinciden en el sentido
tradicional de mnimo. En la gura 5.15 se describen geomtricamente estos ltimos
conceptos. Tambin, con algn detalle ms general, en 5.16.
S2
S1 x2
x1
C1 x +K
R2
x
C2
y-K
Figura 5.16: De Dattorro [2016]. El conjunto C1 tiene un elemento mnimo x con respecto
al cono K pues dicho cono trasladado a x contiene todo el conjunto C1 . El conjunto C2
tiene un punto minimal en y con respecto al cono K pues el negativo de este trasladado a
y 2 C2 slo contiene a y
R2 R3
1
0.8
0.6
K (a)
(b)
0.4
K K
0.2 K
0
0.2
0.4
0.6
K
0.8
1
0.5 0 0.5 1 1.5
Figura 5.17: De Dattorro [2016]. Cmo se construyen los conos duales de sendos conos
K en R2 a partir de los ngulos rectos de los extremos de K
5-Optimizacin y Programacin Matemtica j 83
y K K
z
Figura 5.18: El semiespacio con normal hacia dentro y contiene al cono K por lo que
y 2 K . El semiespacio con normal hacia dentro z no contiene a K por lo que z K
x1 S
2
x2
Figura 5.21: El punto x es un punto minimal de S 2 R2 con respecto a R2C . Sin embar-
go, no existe un para el cual x minimiza > z para todo z 2 S .
puede decir que para cualquier elemento minimal x existe un K 0, no cero, tal que
x minimiza > z en S para todo z 2 S .
Demostracin. Sea
D Knf kx yk2 > 0:
x2C
Desarrollando,
2.x0 y/T .x x0 / C 2 kx x0 k22 0:
Considerando esta expresin cuando ! 0C, se tiene que
.x0 y/T .x x0 / 0
o que
aT x b aT x b
D
C
ve en la gura 5.22.
Existen bastantes principios de dualidad (en especial en la teora y tcnicas de opti-
mizacin) que relacionan un problema en trminos de vectores en un espacio vectorial
con otro en trminos de subespacios en ese espacio. En varios de esos principios est
presente la relacin que se ilustra en la gura 5.23 que indica que la distancia ms corta
de un punto a un conjunto convexo es igual al mximo de las distancias desde el punto
a los hiperplanos que separan el conjunto convexo del punto. El problema original de
minimizacin sobre vectores se convierte en otro de maximizacin sobre hiperplanos.
x0
C
H
H
S S S
Figura 5.25: H \ S es una cara cuadrada bidimensional del cubo, una arista unidimensio-
nal del cubo o un vrtice de dimensin 0 del cubo
.I / Ax D b; x 0;
88 j 5-Optimizacin y Programacin Matemtica
.II / y T A 0T ; bT y > 0;
donde A 2 Rmn .
Se debe a Gyula Farkas, Hungra 1847-1930.
Politopo c
onico S
a2 a3
a4
a1
a5
Hiperplano
b
/S
y
Figura 5.26: Demostracin del lema de Farkas
a2
a2
an
a1 a3 an
a1 b
b
Cono {y : y T A 0T }
Cono {y : y T A 0 T }
Figura 5.27: Izquierda: El sistema (I) del lema de Farkas no tiene solucin; si (II). Dere-
cha: El sistema (II) no tiene solucin; la tiene (I)
90 j 5-Optimizacin y Programacin Matemtica
derecha se muestra un ejemplo donde el sistema (II) no tiene solucin. Todo vector
y en la zona que dene el cono indicado forma un ngulo mayor de 90 con b. La
tiene sin embargo (I) pues b pertenece al cono generado por a1 , a2 y an .
minimizar
n
f .x/
x2R
sujeta a ci .x/ D 0; i 2 E;
cj .x/ 0; j 2 I;
donde las funcin objetivo f y las condiciones ci y cj son, en general, no lineales, conti-
nuas y tienen derivadas parciales continuas hasta al menos primer orden. Los conjuntos
E y I contienen los ndices de las condiciones que son de igualdad y de desigualdad, res-
pectivamente. El conjunto de puntos que satisfacen todas las condiciones se denomina
regin factible.
Un punto x que satisfaga todas las condiciones se dice regular si los vectores gra-
diente del conjunto de condiciones activas en ese punto son linealmente independientes.
Teorema 5.9 Condiciones de ptimo de primer orden de Karush-Kuhn-Tucker. Supn-
gase que x es un punto regular y mnimo local del problema general de programacin
matemtica anterior. Existe un vector de multiplicadores de Lagrange, , con coe-
cientes i , i 2 E [ I, tal que se cumple que
rx L.x ; / D rf .x / T c.x / D 0;
ci .x / D 0; para todo i 2 E;
ci .x / 0; para todo i 2 I;
i 0; para todo i 2 I;
i ci .x / D 0; para todo i 2 E [ I:
Estas condiciones fueron formuladas por Harold William Kuhn, EE.UU., 1925-2014,
y Albert William Tucker, Canad, 1905-1995, en 1951, con el n de extender la teora
de Lagrange a la caracterizacin de los puntos ptimos de problemas de programacin
lineal y no lineal sometidos a restricciones. Posteriormente se descubri que en 1939
William Karush, EE.UU., 1917-1997, ya haba trabajado sobre estas condiciones, por lo
que desde ese momento se les pas a denominar condiciones de Karush-Kuhn-Tucker.
5-Optimizacin y Programacin Matemtica j 91
P D fx 2 Rn W Ax D b; x 0g :
x D x 0 C .1 /x 00 donde D
00 =.
0
00 /
! !
X X
D 0i vi C d 0 C .1 / 00
i v i C d 00
i2I i2I
X 00
D 0i C .1 /i vi C d 0 C .1 /d 00 :
i2I
P P
Como 0 < < 1, 0i 0 y 00i 0 para todo i 2 I , i 2I 0i D i2I 00i D 1 y
Ad 0 D Ad 00 D 0, d 0 0 y d 00 0. Se deduce entonces que
00
X
i D 0i C .1 /i 0 para todo i 2 I; i D 1;
i 2I
d D d 0 C .1 /d 00 0 y Ad D 0;
(c) Que w 0. Este caso se prueba igual que el caso (b) sin ms que sustituir x 0 ,
0 y
w por x 00 ,
00 y w, respectivamente.
x4
x3
x5
x2
y
x1
En ambos casos, suponiendo que c T vmi n es el menor de los elementos del con-
junto fc T vi W i 2 I g, se tiene que
!
X
X
T T T
c x i c vi c vmi n i D c T vmi n :
i2I i 2I
Los problemas duales, en general, posibilitan acotar los valores alcanzables por los
primales. Permiten poder saber cundo una aproximacin a la solucin de un problema
es sucientemente buena.
La solucin ptima de un problema dual de otro primal, en optimizacin, certica
que se ha alcanzado o se pude alcanzar la del primal.
5-Optimizacin y Programacin Matemtica j 95
Los multiplicadores de Lagrange del problema primal, que miden las sensibilidades
del problema original a variaciones en los coecientes que determinan las condiciones
de este problema, determinan una especie de penalizaciones que se introducen en su
funcin objetivo por no utilizar adecuadamente los recursos que jan esas condiciones.
La funcin de Lagrange incorpora as toda la informacin disponible del problema.
La teora que se expone en este apartado es la base general sobre la que construir
dualidades de tipo local de los diversos problemas lineales y no lineales, incluso sin la
existencia de convexidad. Sirve tambin para comprender mejor los algoritmos de punto
interior especializados en problemas de Programacin Lineal, el dual del Smplex y otros
anes.
De momento vamos a referirnos a problemas de programacin matemtica como
minimizar
n
f .x/
x2R
sujeta a g.x/ 0 (2)
x 2 ;
Se llega a ella dejando que el trmino de la derecha de la inecuacin que denen las con-
diciones pueda tomar valores arbitrarios. Se entiende que (3) est denida en el conjunto
D D fz W g.x/ z; para algunos x 2 g.
Si el problema (2) tiene una solucin x con un valor de la funcin objetivo igual a
f D f .x /, entonces f es el punto de eje vertical de RpC1 donde la funcin primal
se cruza con ese eje. Si (2) no tiene solucin ese punto de cruce es f D Knf ff .x/ W
g.x/ 0; x 2 g.
El principio de dualidad se deduce de la consideracin de todos los hiperplanos que
quedan por debajo de la funcin primal. Como ilustra la gura 5.30, todos los hiperplanos
que se indican se cruzan con el eje vertical por debajo de f , o en f .
Para expresar esta propiedad se dene la funcin dual en el cono positivo de Rp ,
p
RC , como
./ D Knf f .x/ C Tg.x/ W x 2 :
En general, puede que no sea nita dentro del ortante el equivalente en n dimen-
siones a un cuadrante en el plano o un octante en tres dimensiones positivo, R pC , pero
la regin donde est denida y es nita es convexa.
Proposicin 5.15 La funcin dual es cncava en la regin donde es nita.
5-Optimizacin y Programacin Matemtica j 97
r
w(z)
f*
Hiperplano
debajo de w(z)
w (z)
f gap de dualidad
hiperplano ms alto
minimizar
n
f .x/
x2R
sujeta a h.x/ D 0 (4)
g.x/ 0
x 2 ;
f :
r
w (z)
f * =
hiperplano ptimo
Figura 5.32: Expresin grca del teorema de la dualidad fuerte . No hay gap de dualidad
100 j 5-Optimizacin y Programacin Matemtica
es L.x; ; / D f .x/ C Th.x/ C Tg.x/. Esta funcin penaliza que g.x/ sea positiva
y que h.x/ no sea cero. La funcin de Lagrange dual es
def
q.; / D Knf L.x; ; /:
x
Esta funcin es cncava por ser afn, aunque no lo sean ni h.x/ y g.x/. Puede ser 1
para algunos valores de y . La funcin de Lagrange dual dene una cota inferior
del valor ptimo de la funcin objetivo de (5). Es decir q.; / p si 0. El
problema dual de 5 es este:
maximizar q.; /
sujeta a 0;
que es siempre convexo.
S D f.g.x/; f .x//jx 2 Rn g:
como se puede ver en la gura 5.33, pues es el punto en t ms bajo en la parte de la regin
factible (jada por los valores a la izquierda del eje t en el conjunto S). El planteamiento
de este problema sera, por ejemplo, la abstraccin de uno de determinar el coste mnimo
global de una planta de fabricacin de productos diversos con varios tipos de recursos,
el balance global de los cuales a lo largo de un periodo de tiempo debe ser menor o igual
que cero. Es decir, que no se consuman ms de los disponibles.
La funcin de Lagrange de este problema es L.x; / D f .x/ C g.x/. La funcin
de Lagrange dual, o simplemente la funcin dual, es
Segn la gura 5.34, el punto donde corta al eje t en su punto ms bajo posible el hiper-
plano soporte del conjunto S que dene t C u D cte. en este caso una lnea recta
ser el valor de la funcin dual.
5-Optimizacin y Programacin Matemtica j 101
u
Figura 5.33: Sencillo esquema de un problema de optimizacin para interpretar geomtri-
camente la dualidad lagrangiana
S
u+t=cte
u+t=q() q()
u
Figura 5.34: Funcin dual del problema para interpretar geomtricamente la dualidad la-
grangiana
De todos esos hiperplanos soporte, con 0, el que obtiene el ptimo del proble-
ma dual,
lo dar la interseccin con el eje t del que se esquematiza en la gura 5.35 que toca los
dos punto mas bajos de S que se ven. El gap de dualidad en este ejemplo es la diferencia
entre f y d : d f , dualidad dbil.
En el caso de dualidad fuerte, sin gap de dualidad, se daran formas como la de la
gura 5.36.
102 j 5-Optimizacin y Programacin Matemtica
t
(,1)
S
(,1)
f
d
u
Figura 5.35: ptimo de la funcin dual del problema para interpretar geomtricamente la
dualidad lagrangiana
t t
S S
f
d
f
d
u u
max. L.x; ; /
s. a rx L.x; ; / D 0
0:
5-Optimizacin y Programacin Matemtica j 103
minimizar
n
cT x
x2R
sujeta a Ax D b
x 0;
Su problema dual
n
T o
max. q.; / D Knf fL.x; ; /g D T b C Knfx c A T x
(
T b si c A T D 0
D
1 si c A T 0
s. a 0:
(-y,1)
f(x)
Pendiente = y
0 x
inf { f (x ) xTy} = f ( y)
x n
soporte. Uno de estos, la funcin conjugada, est asociado con un punto de cruce con el
eje vertical que es f .y/ D Knfx2Rn ff .x/ x > yg:
Una interpretacin econmica de la funcin conjugada identica x > y f .x/ con
el benecio de producir la cantidad x de bienes cuando los precios estn dados por el
vector y. El mximo de ese benecio asociado a y es la funcin conjugada f .y/.
Cualquiera que sea la estructura de f , su funcin conjugada f es convexa y cerrada
pues es el supremo, punto a punto, de la coleccin de funciones anes
f (x )
xy
(0,f (y ))
f (x) = x if y =
f ( y) =
if y =
Slope =
0 x 0 y
f (x ) = |x | 0 if |y| 1
f (y) =
if |y| > 1
0 x 1 0 1 y
0 x 0 y
Ejemplo 5.9 La funcin f .x/ D kxk, una norma en Rn , siendo su norma dual asociada
kxk D supkuk1 u> x, tiene por funcin conjugada
(
0 kyk 1
f .y/ D
1 en cualquier otro caso:
Esto se denomina funcin indicador de la norma dual de la esfera unidad. La norma dual
de la norma eucldea es la propia norma eucldea.
PC
semidenite program
linear program
Uno de los elementos que lanzaron al estrellato este tipo de problemas fue el con-
tar con la potencia de los algoritmos de punto interior para tratar problemas de grandes
dimensiones. Hay una amplia variedad de problemas de optimizacin convexa no lineal
que se pueden presentar como problemas de este tipo que implican desigualdades de-
nominadas de matriz lineal (LMI) y resolverse hoy en da muy ecientemente usando
esos mtodos de punto interior.
La programacin semidenida es una importante herramienta numrica para el an-
lisis y resolucin de problemas en sistemas y teora de control. Tambin se usan cada
da ms en la optimizacin combinatoria como una tcnica valiosa para obtener lmites
en la solucin de problemas NP-duros (de toma de decisiones). Sus aplicaciones crecen
da a da en geometra computacional, diseo de experimentos, teora de informacin
y comunicacin, optimizacin de valores propios en diseo de estructuras, diagnstico
mdico y otros.
S n WD fM 2 Rnn W M > D M g:
minimizar hC ; X i
X 2S n
sujeta a hA; X i D b
X < 0;
+0 P
3
S+
A = H
y Maurice Frchet, as
2 3
hA1 ; X i
6 :: 7
hA; X i D 4 : 5:
hAm ; X i
Si el espacio Rm est dotado de un producto escalar, o producto interior, tambin
expresado mediante h; i, y se introduce el operador A W Rm ! S n , adjunto a A y
denido as
8X 2 S n ; 8y 2 Rm W hA.X /; yi D hX ; A .y/i
el problema dual de SDP se plantea as
maximizar hb; yi
.y;S /2Rm S n
sujeta a hA ; yi C S D C
S < 0;
El vector b D 11 19> .
La variable del problema es la matriz simtrica 3 3
2 3
x11 x12 x13
X D 4x21 x22 x23 5 :
x31 x32 x33
Calculemos el producto
2 3
x11 2x12 3x13
C X D 42x21 9x22 0x23 5
3x31 0x32 7x33
5-Optimizacin y Programacin Matemtica j 111
1> C C 1 D x11 C 2x21 C 3x31 C 2x12 C 9x22 C 0x32 C 3x13 C 0x23 C 7x33
D x11 C 4x12 C 6x13 C 9x22 C 0x23 C 7x33 :
Su dual,
maximizar 11y1 C 19y2
2 3 2 3 2 3
101 028 123
sujeta a y1 40 3 75 C y2 42 6 05 C S D 42 9 05
175 804 307
S < 0:
Formulacin que puede tener sus ventajas en muchos casos frente a la del primal.
f0 (x )
f 0 (x oQ )
La frontera de Pareto puede ser lineal, cncava, convexa, continua o discontinua de-
pendiendo de las funciones objetivo integrantes del problema. Todas las soluciones per-
tenecientes a la frontera son igualmente buenas y no se puede especicar si alguna de
las soluciones es preferible a las otras, excepto en aquellos casos en que se haya denido
una preferencia a priori.
1 En anlisis econmico se denomina ptimo de Pareto a aquel punto de equilibrio en el que ninguno de los
agentes afectados podr mejorar su situacin sin reducir el bienestar de cualquiera de los otros agentes.
114 j 5-Optimizacin y Programacin Matemtica
5.7.2 Escalarizacin
La escalarizacin es una tcnica para encontrar puntos ptimos de Pareto en un problema
de optimizacin vectorial. Se basa en la caracterizacin de puntos mnimos y minimales
va desigualdades generalizadas duales tal como se introdujeron antes en este apndice.
Si se escoge un k 0 que es positivo en las desigualdades duales generalizadas,
consideremos el problema escalar
y en l sea x un punto ptimo. Este punto es ptimo de Pareto del problema 6 de opti-
mizacin vectorial. Esto se deduce de la caracterizacin mediante desigualdades duales
de los puntos minimales de las desigualdades de la pgina 84, as como de un observa-
cin directa. Si no lo fuera, existira un y factible, que satisfara f0 .y/ K f0 .x/ y
que adems f0 .x/ f0 .y/. Como f0 .x/ f0 .y/ K 0 y no es cero, se tiene que
> .f0 .x/ f0 .y// > 0, es decir, > f0 .x/ > > f0 .y/. Lo que contradice el supues-
to de que x es ptimo del problema escalar 7. El mtodo de la escalarizacin se puede
f 0 (x 1)
f 0 (x 3 )
1
f 0 (x 2 ) 2
Fi .x / Fi .y/; i D 1; : : : ; q;
minimizar Fj .x/
sujeta a fi .x/ 0; i D 1; : : : ; m
hi .x/ D 0; i D 1; : : : ; p;
con j D 1; : : : ; q. Cuando existe un punto ptimo, decimos que los objetivos son no
competidores, ya que no hay que establecer compromisos o hacer concesiones entre los
objetivos: cada objetivo es tan pequeo como es posible hacerlo, incluso si se ignorasen
los dems.
Un punto ptimo de Pareto x op cumple lo siguiente: si y es factible y Fi .y/
Fi .x po /, para i D 1; : : : ; q, entonces Fi .x po / D Fi .y/, i D 1; : : : ; q. Lo que se puede
expresar de esta manera: un punto en ptimo de Pareto si y slo si es factible y no hay
un punto factible mejor. En particular, si un punto factible no es ptimo de Pareto, al
116 j 5-Optimizacin y Programacin Matemtica
menos existe otro punto factible que es mejor. Todo esto conduce a que para determinar
el ptimo del problema nos podemos limitar a analizar los puntos que son ptimo de
Pareto.
Supongamos pues que x y y son ptimos de Pareto y que
Fi .x/ < Fi .y/; i 2A
Fi .x/ D Fi .y/; i 2B
Fi .x/ > Fi .y/; i 2 C;
donde A [ B [ C D f1; : : : ; qg. Dicho de otra forma, A es el conjunto de ndices de las
funciones objetivo para las cuales x domina a y, B el de aquellas en las que x iguala
a y y C el de las que y bate a x. Si A y C estn vacos, los dos puntos x e y tiene
exactamente los mismos valores de la funcin objetivo. Si no es el caso, A y C deben
ser simultneamente no vacos. Es decir, al comparar dos puntos ptimos de Pareto, u
obtienen las mismas prestaciones en trminos de funcin objetivo, o uno mejora al otro
en al menos uno de los objetivos.
Al comparar los puntos x e y decimos que hemos intercambiado mejores valores
de funciones objetivos de i 2 A por los peores de i 2 C . El anlisis del intercambio
ptimo es el estudio de cunto peor pueden resultar diversas funciones objetivo haciendo
otras mejor, o ms en general, el estudio de qu conjuntos de funciones objetivo son
alcanzables y cules no.
Como ejemplo, consideremos un problema con dos funciones objetivo (dos criterios
de optimizacin). Supongamos que x es un punto ptimo de Pareto con valores de las
funciones objetivo F1 .x/ y F2 .x/. La pregunta que se podra uno hacer es cunto ms
grande debera ser F2 .z/ para determinar un punto factible z tal que F1 .z/ F1 .x/ a,
donde a > 0 es cualquier constante. Grosso modo, nos preguntamos cunto debemos
pagar a la segunda funcin objetivo para obtener una mejora de a en la primera. Si se de-
be admitir un incremento importante en F2 para obtener un pequeo decremento en F1 ,
decimos que existe una contrapartida fuerte entre objetivos cerca de los puntos ptimos
de Pareto de valor .F1 .x/; F2 .x//. Si, por otro lado, se puede conseguir un decremento
grande de F1 con un pequeo incremento de F2 , decimos que la contrapartida entre esos
objetivos es dbil cerca de los puntos ptimos de Pareto de valor .F1 .x/; F2 .x//.
De igual manera se puede considerar el caso de qu contrapartidas negativas se consi-
guen en la primera funcin objetivo mejorando la segunda. Aqu buscamos cunto menor
se puede hacer F2 .z/ para obtener un punto factible z en el que F1 .z/ F1 .x/ C a, con
a > 0 una constante como antes. En este caso se obtiene una mejora (reduccin) en F2
comparada con F2 .x/. Si esa mejora o benecio es grande (aumentando un poco F1 se
obtiene una reduccin importante de F2 , decimos que los objetivos presentan contra-
partidas fuertes. Si es pequeo, contrapartidas dbiles cerca del valor ptimo de Pareto
.F1 .x/; F2 .x//.
El conjunto de valores ptimos de Pareto de un problema de optimizacin multi-
criterio se denomina supercie ptima de contrapartida, si q > 2, o curva ptima de
contrapartidas cuando q D 2. En general, su anlisis se reduce a los puntos ptimos de
Pareto.
5-Optimizacin y Programacin Matemtica j 117
0.25
F 2 (x ) = ||x || 22
0.2
O
0.15
0.1
0.05
= 100
0
80 85 90 95 100 105 110 115 120
F 1 (x ) = ||Ax b || 22
Figura 5.45: Curva ptima de contrapartidas del problema de mnimos cuadrados regula-
rizado. La zona sombreada es el conjunto de puntos alcanzables, .kAx bk22 ; kxk22 /, que
considera el problema con A 2 R10010 y b 2 R10 . La curva de ptimos de Pareto es la
destacada en la parte inferior izquierda
donde
D 2 =1 . Cualquier
> 0 determina un punto ptimo de Pareto del problema.
6-Elementos de clculo integral, campos escalares y campos vectoriales j 119
f(x *)
i
0 a xi-1 xi xn-1 b x
x* x* x* x i* x n*
Figura 6.1: Integral denida como suma de Riemann. Stewart [2015]
z
z=f(x, y)
0
c
a d
y
b R
x
Calculemos el volumen de S .
Para ello dividimos el rectngulo R en pequeos subrectngulos como se aprecia
en la gura 6.3. El intervalo a; b lo dividimos en m subintervalos xi1 ; xi , de igual
longitud x D .b a/=m, y c; d en n subintervalos yi 1 ; yi de igual longitud y D
.d c/=n. Cada subrectngulo Rij D xi 1 ; xi yj 1 ; yj D f.x; y/ j xi1 x
xi ; yj 1 y yj g tiene un rea A D xy.
Si de cada Rij escogemos un punto de muestra .xij ; yij /, la parte de S encima de
ese trocito se puede aproximar por una columna o paraleleppedo rectangular de base
Rij y altura f .xij ; yij /. El volumen de esta columna es f .xij ; yij /A. Siguiendo este
patrn de actuacin con todos los rectngulos de R el volumen aproximado de S ser
X
m X
n
V f .xij ; yij /A:
iD1 j D1
Aproximacin que ser tanto mejor cuanto ms se amplen las divisiones m y n, es decir,
X
m X
n
V D lKm f .xij ; yij /A:
m;n!1
i D1 j D1
y
R ij (xi,yj)
d
yj (x *ij ,y *ij )
y yj-1
c
(x *,y*)
0 a x i-1 x i b x
x
z
R ij
f (x, y, z) = c
Figura 6.4: Distintos campos vectoriales: El ujo de viento alrededor de un ala, el agua
al pasar por el estrechamiento de un canal y los vectores gradiente rf de una supercie
f .x; y; z/ D c
X
n
Sn D f .xk ; yk ; zk / sk ;
kD1
z
t=b
r(t)
C
s k
y
(x k , yk , z k )
t=a
x
por lo que
l s
I b 2 2 2
dx dy dz
f .x; y; z/ D f .xk ; yk ; zk / C C dt:
C dt dt dt
a
En forma vectorial I Z b
f .x; y; z/ D f .r.t // jr0 .t /j dt:
C a
F(x *i ,y*i ,z *i )
T(t *i )
Pi-1
Pi
0
Pn
P i*(x *i ,y*i ,z *i ) y
x
P
Figura 6.6: Integral de lnea en un campo de fuerzas. Stewart [2015]
X
n
F.xi ; yi ; zi / T.xi ; yi ; zi /si
i D1
donde T.x; y; z/ es el vector unitario tangente a C en el punto .x; y; z/. Esta aproxima-
cin ser tanto mejor cuanto ms grande sea n y en el lmite cuanto n ! 1 el trabajo
ser (el lmite de las sumas de Riemann)
I I
RD F.x; y; z/ T.x; y; z/ ds D F T ds:
C C
El trabajo es pues la integral de lnea con respecto a la longitud del arco del componente
tangencial de la fuerza.
Si la curva se expresa paramtricamente mediate r.t / D x.t / i C y.t / j C z.t / k,
entonces T.t / D r0 .t /=jr0 .t /j por lo que la expresin del trabajo queda
l b Z b
r0 .t /
W D F.r.t // 0 jr0 .t /j dt D F.r.t // r0 .t / dt:
jr .t /j a
a
Denicin 6.5 Sea F un campo vectorial continuo denido en una curva C dada por
la funcin r.t /, a t b. La integral de lnea de F a lo largo de C es
I l b I
F dr D F .r.t // r0 .t / dt D F T ds
C a C
126 j 6-Elementos de clculo integral, campos escalares y campos vectoriales
Teorema 6.2 Teorema fundamental de las integrales de lnea. Sea C una curva conti-
nua dada por la funcin r.t /, a t b. Sea f una funcin derivable de dos o tres
variables cuyo vector gradiente rf es una funcin continua en C . Entonces
I
rf d r D f .r.b// f .r.a//:
C
Este teorema proporciona la relacin entre la integral de lnea alrededor de una curva
cerrada C y la integral doble, de supercie, de la regin D contenida en C y adherida
a sta. Supondremos que la regin D consiste en todos los puntos interiores a C y los
de esta curva. Tambin que su orientacin es positiva, segn indica la gura 6.7. Este
teorema es la contrapartida del teorema fundamental del clculo para integrales dobles.
C
0 x
Figura 6.7: Curva C de orientacin positiva y regin D. Stewart [2015]
Teorema 6.3 Teorema de Green. Sean C , una curva continua por tramos, orientada
positivamente y cerrada en el espacio R2 , y D la unin de la regin acotada por C ,
(@D D C ), y la propia C . Si F D .P; Q/ W D ! R2 es un campo vectorial expre-
sado por F.x; y/ D P .x; y/ i C Q.x; y/ j , en el que las dos funciones P y Q tienen
derivadas parciales continuas en una regin abierta que contiene a D, se tiene que
@Q @P
P dx C Q dy D F dr D dA:
C C @x @x
D
6-Elementos de clculo integral, campos escalares y campos vectoriales j 127
De aqu que
rot F D r F:
s
F n ds D div F.x; y/ dA
C
D
T(t)
r(t) n(t)
D
C
0 x
es un versin del de Green para dimensiones superiores a las que se dene ste. Relaciona
un integral de supercie en una supercie S con una integral de lnea alrededor de una
curva que acota S .
z
n
n
S
C
0
x y
Figura 6.9: Teorema de Tokes. Supercie S y vector n. Stewart [2015]
Teorema 6.4 Teorema de Stokes. Sea S una supercie orientada, continua a tramos
y acotada por una curva C continua por tramos, orientada positivamente y cerrada en
el espacio R3 . Si F es un campo vectorial en R3 cuyos funciones tienen derivadas
parciales continuas en una regin abierta de R3 que contiene a S , se tiene que
C F dr D rot F d S.
El caso especial en el que la supercie S sea bidimensional y est en el plano .x; y/,
con orientacin hacia arriba (en el sentido contrario a las agujas del reloj), su vector
unitario normal es k, la integral de supercie es una integral doble y el teorema de Stokes
se convierte en
F dr D rot F d S D .rot F/ k dA
C
S S
130 j 6-Elementos de clculo integral, campos escalares y campos vectoriales
Este proceso es lo que se entiende por discretizacin en las tcnicas de los elementos
nitos. La discretizacin que se utiliza est determinada por una malla o retcula (una
retcula de por ejemplo 20 20 dara como resultado 441 funciones base nicas) mesh
como la de la gura 7.1 y normalmente se emplean dos funciones de base a cada lado
de un elemento de la malla.
Con esas funciones de base la solucin de nuestra ecuacin diferencial se represen-
tara de esta manera
Xn
0
u D k k :
kD1
La nica diferencia con la expresin anterior es el lmite superior del sumatorio.
El siguiente paso es hacer que nuestra funcin de prueba sea una funcin de base.
Tambin habr que asegurarse que las funciones base no se superpongan, lo cual ga-
rantiza el que sean ortogonales como pretendamos antes y nos permite aproximar ms
fcilmente la solucin en el dominio de inters. Las funciones de base que se suelen usar
son polinomios (especialmente polinomios lineales o cuadrticos).
Despus de lo que puede parecer que es complicar el problema original agregando
toda esta abstraccin y matemticas para llegar a lo que hemos llegado, qu hemos
conseguido realmente? Pues convertir el problema en una ecuacin algebraica matricial
sencilla para poderlo resolver por medio del lgebra que conocemos. Si el problema
fuese lineal, simplemente tendremos que resolver la ecuacin Ax D b.
Para un problema simple como el de la ecuacin de Poisson
@2 u @2 u
u.x; y/ D 2
C 2 D f .x; y/;
@x @y
por Simon Denis Poisson, Francia, 1781-1840. la matriz A es muy fcil de calcular y se
denomina la matriz de rigidez en homenaje a los principios de las tcnicas de elementos
134 j 7-Sobre el mtodo de los elementos nitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales
nitos en problemas de elasticidad. Esta matriz muy dispersa (con pocos coecientes
distintos de cero) y diagonal dominante est formada por el producto interior de las
funciones de base con ellas mismas, multiplicadas si es el caso por la constante que
aparezca en la ecuacin original. El vector solucin de ese sistema se multiplica por el
de las funciones de base y se obtiene la del problema original, o una que se aproxima
mucho a la misma.
Resumiendo, el procedimiento de resolucin del mtodo de los elementos nitos
consta de las siguientes fases u operaciones:
Conversin del problema original de dimensin innita, mediante las propiedades
de los espacios de Hilbert, en uno similar prximo en un espacio vectorial de
dimensin nita. En ste se estudia la existencia y unicidad de la solucin.
Creacin de una formulacin dbil del problema original con la que podamos usar
las herramientas de producto interior y medida.
Discretizacin del dominio de denicin del problema y eleccin de una base de
funciones que sean ortogonales entre si.
Conversin de los productos interiores entre funciones de base en sistemas lineales
de ecuaciones.
Resolucin de ese sistema lineal resultante mediante tcnicas de matrices disper-
sas.
Las ventajas de este mtodo frente a otros son muchas en bastantes mbitos de la in-
geniera, la ciencia y la investigacin por lo que su extensin y precisin, as como los
algoritmos que emplea, cada vez son ms amplios, ambiciosos y potentes.
Para concretar con cierto detalle los pasos del mtodo, vamos a desarrollar el estu-
dio de un problema preciso habitual. Seguiremos esencialmente el trabajo de Francisco
Javier Sayas [2015].
D
N
@n u D ru n;
u D g
La formulacin dbil del problema queda por n as:
Z 0en D Z
R R
Determinar una funcin u tal que: ru rv C c uv D f v C
N g1 v;
para todo v tal que v D 0 en la frontera D :
En esta formulacin la condicin de Dirichlet desplazamientos dados se impone
como una condicin aparte que ha de cumplir la funcin de prueba v. Se denomina
condicin esencial de borde o frontera. La condicin de Neumann fuerzas normales
aparece como una condicin de frontera natural dentro de la formulacin del problema.
Como indicbamos anteriormente, la funcin de prueba v chequea la ecuacin que
satisface u. Juega un papel de funcin de ponderacin para comprobar el comportamien-
to medio de la ecuacin. En alguna referencia interesante se la denomina desplazamiento
virtual para enfatizar que no es una incognita sino algo utilizado para formular el pro-
blema de esta manera: mediante desplazamientos virtuales de la realidad, si se llega a
conocer.
Las derivadas de este espacio se entienden en un sentido dbil que hagan que el espa-
cio sea completo si toda sucesin de Cauchy en l tiene lmite y por lo tanto sea
un espacio de Banach. En sentido dbil no es sino una generalizacin del concepto de
derivada a funciones no necesariamente derivables pero si integrables localmente en el
sentido de Lebesgue en un dominio dado de Lp ./.
La norma correspondiente de este espacio completo es
Z Z 1=2 Z Z Z !1=2
@u 2 @u 2
kuk1;D 2
jruj C juj2
D C C juj2
;
@x1 @x2
denominada en ingeniera norma de energa. Las funciones que usan esta forma ni-
ta son funciones de energa nita. Intuitivamente, un espacio de Sobolev es un espacio
de funciones con derivadas de orden suciente para un dominio de aplicacin determi-
nado y equipado con una norma que mida adecuadamente tamao y regularidad en las
funciones. Un subespacio de inters de ese espacio H 1 ./ es
H
1D ./ D v 2 H 1 ./ jv D 0 en D :
Establecido todo este aparato matemtico, la formulacin dbil del problema original
queda as:
Determinar una funcin u 2 H ./ tal que 1
u D g0 en D Z
Z Z Z
ru rv C c uv D fv C g1 v; para todo v 2 H
1D ./:
N
lo que quiere decir que v est en el mismo espacio de la funcin que se busca u pero
satisface una versin homognea de la condicin esencial de borde o frontera.
Los datos del problema estn en los siguientes espacios f 2 L2 ./, g1 2 L2 .N /
y g0 2 H 1=2 .D /. El segundo espacio restringe el dominio de las integrales en la l-
nea que marca N en vez de en . Que g0 2 H 1=2 .D / quiere decir que existe al
menos una funcin u0 2 H 1 ./ tal que u0 D g0 en D . De n hecho, todas las dems
o
que cumplen esta condicin pertenecen a u0 C H
D ./ D u0 C vjv 2 H
1D ./ D
1
w 2 H 1 ./jw D g0 en D . Que g0 pertenezca a H 1=2 .D / signica que no se busca
la solucin en el conjunto vaco.
del espacio H 1 ./ mediante funciones polinomiales sencillas por tramos o trozos. Esto
transformar el espacio original de dimensin innita en un subespacio de dimensin
nita de funciones admisibles fciles de obtener.
Para conseguirlo se utiliza una particin del dominio de clculo en subdominios,
a los que se denomina mallado. El ms sencillo es aquel en el que es un intervalo de
la recta real, por ejemplo el abierto .0; 1/, en el que se tiene la particin 0 D x0 < x1 <
< xn D 1 dividida en subintervalos Ij D .xj 1 ; xj / de longitud hj D xj xj 1 ,
j D 1; : : : ; n. Si h D mKax hj y Vh es el espacio lineal de funciones v tal que v 2
C 0 .0; 1/, vjxi 1 ;xi es un polinomio lineal, i D 1; : : : ; n, perteneciente por tanto a P1 ,
y v.0/ D 0.
Para cada i D 1; : : : ; n se dene la funcin i como una delta de Kronecker,
i
0 xi 1
Figura 7.4: Funcin de base lineal por tramos
Se tiene que fi W 1 i ng es una base de Vh . El conjunto fi g es una base nodal
de Vh y fv.xi /g son los valores nodales de una funcin v. Los puntos .xi / se denominan
nodos o nudos.
Dada una funcin v 2 C 0 .0; 1/,Pel interpolante, o funcin de interpolacin, vh 2
Vh de v se obtiene mediante vh D niD1 v.xi /i como se aprecia en la gura 7.5. Si
v 2 Vh ) v D vi .
Vh
0 xi 1
Figura 7.5: Aproximacin mediante vh de una funcin de base lineal por tramos
15
6 11
2
16
12 18
3 7
8 17
4
13
xi
xi como uno de sus vrtices, i es cero en todo el tringulo pues el valor de la funcin
en todos sus vrtices es cero. El soporte por tanto de i la envoltura del conjunto
de puntos donde i no es cero es la misma que la unin de todos los tringulos que
comparten xi como vrtices. Ver gura 7.9.
X
M X
M X
M
uh D uh .xj /j .xi / D uh .xj /j i D uh .xj /j :
j D1 j D1 j D1
y uno de Vh
D as
X
uh D uj j :
j 2Ind
u .x / D g .x / 8j 2 Dir
Obtener una funcin uh 2 Vh
h j 0 j
tal que Z Z Z Z
ruh ri C c uh i D f i C g1 i ; 8i 2 Ind:
N
Para ello:
Hemos convertido el espacio de Sobolev en el que buscamos la funcin solucin
en uno de dimensin nita, Vh . Es decir, hemos reducido el problema a calcular
uh en los vrtices de una triangularizacin los nodos y a un nmero nito de
incgnitas.
Hemos sustituido las condiciones tipo Dirichlet jando condiciones a los nodos
Dirichlet, lo que reduce an ms el nmero de incgnitas: a los nodos indepen-
dientes.
Hemos reducido el espacio de prueba de H
1D ./ a un subespacio discreto Vh
D ,
lo que reduce un nmero innito de pruebas en la formulacin dbil a un nmero
nito de ecuaciones lineales.
Para obtener nalmente el sistema de ecuaciones lineales escribimos uh en trminos
de las funciones de base de los nodos:
X X
uh D uj j C uj j :
j 2Ind j 2Dir
144 j 7-Sobre el mtodo de los elementos nitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales
y reordenando llegamos a
i Z Z Z Z
rj ri C c j j uj D f i C g1 i
N
j 2Ind
i Z Z
rj ri C c j j g0 .xj /:
j 2Dir
y la matriz de masas Z
M ij D j i :
Ambas son simtricas. La Rde masas es
R denida positiva. La de rigideces semidenida
positiva. Si hacemos bi D f i C
N g1 i , i 2 Ind, se llega a
i ! i !
W ij C cM ij uj D bi W ij C cM ij g0 .xj /; i 2 Ind:
j 2Ind j 2Dir
Estas matrices poseen patrones de dispersidad muy pronunciados pues slo interactan
nodos que estn unidos entre si por lados de tringulos. Ello las hacen propicias para
ordenaciones en torno a la diagonal principal. Su manipulacin es sencilla y las ope-
raciones necesarias para resolver los gigantescos sistemas de ecuaciones lineales a que
pueden dar lugar son perfectamente tratables por los ordenadores disponibles actualmen-
te.
7-Sobre el mtodo de los elementos nitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales j 145
(a) x f y=y(x)=f(x)
FUNCIONES
Input 1: argument x Input 2: function
(independent y=y(x) (primary Functional Output: functional
variable) dependent variable) operator value J (a scalar)
Input 3: derivative
of primary y'=dy/dx
dependent variable
FUNCIONALES
Figura 7.10: Diagrama de bloques que ilustra la diferencia formal en una dimensin entre
una funcin ordinaria y un funcional. (a) Una funcin ordinaria y D y.x/ D f .x/ de
una variable independiente x; (b) Un funcional J.y/ D J.x; y/ de la funcin y.x/; Un
funcional J.y/ D J.x; y; y 0 / de la funcin y.x/ y su derivada y 0 D dy=dx
3 Por ejemplo el de encontrar la curva de longitud ms corta que una dos puntos.
7-Sobre el mtodo de los elementos nitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales j 147
y (a) y (b)
Arclength L
A y=y(x) A
y(a)=y^a B B
Area A y(b)=y^ b
Cycloid B
Parabola
x=a x=b x
Figura 7.11: Ejemplos unidimensionales de funcionales: (a) rea debajo de una curva,
Rb Rb p
a y.x/ dx;q(b) Longitud de un arco de curva, a 1 C .y 0 .x//2 dx; (c) Curva braquis-
Rb 0 .x//2
tcrona, a 1C.y 2gy dx
donde F es una funcin conocida con derivadas continuas hasta segundo orden respecto
a x, y y y 0 . El valor de I depender de la trayectoria de la funcin entre .x1 ; y1 / y
.x2 ; y2 /; es decir, depender de la funcin y.x/ que se escoja.
Si se introduce como prueba la familia de trayectorias
Q
y.x/ D y.x/ C ".x/;
donde " es un parmetro y .x/ una funcin derivable a la que se le pide que .x1 / D
.x2 / D 0, resulta que se pueden generar una innidad de trayectorias para una .x/
dada sin ms que variar el parmetro ". Todas ellas pasan por .x1 ; y1 / y .x2 ; y2 /. Consi-
deremos Z x2 Z x2
IQ D Q yQ 0 / dx D
F .x; y; F .x; y C "; y 0 C "0 / dx
x1 x1
Es evidente que los funcionales I y IQ alcanzarn el mismo valor extremo (valor mximo
o mnimo) cuando " D 0. Desarrollando, se tiene que
! !
d IQ d 2 Q
I "2
IQ D .IQ/"D0 C "C 2
C
d" d" 2
"D0 "D0
(a)
1
y B
2
3
A y(b)=y^b
4
y(a)=y^ a 5
x=a x=b x
(b)
y B
1
2
A 3 y(b)=y^b
y(a)=y^ a 4
5
x=a x=b x
Es decir que
Z
x2
@F d yQ @F d yQ 0
C 0 dx D 0:
x1 @yQ d " @yQ d " "D0
Cualquiera que sea la funcin .x/ entre los puntos extremos, segn la frmula de Euler-
Lagrange se tiene que
d @F @F
D0
dx @y 0 @y
que es la condicin que debe cumplir y.x/ para ser un mximo o un mnimo: un extremo.
Si en esta expresin se sustituye F por su expresin F .x; y; y 0 / resulta una ecuacin
diferencial de segundo orden en y.x/.
Lema 7.1 Lema fundamental del Clculo de Variaciones. Sea M.x/ una funcin con-
tinua denida en el intervalo a x b. Supongamos que para cualquier funcin
continua .x/ se tiene que
Z b
M.x/.x/ dx D 0:
a
Demostracin. Supongamos que M.x/ no es cero en algn punto x0 2 .a; b/. Concre-
tamente que M.x0 / > 0. Por la continuidad de M.x/, existe un > 0 tal que
M.x0 / M.x0 /
< M.x/ M.x0 / < para jx x0 j < con x 2 a; b:
2 2
En consecuencia, M.x/ > M.x0 /=2 en ese intervalo. Escojamos una funcin .x/ tal
que, como se ve en la gura 7.13,
0 si a x a1 D mKax.x0 ; a/
.x/ D > 0 si jx x0 j < ; x 2 a; b
0 si mKn.x0 C ; b/ D b1 x b:
M( x0 )
M( x0)
2
.x/
a x 0 b x0 x 0 +b b
Lema 7.4 Sea M.x/ una funcin continua en a x b. Supongamos que para
cualquier funcin continua .x/, de derivada continua, se tiene que
Z b
M.x/ 0 .x/ dx D 0
a
para .a/ D .b/ D 0. Se cumple as que M.x/ D cte para todo x 2 a; b:
Lema 7.5 Sea M.x/ una funcin continua denida en el intervalo a x b. Su-
pongamos que para cualquier funcin continua .x/, de derivadas continuas al menos
7-Sobre el mtodo de los elementos nitos de Ritz-Galerkin para resolver ecuaciones en derivadas parciales j 151
para .a/ D .b/ D 0 y .a/ D 0 .b/ D 0. Se cumple entonces que M.x/ D c0 Cc1 x
0
Sus orgenes se remontan al trabajo sobre ajustes ortogonales por mnimos cuadrados de
Karl Pearson, Reino Unido, 1857-1936.
Como apuntbamos, permite transformar las variables originales de los datos de un pro-
blema, en general correladas, en un nmero menor de nuevas variables incorreladas,
facilitando as la interpretacin de esos datos.
154 j 8-Anlisis de componentes principales
cov.X ; Y / D D U U T ;
Figura 8.2: Valores y vectores propios de un mismo conjunto de datos pero rotado ngulos
distintos
Cuadro 8.1: Dos programas de M ATLAB para llevar a cabo un anlisis PCA
Cuadro 8.2: Datos sobre pisos que promocionan diversas constructoras en Espaa
160 j 8-Anlisis de componentes principales
datos =
1.0000 2.0000 3.0000 4.0000 5.0000 6.0000 7.0000 8.0000 9.0000 10.0000
8.7000 14.3000 18.9000 19.0000 20.5000 14.7000 18.8000 37.3000 12.6000 25.7000
0.3000 0.9000 1.8000 0.8000 0.9000 1.1000 2.5000 2.7000 1.3000 3.4000
3.1000 7.4000 9.0000 9.4000 8.3000 7.6000 12.6000 18.1000 5.9000 15.9000
covariance =
56.9685 5.1705 30.4775
5.1705 0.8941 3.6479
30.4775 3.6479 18.7641
signal =
-12.3303 -5.3219 -0.4638 -0.2687 0.5154 -4.8597 1.2482 20.0429 -7.4938 8.9318
0.8063 -0.1713 0.4326 0.5136 2.0809 -0.2107 -2.7532 1.6367 0.0756 -2.4105
-0.0723 0.2971 -0.4540 0.6069 -0.0247 0.1397 0.1627 -0.0000 -0.4252 -0.2302
PC =
0.8714 0.4798 -0.1026
0.0853 -0.3542 -0.9313
0.4832 -0.8027 0.3495
V =
74.3739
2.1580
0.0948
PC =
0.8714 0.4798 -0.1026
0.0853 -0.3542 -0.9313
0.4832 -0.8027 0.3495
V =
74.3739
2.1580
0.0948
Figura 8.4: Sesin de M ATLAB para analizar los datos sobre pisos construidos
9-Nmeros complejos, funciones e integracin j 161
El cociente z=w es
z a C bi
D
w c C di
a C bi c d i
D
c C di c di
.a C bi /.c d i / .ac C bd / C .bc ad /i
D D :
c Cd
2 2 c2 C d 2
162 j 9-Nmeros complejos, funciones e integracin
En su forma polar un nmero complejo se escribe z D re i' D r cos ' C i sen ' ,
p
donde r D x 2 C y 2 y ' D arctan.y=x/. A e i' D cos ' C i sen ' se la conoce como
identidad de Euler.
La circunferencia de radio unidad en el plano complejo es el lugar geomtrico de los
nmeros complejos con r D 1 gura 9.2. Si se multiplican dos nmeros e i y e i
de esa circunferencia,
e i e i D cos
C i sen
cos
C i sen
D cos
cos
sen
sen
C i sen
cos
C sen
cos
:
i i i i
Reordenando, y recordando que cos
D e Ce 2
y sen
D i e 2e , resulta que
e i.C /
D cos.
C
/ C i sen.
C
/. Por tanto, el producto de dos nmeros complejos
en la circunferencia de radio unidad es otro nmero de la misma circunferencia cuyo
ngulo es la suma de los dos precedentes.
y
i
e2 = i
i
e4
e i= 1 + 0i e0= 1 + 0i
x
Estn localizados en la circunferencia del plano complejo de radio la unidad: forman los
vrtices de un polgono regular de n lados con un vrtice en 1 como se ve en la gura 9.3
para n D 5.
+i
1 0 +1
Una raz n-sima de la unidad se denomina primitiva si no es una raz k-sima para
k < n. As, 1 es una raz segunda primitiva de la unidad y cuarta no primitiva de ella.
Visto de otra manera, la raz n-sima de la unidad es primitiva, si slo si sus k-
simas potencias, k D 0; 1; : : : ; n 1 son distintas. Las races cuartas de 1 son: 1, 1,
i, i. En el caso de 1 sus potencias de grado 0, 1, 2 y 3 son iguales; no es raz primitiva.
Para i , se calcula que las potencias de grado 0, 1, 2, 3 son, respectivamente, 1, i , 1, i ,
distintas, luego i es una raz cuarta primitiva de 1.
Lema 9.1 Sea ! una raz primitiva n-sima de la unidad y k un nmero entero. En-
tonces (
X
n1
n si k=n es un entero;
!j k D
j D0
0 en cualquier otro caso.
i = 3 = 1 4 4
...
....
....
....................
.... ....2/4
...
.... .
42 = 42 = 1
.
...
...
...
...
...
...
...
...
...
...
...
...
..
..
...
. .
. ..
...
...
..
...
......
.........................
.. 1 = 40 = 44
....
....
....
....
....
..
i = 41 = 43
y
5 7
4 /4 0 = 8 = 1
x
i2
3 =e 8
Figura 9.4: Raz cuarta primitiva de la unidad !4 D e i2 =4 y las otras tres. Nmeros de
Moivre de n D 8
1 C ! 2 C ! 4 C ! 6 C C ! 2.n1/ D 0;
1 C ! 3 C ! 6 C ! 9 C C ! 3.n1/ D 0;
::
:
1 C ! n1 C ! .n1/2 C ! .n1/3 C C ! .n1/.n1/ D 0:
X
n1
jk n si k=n es entero,
! D
0 en otro caso.
j D0
9-Nmeros complejos, funciones e integracin j 165
Exterior
y
Interior
x
Nos referiremos en lo que sigue a una curva simple, continua por tramos, como ca-
mino o ruta. Un camino en un conjunto S es un camino cuya trayectoria y grca queda
enteramente dentro de S .
Un conjunto de nmeros complejos est conectado si cualesquiera dos puntos de
S son principio y nal de un camino de S . En trminos ms coloquiales esto quiere
decir que desde cualquier punto de S podemos llegar a cualquier otro, tambin de S ,
movindonos a travs de algn camino sin abandonar S . Un conjunto abierto y conectado
se denomina dominio. Por ejemplo, el cuadrante del plano x > 0, y > 0.
Un conjunto S de nmeros complejos es simplemente conexo si cualquier camino
cerrado en S encierra dentro de l puntos de S.
Teorema 9.2 Teorema integral de Cauchy. Si la funcin f es derivable en un dominio
simplemente conexo G, entonces
I
f .z/ dz D 0
10 | Anlisis de Fourier
L AS series y polinomios de Taylor permiten aproximar funciones mediante polino-
mios, o hallan una serie de potencias que converja a una determinada funcin.
El anlisis de Fourier va en esa misma lnea de intenciones, pero aproximando la
funcin mediante combinaciones de funciones seno y coseno adecuadamente elegidas.
Lo que sigue sale bsicamente de Villanueva [2016] y Contreras [2016].
En muchas ramas de la ingeniera y de la ciencia anlisis de circuitos, tratamiento
digital de seales, compresin de imgenes y archivos digitales, etc. las funciones que
se analizan son peridicas (o van moduladas sobre funciones peridicas), es decir, existe
un perodo T > 0 tal que
1 Xn0
f .t / D a0 C an cos.nw0 t/ C bn sen.nw0 t /:
2 nD1
Es decir, una combinacin lineal de senos y cosenos que tienen un perodo comn T .
Los coecientes a0 , an y bn se denominan coecientes de Fourier del polinomio, w0
es la frecuencia fundamental y el ndice n0 , el grado del polinomio.
168 j 10-Anlisis de Fourier
fue pionero en el anlisis de funciones peridicas para describir fenmenos fsicos. Na-
cido en Auxerre y profesor de la cole Polytechnique, en 1807 formul la ecuacin
de difusin del calor mediante ecuaciones matemticas. Concretamente, la ecuacin en
derivadas parciales (parablica):
@u 1 @2 u
D o u t D Duxx :
@t 2 @x 2
La constante D > 0 se denomina coeciente de difusin y representa la difusividad
trmica del material del cuerpo que se estudia.
Para resolver el problema de la distribucin de temperaturas en el cuerpo a partir de la
distribucin en un instante inicial necesitaba escribir la funcin que da el dato inicial co-
mo suma de una serie trigonomtrica. Este es el aspecto de sus mltiples contribuciones
al conocimiento cientco que vamos a considerar aqu brevemente.
Aunque se presenta de varias maneras segn el tipo de problema estudiado, en ge-
neral, para una funcin de periodo T , el problema consiste en, dada una funcin f .x/,
encontrar una serie trigonomtrica de Fourier
1
a0 X
C an cos.nw0 x/ C bn sen.nw0 x/ ;
2 nD1
donde w0 D 2 T
, que converja a aproximar a f .x/ en cada punto x. Para todo w0 > 0
las funciones sen.w0 x/ y cos.w0 x/ son peridicas de periodo T D w 2
0
. Si conocemos
una funcin en un intervalo de longitud T conocemos su valor en todo R.
Para determinar adecuadamente esa serie, lo primero es obtener los coecientes an y
bn . Para ello hay que usar de nuevo la nocin de ortogonalidad y el ngulo entre vectores.
Recordemos que dos vectores del espacio eucldeo ndimensional son ortogonales si se
cruzan formando un ngulo de 90 grados. Es decir, si su producto interior hji es cero:
f ? g y hf jgi D 0. La ortogonalidad y las bases ortogonales de espacios vectoriales son
el fundamento de mltiples tcnicas numricas, estadsticas y cientcas a las que nos
referimos en este libro.
Para construir el razonamiento necesitamos introducir un producto interior (escalar)
que sea conveniente para espacios de funciones de dimensin innita. Con ese objetivo
10-Anlisis de Fourier j 169
Z T
0;
kl
2
cos.kw0 x/ cos.lw0 x/ dx D 2; k D l D 0
T2
; k D l 0;
Z T
(
2 0; k l
sen.kw0 x/ sen.lw0 x/ dx D
T2 ; k D l 0;
Z T
2
cos.kw0 x/ sen.lw0 x/ dx D 0
T2
P1interior por cos.lw0 x/, l > 0, en los dos trminos de la ecuacin f .x/ D
producto
a0
2
C nD1 an cos.nw0 x/ C bn sen.nw0 x/ se tiene que
a0
hf j cos.lw0 x/i D h1j cos.lw0 x/iC
2
1
X
C an hcos.nw0 x/j cos.lw0 x/i C bn hsen.nw0 x/j cos.lw0 x/i
nD1
D al hcos.lw0 x/j cos.lw0 x/i D al ;
X1
a0
hf j1i D h1j1i C an hcos.nw0 x/j1i C bn hsen.nw0 x/j1i
2 nD1
a0
D k1k2 D a0 :
2
Esta expresin de a0 explica tambin el por qu de introducir en la formulacin de la
serie el sumando a0 dividido por 2.
En consecuencia, si la serie de Fourier converge a la funcin f .x/, los coecientes
de la misma resultan de tomar productos interiores con las funciones trigonomtricas
bsicas; es decir, son
Z T
2 2
a0 D f .x/ dx
T T2
Z T
2 2
ak D hf j cos.lw0 x/i D f .x/ cos.kw0 x/ dx; k D 0; 1; 2;
T T2
Z T
2 2
bk D hf j sen.lw0 x/i D f .x/ sen.kw0 x/ dx; k D 1; 2; 3;
T T2
Las integrales deben estar bien denidas y ser nitas. Queda por demostrar que existe
convergencia hacia f .x/.
Ejemplo 10.1 Consideremos la funcin f .x/ D x en 2 ; 2 . Calculemos los coe-
cientes de Fourier se su aproximacin por series trigonomtricas:
Z
2 2
a0 D x dx D 0
2
Z 2
2 2 2 x sen.kw0 x/ cos.kw0 x/
ak D x cos.kw0 x/ dx D C D0
2
k k2 xD
2
10-Anlisis de Fourier j 171
Z
2 2 2 x cos.kw0 x/ sen.kw0 x/ 2
bk D x sen.kw0 x/ dx D C D
2
k k2 xD 2
2
D .1/kC1 :
k
La serie de Fourier es pues
sen 2x sen 3x sen 4x
f .x/ 2 sen x C C :
2 3 4
Demostrar que es convergente (que lo es) dista mucho de ser evidente y ms de ser trivial
el hacerlo.
Ejemplo 10.2 Otro ejemplo interesante para la aplicabilidad de las series de Fourier lo
constituye la funcin escaln denida as:
(
0; < x < 0;
f .x/ D
h; 0 < x < :
En la gura 10.1 se presenta esta funcin y los cuatro primeros trminos de la serie de
Fourier, lo que esboza el denominado fenmeno de Gibbs.
1.2
0.8
0.6
0.4
f(x)
0.2
0.2
0.4
0.6
0.8
4 3 2 1 0 1 2 3 4
x
Figura 10.1: Cuatro primeros trminos de la serie de Fourier de la funcin escaln, con
h D 1, y fenmeno de Gibbs
De la misma se derivan
e i C e i e i e i
cos
D y sen
D :
2 2i
Si f .t / es una funcin peridica de perodo T con desarrollo en serie de Fourier
1 1
a0 X X
f .t/ D C an cos.nw0 t/ C bn sen.nw0 t /;
2 nD1 nD1
Reordenando un poco
1
X 1
X C1
X
f .t/ D c0 C cn e i nw0 t C cn e i nw0 t D cn e i nw0 t ;
nD1 nD1 nD1
p Z 2: 1
kf k2 D hf jf i D f .t/f .t / dt
I
Con este resultado podemos calcular los coecientes cn para representar una funcin
f W T2 ; T2 ! C de la forma
C1
X
f .t/ D cn e i nw0 t :
nD1
Son
Z T
2
f .t/e i nw0 t dt
T2
cn D :
T
Muchas seales se representan de manera natural como una funcin con valores reales
por ejemplo una seal sonora mientras que otras, en particular los campos electro-
magnticos, se representan como una funcin de valores complejos.
quien lo analiz en 1899. Este fenmeno ocurre en las proximidades de una disconti-
nuidad importante de la seal. Apunta a que no importa cuntos trminos de la serie de
Fourier se incluyan, siempre se producir un error o salto en esa discontinuidad. Ese salto
es un porcentaje adicional al valor de la seal en ese punto.
R senLa amplitud de la oscilacin
a cada lado de la grca de la funcin tiende a ser 2 1
0 t
t
dt 1 0;0895 veces el
tamao del salto: en torno al 9 % de ese salto. Consideramos la funcin onda cuadrada
de perodo 2 denida en ; por
(
1 si < t < 0;
f .t/ D
1 si 0 < t <
10-Anlisis de Fourier j 175
En la gura 10.2 se ilustra esta seal de onda cuadrada y cmo las series de Fourier se
ajustan bien en todos los puntos pero es muy perceptible el salto aludido. En la gura
max n=9 quiere decir que se han incluido los trminos n D 1; 3; 5; 7 y 9 en la serie de
Fourier.
Para la convergencia en norma 2 consideramos este resultado.
Teorema 10.4 Teorema de la mejor aproximacin y convergencia en media cuadrtica
de la serie de Fourier. Sea f W I ! R una funcin peridica de perodo T que satisface
las condiciones de Dirichlet. Sea la serie de Fourier de f
X1 X1
1
f .t/ a0 C an cos.nw0 t/ C bn sen.nw0 t / D cn e i nw0 t
2 nD1 nD1
1 Xm Xm
fm .t / D a0 C an cos.nw0 t/ C bn sen.nw0 t / D cn e i nw0 t :
2 nD1 nDm
R T
y, adems, lKmm!1 2
jf .t/ fm .t /2 dt D 0.
T2
siendo w0 D 2=T .
176 j 10-Anlisis de Fourier
1.18 1.18
1 1
t t
1 1 1 1
1 1
1.18 1.18
1.18 1.18
1 1
t t
1 1 1 1
1 1
1.18 1.18
10.1.3.1 Linealidad
Si p y q son nmeros complejos, entonces la serie de Fourier de pf .t / C qg.t / es
1
X
pf .t / C qg.t / D .pcn C qdn /e i nw0 t :
nD1
1
X 1
X
f .t t0 / D cn e i nw0 t e i nw0 t D cn e i nw0 .t t0 / :
nD1 nD1
10-Anlisis de Fourier j 177
Es decir, f .t/ y f .pt/ tienen las mismas amplitudes y fases pero correspondientes a
frecuencias distintas.
10.1.3.4 Derivacin
La regla de la cadena muestra que la derivada de una funcin peridica es peridica
y tiene el mismo perodo. Si f es una funcin continua y peridica de perodo T y
su derivada f 0 verica las condiciones de Dirichlet, entonces, la serie de Fourier de f
puede derivarse trmino a trmino de manera que si
X1
1
f .t / D a0 C an cos.nw0 t/ C bn sen.nw0 t /;
2 nD1
entonces
1
X
f 0 .t / nbn w0 cos.nw0 t/ nan w0 sen.nw0 t /
nD1
para cada t 2 R.
10.1.3.5 Integracin
A diferencia de la derivacin, la integral de una funcin no necesariamente vuelve a ser
peridica. Sea f una funcin peridica con perodo T y consideremos la funcin F .t / D
Rt RT
t0 f . / d . La funcin F es T -peridica si y slo si a0 D 2=T 0 f .t / dt D 0. En
Rt
caso contrario, se tiene que la funcin t0 f . / d 1=2a0 .t t0 / es T -peridica. Si la
funcin f verica las condiciones de Dirichlet, entonces la serie de Fourier de f puede
integrarse trmino a trmino de manera que si
X1
1
f .t / D a0 C an cos.nw0 t/ C bn sen.nw0 t /
2 nD1
10.1.3.6 Convolucin
P1
Los coecientes complejos de Fourier de la convolucin f .t /g.t / D nD1 hn e i nw0 t
son
X1 X1
hn D ck dnk D cnk dk :
kD1 kD1
10.1.3.7 Multiplicacin
Se verica que
Z T 1
X
1 2
f .t/g.t/ dt D cn dn :
T T2 nD1
Fsicamente se puede leer como que la energa de una seal peridica es igual a la suma
de las energas de sus componentes. Geomtricamente se puede interpretar como una
consecuencia de una versin innito dimensional del Teorema de Pitgoras.
Proposicin 10.5 Sean f1 ; f2 2 L2 . T2 ; T2 / y .cn1 /n2Z , .cn2 /n2Z sus respectivos
coecientes de Fourier. Entonces
Z T
X
1 2
f1 .t /f2 .t / dt D cn1 cn2 ;
T T2 n2Z
La idea, ms o menos intuitiva, que utiliz Fourier fue considerar una funcin no
peridica como una funcin peridica de perodo innito, lo que le llev a representarla
no como una serie cuyos trminos corresponden a mltiplos de la frecuencia fundamental
0; w; 2w; 3w; : : : ; sino como una integral cuya variable de integracin es una frecuencia
que se mueve de manera continua.
CuandoP hablbamos del espectro de una funcin peridica, representada por una serie
de Fourier n cn e i nw0 t , con la frecuencia fundamental w0 D 2=T , apuntbamos que
los coecientes cn podan ser entendidos como una funcin c.w/ W R ! C( R/ que
toma valores distintos de 0 slo en los puntos w D nw0 , con n 2 Z , en los que vale cn .
180 j 10-Anlisis de Fourier
donde
Z T
1 2 2
cn D f .t/e i nw0 t dt y w0 D :
T T2 T
Sustituyendo estas dos expresiones en la serie
1 Z !
X 1
T
2
i nw0 x
f .t/ D f .x/e dx e i nw0 t D
nD1
T T2
1 Z !
X 1
T
2
i nw0 x
D f .x/e dx w0 e i nw0 t :
nD1
2 T2
X
k Z b
lKm h.a C nw0 /w0 D h.t / dt:
w0 !0 a
nD1
Haciendo el paso a una integral impropia tenemos que, cuando w0 tiende a 0 o cuando
T tiende a innito
Z 1 Z C1
1
f .t/ D f .x/e iwx dx e iw t dw:
2 1 1
entonces Z 1
1
f .t/ D F.w/e iwx dt:
2 1
F 1 .F/ W R ! R . C/
dada por Z 1
1 1
F .F/.t/ D F.w/e iwt dt:
2 1
10.2.1.1 Linealidad
Si f; g 2 L2 .R/ y ; 2 R, entonces F.f C g/ D F.f / C F.g/.
1 w
F.g/.w/ D F.f / :
jaj a
182 j 10-Anlisis de Fourier
indica que, para cualquier seal, la amplitud de sus componentes en frecuencia tiende a
0 cuando la frecuencia tiende a innito.
Teorema 10.10 Inversin. Si f 2 L2 .R/ entonces F.f / 2 L2 .R/ y adems la fun-
cin Z 1
1
g.t/ D F.f /.w/e iw t dw;
2 1
la transformada inversa de la transformada de f , verica que f .t / D g.t/ en casi todo
punto.
La expresin en casi todo punto tiene un signicado matemtico muy preciso.
Quiere decir que f .t/ D g.t/ excepto en, a lo sumo, un conjunto de medida cero.
Aunque esto habra que desarrollarlo un poco ms, la idea intuitiva es que cualquier in-
tervalo no vaco no es de medida cero, mientras que un slo punto, o una cantidad nita,
o incluso numerable, de puntos, s forman un conjunto de medida cero. Por tanto, el teo-
rema de inversin nos dice que si tomo una funcin f 2 L2 .R/, hallo su transformada
de Fourier F.f / y a continuacin hallo la transformada inversa de F.f /, entonces re-
cupero f salvo quizs en unos pocos puntos, que no van a tener ninguna importancia en
la gran mayora de las aplicaciones. Esto es lo que nos permite decir que no perdemos
informacin al considerar F.f / en lugar de f , puesto que podemos recuperar f (salvo
quizs en unos pocos puntos) a partir de F.f /.
10-Anlisis de Fourier j 183
7 7 7 7 7 17
Figura 10.3
184 j 10-Anlisis de Fourier
donde ! D e i2 =n .
De acuerdo con el Lemap 9, de la pgina 163, la transformada de Fourier discreta de
x D 1, 1, : : : ; 1T es y D n, 0, : : : ; 0T .
En forma matricial, la denicin dice que
2 3 2 3 2 32 3
y0 a0 C i b0 !0 !0 !0 !0 x0
6 y 7 6 a C ib 7 6! 0 ! 1 !2 ! n1 7 6 7
6 1 7 6 1 1 7 6 7 6 x1 7
6 7 6 7 6 0 2 !4 ! 2.n1/ 7 6 7
6 y2 7 D 6 a2 C i b2 7 D p1 6! ! 7 6 x2 7.
6 : 7 6 7 n6 : 7 6 7
6 : 7 6 :: 7 6 : :: :: :: 7 6 :: 7
4 : 5 4 : 5 4 : : : : 54 : 5
2
yn1 an1 C i bn1 !0 ! n1 ! 2.n1/ ! .n1/ xn1
A la matriz simtrica
2 3
!0 !0 !0 !0
6! 0 ! 1 !2 ! n1 7
6 7
6! 0 2 !4 ! 2.n1/ 7
Fn D p1n 6
6 :
! 7
7
6 : :: :: :: 7
4 : : : : 5
2
!0 ! n1 ! 2.n1/ ! .n1/
se la denomina matriz de Fourier. Todas sus las y columnas, excepto las primeras,
suman cero. La inversa de la matriz de Fourier es
2 0 3
! !0 !0 !0
6! 0 ! 1 ! 2 ! .n1/ 7
6 7
6 0 2 ! 4 ! 2.n1/ 7
Fn1 D p1n 6!
6 :
! 7
7
6 : :: :: :: 7
4 : : : : 5
2
! 0 ! .n1/ ! 2.n1/ ! .n1/
Este teorema es fruto del trabajo de Harry Nyquist, Suecia 1889-EE.UU. 1976 y
186 j 10-Anlisis de Fourier
Figura 10.4
El Teorema de Nyquist indica que la frecuencia de muestreo mnima que tenemos que
utilizar debe ser mayor que 2fM (frecuencia crtica de Nyquist), donde fM es la frecuen-
cia mxima de la seal compleja. Si utilizamos esa frecuencia de muestreo, podremos
10-Anlisis de Fourier j 187
1 NX h i
2
k
yk D x0 C .1/ xN 1 C xn cos nk ; k D 0; : : : ; N 1:
2 nD1
N 1
190 j 11-La Transformada del coseno discreta
DCT-II
X
N 1
1
yk D xn cos nC k ; k D 0; : : : ; N 1:
nD0
N 2
DCT-III
X
N 1
1 1
yk D x 0 C xn cos n kC ; k D 0; : : : ; N 1:
2 nD1
N 2
DCT-IV
X
N 1
1 1
yk D xn cos nC kC ; k D 0; : : : ; N 1:
nD0
N 2 2
y D C x:
Para que la matriz C sea una matriz ortonormal (y por tanto su inversa coincida con
su transpuesta) se han de multiplicar las ecuaciones anteriores por unos coecientes de
escalado y normalizacin que pueden depender de k y n. Para la DCT-II son
( 1
1 p si j D 0
ck n D w.k/ cos k nC ; con w.k/ D N
N 2 p 2
si j 0:
N
Se pueden componer dos (o ms) grupos de funciones bsicas para crear transfor-
madas de dos (o ms) dimensiones. La DCT bidimensional (DCT-2D) es una funcin
lineal invertible de RN N ! RN N que descompone el bloque de imagen en una suma
de frecuencias espaciales. Los coecientes ykl de la DCT para bloques xij de 8 8 se
expresan como:
c.k/c.l/ X X
7 7
.2i C 1/k .2j C 1/l
ykl D xij cos cos ;
4 16 16
i D0 j D0
(
1
si x D 0
donde k; l D 0; 1; : : : ; 7 y c.x/ D 2 : Su inversa, IDCT-2D,
1 si x 0
X
7 X
7
c.k/c.l/ .2i C 1/k .2j C 1/l
xij D ykl cos cos :
4 16 16
kD0 lD0
Figura 11.1
La ventaja que tiene la DCT frente a la DFT para la compresin de imgenes, a parte
de solo utilizar nmeros reales, es que produce una mejor compactacin de la energa
(consigue concentrar la mayor parte de la informacin en pocos coecientes) y un menor
efecto de bloque. Este efecto se esquematiza en la gura 11.2.
El efecto de bloque se produce cuando se divide la imagen en bloques de 88 pxeles
o macrobloques de 16 16 pxeles para poder ejecutar los algoritmos de transformacin.
Cuando se lleva a cabo la DFT del bloque, se asume la periodicidad del mismo (que se
repite a lo largo de todo el plano bidimensional que contiene la imagen). En la trans-
formada de Fourier el pxel B del borde derecho ser tratado por el algoritmo como si
estuviera seguido por el pxel A. Si los niveles de gris en cada pxel dieren considera-
blemente cualquier reconstruccin del bloque a partir de nicamente un nmero limitado
de coecientes de Fourier dar lugar a valores errneos en A y B. Este fenmeno es lo
que se conoce como efecto de bloque, que tiende a hacer muy visibles los lmites de los
bloques en la compresin, especialmente cuando la proporcin de compresin es eleva-
da. Sin embargo, mientras que la teora de Fourier implica la repeticin de los bloques
LxL, la teora de la DCT impone esta repeticin sobre bloques 2Lx2L, que estn relacio-
nados con los bloques originales LxL a travs de simetras especulares. La consecuencia
192 j 11-La Transformada del coseno discreta
Figura 11.2: Compactacin de la energa de una TCD comparada con una TFD
de esta simetra especular es que despus del pxel B, le sigue otro pxel B, eliminando
as la discontinuidad, esto provoca una reduccin considerable del efecto de bloque. En
la gura 11.3 se muestra la periodicidad de un bloque 4 4 en la TFD y la TCD.
(a)
2L
L
A B B A
2L
(b)
Figura 11.3: Periodicidad supuesta de un bloque 4 4 de una TFD (a) y una TCD (b)
nicamente del orden N. Por lo que como se mencion antes, jado el nmero de puntos
estas son siempre iguales sea cual sea la imagen. Una de las ventajas de la DCT es que
siendo ja la transformacin su eciencia de compresin se aproxima a la de la KLT (la
ptima) para imgenes con alto grado de correlacin espacial.
194 j 11-La Transformada del coseno discreta
12-La Transformada de Laplace j 195
12 | La Transformada de Laplace
E NUNCIADA por Pierre-Simon Laplace, Francia, 1749-1827,
esta transformada integral es similar a la de Fourier. Mientras sta es una funcin com-
pleja de una variable real, la frecuencia, la de Laplace es una funcin compleja de una
variable compleja.
Denicin 12.1 Dada una funcin f .t/ denida en 0; 1/, su Transformada de La-
place es la funcin Z 1
F .s/ D Lff g D e st f .t / dt:
0
Su transformada de Laplace es
Z 1
Lff .t/g D Ae at e st dt
0
Z 1
D Ae .sCa/t dt
0
1
e .sCa/t A
A D ;
.s C a/ sCa
0
196 j 12-La Transformada de Laplace
f .t/; t 2 0; 1/ Lff g
1
1 s
e at ; a 2 R 1
sa
t n; n 2 N n
s nC1
sen wt; w 2 R w
s 2 Cw 2
cos wt; w 2 R s
s 2 Cw 2
senh wt; w 2 R w
s 2 w 2
cosh wt; w 2 R s
s 2 w 2
e at sen wt; a; w 2 R w
.sa/2 Cw 2
s 2 w 2
t cos wt; w 2 R .s 2 Cw 2 /2
Cuadro 12.1
198 j 12-La Transformada de Laplace
13-Clculo estocstico y simulacin j 199
para k D 0; 1; : : : ; n.
202 j 13-Clculo estocstico y simulacin
X
n
E.X / D i P .Ai /:
i D1
Ejemplo 13.7 Si X es una variable aleatoria con ley normal N.0; 2 / y es un nmero
real,
1
2
1 x
E.e X / D p e x e 2 2 dx
2 2 1
1
.x 2 /2
1 2 2
Dp e 2 e 2 2 dx
2
2 1
2 2
De 2 :
X m
P .m 1;96 X m C 1;96 / D P .1;96 1;96/
.1;96/ .1;96/ D 0;95;
Se dice que un vector aleatorio n-dimensional X tiene una ley normal N.m; /,
donde m 2 Rn y es una matriz simtrica y denida positiva, si
P .ai Xi bi ; i D 1; : : : m/ D
Z bn Z b1
n 1 Pn 1
D .2 det / 2 e 2 i;j D1 .xi mi /.xj mj /
ij dx1 dxn :
an a1
Existen tambin leyes normales degeneradas en las que la matriz es singular. En este
caso no existe la densidad de probabilidad y la ley de X queda determinada por su
funcin caracterstica: 0 0 1 0
E e it X D e .it m 2 t
t / ;
Lp .; F; P /:
Sea X una variable aleatoria con funcin caracterstica 'X .t / D E.e i tX /. Los mo-
mentos de la variable aleatoria pueden calcularse a partir de las derivadas de la funcin
caracterstica en el origen
1
mn D n 'X.n/ .t / :
i tD0
Un concepto fundamental en probabilidades en el de la independencia.
Denicin 13.11 Dos sucesos A; B 2 F se dicen independientes si
P .A \ B/ D P .A/P .B/:
13-Clculo estocstico y simulacin j 205
Si se tiene una sucesin nita o innita de sucesos fAi ; i 2 I g, se dice que los sucesos
de la coleccin son independientes si
P .A \ B/
P .AjB/ D :
P .B/
X(t) 0
5
4
3 100
50
Muestra nmero 2 t
1 0
Figura 13.1
E.jX t Xs jp / cT jt sj
para todo 0 s < t T , donde a > 1 y p > 0. Entonces existe una versin del
proceso estocstico X t que tiene trayectorias continuas.
Toma su nombre de Andri Nikolyevich Kolmogrov, Rusia 1903-1987.
13.2.1 Ejemplos
Sea X.t / D A cos.10t /, t 0, donde A es una variable aleatoria uniformemente distri-
buida en el intervalo 0; 1. X.t/ es un proceso estocstico pues para cada tiempo dado
t0 , X.to / es una variable aleatoria uniforme. En la gura 13.2 se ven tres ejemplos de
X.t/, para 0 t 1.
1 Muestra 1
Muestra 2
Muestra 3
X(t) 0
1
0 0.25 0.5 0.75 1
t
Figura 13.2
208 j 13-Clculo estocstico y simulacin
6 6
4 4
2 2
5 10 15 20 5 10 15 20
2 2
4 4
6 6
Cuadro 13.1
S t1 C C S tn
mS .t / D E.S t / D
n
y la varianza muestral
.S t1 Es /2 C C .S tn Es /2
S .t; t / D Var.S t / D
n1
deberan aproximarse a 0 y t , respectivamente. La desviacin estndar muestral, que es
210 j 13-Clculo estocstico y simulacin
X
kt X
kt
E.S tk / D E.Sik / D 0 D 0:
i D1 i D1
La varianza ser
" #
X
kt X kt
1 2 1 2 kt
Var.S tk / D Var.Sik / D p .0;5/ C p .0;5/ D D t:
k k k
i D1 i D1
La gura 13.4 muestra un paseo aleatorio discreto con 10 pasos y otro con k D 25, es
decir con 250.
y y
5 5
x x
5 10 5 10
5 5
Figura 13.4
E.W t / D 0
E.Ws W t / D E.Ws .W t Ws C Ws //
D E.Ws .W t Ws // C E.Ws2 / D s D mi n.s; t /
Cuadro 13.2
212 j 13-Clculo estocstico y simulacin
.t s/k
P .N t Ns D k/ D e .t s/ ; k D 0; 1; 2; : : :
k
Denicin 13.17 Un proceso estocstico fXn ; n og, en el que las variables alea-
torias estn denidas en un espacio medible, es un proceso o cadena de Markov si
para cualquier n y cualquier conjunto A se cumple que P .XnC1 2 AjX0 ; : : : ; Xn / D
13-Clculo estocstico y simulacin j 213
P .XnC1 2 AjXn /. A los procesos que se comportan de esta manera se dicen, en gene-
ral, que cumplen la propiedad de Markov.
Lo que quiere decir que dado el presente cualquier otra informacin del pasado es re-
dundante o irrelevante para predecir el futuro. La denicin es equivalente a la identidad
E.f .XnC1 /jX1 ; : : : ; Xn / D E.f .XnC1 /jXn /.
Los procesos de Bernoulli, Wiener, brownianos y de Poisson son procesos que cum-
plen esta propiedad.
13.3 Simulacin
Los modelos matemticos, para ser crebles y robustos ante distintos escenarios de ac-
tuacin, necesitan simular sus prestaciones a partir de patrones de situaciones ya dadas
o de datos imaginados. Esto permite analizarlos para conocer sus debilidades numricas
o tericas y as mejorarlos. Si se alimentan con datos que jen un punto de partida ade-
cuado y unas condiciones de contorno previsibles, pueden permitir, con el resultado de
su operacin, tomar decisiones con un grado de certeza o riesgo ms o menos aceptable
de acuerdo con el grado de dicultad o entidad de la decisin.
Los modelos de procesos estocsticos se basan en situaciones probables, aunque in-
ciertas, dentro de unos determinados mrgenes de actuacin. Su evolucin es aleatoria y
dotada de ruido por lo que para simular su comportamiento es necesario generar nmeros
aleatorios que imiten o reproduzcan hasta donde sea posible ese ruido o aleatoriedad. En
los apartados anteriores hemos presentado unos ejemplos muy sencillos de cmo hacer
unas modestas simulaciones con la ayuda de M ATLAB para generar paseos aleatorios,
procesos de Wiener, etc.
Aunque todos disponemos intuitivamente de una cierta nocin de un nmero aleato-
rio, no es nada fcil denirlo con precisin. Tampoco en fcil imaginar cmo generarlos
mediante una mquina y que su patrn de ocurrencia responda a una distribucin con-
creta como la normal, la exponencial, la gaussiana, etc.
Ejemplo 13.8 Vamos a utilizar este generador de nmeros aleatorios para, siguiendo a
Sauer [2012], y adelantndonos a la introduccin de la tcnica Monte Carlo, calcular el
rea del conjunto de puntos .x; y/ que satisfacen
La idea es generar 10.000 pares de puntos .x; y/ de tal manera que los que cumplan esta
inecuacin se registran. Al nal del proceso se cuentan cuntos de estos hay en total,
y esa cantidad dividida por 10.000 nos dar el rea ms probable que encierra a ese
conjunto de puntos. En la gura 13.5 se puede ver el resultado de la simulacin que
numricamente es 0;547 y el rea cubierta por los puntos que cumplen la inecuacin.
0.8
0.6
y
0.4
0.2
0
0 0.5 1
x
Figura 13.5
function x=MoCa_1(n)
xy=rand(n,2); k=0;
for i=1:n
if 4*(xy(i,1)*2-1)^4+8*(2*xy(i,2)-1)^8<1+2*(2*xy(i,2)-1)^3*(3*xy(i,1)-2)^2
k=k+1;
end
end
x=k/n;
end
Cuadro 13.3
Si se quiere simular una variable aleatoria con una funcin de distribucin invertible
F , primero se simula una variable aleatoria uniforme en 0; 1 y luego se le aplica al
resultado la funcin F 1 . El mtodo falla, por supuesto, si no se puede explicitar F 1 .
Ejemplo 13.9 Apliquemos este mtodo para simular una variable aleatoria X con dis-
tribucin exponencial y parmetro . Recordemos que la funcin de densidad de proba-
bilidad en este caso es fX .x/ D e x , x > 0, por lo que FX D 1 e x , x > 0,
y
1
FX1 .y/ D log.1 y/:
Como 1-rand tiene la misma distribucin en 0; 1 que rand, se deduce que log.rand)
= tiene la distribucin exponencial con parmetro que se desea obtener.
2. Hacer Y D X1 C X2 C X12 6.
La distribucin de la variable aleatoria Y es muy prxima a una normal pero no exacta-
mente (pues P .Y > 6/ D 0 pero P .Z > 6/ 0 para una autntica normal). Esto es as
como consecuencia de este resultado.
Teorema 13.3 Sea X1 ; X2 ; : : : una sucesin de variables aleatorias independientes que
tienen la misma distribucin. Sea D E.X1 / D E.X2 / D y 2 D Var.X1 / D
Var.X2 / D . La sucesin de variables aleatorias normales
.X1 C X2 C Xn / n
p
n
converge a una variable aleatoria normal.
El que se escojan 12 u otro nmero de variables depende de la experiencia y de la
bondad de los resultados con la que se simulen los datos que se requieran.
Von Neumann es, como deca Newton, uno de los grandes gigantes que ha dado la
naturaleza humana. Sus contribuciones en los 53 aos de su vida a mltiples disciplinas
relacionadas con las matemticas son absolutamnte portentosas. No cabe duda de que a
218 j 13-Clculo estocstico y simulacin
hombros de l los avances de muchas reas a las que dedicamos este libro han permitido
ver e ir mucho ms lejos de lo que l comenz.
El mtodo Montecarlo est basado en este interesante resultado.
Teorema 13.4 Ley de los grandes nmeros. Sea X1 ; X2 ; : : : una sucesin de variables
aleatorias independientes que tienen la misma distribucin y la funcin g W R ! R tal
que D Eg.X1 / D Eg.X2 / D . Se cumple que
l 1
g.X1 / C g.X2 / C C g.Xn /
!D g.x/fX1 .x/ dx al n ! 1:
n
1
dy D f .t; y/ dt C g.t; y/ dB t
@f @f 1 @2 f
dy D .t; x/ dt C .t; x/ dx C .t; x/ dx dx;
@t @x 2 @x 2
donde dx dx se puede interpretar en trminos de dt dt D 0, dt dB t D dB t , dt D 0 y
dB t dB t D dt.
La frmula de Ito permite resolver explcitamente algunas ecuaciones diferenciales
estocsticas.
Ejemplo 13.10 Comprobemos si la ecuacin de movimiento browniano geomtrico
1 2 /tCB
y.t/ D y0 e .r 2 t
dy D ry dt C y dB t :
220 j 13-Clculo estocstico y simulacin
1
dy D y0 e x C y0 e x dx dx;
2
donde dx D .r 1=2 2 /dt C dB t . Haciendo uso de los valores diferenciales de la
frmula de Ito, se tiene que dx dx D 2 dt. En consecuencia,
x 1 2 1
dy D y0 e r dt C y0 e x dB t C y0 2 e x dt
2 2
D y0 e x r dt C y0 e x dB t
D ry dt C y dB t :
El error que comete este procedimiento al aproximar y.T / por w.T /, en funcin del
t escogido es
e D Ejy.T / w.T /j2 c.t /1=2 :
El mtodo de Euler-Maruyama puede mejorarse mediante una correccin adicional
como la que introduce el mtodo de Grigori N. Milstein. Su idea es incorporar ms infor-
macin de segundas derivadas a los procesos f .t; y/ y g.t; y/ de la ecuacin diferencial
estocstica, con el concurso de la frmula de Ito. La frmula de recurrencia que utiliza
es esta:
1 @g
wiC1 D wi C f .ti ; wi /ti C g.ti ; wi /Bi C g.ti ; wi / .ti ; wi /..Bi /2 ti /:
2 @y
riesgos en otras operaciones. Todo esto conforma todo un entramado hoy en da dif-
cilmente controlable y entendible por sus innidad de ramicaciones e interpretaciones.
Ni qu decir tiene que los clculos para valorar opciones y los datos en qu basarlos no
estn al alcance de cualquiera, por lo que son las grandes corporaciones o los analistas y
gestores especializados los que saben cmo usarlos y cundo.
En estas breves lneas simplemente esbozamos cmo se puede calcular el precio de
esas opciones y el modelo de Black y Scholes, por Fischer Sheffey Black, EE.UU. 1938-
1995, y Myron Samuel Scholes, EE.UU. 1941,
dX D mX dt C X dB t ;
dX D rX dt C X dB t :
[1] A ASEN , J.O. 1971. On the Reduction of a Symmetric Matrix to Tridiagonal Form. BIT 11,
pp. 233-242.
[2] A BADIE , J. ED . 1970. Integer and Nonlinear Programming. North-Holland.
[3] A BERTH , O. 2007. Introduction to Precise Numerical Methods. Elsevier.
[4] A BELL , M.L. Y B RASELTON , J.P. 2004. Mathematica by Example. Elsevier.
[5] ACTON , F.S. 1990. Numerical Methods that Work. The Mathematical Association of Ame-
rica.
[6] A DAMS , J.C., B RAINERD , W.S., M ARTIN , J.T., S MITH , B.T. Y WAGENER , J.L. 1992.
Fortran 90 Handbook. Complete ANSI/ISO Reference. McGraw-Hill.
[7] A DOBE S YSTEMS I NCORPORATED . 1986. PostScript Language. Tutorial and Cookbook.
Addison-Wesley.
[8] A DOBE S YSTEMS I NCORPORATED . 1990. PostScript Language. Reference Manual.
Addison-Wesley.
[9] A HUJA , R.K., M AGNATI , T.L. Y O RLIN , J.B. 1989. Network Flows. En Handbooks in
Operations Research and Management Science. Volume 1: Optimization. Nemhauser, G.L.,
Rinnooy Kan, A.H.G. y Todd, M.J. eds. North-Holland.
[10] A LJ , A. Y FAURE , R. 1988. Investigacin operativa. Elementos fundamentales. Vol. 1.
Masson.
[11] A LVARADO , F.L. 1979. A Note on Sorting Sparse Matrices. Proceedings of the IEEE 67,
pp. 1362-1363.
[12] A LVARADO , F.L. 1990. Manipulation and Visualization of Sparse Matrices. ORSA J. Com-
puting 2, pp. 186-207.
[13] A LLAIRE , G. Y K ABER , S.M. 2008. Numerical Linear Algebra. Springer.
[14] A NDERS , G.J. 1990. Probability Concepts in Electric Power Systems. Wiley.
[15] A NDERSON , E., BAI , Z., B ISCHOF, C., D EMMEL , J., D ONGARRA , J., D U C ROZ , J.,
G REENBAUM , A., H AMMARLING S., M C K ENNEY, A., O STROUCHOV, S. Y S ORENSEN ,
D. 1992. LAPACK Users Guide. SIAM.
[16] A NDERSON , E., BAI , Z., B ISCHOF, C., D EMMEL , J., D ONGARRA , J., D U C ROZ , J.,
G REENBAUM , A., H AMMARLING S., M C K ENNEY, A., O STROUCHOV, S. Y S ORENSEN ,
D. 1995. LAPACK Users Guide. Second Edition. SIAM.
[17] A NTONIOU , A. Y L U , W-S. 2007. Practical Optimization. Algorithms and Engineering
Applications. Springer.
226 j Bibliografa
[18] A RBEL , A. 1993. Exploring Interior-Point Linear Programming. Algorithms and Software.
MIT Press.
[19] A RMIJO , L. 1966. Minimization of Functions Having Lipschitz Continuos First Partial
Derivatives. Pacic J. Math. 16, pp. 1-3.
[20] A RRILLAGA , J. Y A RNOLD , C.P. 1990. Computer Analysis of Power Systems. Wiley.
[21] A SCHER , U.M. Y G REIF, C. 2011. A First Course in Numerical Methods. SIAM.
[22] ATKINSON , K. 1993. Elementary Numerical Analysis. Wiley.
[23] ATKINSON , K. Y H AN , W. 2009. Theoretical Numerical Analysis. A Functional Analysis
Framework. Third Edition, Springer.
[24] ATKINSON , K., H AN , W. Y S TEWART, D.E. 2009. Numerical Solution of Ordinary Diffe-
rential Equations. Wiley.
[25] ATKINSON , L.V., H ARLEY, P.J. Y H UDSON , J.D. 1989. Numerical Methods with Fortran
77. A Practical Introduction. Addison-Wesley.
[26] ATTAWAY, S. 2012. MATLAB. A Practical Introduction to Programming and Problem Sol-
ving. Elsevier.
[27] ATTEIA , M. Y P RADEL , M. 1990. lments dAnalyse Numrique. Cepadues-Editions.
[28] AUZINGER , W. 2013. Iterative Solution of Large Linear Systems. TU Wien, Institute for
Analysis and Scientic Computing.
http://www.asc.tuwien.ac.at/~winfried/teaching/101.403/SS2012/downloads/iter.pdf
[29] AVRIEL , M. 1976. Nonlinear Programming. Analysis and Methods. Prentice Hall.
[30] A XELSSON , O. 1996. Iterative Solution Methods. Cambridge.
[31] BARRETT, R., B ERRY, M., C HAN , T.F., D EMMEL , J., D ONATO , J.M., D ONGARRA , J.,
E IJKHOUT, V., P OZO , R., ROMINE , C. Y VAN DER VORST, H. 1994. Templates for the
Solution of Linear Systems: Building Blocks for Iterative Methods. Secon Edition. SIAM.
[32] BRSOV, A.S. 1988. Qu es la Programacin Lineal. Editorial Mir.
[33] BARTELS , R.H. Y G OLUB , G.H. 1969. The Simplex Method of Linear Programming Using
LU Decomposition. Communications of the ACM 12, pp. 266-268.
[34] BASHIROV, A.E. 2014. Mathematical Analysis Fundamentals. Elsevier.
[35] BAZARAA , M.S. Y JARVIS , J.J. 1977. Linear Programming and Network Flows. Wiley.
[36] BAZARAA , M.S., JARVIS , J.J. Y S HERALI , H.D. 1990. Linear Programming and Network
Flows. Wiley.
[37] BAZARAA , M.S. Y S HETTY, C.M. 1979. Nonlinear Programming. Theory and Algorithms.
Wiley.
[38] BAZARAA , M.S., S HERALY, H.D. Y S HETTY, C.M. 1994. Nonlinear Programming.
Theory and Algorithms. Second Edition. Wiley.
[39] B EALE , E.M.L. 1954. An Alternative Method for Linear Programming. Proceedings of the
Cambridge Philosophical Society 50, pp. 513-523.
[40] B EASLEY, J.E. 1996. Advances in Linear and Integer Programming. Oxford University
Press.
[41] B ECKMANN , M.J. 1968. Dynamic Programming of Economic Decisions. Springer.
[42] B ELLMAN , R. Y D REYFUS , S.E. 1962. Applied Dynamic Programming. Princeton Uni-
versity Press.
[43] B ELLMAN , R. 1970. Introduction to Matrix Analysis. SIAM.
Bibliografa j 227
[70] B OT, R.I., G RAD , S.M. Y WANKA , G. 2009. Duality in Vector Optimization. Springer.
[71] B OYCE , W.E. Y D I P RIMA , R.C. 2009. Elementary Differential Equations and Boundary
Value Problems. Ninth Edition. Wiley.
[72] B OYD , S. Y VANDENBERGHE , L. 2004. Convex Optimization. Cambridge.
[73] B ONNANS , J.F., G ILBERT, J.C., L EMARCHAL , C. Y S AGASTIZBAL , C.A. 2006. Nu-
merical Optimization. Theoretical and Practical Aspects. Second Edition. Springer.
[74] B RADLEY, G.H., B ROWN , G.G. Y G RAVES , G.W. 1977. Design and Implementation of
Large Scale Transshipment Algorithms. Management Science 24, pp. 1-34.
[75] B RAINERD , W.S., G OLDBERG , C.H. Y A DAMS , J.C. 1990. Programmers Guide to For-
tran 90. McGraw-Hill.
[76] B RAINERD , W.S., G OLDBERG , C.H. Y A DAMS , J.C. 1996. Programmers Guide to For-
tran 90. Springer.
[77] B RAESS , D. 2007. Finite Elements. Theory, Fast Solvers, and Applications in Elasticity
Theory. Cambridge.
[78] B RANDIMARTE , P. 2006. Numerical Methods in Finance and Economics. A MATLAB-
Based Introduction. Wiley.
[79] B RENNER , S.C. Y S COTT, L.R. 2008. The Mathematical Theory of Finite Element Meth-
ods. Springer.
[80] B RIGGS , W.L. Y H ENSON , V.E. 1995. The DFT. An owners manual for the Discrete
Fourier Transform. SIAM.
[81] B RIGHAM , E.O. 1988. The Fast Fourier Transform and its Applications. Prentice Hall.
[82] B ROOKE , A., K ENDRICK , D. Y M EERAUS , A. 1988. GAMS. A Users Guide. The Scien-
tic Press.
[83] B ROWN , H.E. 1975. Solution of Large Networks by Matrix Methods. Wiley.
[84] B ROYDEN , C.G. 1965. A Class of Methods for Solving Nonlinear Simultaneous Equations.
Mathematics of Computation 19, pp. 577-593.
[85] B UNCH , J.R. Y K AUFMAN , L. 1977. Some Stable Methods for Calculating Inertia and
Solving Symmetric Linear Systems. Mathematics of Computation 31, pp. 163-179.
[86] B UNCH , J.R. Y PARLETT, B.N. 1971. Direct Methods for Solving Symmetric Indenite
Systems of Linear Equations. SIAM J. Numer. Anal. 8, pp.639-655.
[87] B UNCH , J.R. Y ROSE , D.J. EDS . 1976. Sparse Matrix Computations. Academic Press.
[88] B UNCH , J.R., K AUFMAN , L. Y PARLETT, B.N. 1976. Decomposition of a Symetric Ma-
trix. Numerische Mathematik 27, pp. 95-109.
[89] B UNCH , J.R. 1971. Analysis of the Diagonal Pivoting Method. SIAM J. Numer. Anal. 8,
pp. 656-680.
[90] B UNCH , J.R. 1974. Partial Pivoting Strategies for Symmetric Matrices. SIAM J. Numer.
Anal. 11, pp. 521-528.
[91] B URDEN , R.L. Y FAIRES , J.D. 1985. Anlisis numrico. Grupo Editorial Iberoamrica.
[92] B URDEN , R.L. Y FAIRES , J.D. 2011. Numerical Analysis. Ninth Edition. Brooks/Cole.
[93] B UTCHER , J.C. 2008. Ordinary Differential Equations. Wiley.
[94] B UTT, R. 2010. Introduction to Numerical Analysis using MATLAB. Jones and Barlett.
[95] B UZZI -F ERRARIS , G. 1993. Scientic C++. Building Numerical Libraries the Object-
Oriented Way. Addison-Wesley.
Bibliografa j 229
[96] B YRD , R.H., G ILBERT, J.C. Y N OCEDAL , J. 1996. A Trust Region Method Based on
Interior Point Techniques for Nonlinear Programming. INRIA.
[97] C AJORI , F. 1991. A History of Mathematics. Fifth Edition. Chelsea Publishing Company.
[98] C ANUTO , C. Y TABACCO , A. 2015. Mathematical Analysis Vols I y II. Second Edition.
Springer.
[99] C ARREIRA -P ERPIAN , M.A. 2016. Lecture Notes on Optimization-EECS260. University
of California Merced, Electrical Engineering and Computer Science Dpt.
[100] C HAITIN -C HATELIN , F. Y F RAYSS , V. 1996. Lectures on Finite Precision Computations.
SIAM.
[101] C HAMBERLAND , L. 1995. Fortran 90. A Reference Guide. Prentice Hall.
[102] C HAN , T.F. 1982. Algorithm 581: An Improved Algorithm for Computing the Singular
Value Decomposition. ACM Trans. on Mathematical Software 8, pp. 84-88.
[103] C HAN , T.F. 1982. An Improved Algorithm for Computing the Singular Value Decomposi-
tion. ACM Trans. on Mathematical Software 8, pp. 72-83.
[104] C HAPRA , S.C. 2012. Applied Numerical Methods with MATLAB for Engineers and Scien-
tists. McGraw-Hill.
[105] C HAPRA , S.C. Y C ANALE , R.P. 2002. Numerical Metthods for Engineers with Applica-
tions and Programming Applications. Fourth Edition. McGraw-Hill.
[106] C HENEY, W. Y K INCAID , D. 1985. Numerical Mathematics and Computing. Brooks/Cole.
[107] C HIVERS , I. Y S LEIGHTHOLME , J. 1995. Introducing Fortran 90. Springer.
[108] C HONG , E.K.P. Y Z AK , S.H. 2001. An Introduction to Optimization. Second Edition. Wi-
ley.
[109] C HU , E., G EORGE , A., L IU , J, Y N G , E. 1984. SPARSPAK: Waterloo Sparse Matrix Pac-
kage. Users Guide for SPARSPAK-A. Research Report CS-84-36, Department of Computer
Science, University of Waterloo, Waterloo, Ontario, Canad.
[110] C HVTAL , V. 1983. Linear Programming. W.H. Freeman and Company.
[111] C IARLET, P.G. Y L IONS , J.L. EDS . 1990. Handbook of Numerical Analysis. Volume 1:
Finite Difference Methods (Part 1); Solution of Equations in Rn (Part 1). North-Holland.
[112] C IARLET, P.G. 1988. Introduction LAnalyse Numrique Matricielle et LOptimisation.
Masson, S.A.
[113] C IARLET, P.G. 1989. Introduction to Numerical Linear Algebra and Optimisation. Cam-
bridge.
[114] C IARLET, P.G. 2002. The Finite Element Method for Elliptic Problems. SIAM.
[115] C IRIANI , T.A. Y L EACHMAN , R.C. 1993. Optimization in Industry. Mathematical Pro-
gramming and Modeling Techniques in Practice. Wiley.
[116] C LINE , A.K., M OLER , C.B., S TEWART, G.W. Y W ILKINSON , J.H. 1979. An Estimate
for the Condition Number of a Matrix. SIAM J. Numer. Anal. 16, pp. 368-375.
[117] C ODDINGTON , E.A. Y C ARLSON , R. 1997. Linear Ordinary Differential Equations.
SIAM.
[118] C OLEMAN , T.F. Y L I , Y. EDS . 1990. Large-Scale Numerical Optimization. SIAM.
[119] C OLEMAN , T.F. Y VAN L OAN , C. 1988. Handbook for Matrix Computations. SIAM.
[120] C OLEMAN , T.F., E DENBRANDT, A. Y G ILBERT, J.R. 1986. Predicing Fill for Sparse
Orthogonal Factorization. Journal ACM 33, pp. 517-532.
230 j Bibliografa
[121] C ONTE , S.D. Y DE B OOR , C. 1987. Elementary Numerical Analysis. An Algorithmic Ap-
proach. McGraw-Hill.
[122] C ONTRERAS , M. 2016. Anlisis de Fourier. Universidad de Sevilla.
http://personal.us.es/contreras/
[123] C OOK , T.M. Y RUSSELL , R.A. 1977. Introduction to Management Science. Prentice Hall.
[124] C ORDENO , A., H UESO , J., M ARTNEZ . E. Y T ORREGOSA , J.R. 2006. Problemas resuel-
tos de mtodos numricos. Thomson.
[125] C ORMEN , T.H., L EISERSON , C.E. Y R IVEST, R.L. 1992. Introduction to Algorithms. The
MIT Press.
[126] C OWELL , W.R. ED . 1984. Sources and Development of Mathematical Software. Prentice
Hall.
[127] C OURANT, R. 1943. Variational Methods for the Solutions of Problems of Equilibrium and
Vibrations. Bulletin of the American Mathematical Society, Vol. 49, No. 1, pp. 1-23.
[128] C UTHILL , E. Y M C K EE , J. 1969. Reducing the bandwidth of Sparse Symmetric Matrices.
Proceedings of the 24th Nationeal Conference of the Association for Computing Machinery
(ACM), pp. 157-172. Brandon Systems Press.
[129] DAHLQUIST, G. Y B JRK , A. V 1974. Numerical Methods. Prentice Hall.
[130] DACOROGNA , B. 2004. Introduction to the Calculus of Variations. Imperial College Press.
[131] DAKIN , R.J. 1965. A Tree-Search Algorithm for Mixed Integer Programming Problems.
Computer Journal 8, pp. 250-255.
[132] DANAILA , I., J OLY, P., K ABER , S.M. Y P OSTEL , M. 2007. A, Introduction to Scientic
Computing. Twelve Computational Projects Solved with MATLAB. Springer.
[133] DANILINA , N.I., D UBROVSKAYA , N.S., K VASHA , O.P. Y S MIRNOV, G.L. 1988. Compu-
tational Mathematics. Mir Publishers.
[134] DANTZIG , G.B. 1963. Linear Programming and Extensions. Princeton University Press.
[135] DANTZIG , G.B. 1987. Origins of the Simplex Method. Technical Report SOL 87-5. Sys-
tems Optimization Laboratory, Department of Operations Research, Stanford University.
[136] DANTZIG , G.B. Y W OLFE , P H . 1960. Decomposition Principle for Linear Programming.
Operations Research 8, pp. 101-111.
[137] DARST, R.B. 1991. Introduction to Linear Programming: Applications and Extensions.
Marcel Dekker.
[138] DATTA , B.N. 1995. Numerical Linear Algebra and Applications. Brooks/Cole.
[139] DATTORRO , J. 2016. Convex Optimization Euclidean Distance Geometry 2". M"oo
Publishing.
[140] DAVENPORT, J.H. S IRET, Y. Y T OURNIER , E. 1993. Computer Algebra. Systems and Al-
gorithms for Algebraic Computation. Academic Press.
[141] DAVIS , T.A. 2006. Direct Methods for Sparse Linear Systems. SIAM.
[142] DAVIS , P.J. Y R ABINOWITZ , P. 1984. Methods of Numerical Integration. Second Edition.
Academic Press.
[143] DAVIS , T.A. Y S IGMAN , K. 2005. MATLAB Primer. Seventh Edition. Chapman and Ha-
ll/CRC.
[144] DE LA F UENTE , J.L. Y L UMBRERAS , J. 1987. A New Implementation of an Optimal Power
Flow System Based on a General Purpose Nonlinear Programming Program. Proc. IEEE
PICA, pp. 422-428.
Bibliografa j 231
[145] DE LA F UENTE , J.L. 1986. Programacin en redes no lineales. El problema de redes elc-
tricas. Actas Optimizacin de Flujos en Redes86.
[146] DE LA F UENTE , J.L. 1987. Programacin no lineal: Aplicaciones en anlisis, gestin
y planicacin de sistemas elctricos. Actas I Seminario Internacional de Investigacin
Operativa-Programacin Matemtica86. J.P. Vilaplana y L.F. Escudero eds., pp. 255-278.
[147] DE LA F UENTE , J.L. 1988. Application of Nonlinear Network Optimization Techniques to
Large Scale Power Schedulling Problems. TIMS/ORSA National Meeting.
[148] DE LA F UENTE , J.L. 1989. La programacin matemtica y la planicacin de redes elc-
tricas. Actas Programacin Matemtica89.
[149] DE LA F UENTE , J.L. 1998. Tcnicas de clculo para sistemas de ecuaciones, programa-
cin lineal y programacin entera. Segunda edicin. Revert.
[150] DE LA F UENTE , J.L. 2016. Matemticas y algoritmos numricos. Deniciones, notacin y
proposiciones esenciales para un curso avanzado. Cculo Rojo.
[151] DE LA F UENTE , J.L. 2017. Ingeneira de los algoritmos y mtodos numricos. Un acerca-
miento prctico y avanzado a la computacin cientca e ingenieril con MATLAB. Cculo
Rojo.
[152] D EMBO , A. 2013. Stochastic Processes. Department of Statistics. Stanford University.
http://statweb.stanford.edu/~adembo/math-136/nnotes.pdf
[153] D EMMEL , J.W. 1997. Applied Numerical Linear Algebra. SIAM.
[154] D EMIDOVICH , B.P. Y M ARON , I.A. 1985. Clculo Numrico Fundamental. Paraninfo.
[155] D ENNIS , J.E. Y S CHNABEL , R.B. 1983. Numerical Methods for Unconstrained Optimiza-
tion and Nonlinear Equations. Prentice Hall.
[156] D ENNIS , J.E. Y S CHNABEL , R.B. 1996. Numerical Methods for Unconstrained Optimiza-
tion and Nonlinear Equations. SIAM.
[157] D OMMEL , H.W. Y T INNEY, W.F. 1968. Optimal Power Flow Solutions. IEEE Trans. on
Power Apparatus and Systems PAS-87, pp. 1866-1876.
[158] D ONGARRA , J.J., B UNCH , J.R., M OLER , C.B. Y S TEWART, G.W. 1979. LINPACK
Users Guide. SIAM.
[159] D ONGARRA , J.J., D UFF , I.S., S ORENSEN , D.C. Y VAN DER VORST, H.A. 1991. Solving
Linear Systems on Vector and Shared Memory Computers. SIAM.
[160] D ORFMAN , R., S AMUELSON , P. Y S OLOW, R. 1958. Linear Programming and Economic
Analysis. McGraw-Hill.
[161] D UBIN , D. 2003. Numerical and Analytical Methods for Scientists ans Engineers Using
Mathematica. Wiley.
[162] D UFF , I.S. 1981. MA32 - A Package for Solving Sparse Unsymmetric Systems Using the
Frontal Method. AERE Harwell Report AERE-R 10079. Computer Science & Systems
Division, AERE Harwell.
[163] D UFF , I.S., E RISMAN , A.M. Y R EID , J.K. 1986. Direct Methods for Sparse Matrices.
Oxford University Press.
[164] D UFF , I.S., G RIMES , G. Y L EWIS , J.G. 1989. Sparse Matrix Test Problems. ACM Trans.
on Mathematical Software 15, pp. 1-14.
[165] D UFF , I.S. Y R EID , J.K. 1979. Some Design Features of a Sparse Matrix Code. ACM
Trans. on Mathematical Software 5, pp.18-35.
[166] D UFF , I.S. Y S TEWART, G.W. EDS . 1979. Sparse Matrix Proceedings 1978. SIAM.
232 j Bibliografa
[167] D UOANDIKOETXEA , J. 2007. 200 aos de convergencia de las series de Fourier. La Gaceta
de la RSME, Vol. 10, No. 3.
[168] E ISELT, H.A. Y S ANDBLOM , C.L. 2007. Linear Programming and its Applications. Sprin-
ger.
[169] E ISENTAT, S.C., S CHULTZ , M.H. Y S HERMAN , A.H. 1981. Algorithms and Data Struc-
tures for Sparse Symmetric Gaussian Elimination. SIAM J. Sci. and Statist. Comput. 2, pp.
225-237.
[170] E LDN , L., W ITTMEYER -KOCH , L. Y B RUUN N IELSEN , H. 2004. Introduction to Nume-
rical Computation. Analysis and MATLAB Illustrations. Studentlitteratur AB.
[171] E LGERD , O.I. 1983. Electric Energy Systems Theory: An Introduction. McGraw-Hill.
[172] E L -H AWARY, M.E. Y C HRISTENSEN , G.S. 1979. Optimal Economic Operation of Electric
Power Systems. Academic Press.
[173] E LLIS , T.M.R., P HILIPS , I.R. Y L AHEY, T.M. 1994. Fortran 90 Programming. Addison-
Wesley.
[174] E NGELN -M LLGES , G. Y U HLIG , F. 1996. Numerical Algorithms with Fortran. Springer.
[175] E NGELN -M LLGES , G. Y U HLIG , F. 1996. Numerical Algorithms with C. Springer.
[176] E PPERSON , J.F. 2013. An Introducton to Numerical Methods and Analysis. Second Edition.
Wiley.
[177] E RISMAN , A.M., N EVES , K.W. Y DWARAKANATH , M.H. EDS . 1980. Electric Power
Problems: The Mathematical Challenge. SIAM.
[178] E VANS , L.C. 1997. Partial Differential Equations. American Mathematical Society.
[179] E VANS , J.R. Y M INIEKA , E. 1992. Optimization Algorithms for Network and Graphs.
Marcel Dekker.
[180] FAIRES , J.D. Y B URDEN , R.L. 1993. Numerical Methods. PWS.
[181] FANG , S.C., P UTHENPURA , S. 1993. Linear Optimization and Extensions. Theory and
Algorithms. Prentice Hall.
[182] FARIN , G. 1988. Curves and Surfaces for Computer Aided Geometric Design. Acaddemic
Press.
[183] FARKAS , J. 1902. Theorie der Einfachen Ungleichungen. Journal fr die Reine und Ange-
wandte Mathematik 124, pp. 1-27.
[184] F ERRIS , M.C., M ANGASARIAN , O.L. Y W RIGHT, S.J. 2007. Linear Programming with
MATLAB. SIAM.
[185] F IACCO , A.V. Y M C C ORMICK , G.P. 1968. Nonlinear Programming: Sequential Uncons-
trained Minimization Techniques. Wiley.
[186] F IACCO , A.V. Y M C C ORMICK , G.P. 1990. Nonlinear Programming: Sequential Uncons-
trained Minimization Techniques. SIAM.
[187] F IELD , R.V. 2008. Stochastic Models: Theory and Simulation. Sandia National Laborato-
ries.
http://prod.sandia.gov/techlib/access-control.cgi/2008/081365.pdf
[188] F ILBERT, F. 2009. Analyse numrique. Algorithme et tude mathmatique Dunod.
[189] F LETCHER , R. 1987. Practical methods of optimization. Wiley.
[190] F LOWERS , B.H. 1995. An Introduction to Numerical Methods in C++. Clarendon Press.
[191] F ORD , L.R. Y F ULKERSON , D.R. 1962. Flows in Networks. Princeton University Press.
Bibliografa j 233
[192] F ORREST, J.H. Y T OMLIN , J.A. 1972. Updated Triangular Factors of the Basis to Main-
tain Sparsity in the Product Form Simplex Method. Mathematical Programming 2, pp. 263-
278.
[193] F ORSGREN , A., G ILL , P.E. Y W RIGHT, M.H. 2002. Interior Methods for Nonlinear Op-
timization. SIAM Review, Vol. 44, No. 4, pp. 525-597.
[194] F ORSYTHE , G.E., M ALCOLM , M.A. Y M OLER , C.B. 1977. Computer Methods for Mat-
hematical Computations. Prentice Hall.
[195] F ORTIN , A. 2011. Analyse numrique pour ingnieurs. Presses internationales Polytechni-
que.
[196] F OURER , R., G AY, D.M. Y K ERNIGHAM , B.W. 1993. AMPL. A Modeling Language for
Mathematical Programming. Boyd and Fraser.
[197] F RANDSEN , P.E., J ONASSON , K., N IELSEN , H.B. Y T INGLEFF , O. 2004. Unconstrained
Optimization. Technical University of Denmark, Informatics.
[198] F REUND , R.M. 2009. Introduction to Semidenite Programming (SDP). MIT Open Course
Ware.
https://ocw.mit.edu/courses/electrical-engineering-and-computer-science/6-251j-
introduction-to-mathematical-programming-fall-2009/readings/MIT6_251JF09_SDP.pdf
[199] G AL , T. 1979. Postoptimal Analysis, Parametric Programming, and Related Topics.
McGraw-Hill.
[200] G ANDER , W. Y H REB
CEK , J. 1993. Solving Problems in Scientic Computing Using Ma-
ple and MATLAB. Springer.
[201] G ANDER , W. Y H REB
CEK , J. 1997. Solving Problems in Scientic Computing Using Ma-
ple and MATLAB. Third Edition. Springer.
[202] G ANDER , W., G ANDER , M.J. Y K WOK , F. 2014. Scientic Computing. An Introduction
using Maple and MATLAB. Springer.
[203] G ANDER , M.J. Y WANNER , G. 2012. From Euler, Ritz, and Galerkin to Modern Compu-
ting. SIAM Review, Vol. 54, No. 4. SIAM.
[204] G ARBOW, B.S., B OYLE , J.M., D ONGARRA , J.J. Y M OLER , C.B. 1977. Matrix Eigensys-
tem Routines-EISPACK Guide Extension. Springer.
[205] G ARCA , C.B. Y Z ANGWILL , W.I. 1981. Pathways to Solutions, Fixed Points, and Equili-
bria. Prentice Hall.
[206] G ARFINKEL , R.S. Y N EMHAUSER , G.L. 1972. Integer Programming. Wiley.
[207] G AUTSCHI , W. 2012. Numerical Analysis. Second Edition. Springer
[208] G ENTLE , J.E. 2007. Matrix Algebra. Springer
[209] G ENTLE , J.E. 2007. Matrix Algebra. Theory, Computations, and Applications in Statistics.
Springer
[210] G EORGE , A. Y H EATH , M.T. 1980. Solution of Sparse Linear Least Squares Problems
Using Givens Rotations. Linear Algebra and its Applications 34, pp. 69-83.
[211] G EORGE , A. Y L IU , J.W. 1979. An Implementation of a Pseudoperipherial Node Finder.
ACM Trans. on Mathematical Software 5, pp. 284-295.
[212] G EORGE , A. Y L IU , J.W. 1979. The Design of a User Interface for a Sparse Matrix Pac-
kage. ACM Trans. on Mathematical Software 5, pp. 139-162.
[213] G EORGE , A. Y L IU , J.W. 1981. Computer Solution of Large Sparse Positive Denite Sys-
tems. Prentice Hall.
234 j Bibliografa
[214] G EORGE , A. Y N G , E. 1984. SPARSPAK: Waterloo Sparse Matrix Package. Users Guide
for SPARSPAKB. Research Report CS-84-37, Department of Computer Science, University
of Waterloo, Waterloo, Ontario, Canad.
[215] G EORGE , A. Y N G , E. 1985. An Implementation of Gaussian Elimination with Partial
Pivoting for Sparse Systems. SIAM J. Sci. and Statist. Comput. 6, pp. 390-409.
[216] G EORGE , A. 1971. Computer Implementation of the Finite Element Method. Ph.D. Disser-
tation, Computer Science Department Report STAN-CS-71208, Stanford University.
[217] G EORGE , A. 1980. An Automatic One-way Disecction Algorithm for Irregular Finite Ele-
ment Problems. SIAM J. Numer. Anal. 17, pp. 740-751.
[218] G ERALD , C.F. Y W HEATLEY, P.O. 1994. Applied Numerical Analysis. Addison-Wesley.
[219] G IBBS , N.E., P OOLE , W.G. Y S TOCKMEYER , P.K. 1976. An Algorithm for Reducing the
Bandwidth and prole of a Sparse Matrix. SIAM J. Numer. Anal. 13, pp. 236-250.
[220] G ILL , P.E. Y M URRAY, W. 1974. Numerical Methods for Constrained Optimization. Aca-
demic Press.
[221] G ILL , P.E., M URRAY, W. Y W RIGHT, M.H. 1981. Practical Optimization. Academic
Press.
[222] G ILL , P.E., M URRAY, W. Y W RIGHT, M.H. 1991. Numerical Linear Algebra and Optimi-
zation. Volume 1. Addison-Wesley.
[223] G ILL , P.E., M URRAY, W., S AUNDERS , M.A. Y W RIGHT, M.H. 1986. Maintaining LU
Factors of a General Sparse Matrix. Technical Report SOL 86-8. Systems Optimization
Laboratory, Department of Operations Research, Stanford University.
[224] G ILL , P.E., M URRAY, W., S AUNDERS , M.A., T OMLIN , J.A. Y W RIGHT, M.H. 1986. On
Projected Newton Barrier Methods for Linear Programming and an Equivalence to Kar-
markars Projective Method. Technical Report SOL 85-11R, revision of May 1986. Systems
Optimization Laboratory, Department of Operations Research, Stanford University.
[225] G ILLETT, B.E. 1976. Introduction to Operations Research: A Computer Oriented Algo-
rithmic Approach. McGraw-Hill.
[226] G OLDBERG , S. 1958. Introduction to Difference Equations. Wiley.
[227] G OLDFARB , D. Y T ODD , M.J. 1989. Linear Programming. En Handbooks in Operations
Research and Management Science. Volume 1: Optimization. Nemhauser, G.L., Rinnooy
Kan, A.H.G. y Todd, M.J. eds. North-Holland.
[228] G OLDSTEIN , A.A. 1965. On Steepest Descent. SIAM J. Control 3, pp. 147-151.
[229] G OLOVINA , L.I. 1974. Algebra lineal y algunas de sus aplicaciones. Editorial Mir.
[230] G OLUB , G.H. Y M EURANT, G.A. 1983. Rsolution Numrique des Grands Systemes
Linaires. Editions Eyrolles.
[231] G OLUB , G.H. Y OL EARY, D.P. 1989. Some History of the Conjugate Gradient and Lan-
czos Algorithms: 1948-1976. SIAM Review 31, pp.50-102.
[232] G OLUB , G.H. Y O RTEGA , J.M. 1992. Scientic Computing and Differential Equations.
An Introduction to Numerical Methods. Academic Press.
[233] G OLUB , G.H. Y R EINSCH , C. 1970. Singular Value Decomposition and Least Squares
Solutions. Numerische Mathematik 14, pp. 403-20.
[234] G OLUB , G.H. Y VAN L OAN , C.F. 1983. Matrix Computations. The Johns Hopkins Uni-
versity Press.
Bibliografa j 235
[235] G OLUB , G.H. Y VAN L OAN , C.F. 1989. Matrix Computations. Second Edition. The Johns
Hopkins University Press.
[236] G OLUB , G.H. Y VAN L OAN , C.F. 1996. Matrix Computations. Third Edition. The Johns
Hopkins University Press.
[237] G OLUB , G.H. Y VAN L OAN , C.F. 2013. Matrix Computations. Fourth Edition. The Johns
Hopkins University Press.
[238] G OMORY, R.E. 1960. An Algorithm for the Mixed Integer Problem. RAND Corporation
paper RM-2597.
[239] G OMORY, R.E. 1963. An Algorithm for Integer Solutions to Linear Programs. Recent Ad-
vances in Mathematical Programming. Graves, R. y Wolfe, Ph. eds. McGraw-Hill.
[240] G ONDRAN , M. Y M INOUX , M. 1979. Graphes et Algorithmes. Editions Eyrolles.
[241] G ONIN , R. Y M ONEY, A.H. 1989. Nonlinear Lp Estimation. Marcel Dekker.
[242] G OOSSENS , M., M ITTELBACH , F. Y S AMARIN , A. 1994. The LATEX Companion. Addison-
Wesley.
[243] G OOSSENS , M., M ITTELBACH , F. Y S AMARIN , A. 2004. The LATEX Companion. Second
Edition. Addison-Wesley.
[244] G OOSSENS , M., R AHTZ , S. Y M ITTELBACH , F. 1997. The LATEX Graphics Companion.
Illustrating Documents with TEX and PostScript. Addison-Wesley.
[245] G RAINGER , J.J. Y S TEVENSON J R ., W.D. 1994. Power Systems Analysis. McGraw-Hill.
[246] G RAN , A. Anlisis de Componentes Principales. Departamento de Estadstica, Universi-
dad Carlos III de Madrid.
[247] G REENBAUM , A. 1997. Iterative Methods for Solving Linear Systema. SIAM.
[248] G REENBERG , H. 1971. Integer Programming. Academic Press.
[249] G RIFFITHS , D.F. Y H IGHAM , D.J. 2010. Numerical Methods for Ordinary Differential
Equations. Initial Vaue Problems. Springer.
[250] G RIGORIADIS , M.D. 1986. An Efcient Implementation of the Network Simplex Method.
Mathematical Programming Study 26, pp. 83-111.
[251] G RIVA , I., NASH , S.G. Y S OFER , A. 2009. Linear and Nonlinear Optimization. SIAM.
[252] G RTSCHEL , M., L OVSZ , L. Y S CHRIJVER , A. 1988. Geometric Algorithms and Com-
binatorial Optimization. Springer.
[253] G UTKNECHT, M.H. 2008. Iterative Methods. ETH Zurich, Seminar for Applied MAthe-
matics.
http://www.sam.math.ethz.ch/~mhg/unt/SWNLA/itmethSWNLA08.pdf
[254] H FELE , W. Y K IRCHMAYER , L.K. EDS . 1981. Modeling of Large-Scale Energy Systems.
Pergamon Press.
[255] H ABERMAN , R. 2013. Applied Partial Differential Equations with Fourier Series and
Boundary Value Problems. Pearson.
[256] H AGER , W.W. 1984. Condition Estimates. SIAM J. Sci. and Statist. Comput. 5, pp. 311-
316.
[257] H AGER , W.W. 1988. Applied Numerical Linear Algebra. Prentice Hall.
[258] H AHN , B. Y VALENTINE , D.T. 2007. Essential MATLAB for Engineers and Scientists.
Third Edition. Elsevier.
[259] H EATH , M.T. 2002. Scientic Computing. An Introductory Survey. Second Edition.
McGraw-Hill.
236 j Bibliografa
[260] H ALL , M. 1956. An Algorithm for Distinct Representatives. Amer. Math. Monthly 63, pp.
716-717.
[261] H ALMOS , P.R. 1974. Finite-Dimensional Vector Spaces. Springer.
[262] H AMMER , P.L., J OHNSON , E.L. Y KORTE , B.H. EDS . 1979. Discrete Optimization III.
North-Holland.
[263] H MMERLIN , G. Y H OFFMANN , K. H. 1991. Numerical Mathematics. Springer.
[264] H AMMING , R.W. 1986. Numerical Methods for Scientists and Engineers. Dover Publica-
tions.
[265] H ANSELMAN , D. Y L ITTLEFIELD , B. 1998. Mastering MATLAB 5. A Comprehensive Tu-
torial abd Reference. Prencite Hall.
[266] H ARMAN , T.L., DABNEY. J. Y R ICHERT, N. 2000. Advanced Enginerring Mathematics
with MATLAB. Second Edition. Brooks/Cole.
[267] H ARWELL L ABORATORY 1987. HARWELL Subroutine Library: A Catalogue of Subrouti-
nes (1987). Computer Science and Systems Division, AERE Harwell.
[268] H EATH , M.T. 2002. Scientic Computing. An Introductory Survey. Second Edition.
McGraw-Hill.
[269] H ELLERMAN , E, Y R ARICK , D. 1971. Reinversion with the Preassigned Pivot Procedure.
Mathematical Programming 1, pp. 195-216.
[270] H ELLERMAN , E, Y R ARICK , D. 1972. The Partitioned Preassigned Pivot Procedure (P4 ).
En Sparse Matrices and their Applications. Rose, D.J. y Willoughby, R.A. eds. Plenum
Press.
[271] H ERDRIX , E.M.T. Y T TH , B.G. 2010. Introduction to Nonlinear and Global Optimiza-
tion. Springer.
[272] H ENRICI , P. 1982. Essentials of Numerical Analysis with Pocket Calculator Demonstra-
tions. Wiley.
[273] H RON , B., I SSARD -ROCH , F. Y P ICARD , C. 2005. Analyse numrique. Exercices et pro-
blmes corrigs. Dunod.
[274] H ESTENES , M. 1980. Conjugate Direction Methods in Optimization. Springer.
[275] H IAI , F. Y P ETZ , D. 2014. Introduction to Matrix Analysis and Applications. Springer.
[276] H IGHAM , N.J. 1995. The Test Matrix Toolbox for MATLAB. Numerical Analysis Report
No. 276. The University of Manchester.
http://www.ma.man.ac.uk/MCMM.
[277] H IGHAM , N.J. 1996. Accuracy and Stability of Numerical Algorithms. SIAM.
[278] H IGHAM , N.J. 2002. Accuracy and Stability of Numerical Algorithms. Second Edition.
SIAM.
[279] H IGHAM , N.J. 2002. The Matrix Computation Toolbox for MATLAB. Numerical Analysis
Report No. 410. The University of Manchester.
http://www.ma.man.ac.uk/MCMM.
[280] H IGHAM , D.J. Y H IGHAM , N.J. 2000. MATLAB Guide. SIAM.
[281] H IGHAM , D.J. Y H IGHAM , N.J. 2005. MATLAB Guide. Second Edition. SIAM.
[282] H ILDEBRAND , F.B. 1987. Introduction to Numerical Analysis. Dover Publications.
[283] H ILLIER , F.S. Y L IEBERMAN , G.J. 1974. Introduction to Operations Research. Holden-
Day.
Bibliografa j 237
[313] K ELLEY, C.T. 1995. Iterative Methods for Linear and Nonlinear Equations. SIAM.
[314] K ELLEY, C.T. 1999. Iterative Methods for Optimization. SIAM.
[315] K ENNINGTON , J.L. Y H ELGASON , R.V. 1980. Algorithms for Network Programming. Wi-
ley.
[316] K ERN , M. 2005. lments nis aspects mathmatiques. INRIA.
http://mms2.ensmp.fr/ef_paris/formulation/transparents/f_MathMef.pdf
[317] K HARAB , A. Y G UENTHER , R.B. 2012. An Introduction to Numerical Methods. A
MATLAB Approach. CRC Press.
[318] K INCAID , D.R. Y H AYES , L.J. EDS . 1990. Iterative Methods for Large Linear Systems.
Academic Press.
[319] K IUSALAAS , J. 2010. Numerical Methods in Engineering with MATLAB. Cambridge.
[320] K LEE , V. Y M INTY, G.J. 1972. How good is the Simplex Algorithm? En Inequalities III.
Shisha, O. ed. Academic Press.
[321] K LINGMAN , D., NAPIER , A. Y S TUTZ , J. 1974. NETGEN-A Program for Generating
Large-scale (Un)Capacitated Assigment, Transportation and Minimum Cost Flow Network
Problems. Management Science 20, pp. 814-821.
[322] K NIGHT, A. 2000. Basics of MATLAB and Beyond. Chapman and Hall/CRC.
[323] KOLMAN , B. Y B ECK , R.E. 1995. Elementary Linear Programming with Applications.
Academic Press.
[324] KOLMOGOROV, A.M. Y F OMIN , S.V. 1972. Elementos de la teora de funciones y del
anlisis funcional. Editorial Mir.
[325] KOLMOGOROV, A.M. Y F OMIN , S.V. 1975. Introductory Real Analysis. Dover Publica-
tions.
[326] KOPCHENOVA , N.V. Y M ARON , I.A. 1975. Computational Mathematics. Worked Exam-
ples and Problems with Elements of Theory. Mir Publishers.
[327] KOPKA , H. Y DALY, P.W. 1995. A Guide to LATEX 2" . Document Preparation for Beginners
and Advanced Users. Addison Wesley.
[328] KOROVKIN , P.P. 1976. Desigualdades. Editorial Mir.
[329] K RANTZ , S.G. Y PARKS , H.R. 2003. The Implicit Function Theorem. History, Theory, and
Applications. Birkhuser.
[330] K RESSNER , D. 2005. Numerical Methods for General and Structured Eigenvalue Pro-
blems. Springer.
[331] K REYSZIG , E. 2011. Advanced Engineering Mathematics. Wiley.
[332] K UESTER , J.L. Y M IZE , J.H. 1973. Optimization Techniques with Fortran. McGraw-Hill.
[333] K UHN , H.W. Y T UCKER , A.W. 1951. Nonlinear Programming. En Proceedings of the
Second Berkeley Symposium on Mathematical Statistics an Probability. University of Ca-
lifornia Press.
[334] K NZI , H.P. Y K RELLE , W. 1969. La Programmation Non Linaire. Gauthier-Villars.
[335] L AMPORT, L. 1994. LATEX. A Document Preparation System. Users Guide and Reference
Manual. Addison-Wesley.
[336] L AND , A. Y P OWELL , S. 1973. Fortran Codes for Mathematical Programming. Wiley.
[337] L ANG , S. 1968. Analysis. Vols. I y II. Addison-Wesley.
[338] L ANG , S. 1983. Linear Algebra. Addison-Wesley.
Bibliografa j 239
[339] L ARSON , R.E. 1968. State Increment Dynamic Programming. American Elsevier.
[340] L ARSSON , S. Y T HOME , V. 2009. Partial Differential Equations with Numerical Meth-
ods. Springer.
[341] L ASCAUX , P. Y T HODOR , R. 1986. Analyse Numrique Matricielle Applique a lArt de
lIngnieur. Vols. I y II. Masson, S.A.
[342] L ASDON , L.S. 1970. Optimization Theory for Large Systems. Macmillan Publishing Com-
pany.
[343] L AWLER , E.L. 1976. Combinatorial Optimization: Networks and Matroids. Holt, Rinehart
and Winston.
[344] L AWSON , C.L. Y H ANSON , R.J. 1974. Solving Least Squares Problems. Prentice Hall.
[345] L AWSON , C.L. Y H ANSON , R.J. 1995. Solving Least Squares Problems. SIAM.
[346] L AY, D.C. 2012. lgebra lineal y sus aplicaciones. Cuarta edicin. Pearson educacin.
[347] L AY, D.C. 2015. Linear Algebra and its Applications. Fourth Edition. Addison-Wesley.
[348] L AY, D.C. Y L AY, S.R. 2015. Linear Algebra and its Applications. Fifth Edition. Pearson.
[349] L EIFMAN , L.J. ED . 1990. Functional Analysis, Optimization, and Mathematical Econo-
mics. Oxford University Press.
[350] L EBOUCQ , R.B., S ORENSEN , D.C. Y YANG , C. 1998, ARPACK Users Guide: Solution
of Large-Scale Eigenvalue Problems with Implicitly Restarted Arnoldi Methods. SIAM.
[351] L EMKE , C.E. 1954. The Dual Method of Solving the Linear Programming Problem. Naval
Research Logistics Quarterly 1, pp. 36-47.
[352] L ERMAN , S.R. 1993. Problem Solving and Computation for Scientists and Engineers. An
Introduction Using C. Prentice Hall.
[353] L EW, A. Y M AUCH , H. 2007. Dynamic Programming. A Computational Tool. Springer.
[354] L EYFFER , S. Y M AHAJAN , A. 2010. Software for Nonlinear Constrained Optimization.
Argonne National Laboratory, Mathematics and Computer Science Division.
[355] L EVENBERG , K. 1944. A Method for the Solution of Certain Problems in Least Squares.
Quart. Appl. Math. 2, pp. 164-168.
[356] L IEBMAN , J., L ASDON , L., S CHRAGE , L. Y WAREN , A. 1986. Modeling and Optimiza-
tion with GINO. The Scientic Press.
[357] L INDFIELD , G. Y P ENNY, J. 1995. Numerical Methods Using MATLAB. Ellis Horwood.
[358] L OEHR , N 2014. Advanced Linear Algebra. CRC Press.
[359] L ONGLEY, J.W. 1984. Least Squares Computations Using Orthogonalization Methods.
Marcel Dekker.
[360] L UENBERGER , D.G. 1969. Optimization by Vector Space Methods. Wiley.
[361] L UENBERGER , D.G. 1984. Linear and Nonlinear Programming. Addison-Wesley.
[362] L UENBERGER , D.G. 1989. Programacin lineal y no lineal. Addison-Wesley Iberoameri-
cana.
[363] L UENBERGER , D.G. Y Y E , Y. 2016. Linear and Nonlinear Programming. Fourth Edition.
Springer.
[364] L USTIG , I.J., M ARSTEN , R.E. Y S HANNO , D.F. 1992. On Implementing Mehrotras
Predictor-Corrector Interior-Point Method for Linear Programming. SIAM J. Optimiza-
tion, Vol. 2, No. 3, pp. 435-449.
240 j Bibliografa
[365] M ADDEN , N. 2012. Numerical Solution to Differential Equations using MATLAB: Part 2.
Finite Element Methods. National University of Ireland Galway, School of Mathematics,
Statistics and Applied Mathematics.
http://www.maths.nuigalway.ie/~niall/teaching/Archive/1112/Finite-V02.pdf
[366] M ADDEN , N. 2012. Numerical Solution to Differential Equations using MATLAB: Part
3. A nite element implementation for 2D elliptic problem. National University of Ireland
Galway, School of Mathematics, Statistics and Applied Mathematics.
http://www.maths.nuigalway.ie/~niall/teaching/Archive/1112/Finite-V01.pdf
[367] M ADSEN , K. Y N IELSEN , H.B. 2010. Introduction to Optimization and Data Fitting. Tech-
nical University of Denmark, Informatics.
[368] M ADSEN , K., N IELSEN , H.B. Y T INGLEFF , O. 2004. Methods for Nonlinear Least Squa-
res Problems. Technical University of Denmark, Informatics.
[369] M ADSEN , K., N IELSEN , H.B. Y T INGLEFF , O. 2004. Optimization with Constraints.
Technical University of Denmark, Informatics.
[370] M ANDL , C. 1979. Applied Network Optimization. Academic Press.
[371] M ANASSAH , J.T. 2001. Elementary Mathematical and Computational Tools for Electrical
and Computer Engineers Using MATLAB. CRC Press.
[372] M ANGASARIAN , O.L. 1994. Nonlinear Programming. SIAM.
[373] M ANNEBACK , P. 1985. On Some Numerical Methods for Solving Large Sparse Linear
Least Squares Problems. Ph.D. Dissertation, Facults Iniversitaires Notre-Dame de la Paix,
Namur, Blgica.
[374] M ARCHUK , G.I. Y DYMNIKOV, V.P. 1985. Problems of Computational Mathematics and
Mathematical Modelling. Mir Publishers.
[375] M ARCUS , M. Y M ING , H. 1964. A Survey of Matrix Theory and Matrix Inequalities. Allyn
and Bacon.
[376] M ARTINEZ , W.L. Y M ARTNEZ , A.R. 2002. Computational Statistics Handbook with
MATLAB. Chapman and Hall/CRC.
[377] M ARKOWITZ , H.M. 1957. The Elimination Form of the Inverse and its Application to
Linear Programming. Management Science 3, pp. 255-269.
[378] M ARQUARDT, D. 1963. An Algorithm for Least Squares Estimation of Nonlinear Parame-
ters. SIAM J. Appl. Math. 11, pp. 431-441.
[379] M ATHEWS , J.H. 1992. Numerical Methods for Mathematics, Science, and Engineering.
Prentice Hall.
[380] M ATHEWS , J.H. Y F INK , K.D. 2000. Mtodos numricos con MATLAB. Prentice Hall.
[381] M C M AHON , D. Y T OPA , D.M. 2006. A Beginnerss Guide to Mathematica. Chapman and
Hall/CRC.
[382] M C C ORMICK , G.P. 1983. Nonlinear Programming. Wiley.
[383] M EHROTRA , S. 1992. On the Implementation of a Primal-Dual Interior Point Method.
SIAM J. Optimization, Vol. 2, No. 4, pp. 575-601.
[384] M ESIROV, J.P. ED . 1991. Very Large Scale Computation in the 21st Century. SIAM.
[385] M ETCALF, M. Y R EID , J. 1990. Fortran 90 Explained. Oxford University Press.
[386] M ETCALF, M. Y R EID , J. 1996. Fortran 90/95 Explained. Oxford University Press.
[387] M EYER , C.D. 2000. Matrix Analysis and Applied Linear Algebra. SIAM.
Bibliografa j 241
[440] P HILLIPS , G.M. Y TAYLOR , P.J. 1996. Theory and Applications of Numerical Anaylis.
Second Edition. Academic Press.
[441] P IERRE , D.A. Y L OWE , M.J. 1975. Mathematical Programming Via Augmented Lagran-
gians. An Introduction with Computer Programs. Addison-Wesley.
[442] P IERRE , D.A. 1986. Optimization Theory with Applications. Dover Publications.
[443] P IKE , R.W. 1986. Optimization for Engineering Systems. Van Nostrand Reinhold Com-
pany.
[444] P ISSANETZKY, S. 1984. Sparse Matrix Technology. Academic Press.
[445] P LATO , R. 2003. Concise Numerical Mathematics. American Mathematical Society.
[446] P LYBON , B.F. 1992. An Introduction to Applied Numerical Analysis. PWS-Kent Publishing
Company.
[447] P OWELL , M.J.D. ED . 1982. Nonlinear Optimization. Academic Press.
[448] P RESS , W.H., F LANNERY, B.P., T EUKOLSKY, S.A. Y V ETTERLING , W.T. 1986. Nume-
rical Recipes in Fortran. The Art of Scientic Computing. Cambridge.
[449] P RESS , W.H., T EUKOLSKY, S.A., V ETTERLING , W.T. Y F LANNERY, B.P. 1992. Nume-
rical Recipes in C. The Art of Scientic Computing. Second Edition. Cambridge.
[450] P RESS , W.H., T EUKOLSKY, S.A., V ETTERLING , W.T. Y F LANNERY, B.P. 1996. Nume-
rical Recipes in Fortran 90. The Art of Parallel Scientic Computing. Cambridge.
[451] P RESS , W.H., T EUKOLSKY, S.A., V ETTERLING , W.T. Y F LANNERY, B.P. 2007. Nume-
rical Recipes. The Art of Scientic Computing. Third Edition. Cambridge.
[452] P YTLAK , R. 2009. Conjugate Gradient Algorithms in Nonconvex Optimization. Springer.
[453] Q UARTERONI , A., S ACCO , R. Y S ALERI , F. 2000. Numerical Mathematics. Springer.
[454] Q UARTERONI , A., S ALERI , F. Y G ERVASIO , P. 2010. Scientic Computing with MATLAB
and Octave. Springer.
[455] R AO , S.S. 2002. Applied Numerical Methods for Engineers and Scientists. Prentice Hall.
[456] R AO , K.R., K IM , D.N. Y H WANG , J.J. 2010. Fast Fourier Transform: Algorithms and
Applications. Springer.
[457] R AVINDRA , A., R AGSDELL , K.M. Y R EKLAITIS , G.V. 2006. Engineering Optimization.
Methods and Applications. Second Edition. Wiley.
[458] R EDFERN , D. Y C AMPBELL , C. 1998. The MATLAB 5 Handbook. Springer.
[459] R ECKTENWALD , G. 2000. Numerical Methods with MATLAB. Implementation Applica-
tion. Prentice Hall.
[460] R EDWINE , C. 1995. Upgrading to Fortran 90. Springer.
[461] R EGISTER , A.H. 2007. A Guide to MATLAB Object Oriented Programming. Chapman and
Hall/CRC.
[462] R EID , J.K. ED . 1971. Large Sparse Sets of Linear Equations. Academic Press.
[463] R EID , J.K. 1982. A Sparsity-Exploiting Variant of the Bartels-Golub Decomposition for
Linear Programming Bases. Mathematical Programming 24, pp. 55-69.
[464] R EKLAITIS , G.V., R AVINDRAN , A. Y R AGSDELL , K.M. 1983. Engineering Optimization.
Methods and Applications. Wiley.
[465] R HEINBOLDT, W.C. 1988. Methods for Solving Systems of Nonlinear Equations. SIAM.
[466] R IAZA , R. Y LVAREZ , M. 1996. Clculo innitesimal. Vols. I y II. Sociedad de Amigos
de la Escuela Tcnica Superior de Ingenieros Industriales de Madrid.
244 j Bibliografa
[495] S CHITTKOWSKI , K. 2009. Test Examples for Nonlinear Programming Codes. All Problems
from the Hock-Schittkowski-Collection. Department of Computer Science, University of
Bayreuth.
[496] S CHRAGE , L. 1989. Users Manual for Linear, Integer, and Quadratic Programming with
LINDO. The Scientic Press.
[497] S CHRAGE , L. 1991. LINDO. An Optimization Modeling System. Boyd and Fraser Publis-
hing Company.
[498] S CHRIJVER , A. 1986. Theory of Linear and Integer Programming. Wiley.
[499] S COTT, L.R. 2011. Numerical Analysis. Princeton University Press.
[500] S EDGEWICK , R. 1992. Algorithms in C++. Addison-Wesley.
[501] S EN , R. 2013. A First Course in Functional analysis. Theroy and Applications. Anthem
Press.
[502] S ENIOR , T.B.A. 1986. Mathematical Methods in Electrical Engineering. Cambridge.
[503] S HAMPINE , L.F., G LADWELL , I. Y T HOMPSON , S. 2003. Solvin ODEs with MATLAB.
Cambridge.
[504] S HAPIRO , J.F. 1979. Mathematical Programming. Structures and Algorithms. Wiley.
[505] S HEWCHUK , J.R. 1994. An Introduction to Conjugate Gradient Method without the Ago-
nizing Pain. School Of Computer Science, Carnegie Mellon University.
[506] S IDDALL , J.N. 1982. Optimal Engineering Design. Principles and Applications. Marcel
Dekker.
[507] S IERKSMA G. 1996. Linear and Integer Programming: Theory and Practice. Marcel Dek-
ker.
[508] S IMONNARD , M. 1972. Programmation Linaire. Technique du Calcul conomique. Fon-
dements. Dunod.
[509] S IMONNARD , M. 1973. Programmation Linaire. Technique du Calcul conomique. Ex-
tensions. Dunod.
[510] S KORNIAKOV, L.A. 1988. Sistemas de Ecuaciones Lineales. Editorial Mir.
[511] S MITH , B.T., B OYLE , J.M., D ONGARRA , J.J., G ARBOW, B.S., I KEBE , Y., K LEMA , V.C.
Y M OLER , C.B. 1976. Matrix Eigensystem Routines-EISPACK Guide. Springer.
[512] S BOL , I.M. 1983. Mtodo de Montecarlo. Editorial Mir.
[513] S OLODVNIKOV, A.S. 1980. Sistemas de Desigualdades Lineales. Editorial Mir.
[514] S ORDET, J. 1970. La Programmation Linaire Applique lEntreprise. Dunod.
[515] S ORENSEN , D.C. 2015. CAAM 454 Lecture Notes: Iterative Methods for Linear Systems.
Rice University, Department of Computational and Applied Mathematics
http://www.caam.rice.edu/~caam551/NOTES/Notes454.pdf
[516] S PEDICATO , E. ED . 1991. Computer Algorithms for Solving Linear Algebraic Equations.
The State of the Art. Springer, NATO Scientic Affairs.
[517] S TAGG , G.W. Y E L -A BIAD , A.H. 1968. Computer Methods in Power Systems Analysis.
McGraw-Hill.
[518] S TAHEL , A. 2012. Numerical Methods.
[519] S TEVENSON , W. D. 1984. Elements of Power System Analysis. McGraw-Hill.
[520] S TEWART, G.W. 1973. Introduction to Matrix Computations. Academic Press.
[521] S TEWART, G.W. 1996. Afternotes on Numerical Analysis. SIAM.
246 j Bibliografa
[522] S TEWART, G.W. 1998. Matrix Computations. Vol 1: Basic Decompositions. SIAM.
[523] S TEWART, J. 2015. Calculus. Eighth Edition. Brooks/Cole.
[524] S TOER , J. Y B ULIRSCH , R. 1980. Introduction to Numerical Analysis. Springer.
[525] S TOTT, B. Y A LSAC , O. 1974. Fast Decoupled Load Flow. IEEE Trans. on Power Appa-
ratus and Systems PAS-93, pp. 859-869.
[526] S TRANG , G. 1976. Linear Algebra and its Applications. Academic Press.
[527] S TRANG , G. 1988. Linear Algebra and its Applications. Harcourt Brace Jovanovich.
[528] S TRAUSS , W.A. 2008. Partial Differential Equations. An Introduction. Second Edition.
Wiley.
[529] S LI , E. Y M AYERS , D. 2003. An Introduction to Numerical Analysis. Cambridge.
[530] S ULTAN , A. 1993. Linear Programming. An Introduction with Applications. Academic
Press.
[531] S LLI , E. 2012. Lecture Notes on Finite Element Methods for Partial Differential Equa-
tions. Mathematical Institute University of Oxford.
http://people.maths.ox.ac.uk/suli/fem.pdf
[532] S UN , W. Y Y UAN , Y-X. 2006. Optimization Theory and Methods. Nonlinear Program-
ming. Springer.
[533] TARJAN , R. 1972. Depth-First Search and Linear Graph Algorithms. SIAM J. Computing
1, pp. 146-160.
[534] T EWARSON , R.P. 1973. Sparse Matrices. Academic Press.
[535] T HOMAS , B.J. 1996. The Internet for Scientists and Engineers. Oxford University Press.
[536] T HOMAS , G.B. 2014. Thomas Calculus. Thirteenth Edition. Pearson.
[537] T INNEY, W.F. Y WALKER , J.W. 1967. Direct Solution of Sparse Network Equations by
Optimally Ordered Triangular Factorizations. Proceedings of the IEEE 55, pp.1801-1809.
[538] T ITS , A.L., WCHTE , A., BAKHTIARI , S., U RBAN , T.J. Y L AWRENCE , G.T. 2003. A
Primal-Dual Interior-Point Method for Nonlinear Programming with Strong and Local
Convergence Properties. SIAM J. Optimizaton, Vol. 14, No. 1, pp. 173-199.
[539] T OMLIN , J.A. 1970. Branch-and-Bound Methods for Integer and Non-Convex Program-
ming. En Integer and Nonlinear Programming. Abadie, J. ed. North-Holland.
[540] T OMLIN , J.A. 1972. Pivoting for Size and Sparsity in Linear Programming. J. Inst. Maths.
Applics. 10, pp. 289-295.
[541] T REFETHEN , L.N. Y BAU , D. 1997. Numerical Linear Algebra. SIAM.
[542] T REFETHEN , L.N. 2005. Who invented the great numerical algorithms? Oxford University
Mathematical Institute, Oxford University.
http://www.maths.ox.ac.uk/~trefethen
[543] T YRRELL ROCKAFELLAR , R. 1972. Convex Analysis. Princeton University Press.
[544] T YRRELL ROCKAFELLAR , R. Y W ETS , R.J-B. 1997. Variatonal Analysis. Springer.
[545] U EBERHUBER , C.W. 1995. Numerical Computation. Methods, Software, and Analysis.
Vols I y II. Springer.
[546] VAN DE PANNE , C. 1976. Linear Programming and Related Techniques. North-Holland.
[547] VAN DER VORST, H.A. 2003. Iterative Krylov Methods for Large Linear Systems. Cam-
bridge.
Bibliografa j 247
[548] VAN L OAN , C.F. 1997. Introduction to Scientic Computing. A Matrix-Vector Approach
Using MATLAB. Prentice Hall.
[549] VANDERBEI , R.J. 2001. Linear Programming. Foundations and Extensions. Princeton Uni-
versity, Operations Research and Financial Engineering Dept.
[550] VANDERBEI , R.J. 1999. LOQO: An Interior Point Code for Quadratic Programming. Jour-
nal on Optimization Methods and Software, Vol. 11, pp. 451-484
[551] VARGA , R.S. 1962. Matrix Iterative Analysis. Prentice Hall.
[552] V ENKATARAMAN , P. 2002. Applied Optimization with MATLAB Programming. Wiley.
[553] V ILENKIN , N.YA . 1984. Mtodo de Aproximaciones Sucesivas. Editorial Mir.
[554] V ILLANUEVA , I. 2016. Apuntes de Ampliacin de Clculo. Universidad Complutense de
Madrid.
http://www.mat.ucm.es/~cruizb/Informatica-2/Apuntes-i/Otros-Grupos/AC-Fourier.pdf
[555] WCHTER , A. Y B IEGLER , L.T. 2006. On the Implementation of a Primal-Dual Interior
Point Filter Line Search Algorithm for Large-Scale Nonlinear Programming. Mathematical
Programming 106, pp. 25-57.
[556] WALSH , G.R. 1975. Methods of Optimization. Wiley.
[557] WATKINS , D.S. 1991. Fundamentals of Matrix Computations. Wiley.
[558] WATKINS , D.S. 2002. Fundamentals of Matrix Computations. Second Edition. Wiley.
[559] WATKINS , D.S. 2007. The Matrix Eigenvalue Problem. GR and Krylov Subspace Methods.
SIAM.
[560] W ELLIN , P., K AMIN , S. Y G AYLORD , R. 2005. An Introduction to programming with
Mathematica. Cambridge.
[561] W ENTZEL , E.S. 1983. Operations Research. A Methodological Approach. Mir Publishers.
[562] W HEEDEN , R.L. Y Z YGMUND , A. 2015. Measure ans Integral. An Introduction to Real
Analysis. Second Edition. CRC Press.
[563] W HITE , R.E. 1985. An Introduction to Finite Element Method with Applications to Nonli-
near Problems. Wiley.
[564] W HITEHOUSE , G.E. Y W ECHSLER , B. 1976. Applied Operations Research: A Survey.
Wiley.
[565] W ILKINSON , J.H. 1965. The Algebraic Eigenvalue Problem. Oxford University Press.
[566] W ILKINSON , J.H. 1994. Rounding Errors in Algebraic Processes. Dover Publications.
[567] W ILSON , D.I. 2015. Numerical Methods with MATLAB for Engineers. Auckland Univer-
sity of Technology.
[568] W ILSON , H.B., T URCOTTE , L.H. Y H ALPERN , D. 2003. Advanced Mathematics and
Mechanics Applications Using MATLAB. Third Edition. Chapman and Hall/CRC.
[569] W INSTON , W.L. 1994. Operations Research. Applications and Algorithms. Duxbury Press.
[570] W OLFE , M.A. 1978. Numerical Methods for Unconstrained Optimization. An Introduction.
Van Nostrand Reinhold Company.
[571] W OLFE , P. 1961. A Duality Theorem for Non-Linear Programming. Quart. Appl. Math. 19,
N 3.
[572] W OLFE , P. 1967. Methods of Nonlinear Programming. En Nonlinear Programming. Abadie
J. ed. North-Holland.
248 j Bibliografa
[573] W ONNACOTT, T.H. Y W ONNACOTT, R.J. 1972. Introductory Statistics for Business and
Economics. Wiley.
[574] W OOD , A.J. Y W OLLENBERG , B.F. 1984.cc Power Generation Operation and Control.
Wiley.
[575] W RIGHT, M.H. 2004. The Interior-Point Revolution in Optimization: History, Recent De-
velopments, and lasting Consequences. Bulletin of The American Mathematical Society,
Vol. 42, No. 1, pp. 39-56.
[576] W RIGHT, M.H. 1991. Interior Methods for Constrained Optimization. ATT Bell Laborato-
ries. Acta Numerica.
[577] W RIGHT, S.J. 1997. Primal-Dual Interior Point Methods. SIAM.
[578] YANG , W.Y., C AO , W., C HUNG , T.-S. Y M ORRIS , J. 2005. Applied Numerical Methods
Using MATLAB. Wiley.
[579] YOUNG , D.M. Y G REGORY, R.T. 1988. A Survey of Numerical Mathematics. Vols. I y II.
Dover Publications.
[580] Z IENKIEWICZ , O.C., TAYLOR , R.L. Y Z HU , J.Z. 2005. The Finite Element Method: Its
Basis and Fundamentals. Second Edition. Elsevier.
[581] ZL ITKOVI C , G. 2017. Introduction to Stochastic Processes. Lecture notes. Department of
Mathematics. The University of Texas at Austin.
https://www.ma.utexas.edu/users/gordanz/notes/introduction_to_stochastic_processes.pdf
ndice de materias y autores
Condiciones, convexo, 75
necesarias y sucientes de primer y dual, 81
segundo orden de un mnimo, 69 norma, 79
Conjugada de Fenchel, 103 puntiagudo 79
Conjunto(s), 1 verdadero o apropiado, 79
N, 1 Continuidad, 51
Z, 1
de Lipschitz, 52
R, 1 Convergencia, de una sucesin en espacio
C, 1 vectorial normado, 13
Q, 1 Convergencia puntual, 58
abierto, subconjunto de un espacio Convergencia uniforme, 58
normado, 13 Convexo,
entorno, 12 conjunto, 70, 71
afn, 72 cono, 75
aplicacin, funcin, trasnformacin o Convolucin, de dos funciones, 183
mapeo entre conjuntos, 1 Cooley, J.W. 185
imagen, cionjunto imagen, 3 Coordenadas baricntricas, 73
origen o dominio de denicin, 3 Correlacin, 154
dominio de valores, 3 coeciente, matriz, 154
inyectiva, 3 Cota
suprayectiva, 3 inferior mxima, o nmo, 2
biyectiva, 3 superior mnima, o supremo, 2
cerrado, 13 Criterio o regla
compacto, 14 de Weierstrass, 61
complemento, de un subconjunto, 2 de Nyquist, 186
convexo, 70, 71 Cuadrtica, forma, 48
cota superior mnima o supremo, 1
cota inferior mxima o nmo, 1 D
elemento o miembro, 1 Denida positiva,
elemento mnimo, 80 forma cuadrtica, 48
elemento mximo, 80 matriz, 36
elemento minimal, 80 Desnsidad de probabilidad, 201
estructura algebraica en conjuntos, 3 Dependencia lineal, vectores de espacio
grupo, 3 vectorial, 7
anillo, 3 Derivada de una funcin, 53
cuerpo, 3 Derivada de Frchet, 54
espacio vecctorial, 3 Derivada de Gteaux, 54
frontera o borde de, 13 Descomposicin,
interior de, 13 o triangularizacin de Schur, 42
interseccin, 1 de Jordan, 42
numerable, 3 en valores singulares, 45
sucesin de elementos, 3 espectral, 42
lmite superior de la sucesin, 3 Desigualdad,
lmite inferior de la sucesin, 3 de Cauchy-Schwarz, 22
unin, 1 de Fenchel-Young, 105
vaco, 1 Desigualdades generalizadas, 80
Cono, 75 Diagonal dominante, matriz de, 37
ndice de Materias y Autores j 251
Sylvester, J.J. 29 U
Ulam, S.M. 217
Unidad imaginaria, 161
T Unin, de conjuntos, 1
Taylor, B. 63
teorema de, 63 V
desarrollo en serie de, 63 Valor(es) propio(s), 39
polinomio de, 63 defectuoso, 39
resto de, 63 dominante, 41
serie de, 63 multiplicidad algebraica, 39
Teorema, multiplicidad geomtrica, 39
central del lmite, 217 Valor(es) singular(es), 43
de Abel, 62 descomposicin en, 45
de Cayley-Hamilton, 39 Vandermonde, A.T. 38
de Fermat, 70 Vandermonde, matriz de, 38
de Fubini, 120 Variable aleatoria, 201
de Green, 127 desnsidad de probabilidad, 201
de Nyquist-Shannon, 186 esperanza matemtica, 202
de Parseval, 178 funcin de distribucin, 202
de Riesz-Frchet, 110 varianza, 202
de Rolle, 65 Variedad afn, variedad lineal, 72
de Stokes, 129 Variedad lineal, hiperplano, 76
de Taylor, 63 separador, 85
de la divergencia, 136 teorema de existencia, 84
de la dualidad fuerte, 99 soporte, 78, 87
de la funcin implcita, 67 teorema de existencia, 86
del valor intermedio, 64 vector caracterstico, 76
Vector(es), 3
del valor medio, 64
aleatorio, 203
espectral, 42
alineados, 23
fundamental del lgebra, 39
caracterstico, de un hiperplano o variedad
fundamental del clculo, 58
lineal, 76
fundamental de la Programacin Lineal, 93
formado ngulo obtuso, 23
fundamental de las integrales en lnea, 125
formado ngulo agudo, 23
Weierstrass, 52 gradiente, 53
Transformacin, linealmente dependientes, 7
de Fenchel, 103 linealmente independientes, 7
Transformada de Fourier, 181 opuestos, 23
Transformada de Fourier discreta, 183 ortogonales, 22
Transformada de Karhunen-Love, 192 ortonormales, 22
Transformada de Laplace, 195 Vector propio, 41
Transformada del coseno discreta, 189 Vrtice de una regin factible, 75
Transformada inversa de Fourier, 181 de un politopo, 78
Transformada rpida de Fourier, 185 Von Neumann, J. 217
Tringulo, regla, 10
Tucker, A.W. 90 W
Tukey, J. 185 Weierstra, K.T.W. 14
ndice de Materias y Autores j 257
criterio de, 61
teorema de, 52
Wiener, N. 210
Wiener, Proceso de, 210
Wolfe, P.S. 102
Z
Z, conjunto (anillo) de los nmeros enteros, 1