You are on page 1of 6

OPTIMIZACION

Definicin
Consiste en maximizar o minimizar una funcin real eligiendo
sistemticamente valores de entrada (tomados de un conjunto
permitido) y computando el valor de la funcin. La generalizacin de
la teora de la optimizacin y tcnicas para otras formulaciones
comprende un rea grande de las matemticas aplicadas. De forma
general, la optimizacin incluye el descubrimiento de los "mejores
valores" de alguna funcin objetivo dado un dominio definido,
incluyendo una variedad de diferentes tipos de funciones objetivo y
diferentes tipos de dominios.

Optimizacin combinatoria
La optimizacin combinatoria es una rama de la optimizacin en
matemticas aplicadas y en ciencias de la computacin, relacionada a
la investigacin de operaciones, teora de algoritmos y teora de la
complejidad computacional. Tambin est relacionada con otros
campos, como la inteligencia artificial e ingeniera de software. Los
algoritmos de optimizacin combinatoria resuelven instancias de
problemas que se creen ser difciles en general, explorando el espacio
de soluciones (usualmente grande) para estas instancias. Los
algoritmos de optimizacin combinatoria logran esto reduciendo el
tamao efectivo del espacio, y explorando el espacio de bsqueda
eficientemente.

METODOS DE OPTIMIZACION COMPUTACIONAL


ALGORITMOS DE OPTIMIZACION
ALGORITMO SIMPLEX: En optimizacin matemtica, el trmino
algoritmo Simplex habitualmente se refiere a un conjunto de
mtodos muy usados para resolver problemas de programacin
lineal, en los cuales se busca el mximo de una funcin lineal
sobre un conjunto de variables que satisfaga un conjunto de
inecuaciones lineales.
ALGORITMO

SIMPLEX

DUAL:

resulta

ser

una

estrategia

algortmica eficiente cuando luego de llevar un modelo de


programacin lineal a su forma estndar, la aplicacin del
mtodo simplex no es inmediata o ms bien compleja, por
ejemplo, puede requerir la utilizacin del mtodo simplex de 2
fases.
Una aplicacin tpica del mtodo simplex dual es en la
resolucin

de

problemas

con

una

funcin

objetiva

de

minimizacin, con restricciones del tipo mayor o igual y donde


las variables de decisin son mayores o iguales a cero.

METODOS ITERATIVOS
Un importante criterio para los optimizadores es justo el nmero
de evaluaciones de funciones requerido, como este con
frecuencia es de por s un gran esfuerzo computacional,
usualmente mucho ms esfuerzo que el del optimizador en s,
ya que en su mayora tiene que operar sobre N variables. Las
derivadas proveen informacin detallada para los
optimizadores, pero son an ms costosas de calcular, por

ejemplo aproximando el gradiente toma al menos N+1


evaluaciones de funciones. Para la aproximacin de las
segundas derivadas (agrupadas en la matriz Hessiana) el
nmero de evaluaciones de funciones es de orden N. El mtodo
de Newton requiere las derivadas de Segundo orden, por lo
tanto por cada iteracin el nmero de llamadas a funcin es de
orden N, pero para el optimizador de un gradiente puro ms
simple es de orden N. Sin embargo, los optimizadores de
gradiente necesitan usualmente ms iteraciones que el
algoritmo de Newton. Ser mejor con respecto al nmero de
llamadas a funciones depende del problema en s.
METODO DE NEWTON: Programacin secuencial cuadrtica: un
mtodo de Newton basado en problemas restrictos de pequeamediana escala. Algunas versiones pueden manejar problemas
de gran dimensin.
METODO QUASI-NEWTON : mtodos iterativos para problemas
medianos-grandes (ejemplo N<1000).
METODOS DE GRADIENTE CONJUGADO: mtodos iterativos para
problemas grandes. (En teora, estos mtodos terminan en un
nmero finito de pasos con funciones objetivo cuadrticas, pero
esta terminacin finita no se observa en la prctica en
computadoras de precisin finita.)
METODOS DE PUNTO INTERIOR: esta es una gran clase de
mtodos para la optimizacin restricta. Algunos mtodos de
punto interior usan solamente informacin del subgradiente, y
otros requieren la evaluacin de las Hessianas.
DESCENSO DEL GRADIENTE: (alternativamente, descenso
pronunciado o ascenso pronunciado): un mtodo lento de
inters terico e histrico, el cual ha sido renovado para
encontrar soluciones aproximadas de problemas enormes.

METODO DEL SUBGRADIENTE: un mtodo iterativo para


grandes funciones de Lipschitz localmente usando gradientes
generalizados.
METODOS QUE EVALUAN SOLO VALORES DE FUNCIONES: si un
problema es continuamente diferenciable, entonces los
gradientes pueden ser aproximados usando diferencias finitas,
en tal caso puede ser usado un mtodo basado en gradiente.

HEURISTICAS
En computacin, dos objetivos fundamentales son encontrar
algoritmos

con

buenos

tiempos

de

ejecucin

buenas

soluciones, usualmente las ptimas.


EVOLUCION DIFERENCIAL: es un mtodo de optimizacin
perteneciente a la categora de computacin evolutiva, aplicado
en la resolucin de problemas complejos. Al igual que otros
algoritmos de esta categora, la ED mantiene una poblacin de
soluciones candidatas, las cuales se recombinan y mutan para
producir nuevos individuos los cuales sern elegidos de acuerdo
al valor de su funcin de desempeo. Lo que caracteriza a la ED
es el uso de vectores de prueba, los cuales compiten con los
individuos de la poblacin actual a fin de sobrevivir.
ALGORITMOS GENETICOS: Son llamados as porque se inspiran
en la evolucin biolgica y su base gentico-molecular. Estos
algoritmos hacen evolucionar una poblacin de individuos
sometindola a acciones aleatorias semejantes a las que actan
en la evolucin biolgica (mutaciones y recombinaciones
genticas), as como tambin a una seleccin de acuerdo con
algn criterio, en funcin del cual se decide cules son los
individuos ms adaptados, que sobreviven, y cules los menos
aptos, que son descartados. Los algoritmos genticos se
enmarcan dentro de los algoritmos evolutivos, que incluyen

tambin las estrategias evolutivas, la programacin evolutiva y


la programacin gentica.
NELDER-MEAD: es un algoritmo de optimizacin ampliamente
utilizado. Es debido a Nelder y Mead (1965) y es un mtodo
numrico para minimizar una funcin objetiva en un espacio
multidimensional.
El mtodo utiliza el concepto de un simplex, que es un politopo
de N+1 vrtices en N dimensiones: un segmento de lnea en
una lnea, un tringulo en un plano, un tetraedro en un espacio
tridimensional y as sucesivamente.

El mtodo busca de modo aproximado una solucin ptima local


a un problema con N variables cuando la funcin a minimizar
vara suavemente.
OPTIMIZACION

POR

ENJAMBRE

DE

PARTICULAS:

Permite

optimizar un problema a partir de una poblacin de soluciones


candidatas, denotadas como "partculas", moviendo stas por
todo el espacio de bsqueda segn reglas matemticas que
tienen en cuenta la posicin y la velocidad de las partculas. El
movimiento de cada partcula se ve influido por su mejor
posicin local hallada hasta el momento, as como por las
mejores posiciones globales encontradas por otras partculas a
medida que recorren el espacio de bsqueda. El fundamento
terico de esto es hacer que la nube de partculas converja
rpidamente hacia las mejores soluciones.

METODOS DE OPTIMIZACION COMBINATORIA


ALGORITMO DE RECOCIDO SIMULADO: es un algoritmo de bsqueda
meta-heurstica para problemas de optimizacin global; el objetivo
general de este tipo de algoritmos es encontrar una buena
aproximacin al valor ptimo de una funcin en un espacio de
bsqueda grande. A este valor ptimo se lo denomina "ptimo global"

BUSQUEDA TABU: Es un mtodo de optimizacin matemtica,


perteneciente a la clase de tcnicas de bsqueda local. La bsqueda
tab aumenta el rendimiento del mtodo de bsqueda local mediante
el uso de estructuras de memoria: una vez que una potencial solucin
es determinada, se la marca como "tab" de modo que el algoritmo
no vuelva a visitar esa posible solucin

ALGORITMO DE LA COLONIA DE HORMIGAS: el algoritmo de la colonia


de hormigas, algoritmo hormiga u optimizacin por colonia de
hormigas (Ant Colony Optimization, ACO) es una tcnica probabilstica
para solucionar problemas computacionales que pueden reducirse a
buscar los mejores caminos o rutas en grafos.
El primer algoritmo surgi con el objetivo de buscar el camino ptimo
en un grafo, basado en el comportamiento de las hormigas cuando
estas estn buscando un camino entre la colonia y una fuente de
alimentos. La idea original se ha diversificado para resolver una
amplia clase de problemas numricos, y como resultado, han surgido
gran cantidad de problemas nuevos, basndose en diversos aspectos
del comportamiento de las hormigas.

You might also like