You are on page 1of 13

LA RED BACKPROPAGATION

En 1974, Paul Werbos desarroll la idea bsica del algoritmo de aprendizaje de


propagacin hacia atrs (backpropagation); cuyo significado qued definitivamente
aclarado en 1985.

En 1986, Rumelhart, Hinton y Williams, formalizaron un mtodo para que una red
neuronal aprendiera la asociacin que existe entre los patrones de entrada y las clases
correspondientes, utilizando varios niveles de neuronas.

El mtodo backpropagation (propagacin del error hacia atrs), basado en la
generalizacin de la regla delta, a pesar de sus limitaciones, ha ampliado de forma
considerable el rango de aplicaciones de las redes neuronales. El funcionamiento de la
red backpropagation (BPN) consiste en el aprendizaje de un conjunto predefinido de
pares de entradas-salidas dados como ejemplo: primero se aplica un patrn de entrada
como estmulo para la primera capa de las neuronas de la red, se va propagando a
travs de todas las capas superiores hasta generar una salida, se compara el resultado
en las neuronas de salida con la salida que se desea obtener y se calcula un valor de
error para cada neurona de salida. A continuacin, estos errores se transmiten hacia
atrs, partiendo de la capa de salida hacia todas las neuronas de la capa intermedia
que contribuyan directamente a la salida. Este proceso se repite, capa por capa, hasta
que todas las neuronas de la red hayan recibido un error que describa su aportacin
relativa al error total. Basndose en el valor del error recibido, se reajustan los pesos
de conexin de cada neurona, de manera que en la siguiente vez que se presente el
mismo patrn, la salida est ms cercana a la deseada.
La importancia de la red backpropagation consiste en su capacidad de autoadaptar los
pesos de las neuronas de las capas intermedias para aprender la relacin que existe
ente un conjunto de patrones de entrada y sus salidas correspondientes. Es
importante la capacidad de generalizacin, facilidad de dar salidas satisfactorias a
entradas que el sistema no ha visto nunca en su fase de entrenamiento. La red debe
encontrar una representacin interna que le permita generar las salidas deseadas
cuando se le dan entradas de entrenamiento, y que pueda aplicar, adems, a entradas
no presentadas durante la etapa de aprendizaje para clasificarlas.
Estructura y Aprendizaje de la Red Backpropagation
En una red Backpropagation existe una capa de entrada con n neuronas y una capa
de salida con m neuronas y al menos una capa oculta de neuronas internas. Cada
neurona de una capa (excepto las de entrada) recibe entradas de todas las neuronas
de la capa anterior y enva su salida a todas las neuronas de la capa posterior (excepto
las de salida). No hay conexiones hacia atrs feedback ni laterales entre las neuronas
de la misma capa.
La aplicacin del algoritmo tiene dos fases, una hacia delante y otra hacia atrs.
Durante la primera fase el patrn de entrada es presentado a la red y propagado a
travs de las capas hasta llegar a la capa de salida. Obtenidos los valores de salida de la
red, se inicia la segunda fase, comparndose stos valores con la salida esperada para
as obtener el error. Se ajustan los pesos de la ltima capa proporcionalmente al error.
Se pasa a la capa anterior con una retropopagacin del error, ajustando los pesos y
continuando con este proceso hasta llegar a la primera capa. De esta manera se han
modificado los pesos de las conexiones de la red para cada patrn de aprendizaje del
problema, del que conocamos su valor de entrada y la salida deseada que debera
generar la red ante dicho patrn.
La tcnica Backpropagation requiere el uso de neuronas cuya funcin de activacin sea
continua, y por lo tanto, diferenciable. Generalmente, la funcin utilizada ser del tipo
sigmoidal.

















Pasos para aplicar el Algoritmo de Entrenamiento








Paso 1. Inicializar los pesos de la red con valores pequeos aleatorios.
Paso 2. Presentar un patrn de entrada y especificar la salida deseada que debe
generar la red.
Paso 3. Calcular la salida actual de la red. Para ello se presentan las entradas a la red y
se calcula la salida de cada capa hasta llegar a la capa de salida, sta ser la salida de la
red. Los pasos son los siguientes:
Se calculan las entradas netas para las neuronas ocultas procedentes de las neuronas
de entrada. Para una neurona j oculta:

en donde el ndice h se refiere a magnitudes de la capa oculta; el subndice p, al p-
simo vector de entrenamiento, y j a la j-sima neurona oculta. El trmino puede ser
opcional, pues acta como una entrada ms.
Se calculan las salidas de las neuronas ocultas:
Se realizan los mismos clculos para obtener las salidas de las neuronas de salida:

X
I

X
I

X
I

j
j
w
ji

Yjp
P
Yjk
Paso 4 . Calcular los trminos de error para todas las neuronas.
Si la neurona k es una neurona de la capa de salida, el valor de la delta es:

La funcin f debe ser derivable. En general disponemos de dos formas de funcin de
salida:


La seleccin de la funcin depende de la forma que se decida representar la salida: si
se desea que las neuronas de salida sean binarias, se utiliza la funcin sigmoidal, en
otros casos, la lineal.
Para una funcin lineal, tenemos: , mientras que la derivada de una funcin
sigmoidal es:

Si la neurona j no es de salida, entonces la derivada parcial del error no puede ser
evaluada directamente, por tanto se obtiene el desarrollo a partir de valores que son
conocidos y otros que pueden ser evaluados.
La expresin obtenida en este caso es: donde
observamos que el error en las capas ocultas depende de todos los trminos de error
de la capa de salida. De aqu surge el trmino propagacin hacia atrs.
Paso 5. Actualizacin de los pesos: para ello utilizamos un algoritmo recursivo,
comenzando por las neuronas de salida y trabajando hacia atrs hasta llegar a la capa
de entrada, ajustando los pesos de la siguiente forma:

En ambos casos, para acelerar el proceso de aprendizaje se puede aadir un trmino
momento.
Paso 6. El proceso se repite hasta que el trmino de error resulta
aceptablemente pequeo para cada uno de los patrones aprendidos.
Nmero de Capas Ocultas
No se pueden dar reglas concretas para determinar el nmero de neuronas o nmero
de capas de una red para resolver un problema concreto.
Respecto al nmero de capas de la red, en general tres capas son suficientes (entrada -
oculta-salida). Sin embargo, hay veces que un problema es fcil de resolver con ms de
una capa oculta. El tamao de las capas, tanto de entrada como de salida, suele estar
determinado por la naturaleza de la aplicacin. En cambio, decidir cuntas neuronas
debe tener una capa oculta no suele ser tan evidente. El nmero de neuronas ocultas
interviene en la eficiencia de aprendizaje y de generalizacin de la red. No hay ninguna
regla que indique el nmero ptimo, en cada problema se debe ensayar.





PARAMETROS DE ENTRADA Y SALIDA EN EL PROBLEMA
Capa de entrada se compone de tres secciones del macizo rocoso, las especificaciones
de los patrn de voladura y el modo de carga que tiene el mayor efecto en la
fragmentacin. Parmetros de la capa de entrada son los siguientes :
- Las especificaciones de voladura tamao del patrn, Burden, espaciado y barrenos
altura.
- Las especificaciones del macizo rocoso, incluyendo el tipo de roca, la gravedad
especfica, la situacin y la profundidad del agua en los taladros.
- Las especificaciones de voladura, incluyendo el tipo explosivo, factor especfico,
altura de carga, derivados y de refuerzo.
Capa de salida se forma a partir de tres parmetros, d50, d80, d63.5.










Arquitectura del Modelo
En esta seccin se presenta la arquitectura del modelo de red que se utiliza el
algoritmo de backpropagation en red de alimentacin hacia adelante multicapa.
Este modelo est estructurado por una capa de entrada, dos capas ocultas y una capa
de salida. Una neurona primaria conN entradas (50 en este modelo) se muestra en la
figura 1. Cada entrada es ponderada con un W peso apropiada. La suma de las
entradas ponderadas y el sesgo forma la entrada a la funcin de transferencia F. Las
neuronas pueden utilizar cualquier transferencia diferenciable la funcin f para
generar sus resultados.

En este modelo de red de mltiples capas, la funcin de transferencia-tan sigmoide se
utiliza en primera y segunda. Esta funcin genera salidas entre -1 y 1 como entrada
neta de la neurona va de negativo a infinito positivo. ('Ver figura 2')

La funcin de transferencia lineal, se utiliza en la tercera capa de la red de propagacin
inversa ('vase la figura 3'). Si la ltima capa de una red de mltiples capas tiene
neuronas sigmoideas, a continuacin, las salidas de la red se limita a una pequea
gama. Si se usan las neuronas de salida lineal, las salidas de la red pueden tomar
cualquier valor. En propagacin hacia atrs es importante ser capaz de calcular los
derivados de cualquiera de las funciones de transferencia utilizados.


Esta red Feedforward o pensamiento hacia adelante tiene dos capas ocultas de
neuronas sigmoideas seguido por una capa de salida de las neuronas lineales ('vase la
figura 4'). Las mltiples capas de neuronas con funciones de transferencia no lineales
permiten que la red para aprender relaciones no lineales y lineales entre los vectores
de entrada y de salida. La capa de salida lineal permite que los valores de producir la
red fuera del rango de -1 a +1.
Para las redes de capas mltiples se utiliz el nmero de las capas para determinar el
superndice en las matrices de peso. La notacin adecuada se utiliza en la de dos capas
tansig / red se muestra a continuacin.

3.8 . Error de Entrenamiento, Validacin cruzada
El siguiente procedimiento de validacin cruzada se realiz para la formacin de la red
como una forma de controlar el accesorio sobre - de datos de entrenamiento . 80 % de
los conjuntos de datos fueron seleccionados al azar para la formacin de la red y el 20
% de los datos para la validacin. Se calcul el error de la red en la validacin de datos
despus de cada pase , o poca , a travs de los datos de entrenamiento . Todas las
redes se capacit durante 1000 veces. Al trmino de la formacin, los valores de peso
de la red en la poca para la cual fue el error de validacin de la ms pequea fue
elegido como los valores de peso para que la red lo ms probable es llevar a cabo la
mejor en los datos nuevos. A continuacin, est mejor red se aplic al 20 % restante de
los datos , conocido como el equipo de prueba . Todas las representaciones se
clasificaron 15 veces usando diferentes selecciones aleatorias de entrenamiento ,
validacin y equipos de prueba y los valores iniciales de peso.
Despus de la formacin de la red , la red se pondr a prueba en un 20 % se mantuvo
de datos y se calcul el error absoluto y el valor de error relativo. La Tabla 4 presenta
los errores absoluto y relativo de ambas error de entrenamiento y validacin cruzada
entre los valores reales y predichos d80 . Las tasas de error calculadas estn a menos
de uno por ciento en todos los exmenes y es aceptable.















Anlisis de sensibilidad
En esta seccin, el efecto de la variedad de los parmetros de rocas fragmentadas se
obtiene haciendo que una variable de parmetros, pero todos los dems constantes.
Los espacios y los factores especficos son los parmetros ms sensibles como los
grficos resultaron del anlisis de sensibilidad representar. Al aumentar el factor
especfico, las dimensiones de rocas fragmentadas se reducirn considerablemente.
Con el factor especfico igual a 1.15 kg/m3, el D80 (el tamao de paso 80%) de roca se
convierta en 40cm. en otras palabras, 80 por ciento de las dimensiones de rocas
fragmentadas es de 40 cm despus de la voladura .

Resultados obtenidos a partir de cambiar el espaciado tambin muestra ('vase la
figura 9') que, si bien la separacin es entre 4,5 y 5,8 metros, de acuerdo con el valor
de la constante de otros parmetros, 80 por ciento de las dimensiones de roca
fragmentados ser de entre 28 y 40 cm. Este es el mejor resultado y si la distancia es
inferior a los 4,5 metros y las dimensiones de rocas fragmentadas tienen un montn de
rocas de tamao insuficiente que provoca la creciente de los costos de perforacin y
voladura, y tambin hacer que el procesamiento de minerales ms complejos. Sin
embargo, cuando la separacin es ms de 5.8 metros, la piedra y las rocas de gran
tamao se incrementan esa voluntad requiere voladura secundaria que aumentan los
costos de voladura posteriormente.

5 - Modelo de Anlisis
El modelo de prediccin para la estimacin de las dimensiones de rocas fragmentadas
se prob varias veces con datos reales de Gol e- Gohar - Mina de Hierro a travs de
Redes Neuronales Artificiales . En esta seccin, utilizando el Kozentsof y mtodos de
prediccin de Kuz -Ram y tambin de anlisis de imagen , se estudi el tamao de
partcula curva de distribucin y dibujado a cuatro patrones de voladura con el fin de
analizar los resultados obtenidos a travs del modelo de red neuronal.
La adaptacin de las curvas obtenidas de enfoque Kuz -Ram , anlisis de imgenes y de
los resultados de redes neuronales estn representando que el uso de modelo de red
neuronal tiene una muy pequea diferencia con anlisis de imagen en la mayora de
los casos. Tambin , Kuz - Ram enfoque predecir la fragmentacin puede ser utilizado
en Gol correo - Gohar mina con algunas modificaciones ( ' vase la figura 10 ' ) . El
efecto de las especificaciones de masa de roca no se evala ( estudiado ) integral en el
modelo de Kuz - Ram y por lo tanto no puede ser fiable en todas las condiciones
(situaciones ) . Por lo tanto el modelo Kuz -Ram no puede adaptarse absolutamente
con redes neuronales y anlisis de imgenes .
Los resultados de la distribucin del tamao de la roca se presentan a cuatro patrones
de voladura en Gol correo - Gohar Mina . ( ' Ver tabla 5') .

























6. conclusin
Es ms de 40 aos de la presentacin de los modelos de prediccin de la
fragmentacin. Sin embargo, el tipo de datos de entrada hace que el uso de los
modelos de prediccin de la fragmentacin difcil. Por otro lado, con respecto a este
punto que se obtuvieron cada uno de los modelos mencionados en las circunstancias
especficas, la precisin se puede reducir a travs de cambios de situacin. Por lo tanto
se estudiaron y se presentan varios mtodos con el fin de determinar la distribucin.
En este trabajo, un modelo ha sido presentado a travs de la teora de redes
neuronales que las dimensiones de la roca fragmentada se pueden predecir con error
muy escasamente .
Con el fin de predecir las dimensiones de la roca fragmentada de una red neural
multicapa artificial se utiliza con la parte posterior algoritmo de aprendizaje de
propagacin . La red est mejor entrenado por 13 parmetros de entrada y 3
parmetros de salida con una capa de entrada , 2 capas ocultas y una capa de salida .
Funciones Purlin tan- sigmoide se utilizan como funciones de transferencia en la red.
Una de la capacidad del modelo para el resto de modelos de prediccin de la
fragmentacin es su nmero ilimitado de parmetros de entrada.
Al examinar el modelo representado en la ma Gol- e- Gohar , la exactitud de modelo
se confirma por comparacin entre el tamao de las rocas fragmentadas reales y los
predichos . El error relativo del modelo es de menos de 3 % en todos los exmenes . El
modelo lleva a cabo en la forma en que las dimensiones de roca fragmentada despus
de la voladura se pueden medir mediante la introduccin de las especificaciones del
patrn de voladura .
Finalmente , el estudio sobre la adaptacin de las curvas de distribucin de tamao de
partculas obtenidas de la red neuronal artificial , los mtodos de anlisis de imgenes (
software Goldsize ) y el modelo de Kuz -Ram muestran que los resultados de los
mtodos de redes neuronales y anlisis de imagen son casi los mismos . Tambin la
comparacin de estos dos mtodos con el modelo Kuz - Ram muestra el error
considerable . Esto es debido a no tener en cuenta el tipo de roca y sus caractersticas
mecnicas . A pesar de todo lo anterior, modelo Kuz - Ram se puede utilizar como el
modelo de prediccin de la fragmentacin en la mina de Gol -e- Gohar con algunas
correcciones . El estudio muestra que, debido modelo Kuz -Ram considera los factores
ms importantes , por lo tanto los resultados ms adecuados para la prediccin de
fragmentos Dimensiones sern obtenidos por este modelo .

You might also like