INTRODUCCIÓN
Este tema fuel la ultimo clase de la materia estas fueron
exposiciones realizadas por los estudiante. El objetivo de la clase es
reconocer los diferentes tipos de rede neuronales tenemos el percertrón unicapa
multicaca el adeline las de base radial y asi muchos mas.
MARCO TEÓRICO
REDES DE NEURONAS DE BASE RADIAL
Las redes de neuronas de base radial son redes multicapa
con conexiones hacia adelante, al igual que el PERCETRON multicapa.
Las redes de base radial se caracterizan porque están
formadas por una única capa oculta y cada neurona de esta capa posee un carácter local. Cada
neurona oculta se activa en una región distinta del espacio de entrada. El
carácter local se debe al uso de las funciones de base radial como
funciones de activación, generalmente la
función gaussiana.
Las neuronas de salida realizan una combinación lineal de
las activaciones de las neuronas ocultas.
La mayor contribución a la teoría, diseño y aplicaciones
de las redes de neuronas de base radial se debe a Moody y Darken (1989), Renals
(1989), Poggio y Girossi (1990). Uno de los objetivos principales era construir una red de neuronas que
requiriese un menor tiempo de aprendizaje que el del PERCEPTRON multicapa.
Al igual que el PERCEPTRON multicapa, las redes de
neuronas de base radial son aproximadores universales, en el sentido de que
pueden aproximar cualquier función
continua sobre un compacto de R^n.
Las funciones de base radial (RBF) definen hiperesferas o
hiperelipses que dividen el espacio de
entrada. Cada RBF (cada neurona) construye una aproximación local no lineal en una
determinada región del espacio de entrada.
Se han aplicado a gran variedad de problemas:
– Análisis de series temporales
– Procesamiento de imágenes
– Reconocimiento automático del habla
– Diagnósticos médicos, etc
ARQUITECTURA DE LAS REDES DE BASE
RADIAL
Cada red de base radial tiene 3 capas diferentes en
total:
Capa de entrada: Transmiten las señales de entrada a las neuronas
ocultas sin realizar procesamiento, es decir, las conexiones de la capa de
entrada a la capa oculta no llevan pesos asociados.
Capa oculta: Realizan una transformación local y no lineal de
dichas señales.
Capa de salida: Realiza una combinación lineal de las activaciones
de las neuronas ocultas.
ACTIVACIONES DE LAS REDES DE BASE
RADIAL
Dada
una red de base radial con espacio de entrada de p dimensiones, espacio de
salida de r dimensiones, m neuronas ocultas, las activaciones de las neuronas
de salida para el patrón de entrada n serán:
Patrón
de entrada: X(n)=(x1(n), x2(n),.... xp(n)), denotamos como yk(n), viene dadas
por la siguiente expresión:
wik:
peso de la conexión de la neurona oculta i a la de salida k
•
φi(n): activación de la neurona oculta i
•
uk : umbral de la neurona de salida k
Funciones
de base radial determinan las activaciones de las neuronas ocultas en función
del vector de entrada.
Φ:
es una función de base radial
Ci=(ci1,
c12, ...cip) son vectores: centros de las funciones de base radial
di:
son números reales: desviaciones de las funciones
||
. ||: es la distancia euclídea desde el vector de entrada al centro de la
función, definida como:
Funciones de base radial más
habituales:
APRENDIZAJE DE LAS
REDES DE BASE RADIAL
El proceso de aprendizaje implica la determinación de
todos los parámetros que intervienen en la red de base radial. Estos son: los
centros y las desviaciones de las neuronas ocultas y los pesos de la capa
oculta a la capa de salida, así como los umbrales de las neuronas de salida.
Debido a que las capas de neuronas en una red de base
radial realizan tareas diferentes, es razonable separar el proceso de
optimización de los parámetros de la capa oculta y los de la capa de salida
mediante la utilización de diferentes técnicas.
MÉTODO DE APRENDIZAJE HÍBRIDO
Realiza
el aprendizaje en dos fases:
Fase no supervisada: determinación de los centros y amplitudes de las neuronas de la capa oculta.
Fase supervisada: determinación de pesos y umbrales de la capa de salida.
FASE NO SUPERVISADA
Puesto que las neuronas ocultas se caracterizan porque representan
zonas diferentes del espacio de entradas, los centros y las desviaciones deben
de ser calculados con este objetivo (clasificar el espacio de entradas en diferentes
clases).
Determinación de los centros
El
método más utilizado para la determinación de los centros es el algoritmo de K-
medias.
Los
pasos para la aplicación del algoritmo son los siguientes:
1. Se inicializan aleatoriamente los centros de los K clusters
(centroides)
2. Se asignan Ni patrones de entrada a cada cluster i del
siguiente modo
– El patrón X(n) pertenece al cluster i si
– Por tanto, cada cluster tendrá asociado un determinado
número de patrones de entrada, aquellos más cercanos a su centroide
3. Se calcula la
nueva posición de los centroides como la media de todos
los patrones que pertenecen al cluster, es
decir:
4.
Se repiten los pasos 2 y 3 hasta que las nuevas posiciones de los centroides no se modifiquen respecto a su
posición anterior, es decir hasta que:
Determinación las Amplitudes
Se deben de calcular de manera que cada neurona de la capa oculta se active en una región del espacio de entradas y de manera que el solapamiento de las zonas de activación de una neurona sea lo más ligero posible, para suavizar así la interpolación.
Varias aproximaciones:
• Media Uniforme de las distancias euclídeas del centro Ci
a los p centros más cercanos.
• Media geométrica de la
distancia del centro a sus dos vecinos más cercanos
.
con Ct y Cs los más cercanos a Ci
FASE SUPERVISADA
En esta fase se calculan los pesos y umbrales de las
neuronas de salida de la red; el objetivo es minimizar las diferencias entre
las salidas de la red y las salidas
deseadas, el proceso de aprendizaje está guiado por la minimización de una función
error computada en la salida de la red:
Como la salida de la red (yk) depende linealmente de los pesos,
puede utilizarse un método directo (Método de la seudoinversa), o bien el método
de mínimos cuadrados.
MÉTODO DE APRENDIZAJE TOTALMENTE
SUPERVISADO
A diferencia con el método anterior, este tipo de
aprendizaje no conserva, en principio, las propiedades o características
locales de las redes de base radial. En este caso, todos los parámetros de la
red, centros, amplitudes, pesos y umbrales, se determinan de manera
completamente supervisada y con el objetivo de minimizar el error cuadrático medio.
En este proceso, en ningún momento se tiene en cuenta que
las amplitudes alcancen valores tales que el solapamiento de las activaciones
de las neuronas de la capa oculta sea lo más suave posible. Así que en
principio, esa característica de localidad se puede perder.
Cálculo
de parámetros:
BIBLIOGRAFÍA
Valls,
J.2007, Redes de Neuronas. (En línea). ES. Formato PDF. Consultado, el 19 de
Julio 2014. Disponible en: http://eva.evannai.inf.uc3m.es/et/docencia/rn-inf/documentacion/Tema4-RNBR.pdf
Isasi,
P. Galván, I. 2004, Redes Neuronales Artificiales un Enfoque Práctico. ES.
Formato PDF. Pág. 75 hasta la 99. Volumen 2.












No hay comentarios:
Publicar un comentario