Redes Neuronales Artificiales
CONTENIDO
Introducción
Aprendizaje
Perceptrones mono-nivel
Perceptrones multi-nivel
Otras Arquitecturas
Redes Neuronales Artificiales
RNA:
Habilidad de aprender del medio ambiente y mejorar su desempeño por medio del aprendizaje.
Aprendizaje:
Proceso por el cual los parámetros (pesos sinápticos) de una RNA se adaptan por estimulación del medio ambiente.
Algoritmo de Aprendizaje:
Conjunto bien definido de reglas para actualizar los pesos sinápticos.
Paradigma de Aprendizaje:
Modelo del medio ambiente en el cual la RNA opera.
Algoritmos de Aprendizaje
Corrección de Error
Basado en Memoria
Hebbian
Competitivo
Boltzmann
Paradigmas de Aprendizaje
Supervizado
No Supervisado
Por Refuerzos
No Supervisado
Tareas de Aprendizaje
Asociación de Patrones
Reconocimiento de Patrones
Aproximación Funcional
Control
Filtrado
Algoritmos de AprendizajeCorrección de Error
ek(n) = dk (n) yk (n)
E(n) = ½ ek(n) 2 Error Energy
?wkj (n) = ? ek(n) xj(n) Delta Rule (Widrow-Hoff)
wkj (n+1) = wkj (n) + ?wkj (n)
Algoritmos de AprendizajeBasado en Memoria
Almacenar ejemplos entrada salida
{(xi, di)} i=1, .., N
Ejemplo: Clasificación binaria
Clases: C1 y C2
xtest (nuevo) es clasificado examinando su vecindad
Algoritmos de AprendizajeBasado en Memoria
Componentes:
Criterio para definir vecindad
Regla de aprendizaje
Ejemplo: Vecino más Cercano (Nearest Neighbor)
x* e {x1, x2, .., xN} es el vmc de xtest si
Mini d(xi, xtest ) = d(x*, xtest )
Donde d(xi, xtest ) es la distancia Euclideana
Algoritmos de AprendizajeBasado en Memoria
k Vecinox más Cercanos:
Identificar los k vecinos mas cercanos a xtest
Asignar a xtest la clase más común en sus k vecinos más cercanos
Algoritmos de AprendizajeHebbian
Si dos neuronas vecinas se activan simultaneamente, el peso de su conexión se incrementa.
Si dos neuronas vecinas se activan asíncronamente, la conexión se debilita o elimina.
La conexión se llama sinapsis hebbiana
Algoritmos de AprendizajeHebbian
Mecanismos en aprendizaje hebbiano
Dependiente del Tiempo. Aprendizaje depende de los tiempos de activación.
Local. Activaciones Espacio-Temporales.
Interactivo. Depende de la interacción entre neuronas vecinas.
Conjuncional (correlacional). La co-ocurrencia de señales produce una modificación de pesos.
Algoritmos de AprendizajeHebbian
wkj peso sináptico
xj señal presináptica
yk señal postsináptica
?wkj (n) = F(yk(n), xj(n))
?wkj (n) = ? yk(n) xj(n) Hebb´s hypothesis
?wkj (n) = ? (yk-yav) (xj(n)-xav) Covariance Hypothesis
Página siguiente |