5.3.- Redes Neuronales
Redes neuronales dirigidas a aplicaciones
Un sistema nervioso no posee todo el conocimiento.
Es necesario añadir nuevas funcionalidades y conexiones a la estructura biológica.
Características:
Auto-organización y Adaptatividad
Procesado no lineal
Procesado paralelo
5.3.- Redes Neuronales
Clasificación:
Toda red neuronal debe pasar por dos fases:
Fase de aprendizaje
Fase de prueba (utilización)
Según el tipo de aprendizaje:
De pesos fijos
Aprendizaje supervisado
Aprendizaje sin supervisión
5.3.- Redes Neuronales
Modelo de neurona artificial (elemento de procesamiento)
X: entradas
W: pesos
f: función de activación
f
Elemento J
Entradas
X1
Xr
Wj1
Wjr
Tendencia
Wj0
Salida
5.3.- Redes Neuronales
Función de activación:
Valor de entrada neto:
Valor de activación:
Función de salida:
Actúa de limitador de margen dinámico sobre el valor de activación (compresor)
5.3.- Redes Neuronales
Topología:
Los elementos de proceso de conectan formando capas
(Gp:) Capa de
entrada
(Gp:) Capa de
salida
(Gp:) Capas
ocultas
5.3.- Redes Neuronales
Características:
Cada capa puede tener un nº de elementos distinto de las otras
Puede haber tantas capas como se desee
A mayor número de capas más complejo puede ser el problema a resolver
No siempre aumentar el número de capas mejora el resultado
5.3.- Redes Neuronales
Clasificación en múltiples categorías:
Dos aproximaciones distintas:
ACON: All Class in One Network
Todas las clases en una red
OCON: One Class in One Network
Una subred para cada clase
ACON
OCON
2 Subredes
1 Red entera
5.3.- Redes Neuronales
Clasificación según el número de conexiones:
Redes Totalmente Conectadas
Redes Localmente Conectadas
Clasificación según se transmite la información:
Redes Feedforward: Las salidas de la capa i solo se conectan a las entradas de la capa i+1
Redes Feedbackward: las salidas de una capa pueden ser entradas de capas anteriores
Redes recurrentes: puede haber lazos cerrados
Redes Feedlateral: Las salidas de una capa pueden ser entradas de esa misma capa
5.3.- Redes Neuronales
Características:
Redes feedforward:
Suelen ser más rápidas
Representan sistemas lineales
Redes feedbackward y feedlateral:
Son más lentas
Representan sistemas no lineales
5.3.- Redes Neuronales
Aprendizaje automático:
Estructura general de un sistema de aprendizaje
Sistema
adaptativo
Comparador
Entrada
Salida
5.3.- Redes Neuronales
Tipos de aprendizaje:
Supervisado
No supervisado
Aprendizaje supervisado: Necesita de un “profesor” que enseñe a la red
Por corrección de errores
Por refuerzo
Estocástico
Aprendizaje no supervisado: No se necesita de intervención exterior para aprender.
5.3.- Redes Neuronales
Aprendizaje por corrección de error:
Presentar una entrada a la red
La red proporciona una salida
Comparar la salida con la deseada
Actualizar los pesos de la red
Repetir el proceso
Red
Neuronal
Comparador
Entrada
Salida
deseada
Salida
5.3.- Redes Neuronales
Aprendizaje por refuerzo:
Es más lento que el aprendizaje por corrección
No se dispone de un ejemplo completo de comportamiento
Se produce una señal de refuerzo que mide el buen comportamiento del sistema
Esta señal se emplea como realimentación para modificar los pesos de la red
5.3.- Redes Neuronales
Aprendizaje estocástico:
Se realizan cambios aleatorios sobre los pesos empleando para ello distribuciones de probabilidad
Se evalúa el efecto de los cambios hasta conseguir llegar al estado deseado.
Procedimiento:
Realizar un cambio aleatorio en los pesos
Determinar la energía de la red
Si la energía decrece: aceptar el cambio
Si la energía no decrece:
Se acepta o no el cambio en función de las probabilidades.
5.3.- Redes Neuronales
Aprendizaje sin supervisión:
También llamado auto-supervisado
La red no recibe ninguna influencia externa. Nadie le indica si la salida es correcta o no
Estas redes sirven para buscar en los datos de entrada:
Características
Regularidades
Correlaciones
Categorías
5.3.- Redes Neuronales
Perceptrón:
Es una red que dispone de una única neurona
Es capaz de resolver problemas linealmente separables
: Umbral de activación
Valor de entrada:
Salida:
(Gp:) x1
(Gp:) xN
(Gp:) w1
(Gp:) wN
(Gp:) y
5.3.- Redes Neuronales
Actualización de los pesos:
Regla de la delta
Donde d(t) es la salida deseada (instante t)
es la tasa de aprendizaje (cte)
Error cometido
Actualización
de los pesos
5.3.- Redes Neuronales
Un perpectrón solo es capaz de resolver problemas linealmente separables
Para sistemas más complejos:
Perceptrón multicapa
5.3.- Redes Neuronales
Perceptrón multicapa
Red feedforward
Entrenamiento:
Generalización regla delta
Algoritmo backpropagation
5.3.- Redes Neuronales
Perceptrón multicapa
Ejemplos de sistemas no linealmente separables que se pueden resolver
Página anterior | Volver al principio del trabajo | Página siguiente |