Monografias.com > Computación > Programación
Descargar Imprimir Comentar Ver trabajos relacionados

Redes neuronales artificiales II




Enviado por Pablo Turmero



Partes: 1, 2

    Monografias.com

    ÍNDICE
    Introducción

    Clasificación de redes neuronales:
    Estructura
    Entrenamiento

    Aplicación de las redes neuronales a la identificación de sistemas

    Las redes neuronales en el control

    Monografias.com

    REDES NEURONALES
    Neurona: base del funcionamiento del cerebro.

    Sistema de procesamiento cerebral de la información:
    Complejo, No lineal y Paralelo.

    Elementos de que consta: sinapsis, axón, dentritas y soma o cuerpo

    Monografias.com

    NEURONA ARTIFICIAL
    Neurona artificial: unidad de procesamiento de la información, es un dispositivo simple de cálculo que ante un vector de entradas proporciona una única salida.

    Elementos:
    Conjunto de entradas, xj

    Pesos sinápticos, wi

    Función de activación: w1·x1+ w2·x2 + … + wn·xn = a

    Función de transferencia: y = F (w1·x1+ w2·x2 + … + wn·xn )

    Bias o polarización: entrada constate de magnitud 1, y peso b que se introduce en el sumador

    Monografias.com

    NEURONA ARTIFICIAL
    Principales funciones de transferencia:
    Lineal: y=ka
    Escalón: y = 0 si a< 0; y=1 si a>=0
    Sigmoide
    Gaussiana.

    Monografias.com

    RNA de una capa
    Una neurona aislada dispone de poca potencia de cálculo.
    Los nodos se conectan mediante la sinapsis
    Las neuronas se agrupan formando una estructura llamada capa.
    Los pesos pasan a ser matrices W (n x m)
    La salida de la red es un vector: Y=(y1, y2, … , yn)T
    Y=F(W·X+b)

    Monografias.com

    RNA Multicapa
    Redes multicapa: capas en cascada.
    Tipos de capas:
    Entrada
    Salida
    Oculta
    No hay realimentación => red feedforward
    Salida depende de entradas y pesos.

    Si hay realimentación => red recurrente
    Efecto memoria
    Salida depende también de la historia pasada.

    Una RNA es un aproximador general de funciones no lineales.

    Monografias.com

    Entrenamiento I
    Entrenamiento: proceso de aprendizaje de la red.
    Objetivo: tener un comportamiento deseado.
    Método:
    Uso de un algoritmo para el ajuste de los parámetros libres de la red: los pesos y las bias.
    Convergencia: salidas de la red = salidas deseadas.
    Tipos de entrenamiento:
    Supervisado.
    Pares de entrenamiento: entrada – salida deseada.
    Error por cada par que se utiliza para ajustar parámetros
    No-supervisado.
    Solamente conjunto de entradas.
    Salidas: la agrupación o clasificación por clases
    Reforzado.

    Monografias.com

    Perceptrones
    McCulloch y Pitts, en 1943, publicaron el primer estudio sobre RNA.
    El elemento central: perceptrón.

    Solo permite discriminar entre dos clases linealmente separables: XOR.
    0.5= a = w1·x1 + w2·x2
    No hay combinación de x1 y x2 que resuelva este problema.
    Solución: más capas o funciones de transferencia no lineales.

    Monografias.com

    Aprendizaje del Perceptrón.
    Algoritmo supervisado:
    Aplicar patrón de entrada y calcular salida de la red
    Si salida correcta, volver a 1
    Si salida incorrecta
    0 ? sumar a cada peso su entrada
    1 ? restar a cada peso su entrada
    Volver a 1

    Proceso iterativo, si el problema es linealmente separable este algoritmo converge en un tiempo finito.

    Nos da los pesos y las bias de la red que resuelve el problema.

    Monografias.com

    Regla delta
    Generalización del algoritmo del perceptrón para sistemas con entradas y salidas continuas.
    Se define: d=T-A= (salidas deseadas – salidas de la red).
    Minimiza una función de coste basada en ese vector de error:

    Di =d lr xi

    Wi (n+1) = Wi (n) + D i

    Razón de aprendizaje lr
    Si las neuronas son lineales=> un único mínimo

    Monografias.com

    Redes Neuronales Lineales.
    Función de transferencia lineal.
    Algoritmo de entrenamiento de Widrow-Hoff o Delta, tiene en cuenta la magnitud del error.
    Entrenamiento:
    Suma de los cuadrados de los errores sea mínima.
    Superficie de error con mínimo único.
    Algoritmo tipo gradiente.

    Aproximan funciones lineales.

    Monografias.com

    Backpropagation
    Clave en el resurgimiento de las redes neuronales.
    Primera descripción del algoritmo fue dada por Werbos en 1974
    Generalización del algoritmo de Widrow-Hoff para redes multicapa con funciones de transferencia no-lineales y diferenciables.
    1989 Hornik, Stinchcombe y White
    Una red neuronal con una capa de sigmoides es capaz de aproximar cualquier función con un número finito de discontinuidades
    Propiedad de la generalización.
    La función de transferencia es no-lineal, la superficie de error tiene varios mínimos locales.

    Partes: 1, 2

    Página siguiente 

    Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

    Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

    Categorias
    Newsletter