Descargar

Redes Neuronales Artificiales (Powerpoint)

Enviado por Pablo Turmero


Partes: 1, 2

    edu.red

    REDES NEURONALES Neurona: base del funcionamiento del cerebro.

    Sistema de procesamiento cerebral de la información: Complejo, No lineal y Paralelo.

    Elementos de que consta: sinapsis, axón, dentritas y soma o cuerpo

    edu.red

    NEURONA ARTIFICIAL Neurona artificial: unidad de procesamiento de la información, es un dispositivo simple de cálculo que ante un vector de entradas proporciona una única salida.

    Elementos: Conjunto de entradas, xj

    Pesos sinápticos, wi

    Función de activación: w1·x1+ w2·x2 + … + wn·xn = a

    Función de transferencia: y = F (w1·x1+ w2·x2 + … + wn·xn )

    Bias o polarización: entrada constate de magnitud 1, y peso b que se introduce en el sumador

    edu.red

    NEURONA ARTIFICIAL Principales funciones de transferencia: Lineal: y=ka Escalón: y = 0 si a<0; y=1 si a>=0 Sigmoide Gaussiana.

    edu.red

    RNA de una capa Una neurona aislada dispone de poca potencia de cálculo. Los nodos se conectan mediante la sinapsis Las neuronas se agrupan formando una estructura llamada capa. Los pesos pasan a ser matrices W (n x m) La salida de la red es un vector: Y=(y1, y2, … , yn)T Y=F(W·X+b)

    edu.red

    RNA Multicapa Redes multicapa: capas en cascada. Tipos de capas: Entrada Salida Oculta No hay realimentación => red feedforward Salida depende de entradas y pesos.

    Si hay realimentación => red recurrente Efecto memoria Salida depende también de la historia pasada.

    Una RNA es un aproximador general de funciones no lineales.

    edu.red

    Entrenamiento I Entrenamiento: proceso de aprendizaje de la red. Objetivo: tener un comportamiento deseado. Método: Uso de un algoritmo para el ajuste de los parámetros libres de la red: los pesos y las bias. Convergencia: salidas de la red = salidas deseadas. Tipos de entrenamiento: Supervisado. Pares de entrenamiento: entrada – salida deseada. Error por cada par que se utiliza para ajustar parámetros No-supervisado. Solamente conjunto de entradas. Salidas: la agrupación o clasificación por clases Reforzado.

    edu.red

    Perceptrones McCulloch y Pitts, en 1943, publicaron el primer estudio sobre RNA. El elemento central: perceptrón.

    Solo permite discriminar entre dos clases linealmente separables: XOR. 0.5= a = w1·x1 + w2·x2 No hay combinación de x1 y x2 que resuelva este problema. Solución: más capas o funciones de transferencia no lineales.

    edu.red

    Aprendizaje del Perceptrón. Algoritmo supervisado: Aplicar patrón de entrada y calcular salida de la red Si salida correcta, volver a 1 Si salida incorrecta 0 ? sumar a cada peso su entrada 1 ? restar a cada peso su entrada Volver a 1

    Proceso iterativo, si el problema es linealmente separable este algoritmo converge en un tiempo finito.

    Nos da los pesos y las bias de la red que resuelve el problema.

    edu.red

    Regla delta Generalización del algoritmo del perceptrón para sistemas con entradas y salidas continuas. Se define: d=T-A= (salidas deseadas – salidas de la red). Minimiza una función de coste basada en ese vector de error:

    Di =d lr xi

    Wi (n+1) = Wi (n) + D i

    Razón de aprendizaje lr Si las neuronas son lineales=> un único mínimo

    edu.red

    Redes Neuronales Lineales. Función de transferencia lineal. Algoritmo de entrenamiento de Widrow-Hoff o Delta, tiene en cuenta la magnitud del error. Entrenamiento: Suma de los cuadrados de los errores sea mínima. Superficie de error con mínimo único. Algoritmo tipo gradiente.

    Aproximan funciones lineales.

    edu.red

    Backpropagation Clave en el resurgimiento de las redes neuronales. Primera descripción del algoritmo fue dada por Werbos en 1974 Generalización del algoritmo de Widrow-Hoff para redes multicapa con funciones de transferencia no-lineales y diferenciables. 1989 Hornik, Stinchcombe y White Una red neuronal con una capa de sigmoides es capaz de aproximar cualquier función con un número finito de discontinuidades Propiedad de la generalización. La función de transferencia es no-lineal, la superficie de error tiene varios mínimos locales.

    edu.red

    Red Perceptron Multicapa (MLP)

    Función acotada, monótona creciente y diferenciable.

    Red de tipo feedforward. Suficiente con dos capas.

    edu.red

    Algoritmo backpropagation I Descripción: Tras inicializar los pesos de forma aleatoria y con valores pequeños, seleccionamos el primer par de entrenamiento. Calculamos la salida de la red Calculamos la diferencia entre la salida real de la red y la salida deseada, con lo que obtenemos el vector de error

    Ajustamos los pesos de la red de forma que se minimice el error Repetimos los tres pasos anteriores para cada par de entrenamiento hasta que el error para todos los conjuntos de entrenamiento sea aceptable.

    Descenso por la superficie del error Cálculo de derivadas del error respecto de los pesos y de las bias. Adelante Atrás

    edu.red

    Algoritmo backpropagation II Detalles: SSE: E=SEp=S (ypk-opk)2 Dwij=-h ?E/ ?wij

    Pasos: Inicialización: Construcción de la red. Inicialización aleatoria de pesos y umbrales (-0.5, 0.5) Criterio de terminación (número máximo de iteraciones,…). Contador de iteraciones n=0. Fase hacia delante: Calcular la salida de la red para cada patrón de entrada. Calcular el error total cometido (SSE) Si la condición de terminación se satisface, parar Fase hacia atrás:

    edu.red

    Algoritmo backpropagation III Fase hacia atrás: Incrementar el contador n=n+1. Paca cada neurona de salida calcualr: dk=(ok-yk)f’(netk) donde netj=Siwijxi+bj Para cada unidad oculta, calcular dj=f’(netj)Skdkwjk Actualizar pesos: Dwij(n+1)=hdjoi+aDwij(n) Volver a la fase hacia delante.

    Inconvenientes del algoritmo backpropagation: Tiempo de entrenamiento no acotado. Dependiente de las condiciones iniciales: Parálisis de la red. Mínimos locales.

    edu.red

    Algoritmo Backpropagation IV Underfitting. Memorización o Sobreaprendizaje. Caracterización de la red. ¿Cuantas capas, cuantas neuronas en cada capa,…?

    Partes: 1, 2
    Página siguiente