Descargar

Redes neuronales artificiales

Enviado por Pablo Turmero


Partes: 1, 2

    edu.red

    Redes Neuronales Artificiales CONTENIDO Introducción Aprendizaje Perceptrones mono-nivel Perceptrones multi-nivel Otras Arquitecturas

    edu.red

    Redes Neuronales Artificiales RNA: Habilidad de aprender del medio ambiente y mejorar su desempeño por medio del aprendizaje. Aprendizaje: Proceso por el cual los parámetros (pesos sinápticos) de una RNA se adaptan por estimulación del medio ambiente. Algoritmo de Aprendizaje: Conjunto bien definido de reglas para actualizar los pesos sinápticos. Paradigma de Aprendizaje: Modelo del medio ambiente en el cual la RNA opera.

    edu.red

    Algoritmos de Aprendizaje Corrección de Error Basado en Memoria Hebbian Competitivo Boltzmann

    edu.red

    Paradigmas de Aprendizaje Supervizado No Supervisado Por Refuerzos No Supervisado

    edu.red

    Tareas de Aprendizaje Asociación de Patrones Reconocimiento de Patrones Aproximación Funcional Control Filtrado

    edu.red

    Algoritmos de AprendizajeCorrección de Error ek(n) = dk (n) – yk (n) E(n) = ½ ek(n) 2 — Error Energy

    ?wkj (n) = ? ek(n) xj(n) — Delta Rule (Widrow-Hoff)

    wkj (n+1) = wkj (n) + ?wkj (n)

    edu.red

    Algoritmos de AprendizajeBasado en Memoria Almacenar ejemplos entrada – salida {(xi, di)} i=1, .., N Ejemplo: Clasificación binaria Clases: C1 y C2 xtest (nuevo) es clasificado examinando su vecindad

    edu.red

    Algoritmos de AprendizajeBasado en Memoria Componentes: Criterio para definir vecindad Regla de aprendizaje

    Ejemplo: Vecino más Cercano (Nearest Neighbor) x* e {x1, x2, .., xN} es el vmc de xtest si Mini d(xi, xtest ) = d(x*, xtest ) Donde d(xi, xtest ) es la distancia Euclideana

    edu.red

    Algoritmos de AprendizajeBasado en Memoria k Vecinox más Cercanos: Identificar los k vecinos mas cercanos a xtest Asignar a xtest la clase más común en sus k vecinos más cercanos

    edu.red

    Algoritmos de AprendizajeHebbian Si dos neuronas vecinas se activan simultaneamente, el peso de su conexión se incrementa. Si dos neuronas vecinas se activan asíncronamente, la conexión se debilita o elimina. La conexión se llama sinapsis hebbiana

    edu.red

    Algoritmos de AprendizajeHebbian Mecanismos en aprendizaje hebbiano Dependiente del Tiempo. Aprendizaje depende de los tiempos de activación. Local. Activaciones Espacio-Temporales. Interactivo. Depende de la interacción entre neuronas vecinas. Conjuncional (correlacional). La co-ocurrencia de señales produce una modificación de pesos.

    edu.red

    Algoritmos de AprendizajeHebbian wkj – peso sináptico xj– señal presináptica yk– señal postsináptica ?wkj (n) = F(yk(n), xj(n)) ?wkj (n) = ? yk(n) xj(n) — Hebb´s hypothesis ?wkj (n) = ? (yk-yav) (xj(n)-xav) — Covariance Hypothesis

    Partes: 1, 2
    Página siguiente