Redes Neuronales Artificiales CONTENIDO Introducción Aprendizaje Perceptrones mono-nivel Perceptrones multi-nivel Otras Arquitecturas
Redes Neuronales Artificiales RNA: Habilidad de aprender del medio ambiente y mejorar su desempeño por medio del aprendizaje. Aprendizaje: Proceso por el cual los parámetros (pesos sinápticos) de una RNA se adaptan por estimulación del medio ambiente. Algoritmo de Aprendizaje: Conjunto bien definido de reglas para actualizar los pesos sinápticos. Paradigma de Aprendizaje: Modelo del medio ambiente en el cual la RNA opera.
Algoritmos de Aprendizaje Corrección de Error Basado en Memoria Hebbian Competitivo Boltzmann
Paradigmas de Aprendizaje Supervizado No Supervisado Por Refuerzos No Supervisado
Tareas de Aprendizaje Asociación de Patrones Reconocimiento de Patrones Aproximación Funcional Control Filtrado
Algoritmos de AprendizajeCorrección de Error ek(n) = dk (n) yk (n) E(n) = ½ ek(n) 2 Error Energy
?wkj (n) = ? ek(n) xj(n) Delta Rule (Widrow-Hoff)
wkj (n+1) = wkj (n) + ?wkj (n)
Algoritmos de AprendizajeBasado en Memoria Almacenar ejemplos entrada salida {(xi, di)} i=1, .., N Ejemplo: Clasificación binaria Clases: C1 y C2 xtest (nuevo) es clasificado examinando su vecindad
Algoritmos de AprendizajeBasado en Memoria Componentes: Criterio para definir vecindad Regla de aprendizaje
Ejemplo: Vecino más Cercano (Nearest Neighbor) x* e {x1, x2, .., xN} es el vmc de xtest si Mini d(xi, xtest ) = d(x*, xtest ) Donde d(xi, xtest ) es la distancia Euclideana
Algoritmos de AprendizajeBasado en Memoria k Vecinox más Cercanos: Identificar los k vecinos mas cercanos a xtest Asignar a xtest la clase más común en sus k vecinos más cercanos
Algoritmos de AprendizajeHebbian Si dos neuronas vecinas se activan simultaneamente, el peso de su conexión se incrementa. Si dos neuronas vecinas se activan asíncronamente, la conexión se debilita o elimina. La conexión se llama sinapsis hebbiana
Algoritmos de AprendizajeHebbian Mecanismos en aprendizaje hebbiano Dependiente del Tiempo. Aprendizaje depende de los tiempos de activación. Local. Activaciones Espacio-Temporales. Interactivo. Depende de la interacción entre neuronas vecinas. Conjuncional (correlacional). La co-ocurrencia de señales produce una modificación de pesos.
Algoritmos de AprendizajeHebbian wkj peso sináptico xj señal presináptica yk señal postsináptica ?wkj (n) = F(yk(n), xj(n)) ?wkj (n) = ? yk(n) xj(n) Hebb´s hypothesis ?wkj (n) = ? (yk-yav) (xj(n)-xav) Covariance Hypothesis
Página siguiente |