5.3.- Redes Neuronales Redes neuronales dirigidas a aplicaciones
Un sistema nervioso no posee todo el conocimiento. Es necesario añadir nuevas funcionalidades y conexiones a la estructura biológica.
Características: Auto-organización y Adaptatividad Procesado no lineal Procesado paralelo
5.3.- Redes Neuronales Clasificación: Toda red neuronal debe pasar por dos fases: Fase de aprendizaje Fase de prueba (utilización)
Según el tipo de aprendizaje: De pesos fijos Aprendizaje supervisado Aprendizaje sin supervisión
5.3.- Redes Neuronales Modelo de neurona artificial (elemento de procesamiento) X: entradas W: pesos f: función de activación f Elemento J Entradas X1 Xr Wj1 Wjr Tendencia Wj0 Salida
5.3.- Redes Neuronales Función de activación: Valor de entrada neto:
Valor de activación:
Función de salida: Actúa de limitador de margen dinámico sobre el valor de activación (compresor)
5.3.- Redes Neuronales Topología: Los elementos de proceso de conectan formando capas (Gp:) Capa de entrada
(Gp:) Capa de salida
(Gp:) Capas ocultas
5.3.- Redes Neuronales Características: Cada capa puede tener un nº de elementos distinto de las otras Puede haber tantas capas como se desee A mayor número de capas más complejo puede ser el problema a resolver No siempre aumentar el número de capas mejora el resultado
5.3.- Redes Neuronales Clasificación en múltiples categorías: Dos aproximaciones distintas: ACON: All Class in One Network Todas las clases en una red OCON: One Class in One Network Una subred para cada clase ACON OCON 2 Subredes 1 Red entera
5.3.- Redes Neuronales Clasificación según el número de conexiones: Redes Totalmente Conectadas Redes Localmente Conectadas
Clasificación según se transmite la información: Redes Feedforward: Las salidas de la capa i solo se conectan a las entradas de la capa i+1 Redes Feedbackward: las salidas de una capa pueden ser entradas de capas anteriores Redes recurrentes: puede haber lazos cerrados Redes Feedlateral: Las salidas de una capa pueden ser entradas de esa misma capa
5.3.- Redes Neuronales Características: Redes feedforward: Suelen ser más rápidas Representan sistemas lineales
Redes feedbackward y feedlateral: Son más lentas Representan sistemas no lineales
5.3.- Redes Neuronales Aprendizaje automático: Estructura general de un sistema de aprendizaje Sistema adaptativo Comparador Entrada Salida
5.3.- Redes Neuronales Tipos de aprendizaje: Supervisado No supervisado
Aprendizaje supervisado: Necesita de un “profesor” que enseñe a la red Por corrección de errores Por refuerzo Estocástico
Aprendizaje no supervisado: No se necesita de intervención exterior para aprender.
5.3.- Redes Neuronales Aprendizaje por corrección de error: Presentar una entrada a la red La red proporciona una salida Comparar la salida con la deseada Actualizar los pesos de la red Repetir el proceso
Red Neuronal Comparador Entrada Salida deseada Salida
5.3.- Redes Neuronales Aprendizaje por refuerzo: Es más lento que el aprendizaje por corrección No se dispone de un ejemplo completo de comportamiento Se produce una señal de refuerzo que mide el buen comportamiento del sistema Esta señal se emplea como realimentación para modificar los pesos de la red
5.3.- Redes Neuronales Aprendizaje estocástico: Se realizan cambios aleatorios sobre los pesos empleando para ello distribuciones de probabilidad Se evalúa el efecto de los cambios hasta conseguir llegar al estado deseado.
Procedimiento: Realizar un cambio aleatorio en los pesos Determinar la energía de la red Si la energía decrece: aceptar el cambio Si la energía no decrece: Se acepta o no el cambio en función de las probabilidades.
5.3.- Redes Neuronales Aprendizaje sin supervisión: También llamado auto-supervisado La red no recibe ninguna influencia externa. Nadie le indica si la salida es correcta o no
Estas redes sirven para buscar en los datos de entrada: Características Regularidades Correlaciones Categorías
5.3.- Redes Neuronales Perceptrón: Es una red que dispone de una única neurona Es capaz de resolver problemas linealmente separables : Umbral de activación Valor de entrada: Salida: (Gp:) x1 (Gp:) xN (Gp:) w1 (Gp:) wN (Gp:) y
5.3.- Redes Neuronales Actualización de los pesos: Regla de la delta Donde d(t) es la salida deseada (instante t) es la tasa de aprendizaje (cte)
Error cometido Actualización de los pesos
5.3.- Redes Neuronales Un perpectrón solo es capaz de resolver problemas linealmente separables
Para sistemas más complejos: Perceptrón multicapa
5.3.- Redes Neuronales Perceptrón multicapa Red feedforward Entrenamiento: Generalización regla delta Algoritmo backpropagation
5.3.- Redes Neuronales Perceptrón multicapa Ejemplos de sistemas no linealmente separables que se pueden resolver
Página anterior | Volver al principio del trabajo | Página siguiente |