Introducción a redes neuronales artificiales. Teoría y aplicaciones (página 2)
Enviado por Pablo Turmero
13 Procesador elemental. Unidad de agregación Unidad de Activación f(a) Input Output xi wi a=netai f
14 Procesador elemental. ANN Feedforward: Se construye colocando las neuronas en capas y conectando las salidas de una capa con las entradas de las neuronas de la próxima capa. Capas de una red: Capa de entrada Zona sensorial ( S) Capa de salida Zona de Respuesta ( R) Capas ocultas Zona de asociación ( A)
ANN: Aprendizaje y Generalización Métodos Actuales
Tipos de Aprendizaje
Tipos de Arquitectura
Tipos de Función de Transición: deterministas, probabilistas Tipo de Algoritmo de Aprendizaje: BPL, PPL, LM, etc Supervisado No – Supervisado Híbridos FeedForward Single, Multiple Recurrentes 15
16 Feedforward Neural Network
17 Redes Feedforward FANN La capa 0 no realiza procesamiento alguno, solo distribuye las entradas a la capa siguiente (Gp:) x1 (Gp:) x2 (Gp:) S
18 Modelo de Turing xi(t) = ? i=1,…,n (Gp:) 1
å wij xj(t-1) – bi n j=1 W (conectividad de la NN) b = (bi ) vector de umbrales wij xi(0) ? {0,1}
19 Arquitectura En función de la conectividad de las capas, podemos hablar de redes recurrentes (feed-back) y redes no recurrentes o redes en cascada (feed-forward). Lo más usual es disponer las unidades en forma de capas, pudiéndose hablar de redes de una capa oculta, o de más de dos capas ocultas (redes multicapa
20 Neuronas y Redes simples. ANN Recurrente: La salida de una neurona es la entrada de neuronas de capas anteriores (feedback). Feedback lateral: La salida de una neurona es la entrada de otra neurona en la misma capa.
21 Neuronas y Redes simples. Parámetros de la Red: Los pesos {wi}. Aprendizaje o entrenamiento: Es el procedimiento mediante el cual los pesos son ajustados. Conjunto de entrenamiento: Conjunto de datos que consiste vectores de entrada asociado con vectores de salida deseada:{(xi,yi)}.
22 Neuronas como funciones Las neuronas transforman una entrada no acotada x(t) en el tiempo t en una señal de salida acotada f(x(t)). La función de activación o función de señal: f Velocidad de la señal:
23 Funciones de Activación Funciones Tipo Sigmoide Funciones Base Radial
24 Funciones de activación comunes Función de activación logística:
Es monótamente creciente para c >0
25 Funciones de activación comunes
26 Funciones de activación comunes Tangente hiperbólica:
donde c>0.
27 Funciones de activación comunes Threshold (umbral)
c>0
28 Funciones de activación comunes Distribución exponencial:
c>0.
29 Funciones de activación comunes Razón polinomial:
30 Funciones de activación comunes Pulse-coded: Consiste en un tren de pulsos exponencialmente ponderados
31 Tamaño de las muestras Cuántas Neuronas Cuantas Capas Tipo de Arquitectura ( Selección del Modelo ANN) Tipo de Aprendizaje Algoritmos de Aprendizaje ¿Cuándo usar ANN Modelador NN: Preguntas Abiertas
32 Optimización Combinatorial Aprendizaje y Generalización: Memorias Asociativas (Básico) Redes Multicapas Pattern Recognition Predicción y Pronósticos Aproximación de Funciones Modelos de Difusión de Información Arquitecturas Paralelas Aplicaciones NN
Test de Turing: "Un computador merece ser llamado inteligente si puede hacer pensar a un ser humano que es otro ser humano"
34 Estructura y Formas de Conexión Función de Activación Se suele distinguir entre funciones lineales, en las que la salida es proporcional a la entrada; funciones de umbral, en las cuales la salida es un valor discreto (típicamente binario 0/1) que depende de si la estimulación total supera o no un determinado valor de umbral; y funciones no lineales, no proporcionales a la entrada. Caracteristicas Aprendizaje inductivo Generalización .Abstracción tolerancia al ruido: Procesamiento paralelo Memoria Distribuida
Redes Asincronicas v/s Sincronicas
Metodos deterministas v/s Estaticos
35 Funcionamiento Basico La arquitectura más usada en la actualidad de una red neuronal consistiría en: Una primera capa de entradas, que recibe información del exterior. Una serie de capas ocultas (intermedias), encargadas de realizar el trabajo de la red. Una capa de salidas, que proporciona el resultado del trabajo de la red al exterior.
El número de capas intermedias y el número de neuronas de cada capa dependerá del tipo de aplicación al que se vaya a destinar la red neuronal.
Página anterior | Volver al principio del trabajo | Página siguiente |