Descargar

Introducción a redes neuronales artificiales. Teoría y aplicaciones (página 2)

Enviado por Pablo Turmero


Partes: 1, 2
edu.red

13 Procesador elemental. Unidad de agregación Unidad de Activación f(a) Input Output xi wi a=netai f

edu.red

14 Procesador elemental. ANN Feedforward: Se construye colocando las neuronas en capas y conectando las salidas de una capa con las entradas de las neuronas de la próxima capa. Capas de una red: Capa de entrada Zona sensorial ( S) Capa de salida Zona de Respuesta ( R) Capas ocultas Zona de asociación ( A)

edu.red

ANN: Aprendizaje y Generalización Métodos Actuales

Tipos de Aprendizaje

Tipos de Arquitectura

Tipos de Función de Transición: deterministas, probabilistas Tipo de Algoritmo de Aprendizaje: BPL, PPL, LM, etc Supervisado No – Supervisado Híbridos FeedForward Single, Multiple Recurrentes 15

edu.red

16 Feedforward Neural Network

edu.red

17 Redes Feedforward FANN La capa 0 no realiza procesamiento alguno, solo distribuye las entradas a la capa siguiente (Gp:) x1 (Gp:) x2 (Gp:) S

edu.red

18 Modelo de Turing xi(t) = ? i=1,…,n (Gp:) 1

å wij xj(t-1) – bi n j=1 W (conectividad de la NN) b = (bi ) vector de umbrales wij xi(0) ? {0,1}

edu.red

19 Arquitectura En función de la conectividad de las capas, podemos hablar de redes recurrentes (feed-back) y redes no recurrentes o redes en cascada (feed-forward). Lo más usual es disponer las unidades en forma de capas, pudiéndose hablar de redes de una capa oculta, o de más de dos capas ocultas (redes multicapa

edu.red

20 Neuronas y Redes simples. ANN Recurrente: La salida de una neurona es la entrada de neuronas de capas anteriores (feedback). Feedback lateral: La salida de una neurona es la entrada de otra neurona en la misma capa.

edu.red

21 Neuronas y Redes simples. Parámetros de la Red: Los pesos {wi}. Aprendizaje o entrenamiento: Es el procedimiento mediante el cual los pesos son ajustados. Conjunto de entrenamiento: Conjunto de datos que consiste vectores de entrada asociado con vectores de salida deseada:{(xi,yi)}.

edu.red

22 Neuronas como funciones Las neuronas transforman una entrada no acotada x(t) en el tiempo t en una señal de salida acotada f(x(t)). La función de activación o función de señal: f Velocidad de la señal:

edu.red

23 Funciones de Activación Funciones Tipo Sigmoide Funciones Base Radial

edu.red

24 Funciones de activación comunes Función de activación logística:

Es monótamente creciente para c >0

edu.red

25 Funciones de activación comunes

edu.red

26 Funciones de activación comunes Tangente hiperbólica:

donde c>0.

edu.red

27 Funciones de activación comunes Threshold (umbral)

c>0

edu.red

28 Funciones de activación comunes Distribución exponencial:

c>0.

edu.red

29 Funciones de activación comunes Razón polinomial:

edu.red

30 Funciones de activación comunes Pulse-coded: Consiste en un tren de pulsos exponencialmente ponderados

edu.red

31 Tamaño de las muestras Cuántas Neuronas Cuantas Capas Tipo de Arquitectura ( Selección del Modelo ANN) Tipo de Aprendizaje Algoritmos de Aprendizaje ¿Cuándo usar ANN Modelador NN: Preguntas Abiertas

edu.red

32 Optimización Combinatorial Aprendizaje y Generalización: Memorias Asociativas (Básico) Redes Multicapas Pattern Recognition Predicción y Pronósticos Aproximación de Funciones Modelos de Difusión de Información Arquitecturas Paralelas Aplicaciones NN

edu.red

Test de Turing: "Un computador merece ser llamado inteligente si puede hacer pensar a un ser humano que es otro ser humano"

edu.red

34 Estructura y Formas de Conexión Función de Activación Se suele distinguir entre funciones lineales, en las que la salida es proporcional a la entrada; funciones de umbral, en las cuales la salida es un valor discreto (típicamente binario 0/1) que depende de si la estimulación total supera o no un determinado valor de umbral; y funciones no lineales, no proporcionales a la entrada. Caracteristicas Aprendizaje inductivo Generalización .Abstracción tolerancia al ruido: Procesamiento paralelo Memoria Distribuida

Redes Asincronicas v/s Sincronicas

Metodos deterministas v/s Estaticos

edu.red

35 Funcionamiento Basico La arquitectura más usada en la actualidad de una red neuronal consistiría en: Una primera capa de entradas, que recibe información del exterior. Una serie de capas ocultas (intermedias), encargadas de realizar el trabajo de la red. Una capa de salidas, que proporciona el resultado del trabajo de la red al exterior.

El número de capas intermedias y el número de neuronas de cada capa dependerá del tipo de aplicación al que se vaya a destinar la red neuronal.

Partes: 1, 2
 Página anterior Volver al principio del trabajoPágina siguiente