Descargar

Redes Neuronales Artificiales (Powerpoint) (página 2)

Enviado por Pablo Turmero


Partes: 1, 2
edu.red

Redes Neuronales no supervisadas I Autoorganizativas: durante el proceso de aprendizaje la red debe descubrir por si misma regularidades o categorías => la red debe autoorganizarse en función de las señales procedentes del entorno. Mapa de Rasgos Autoorganizados, SOM (Kohonen, 80) Características: Red competitiva Arquitectura unidireccional de dos capas: Capa de entrada: m neuronas una por cada vector de entrada. Capa segunda se realiza el procesamiento, formando el mapa de rasgos. Tiene nx X ny neuronas operando en paralelo. Todas las neuronas de entrada están conectadas a las neuronas de la segunda capa, a través de los pesos wij

edu.red

Redes Neuronales No-Supervisadas II Cada neurona (i,j) calcula la similitud entre el vector de entradas y su vector de pesos Vence la neurona cuyo vector de pesos es más similar al vector de entrada.

Cada neurona sirva para detectar alguna característica del vector de entrada. Función de vecindad: relación entre neuronas próximas en el mapa.

edu.red

RNA no supervisadas III Aprendizaje: Inicialización de los pesos wij Presentación de las entradas x(t) Cada neurona calcula, la similitud entre su vector de pesos wij y el vector de entrada x, usando la distancia Euclídea

Determinación de la neurona ganadora: Actualización de los pesos de la neurona ganadora y sus vecinas

Las demás neuronas no actualizan su peso Si se ha alcanzado el número de iteraciones parar, si no volver al paso 2.

edu.red

VENTAJAS Ventajas de las RNA:

Aprendizaje adaptativo: lo necesario es aplicar un buen algoritmo y disponer de patrones (pares) de entrenamiento. Auto-organización => conduce a la generalización Tolerancia a fallos: las redes pueden aprender patrones que contienen ruido, distorsión o que están incompletos. Operación en tiempo real: procesan gran cantidad de datos en poco tiempo. Facilidad de inserción en tecnología ya existente.

edu.red

APLICACIONES Detección de patrones. Filtrado de señales Segmentación de datos Control Identificación.

edu.red

Sub Redes Neuronales en identificación de sistemas

edu.red

Identificación de sistemas La identificación consiste en calcular un modelo del sistema en base a datos experimentales.

Pasos: Seleccionar una clase de modelos (CARIMA, Box-Jenkis,…) Obtener un conjunto de datos experimentales Seleccionar un modelo de la clase elegida Estimar los parámetros (método de Identificación: LS,RLS,IV,…) Validación (exactitud, adecuación de uso) Sistema Entrada: u(t) Salida: y(t)

edu.red

RNA que representan el tiempo Representación del tiempo. Tratamiento de señales. Identificación de modelos dinámicos Control de sistemas. Redes dinámicas: Respuesta a: Las entradas actuales La historia pasada del sistema. Dotar de memoria a la red: Introduciendo directamente en la red tanto la señal actual como los valores pasados. Mediante conexiones recurrentes.

edu.red

Red PML con ventana temporal Ventanas de datos pasadas de las entradas y de las salidas. Ventajas: Algoritmo simple es suficiente No problemas de realimentación Desventajas Información útil debe “caber” en la ventana temporal Muchas entradas ? Sobreparametrización

(Gp:) u(t) (Gp:) u(t-1) (Gp:) u(t-2) (Gp:) … (Gp:) u(t-m) (Gp:) y(t-1) (Gp:) y(t-2) (Gp:) … (Gp:) ym (t)

edu.red

Redes neuronales recurrentes Redes neuronales parcialmente recurrentes: Conexiones recurrentes con valores fijos Algoritmo de aprendizaje “ve” una red perceptrón multicapa Ejemplos: Jordan Elman

Redes neuronales recurrentes: Todas las neuronas interconectadas Computacionalmente costoso

edu.red

Estructuras neuronales para la identificación Determinación o elección de la estructura del modelo. ¿Es necesario un modelo neuronal? Nos basamos en modelos establecidos en el caso lineal Diseño: Variables que forman parte del regresor ?(t) Función no-lineal g(·,·) desde el espacio de regresiones al espacio de salida ? NO en modelos lineales y(t)=g(q,j(t))+e(t) Estructura de caja negra: modelo de entrada- salida. Elementos del regresor: Entradas pasadas u(t-k) Salidas pasadas medidas: y(t-k) Salidas pasadas calculadas por el modelo: ÿu(t-k|q) Residuos pasados calculados: eu(t-k)=y(t-k)-ÿu(t-k|q)

edu.red

Modelo NARX Ventajas: Puede aproximar cualquier sistema no-lineal arbitrariamente bien No recurrente. Desventajas: Vector de regresión puede ser grande No se modela el ruido

edu.red

Modelo NOE Corresponde a una red recurrente, ya que parte de las entradas constituye la salida de la propia red. Comprobación difícil para modelo de predicción estable Entrenamiento laborioso por cálculo correcto de gradientes

edu.red

Validación Validación: es el proceso de comprobación de la utilidad de modelo obtenido: Si el modelo concuerda con los datos observados Si servirá al propósito para el que fue creado Si describe el sistema real

Enfoque neuronal: Conjunto de datos de entrenamiento Conjunto de datos de test. Conjunto de datos de validación. Enfoque basado en correlaciones: Test de blancura de los residuos …

edu.red

Ejemplo I

Transforma un producto A en otro B Reacción química exotérmica Se controla la temperatura mediante una camisa por la que circula un refrigerante

Salidas: Ca Cb Tl Tr

Entradas: Manipulables: Fl Fr Perturbaciones medibles: Ca0 Tl0 Tr0

(Gp:) Camisa (Gp:) Reactor (Gp:) Fl, Ca0, Tl0 (Gp:) Fr, Tr0 (Gp:) Ca, Cb, Tl (Gp:) Tr (Gp:) A (Gp:) B

edu.red

Ejemplo II El periodo de muestreo es T = 0.2 horas Las entradas han de ser tales que provoquen todas las salidas de interés

edu.red

Ejemplo III

Se normalizan los datos de entrada y salida Se entrenan cuatro redes, cada una modela una salida Se usa el algoritmo backpropagation (Gp:) R.N.A. Elman (Gp:) R.N.A. Elman (Gp:) R.N.A. Elman (Gp:) R.N.A. Elman (Gp:) Ca (Gp:) Cb (Gp:) Tl (Gp:) Tr (Gp:) Fl (Gp:) Fr (Gp:) Ca0 (Gp:) Tl0 (Gp:) Tr0

Partes: 1, 2
 Página anterior Volver al principio del trabajoPágina siguiente