Descargar

Introducción a las redes neurales

Enviado por Pablo Turmero


Partes: 1, 2

    edu.red

    Breve reseña histórica de la Neurocomputación SubLos comienzos (década de los cuarenta)

    El trabajo de Warren McCulloch y Walter Pitts publicado en 1943 bajo el título: "A logical calculus of the ideas immanent in nervous activity"podemos decir que señala el comienzo de la neurocomputación

    En este trabajo se muestra que incluso las formas más simples de redes neuronales pueden computar, en principio, funciones aritméticas y lógicas.

    Otros investigadores, como Norbert Wiener y John von Newmann (el padre de la computación moderna), realizaron trabajos en los que sugerían que la investigación en el diseño de ordenadores inspirados en el cerebro podría ser interesante. En 1949, Donald Hebb, psicólogo de la Universidad de McGill: "The Organization of Behavior"donde se diseña la primera ley de aprendizaje para las redes de neuronas artificiales.

    edu.red

    Breve reseña histórica de la Neurocomputación Subb) La primera edad de oro (las décadas de los cincuenta y sesenta) En 1962, Frank Rosenblatt introdujo y desarrolló una amplia gama de redes neuronales artificiales llamadas perceptrones que en principio crearon bastante entusiasmo. La regla de aprendizaje del perceptrón utiliza un ajuste iterativo de pesos cuando la respuesta de la unidad es incorrecta, que es más potente que la regla de Hebb.

    Ya en 1960, Bernard Widrow y su alumno Marcian Hoff desarrollaron una regla de aprendizaje que es muy parecida a la regla de aprendizaje del perceptrón y que es la precursora de la regla de retropropagación para redes multicapa.

    En 1969, Marvin Minsky y Seymour Papert, en su libro titulado "Perceptrons", mostraron las imitaciones del perceptrón (con una sola capa) para aprender. Minsky

    edu.red

    Breve reseña histórica de la Neurocomputación Sub Los años tranquilos (década de los setenta) Los trabajos tempranos de Teuvo Kohonen (1972) de la Universidad de Tecnología de Helsinki desarrollaron las redes neuronales de memoria asociativa. Así mismo, James Anderson (1968, 1972), de la Universidad de Brown, comenzó su investigación en las redes de memoria asociativa. Hay que destacar también, los trabajos de Stephen Grossberg (director del Center for Adaptative Systems de la Universidad de Boston ) y sus muchos colaboradores, como Gail Carpenter, con quien desarrolló una teoría de redes neuronales autoorganizadas, llamada teoría de resonancia adaptativa (l985, 1987 y 1990).

    edu.red

    Breve reseña histórica de la Neurocomputación Sub John Hopfield del Instituto Tecnológico de California, junto con David Tank, un investigador de AT&T, desarrollaron varias redes neuronales recurrentes con pesos fijos y activaciones adaptativas que pueden resolver problemas de optimización combinatoria con restricciones, como el problema del viajante (1982, 1984, 1985, 1986 y 1987). Su artículo publicado en la revista Scientific American ayudó a que se prestara más atención a las redes neuronales. Estos trabajos, junto con todas las conferencias que dio Hopfield por todo el mundo, contribuyeron a despertar gran interés por la investigación en redes neuronales.

    edu.red

    Breve reseña histórica de la Neurocomputación Sub La publicación en 1986 de los dos volúmenes titulados: "Parallel Distributed Processing" editados por los sicólogos David Rumelhart de la Universidad de California (en San Diego) y James McClelland de la Universidad de Carneigie-Mellon, produjo una gran explosión en este campo. En ellos se recoge un método general efectivo de entrenamiento de una red neuronal multicapa (la regla Delta generalizada) que permite resolver, entre otros, el problema XOR. Este método fue inventado independientemente por varios investigadores; es muy similar a un algoritmo propuesto por Bryson y Ho (1969) en la teoría de control óptimo y a los propuestos por Werbos (1974), Parker (1985) y LeCun (1986), pero hasta entonces era muy poco conocido.

    edu.red

    Breve reseña histórica de la Neurocomputación Sub En 1987 se celebró en San Diego la primera conferencia abierta sobre redes neuronales (IEEE International Conference on Neural Networks), con más de 1700 participantes, y se formó la International Neural Network Society (INNS).

    En 1988 nace la revista Neural Networks; le sigue la revista Neural Computation en 1989 y la IEEE Transaction on Neural Networks en 1990. Posteriormente han ido apareciendo otras muchas y se han creado Institutos de Investigación y programas de formación en Neurocomputación.

    Otra razón del creciente interés por la redes neuronales es la mejora en la capacidad de computación. Para ello se han desarrollado redes neuronales ópticas e implementaciones VLSI. El progreso de la neurocomputación va emparejado con el progreso en el diseño de neurocomputadores.

    edu.red

    ¿Qué es una Red Neuronal? Sub Es un sistema de procesamiento de información que tiene ciertas características de comportamiento inspiradas en el conocimiento actual que tenemos sobre el funcionamiento de las neuronas biológicas.

    Morfología: Dendritas Soma Axón Sinapsis

    Fisiología: Pesos sinápticos Potencial sináptico Umbral Activación/Inhibición (Despolarización)

    edu.red

    ¿Qué es una Red Neuronal? Sub El cerebro se puede contemplar como un ordenador complejo, no lineal y paralelo que procesa gran cantidad de información. Su capacidad de organizar las neuronas para realizar ciertas computaciones, como el reconocimiento de objetos, en menos de 0.2 segundos, supone una rapidez de cálculo muy superior al ordenador actual más potente. El sistema visual humano proporciona una representación del entorno que le rodea y suministra la información necesaria para interactuar con él.

    Las redes de neuronas artificiales son modelos computacionales paralelos que constan de unidades de proceso (neuronas) adaptativas y masivamente interconectadas. Son, por tanto, procesadores distribuidos masivamente en paralelo para almacenar conocimiento experimental y hacerlo disponible para su uso.

    edu.red

    ¿Qué es una Red Neuronal? Sub Se basan en los siguientes supuestos: 1.- El procesamiento de información ocurre en muchos elementos simples llamados unidades de proceso (o neuronas). 2.- Las señales se transmite entre las neuronas a través de conexión sinápticas. 3.- Cada enlace de conexión entre dos unidades de proceso tiene asociado un peso (llamado peso sináptico) que tiene un efecto multiplicador sobre la señal transmitida. 4.- Cada unidad de proceso aplica una función de activación (o transferencia) a sus señales de entrada para determinar su señal de salida. (Gp:) x1 (Gp:) x2 (Gp:) x3 (Gp:) w1 (Gp:) w2 (Gp:) w3

    yi

    edu.red

    ¿Qué es una Red Neuronal? Sub Las RNA se parecen al cerebro en dos aspectos:

    La red adquiere el conocimiento mediante un proceso de aprendizaje Los pesos de las conexiones (pesos sinápticos) entre las unidades de proceso se utilizan para almacenar el conocimiento

    Estas redes se llaman neuronales por estar inspiradas en la neurociencia pero no pretenden ser buenos modelos de neuronas biológicas. Se busca sobre todos su capacidad computacional.

    edu.red

    ¿Qué es una Red Neuronal? Sub Una red de neuronas artificiales está caracterizada por su:

    Arquitectura: Estructura o patrón de conexiones entre las unidades de proceso

    Dinámica de la Computación que nos expresa el valor que toman las unidades de proceso y que se basa en unas funciones de activación (o de transferencia) que especifican como se transforman las señales de entrada de la unidad de proceso en la señal de salida

    Algoritmo de Entrenamiento o Aprendizaje: Procedimiento para determinar los pesos de las conexiones.Una característica muy importante de estas redes es su naturaleza adaptativa, donde el "aprendizaje con ejemplos" sustituye a la "programación" en la resolución de problemas.

    edu.red

    ¿Qué es una Red Neuronal? Sub Las RNAs poseen las siguientes propiedades:

    No linealidad.

    2.- Permiten la representación de aplicaciones o correspondencias entre las entradas y salidas.

    3.- Adaptabilidad: Acomodan (adaptan) sus pesos sinápticos a los cambios del entorno.

    4.- Información contextual: El conocimiento viene representado por el estado de activación de la red neuronal. Cada neurona está afectada potencialmente por la actividad global de las otras neuronas de la red.

    Partes: 1, 2
    Página siguiente