Descargar

Redes neuronales. Aplicación en documentación y bibliotecas

Enviado por Pablo Turmero


Partes: 1, 2

    edu.red

    Introducción Clasificación de la información Aplicaciones lingüísticas Diseño de interfaces Almacenamiento y recuperación Filtrado Imágenes: búsqueda multimedia

    edu.red

    1. Definición de redes neuronales “un sistema de procesamiento de información compuesto por un gran número de elementos de procesamiento o neuronas profusamente conectados entre sí a través de canales de comunicación (Regueiro). Estas conexiones establecen una estructura jerárquica y permiten la interacción con los objetos del mundo real tratando de emular al sistema nervioso biológico. A diferencia de la computación tradicional, basada en algoritmos predecibles, la computación neuronal permite desarrollar sistemas que resuelvan problemas complejos cuya formalización matemática es sumamente difícil”.

    edu.red

    Ventajas aprendizaje adaptativo autoorganización tolerancia a fallos operación en tiempo real fácil inserción dentro de la tecnología existente

    edu.red

    Áreas de aplicación Reconocimiento de patrones, con aplicaciones en sensación remota, análisis de imágenes médicas, visión en computadoras industriales y elementos de proceso de las entradas para computadores. Bases de datos de conocimiento para información estocástica. Control de robots. Toma de decisiones. Filtrado de señales. Segmentación, compresión y fusión de datos. Interfaces adaptativas para sistemas hombre/máquina.

    edu.red

    Organización de la red por niveles o capas de neuronas. Se pueden distinguir tres tipos de capas: de entrada, ocultas y de salida. por la forma de conexión entre neuronas: propagación hacia adelante y propagación hacia atrás.

    edu.red

    Características de las redes neuronales Topología. Mecanismo de aprendizaje. Tipo de asociación entre las informaciones de entrada y salida: heteroasociativa y autoasociativa. Representación de la información de entrada y salida.

    edu.red

    2. CLASIFICACIÓN DE LA INFORMACIÓN : Métodos .Mapas de Kohonen -Pertenece al grupo de red neuronal no supervisada -Funcionamiento -2 variantes: LVQ "Cuantificación por Vector de Aprendizaje", caracterizado por tener una salida en una única dimensión TPM "Mapa de Preservación Topológica", más conocido por SOM "Mapa auto-organizativo" con salida bidimensional

    edu.red

    Aplicaciones e inconvenientes de los SOM Aplicaciones de los SOM: -Clasificar, extraer características -Refleja la imagen topológica de la información de entrada (las entradas con rasgos similares o relacionadas aparecen cercanas en el mapa) Inconvenientes: poco aplicable a conjuntos de información de gran tamaño resulta caro y es lento

    edu.red

    Mapas de Xia Lin Es un mapa auto-organizado, similar al de Kohonen Funcionamiento: los vectores de cada documento representan la frecuencia de aparición de los términos y la red es entrenada con estos vectores

    edu.red

    Aplicaciones: clasifica los datos por materias visualiza las materias de un conjunto de datos en un mapa, diferenciadas por los nombres y colores Inconvenientes similares al anterior: resulta caro y lento aplicable a pequeñas colecciones de datos los datos son agrupados por un pequeño número de palabras extraídas generalmente de los títulos Demostración:http://www.uky.edu/~xlin

    edu.red

    WEBSOM Mapa auto-organizativo similar a los anteriores, pero que permite trabajar con grandes cantidades de información y con palabras del texto completo no sólo del título Funcionamiento: se crean también vectores de cada documento, con ello se genera un mapa intermedio de categorías de palabras que ordena los términos según sus relaciones y finalmente se elabora automáticamente un mapa que agrupa los documentos según su contenido

    edu.red

    Aplicaciones el mapa agrupa documentos por su contenido, reflejando las relaciones entre ellos los colores más oscuros o menos reflejan la densidad de información y la proximidad entre zonas indica la mayor o menor relación entre los documentos

    Partes: 1, 2
    Página siguiente