Descargar

Descripción y evaluación de agentes multibuscadores

Partes: 1, 2

    1. Objetivo del primer estudio
    2. Metodología
    3. Agentes multibuscadores
    4. Test de evaluación
    5. Método de búsqueda.
    6. Método de evaluación.
    7. Exhaustividad y precisión de los resultados
    8. Resultados
    9. Bibliografía

    Resumen

    Descripción y evaluación de siete agentes multibuscadores -Copernic, EZSearch, MataHari, iMine, WebSeeker, WebFerret y WebStorm- midiendo la precisión, exhaustividad y tiempo de respuesta obtenidos a partir de los veinte primeros resultados de las quince consultas realizadas con cada agente. Todas las consultas fueron hechas el 21 de agosto de 1999. La comparación entre los dos mejores agentes de este estudio con HotBot y AltaVista muestra que la búsqueda con agentes multibuscadores ofrece un mejor rendimiento que la realizada tradicionalmente con buscadores.

    Palabras clave: Agentes inteligentes, Multibuscadores, Rendimiento, Evaluación, Exhaustividad, Precisión.

    Title: Description and evaluation of multi-searcher agents

    Abstract: Seven multi-searcher agents -Copernic, EZSearch, MataHari, iMine, WebSeeker, WebFerret and WebStorm- are compared measuring precision, recall and response time on the first twenty results returned for fifteen queries. All search engines were done on August 21th, 1999. A comparative study of the two top agents of this paper with HotBot and AltaVista shows the advantages of the intelligent agents multi-seacher in relationship with the current search engines.

    Keywords: Intelligent agents, Multi-searchers engines, Perfomance, Evaluation, Recall, Precision.

    La búsqueda de información cada día resulta más complicada como consecuencia del fuerte crecimiento que está sufriendo la Red y por su mala organización. El webespacio es caótico estructuralmente. Es bueno que sea así y probablemente no va a "mejorar" en el futuro. El problema está en la incapacidad (coyuntural) de las herramientas de búsqueda para tratar dicho volumen de datos. Para los usuarios una de las tareas más arduas es encontrar lo que se está buscando, por esa razón muchas veces se termina navegando al azar.

    Se estima que el número de documentos web en internet es de unos 800 millones (Lawrence y Giles, 1999), contenidos todos ellos en algo más de 8 millones de web sites (www.netcraft.com). Estas cifras crecen a un ritmo de entre un 5 y un 10% mensual (García Alonso, 1999). El 83% de estos sitios recoge información comercial, el 6% contiene información científica o educativa, y un 1"5% distribuye información pornográfica. Puesto que la Red se está convirtiendo en el mayor medio de comunicación, es necesario conseguir que los datos contenidos en ella sean más accesibles.

    Los buscadores de internet son cada día más importantes para la sociedad de la información en la que vivimos, pero como consecuencia del desbordante crecimiento del número de páginas, están reduciendo su cobertura desde diciembre de 1997 (Lawrence y Giles, 1999). Ningún buscador recoge más de la tercera parte del mundo web. El motor de búsqueda de más cobertura, HotBot, indiza el 34% del total de documentos contenidos en la Red (Lawrence y Giles, 1998).

    «El motor de búsqueda con mayor cobertura es HotBot, con un 34% aproximado de la totalidad de la Red»

    Los modelos o patrones de indización de cada buscador han ido variando significativamente en el tiempo, al igual que los períodos de actualización. La indización de los nuevos documentos web aparecidos, o de aquellos que han sido modificados, puede llevarle a cualquiera de los buscadores actuales meses de trabajo. Si a esto añadimos que ninguno de ellos indiza más del 16% de cada documento (Lawrence y Giles, 1999), se deduce que los buscadores con más cobertura no tienen por qué ser los más actualizados. A la vez nos podemos hacer una idea del tamaño y complejidad documental a la que se deben enfrentar.

    ¿Por qué existen más de 3.000 buscadores de internet?

    http://www.buscopio.com

    Partes: 1, 2
    Página siguiente