Monografias.com > Computación > Internet
Descargar Imprimir Comentar Ver trabajos relacionados

Descripción y evaluación de agentes multibuscadores


Partes: 1, 2

    1. Objetivo del
      primer estudio
    2. Metodología
    3. Agentes
      multibuscadores
    4. Test de
      evaluación
    5. Método
      de búsqueda.
    6. Método
      de evaluación.
    7. Exhaustividad
      y precisión de los resultados
    8. Resultados
    9. Bibliografía

    Resumen

    Descripción y evaluación
    de siete agentes multibuscadores -Copernic, EZSearch, MataHari,
    iMine, WebSeeker, WebFerret y WebStorm- midiendo la
    precisión, exhaustividad y tiempo de
    respuesta obtenidos a partir de los veinte primeros resultados de
    las quince consultas realizadas con cada agente. Todas las
    consultas fueron hechas el 21 de agosto de 1999. La
    comparación entre los dos mejores agentes de este estudio
    con HotBot y AltaVista muestra que la
    búsqueda con agentes multibuscadores ofrece un mejor
    rendimiento que la realizada tradicionalmente con buscadores.

    Palabras clave: Agentes
    inteligentes, Multibuscadores, Rendimiento, Evaluación,
    Exhaustividad, Precisión.

    Title: Description and
    evaluation of multi-searcher agents

    Abstract: Seven multi-searcher
    agents -Copernic, EZSearch, MataHari, iMine, WebSeeker, WebFerret
    and WebStorm- are compared measuring precision, recall and
    response time on the first twenty results returned for fifteen
    queries. All search engines were done on August 21th, 1999. A
    comparative study of the two top agents of this paper with HotBot
    and AltaVista shows the advantages of the intelligent agents
    multi-seacher in relationship with the current search
    engines.

    Keywords: Intelligent agents,
    Multi-searchers engines, Perfomance, Evaluation, Recall,
    Precision.

    La búsqueda de información cada día resulta
    más complicada como consecuencia del fuerte crecimiento
    que está sufriendo la Red y por su mala organización. El webespacio es
    caótico estructuralmente. Es bueno que sea así y
    probablemente no va a "mejorar" en el futuro. El problema
    está en la incapacidad (coyuntural) de las herramientas
    de búsqueda para tratar dicho volumen de
    datos. Para
    los usuarios una de las tareas más arduas es encontrar lo
    que se está buscando, por esa razón muchas veces se
    termina navegando al azar.

    Se estima que el número de documentos
    web en
    internet es de
    unos 800 millones (Lawrence y
    Giles, 1999),
    contenidos todos ellos en algo más de 8 millones de web
    sites (www.netcraft.com). Estas cifras crecen a
    un ritmo de entre un 5 y un 10% mensual (García
    Alonso
    , 1999). El 83% de estos sitios recoge
    información comercial, el 6% contiene información
    científica o educativa, y un 1"5% distribuye
    información pornográfica. Puesto que la Red se
    está convirtiendo en el mayor medio de comunicación, es necesario conseguir que
    los datos contenidos en ella sean más accesibles.

    Los buscadores de internet son cada día más
    importantes para la sociedad de la
    información en la que vivimos, pero como consecuencia del
    desbordante crecimiento del número de páginas,
    están reduciendo su cobertura desde diciembre de 1997
    (Lawrence y
    Giles, 1999).
    Ningún buscador recoge más de la tercera parte del
    mundo web. El motor de
    búsqueda de más cobertura, HotBot,
    indiza el 34% del total de documentos contenidos en la Red
    (Lawrence y
    Giles, 1998).

    «El motor de búsqueda con mayor
    cobertura es HotBot, con un 34% aproximado de la totalidad de la
    Red»

    Los modelos o
    patrones de indización de cada buscador han ido variando
    significativamente en el tiempo, al igual que los períodos
    de actualización. La indización de los nuevos
    documentos web aparecidos, o de aquellos que han sido
    modificados, puede llevarle a cualquiera de los buscadores
    actuales meses de trabajo. Si a
    esto añadimos que ninguno de ellos indiza más del
    16% de cada documento (Lawrence y
    Giles, 1999), se
    deduce que los buscadores con más cobertura no tienen por
    qué ser los más actualizados. A la vez nos podemos
    hacer una idea del tamaño y complejidad documental a la
    que se deben enfrentar.

    ¿Por qué existen más de 3.000 buscadores
    de internet?

    http://www.buscopio.com

    Partes: 1, 2

    Página siguiente 

    Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

    Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

    Categorias
    Newsletter