- Objetivo del
primer estudio - Metodología
- Agentes
multibuscadores - Test de
evaluación - Método
de búsqueda. - Método
de evaluación. - Exhaustividad
y precisión de los resultados - Resultados
- Bibliografía
Resumen
Descripción y evaluación
de siete agentes multibuscadores -Copernic, EZSearch, MataHari,
iMine, WebSeeker, WebFerret y WebStorm- midiendo la
precisión, exhaustividad y tiempo de
respuesta obtenidos a partir de los veinte primeros resultados de
las quince consultas realizadas con cada agente. Todas las
consultas fueron hechas el 21 de agosto de 1999. La
comparación entre los dos mejores agentes de este estudio
con HotBot y AltaVista muestra que la
búsqueda con agentes multibuscadores ofrece un mejor
rendimiento que la realizada tradicionalmente con buscadores.
Palabras clave: Agentes
inteligentes, Multibuscadores, Rendimiento, Evaluación,
Exhaustividad, Precisión.
Title: Description and
evaluation of multi-searcher agents
Abstract: Seven multi-searcher
agents -Copernic, EZSearch, MataHari, iMine, WebSeeker, WebFerret
and WebStorm- are compared measuring precision, recall and
response time on the first twenty results returned for fifteen
queries. All search engines were done on August 21th, 1999. A
comparative study of the two top agents of this paper with HotBot
and AltaVista shows the advantages of the intelligent agents
multi-seacher in relationship with the current search
engines.
Keywords: Intelligent agents,
Multi-searchers engines, Perfomance, Evaluation, Recall,
Precision.
La búsqueda de información cada día resulta
más complicada como consecuencia del fuerte crecimiento
que está sufriendo la Red y por su mala organización. El webespacio es
caótico estructuralmente. Es bueno que sea así y
probablemente no va a "mejorar" en el futuro. El problema
está en la incapacidad (coyuntural) de las herramientas
de búsqueda para tratar dicho volumen de
datos. Para
los usuarios una de las tareas más arduas es encontrar lo
que se está buscando, por esa razón muchas veces se
termina navegando al azar.
Se estima que el número de documentos
web en
internet es de
unos 800 millones (Lawrence y
Giles, 1999),
contenidos todos ellos en algo más de 8 millones de web
sites (www.netcraft.com). Estas cifras crecen a
un ritmo de entre un 5 y un 10% mensual (García
Alonso, 1999). El 83% de estos sitios recoge
información comercial, el 6% contiene información
científica o educativa, y un 1"5% distribuye
información pornográfica. Puesto que la Red se
está convirtiendo en el mayor medio de comunicación, es necesario conseguir que
los datos contenidos en ella sean más accesibles.
Los buscadores de internet son cada día más
importantes para la sociedad de la
información en la que vivimos, pero como consecuencia del
desbordante crecimiento del número de páginas,
están reduciendo su cobertura desde diciembre de 1997
(Lawrence y
Giles, 1999).
Ningún buscador recoge más de la tercera parte del
mundo web. El motor de
búsqueda de más cobertura, HotBot,
indiza el 34% del total de documentos contenidos en la Red
(Lawrence y
Giles, 1998).
«El motor de búsqueda con mayor
cobertura es HotBot, con un 34% aproximado de la totalidad de la
Red»
Los modelos o
patrones de indización de cada buscador han ido variando
significativamente en el tiempo, al igual que los períodos
de actualización. La indización de los nuevos
documentos web aparecidos, o de aquellos que han sido
modificados, puede llevarle a cualquiera de los buscadores
actuales meses de trabajo. Si a
esto añadimos que ninguno de ellos indiza más del
16% de cada documento (Lawrence y
Giles, 1999), se
deduce que los buscadores con más cobertura no tienen por
qué ser los más actualizados. A la vez nos podemos
hacer una idea del tamaño y complejidad documental a la
que se deben enfrentar.
¿Por qué existen más de 3.000 buscadores
de internet?
http://www.buscopio.com
Página siguiente |