Conociendo y clasificando los buscadores
Sin lugar a dudas, la Web es en la actualidad el mayor
conglomerado de información que existe en el mundo. Prácticamente
cualquier tema, desde los más usuales e importantes, hasta los más
exóticos e intrascendentes, tienen su lugar en la Web.
Según estimaciones de organismos que estudian la evolución de
la Web, aproximadamente 3300 millones de páginas web,
conteniendo más de 1 billón y medio de palabras, conforman un
espacio sólo comparable a la famosa "biblioteca total" que alguna
vez pensara Jorge Luis Borges en "El jardín de los senderos que se
bifurcan". Internet es, en los tiempos modernos, lo que la Biblioteca
de Alejandría fue en la Antigüedad.
Para realizar tan compleja tarea, imposible para cualquier ser
humano, los buscadores utilizan un tipo de software denominado
"spiders" ("arañas"). Éstas se deslizan a través de toda la Web
(recordemos que su traducción es, justamente, "telaraña") visitando
millones de páginas y registrando sus direcciones en grandes bases
de datos. A partir de allí, algunos buscadores envían "robots" a cada
una de estas direcciones, los cuales se encargan de almacenar el
texto de dichas páginas.
En rigor, tanto spiders (arañas), robots, y wanderers (viajeros,
vagabundos) son palabras que se usan indistintamente, y sirven para
calificar a la clase de programas que recorren la Web recolectando
algún tipo de información sobre cada lugar visitado (por ej. título,
texto, imágenes, etc.). El "viaje" del robot continúa con la visita a las
páginas que han sido referenciadas por ésta, y así sucesivamente.
En la actualidad existen aproximadamente unos 3700 buscadores
de información, de los cuales el 10 % pertenece al ámbito de
Latinoamérica.
Obviamente, no todos los buscadores de información son iguales,
ni tienen las mismas potencialidades.

No hay comentarios:
Publicar un comentario