COMPUTACIÓN
castellon30 de Julio de 2013
974 Palabras (4 Páginas)200 Visitas
Resumen de conferencia #3 (Buscadores)
Un buscador es una página web en la que se ofrece consultar una base de datos en la cual se relacionan direcciones de páginas web con su contenido. Su uso facilita enormemente la obtención de un listado de páginas web que contienen información sobre el tema que nos interesa.
Historia
El primer buscador fue "Wandex", un índice (ahora desaparecido) realizado por la World Wide Web Wanderer, un robot desarrollado por Mattew Gray en el MIT, en 1993.
Aliweb, también apareció en 1993 y todavía está en funcionamiento
Yahoo!. Fue fundada en enero de1994. Sus Creadores fueron.David Filo y Jerry Yang) decidieron crear una página web en la que se ofreciera un directorio de páginas interesantes clasificadas por temas, pensando siempre en las necesidades de información que podrían tener sus compañeros de estudio.
Google. Los creadores del popular sitio de búsqueda de la Internet fueron a buscar un nombre para su creación en la historia reciente de la Matemática y lo hallaron en la palabra google que fue creada en 1930 para designar un número formado por un uno seguido de cien ceros.
Sergey Brin y Larry Page (dos estudiantes de doctorado en Ciencias de la Computación de la Universidad de Stamford.
El dominio "Google" fue registrado el 15 de septiembre de 1997
Alrededor de 2001, el buscador Google adquirió prominencia. Su éxito estaba basado en parte en el concepto de popularidad basado en PageRank, bajo la premisa de que las páginas más deseadas eran más enlazadas por otras páginas que el resto.
TIPOS DE BUSCADORES
Índice temático: Es el primer tipo de buscador que surgió. En los índices de búsqueda, la base de datos con direcciones la construye un equipo humano. Es decir, un grupo de personas va rastreando la red en busca de página.
Motores de búsqueda: Son sistemas de búsqueda por palabras clave. Son bases de datos que incorporan automáticamente páginas web mediante "robots" de búsqueda en la red.
Multi buscadores: Enviar la cadena de búsqueda a una serie de motores de búsqueda e índices temáticos previamente definidos. Una vez realizada la consulta a los buscadores prefijados, el multibuscador devolverá la información de todos los enlaces encontrados. Con la utilización de multibuscadores, el usuario se evita tener que ir de buscador en buscador hasta encontrar la información deseada.
Meta buscadores: Permiten buscar en varios buscadores al mismo tiempo. Los meta buscadores no almacenan las descripciones de páginas en sus bases de datos, sino que contienen los registros de los motores de búsqueda y la información sobre ellos.
Hay tres componentes básicos que impulsan los motores de búsquedas.
La Exploración: Posiblemente hayamos oído hablar de las “arañas” o “spiders“. Estas arañas son robots (códigos complejos) que los motores de búsqueda envían a explorar la red en busca de nueva información, recopilarla y enviarla al motor de búsqueda para que luego pueda ser procesada.
¿Qué hacen las arañas o spiders? El modo de operar de estas arañas es arrastrarse (crawl, por eso también se conocen como crawling), es decir, las arañas entran en un sitio web y recopilan la nueva información que encuentren desde su última visita, y si se encuentran un enlace o link lo siguen a ver donde les lleva. Y de este modo viajan de enlace en enlace hasta cubrir todas las páginas del sitio.
La Indexación: Los spiders al localizar información nueva la recolectan para enviársela al motor de búsqueda, donde será procesada o lo que es lo mismo, donde será
...