ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Buscadores Y Sus Caracteristicas


Enviado por   •  14 de Abril de 2013  •  1.716 Palabras (7 Páginas)  •  553 Visitas

Página 1 de 7

Introducción

Actualmente Internet tiene dimensiones tan grandes que en ocasiones resulta sumamente difícil encontrar que se busca, para facilitar esta tarea existen los llamados buscadores de páginas y de usuarios.

Un buscador está formado por una extensa base de datos a la que podemos tener acceso mediante sus métodos de búsqueda, lo cual nos permite acceder a la dirección de las páginas donde está la información que buscamos.

El buscar información en la red, ha pasado de ser algo aburrido y agotador a ser sorprendentemente fácil y rápido.

Al conectarnos a Internet, la primera página que aparece es la que tenemos definida como "Página de inicio

Podemos decir que un buscador es una herramienta que nos permite buscar en toda Internet a partir de unas palabras que tienes que introducir para describir lo que buscas

1

Desarrollo

BUSCADORES

Un buscador también conocido como motor de búsqueda, es un sistema informático que busca archivos almacenados en servidores web gracias a su spider o web crawler*. Las búsquedas se hacen con palabras clave o con árboles jerárquicos por temas; el resultado de la búsqueda es un listado de direcciones web en los que se mencionan temas relacionados con las palabras clave buscadas.

Como operan en forma automática, los motores de búsqueda contienen generalmente más información que los directorios. Sin embargo, estos últimos también han de construirse a partir de búsquedas (no automatizadas) o bien a partir de avisos dados por los creadores de páginas (lo cual puede ser muy limitante). Los buenos directorios combinan ambos sistemas. Hoy en día Internet se ha convertido en una herramienta, para la búsqueda de información, rápida, para ello han surgido los buscadores que son un motor de búsqueda que nos facilita encontrar información rápida de cualquier tema de interés, en cualquier área de las ciencias, y de cualquier parte del mundo.

HISTORIA

El primer buscador fue "Wandex", un índice (ahora desaparecido) realizado por la World Wide Web Wanderer, un robot desarrollado por Mattew Gray en el MIT, en 1993. Otro de los primeros buscadores, Aliweb, también apareció en 1993 y todavía está en funcionamiento. El primer motor de búsqueda de texto completo fue WebCrawler, que apareció en 1994. A diferencia de sus predecesores, éste permitía a sus usuarios una búsqueda por palabras en cualquier página web, lo que llegó a ser un estándar para la gran mayoría de los buscadores. WebCrawler fue también el primero en darse a conocer ampliamente entre el público. También apareció en 1994 Lycos* (que comenzó en la Carnegie Mellón University)

.2

Muy pronto aparecieron muchos más buscadores, como Excite, Infoseek, Inktomi, Northern Light y AltaVista. De algún modo, competían con directorios (o índices temáticos) populares tales como Yahoo!. Más tarde, los directorios se integraron o se añadieron a la tecnología de los buscadores para aumentar su funcionalidad.

Antes del advenimiento de la Web, había motores de búsqueda para otros protocolos o usos, como el buscador Archie, para sitios FTP* anónimos y el motor de búsqueda Verónica, para el protocolo Gopher.

En la actualidad se aprecia una tendencia por parte de los principales buscadores de Internet a dar el salto hacia entornos móviles creando una nueva generación de buscadores: los buscadores móviles.

*LYCOS

Lycos era un portal web que incluye un buscador. Surgió como un proyecto de desarrollo de un motor de búsqueda liderado por el Dr. Michael Mauldin de la Universidad Carnegie Mellon en 1994. Se incorporó en 1995 y llegó a ser uno de los sitios web más visitados de internet con una presencia global en alrededor de 40 países.

El nombre "Lycos" es la palabra griega para «lobo», que se encuentra como raíz en Lycosidae, una familia de arañas que buscan activamente su presa, o en licántropo.

FTP (FILE TRANSFER PROTOCOL)

FTP ('Protocolo de Transferencia de Archivos') en informática, es un protocolo de red para la transferencia de archivos entre sistemas conectados a una red TCP (Transmission Control Protocol), basado en la arquitectura cliente-servidor.

3

Desde un equipo cliente se puede conectar a un servidor para descargar archivos desde él o para enviarle archivos, independientemente del sistema operativo utilizado en cada equipo.

*SPIDER WEB (WEB CRAWLER)

Una araña web es un programa que inspecciona las páginas del World Wide Web de forma metódica y automatizada. Uno de los usos más frecuentes que se les da consiste en crear una copia de todas las páginas web visitadas para su procesado posterior por un motor de búsqueda que indexa las páginas proporcionando un sistema de búsquedas rápido. Las arañas web suelen ser bots*.

Las arañas web comienzan visitando una lista de URLs, identifica los hiperenlaces en dichas páginas y los añade a la lista de URLs a visitar de manera recurrente de acuerdo a determinado conjunto de reglas. La operación normal es que se le da al programa un grupo de direcciones iniciales, la araña descarga estas direcciones, analiza las páginas y busca enlaces a páginas nuevas. Luego descarga estas páginas nuevas, analiza sus enlaces, y así sucesivamente.

Entre las tareas más comunes de las arañas de la web tenemos:

• Crear el índice de una máquina de búsqueda.

• Analizar los enlaces de un sitio para buscar links rotos.

• Recolectar información de un cierto tipo, como precios de productos para recopilar un catálogo.

BOT

Un bot es un programa informático que realiza funciones muy diversas, imitando el comportamiento de un humano. En sitios como Wikipedia un bot puede realizar funciones rutinarias

...

Descargar como (para miembros actualizados)  txt (11.4 Kb)  
Leer 6 páginas más »
Disponible sólo en Clubensayos.com