ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

La Deep Web

Patricia Hidalgo HernandezInforme9 de Junio de 2022

3.663 Palabras (15 Páginas)89 Visitas

Página 1 de 15

Liceo Bicentenario de Excelencia [pic 1]

Polivalente  San Nicolás

La Deep Web

Nombre: Rodrigo Gomez Hidalgo

Curso: 1°medio F
Profesores: Rodrigo Campos y Camxila Pinilla

Asignatura: Tecnología

Fecha: 31/03/2021

Introducción

La globalización ha facilitado el desarrollo de la ciencia y la tecnología permitiendo un fortalecimiento de  la comunicación y  de  vínculos entre personas, organizaciones y Estados, al derribar las fronteras y llegar a, virtualmente, cualquier rincón del planeta.

Lo anterior ha permitido que internet se ha convierta en la red más grande, importante y conocida a nivel mundial. Es una dimensión en expansión porque  su utilidad es constante además de facilitar la comunicación y la búsqueda de información, al punto que en la actualidad no se ha dimensionado de manera precisa el tamaño de esta gran red. En ella se puede encontrar sitios con características particulares que comparten rasgos comunes, sin embargo, existe una región de la internet, la Deep Web,  que no es muy conocida, pues su dominio no es de total conocimiento público.

El objetivo del presente  informe es dar a conocer lo que es la  Deep Web, como acceder y tips de lo que se puede encontrar ahí. También se hablará de una  pequeña zona  más profunda denominada Dark Web y sus riesgos.

A partir de lo anterior, surgen términos como ciberespacio, quinta dimensión, ciberdelito, onions, bitcoins, etc que ya han comenzado a ser parte del lenguaje cotidiano contemporáneo y serán aún más comunes para las siguientes generaciones.

La Deep Web

Orígenes

Para comprender a la Deep Web, lo primero es entender a la Web, en donde la Internet, se concibe como una “red de redes”, que permite la comunicación entre redes  distantes  y  compartir  datos  entre diversos equipos. En  los  años  60  en  el Instituto  de  Tecnología  de Massachusetts (Massachusetts Institute  of  Technology, MIT), el psicólogo J.C.R. Licklider inicia el desarrollo de la idea de una Red galáctica, a la cual visualizaba como “el medio principal y esencial de interacción normativa para gobiernos,  instituciones,  corporaciones  e   individuos”. Posteriormente,Licklider fue director de la agencia estadounidense DARPA 3, allí  en  conjunto con otros  científicos  como Leonard Kleinrock y Lawrence G. Roberts, construyó a  la antecesora de la Internet actual, denominada ARPANET, la cual se terminó de afinar entre 1968 y 1969, poniéndola en marcha con solo 4  nodos (UCLA 4, SRI 5, UC Santa Bárbara y la Universidad de Utah). Después del lanzamiento   se    incorporaron    diversos    centros   de investigación, laboratorios  y centros militares.

Con   la   incorporación  de   los   distintos   centros   de investigación,  se  inicia  la  creación  de  los  primeros protocolos     de comunicación     para mejorar el aprovechamiento  de  la  red,   por     lo  que  se  buscó desarrollar un programa que permitiera la coordinación de conexión existente entre cada usuario, lo cual dio origen al  correo  electrónico  en  1972,  donde Ray  Tomlinson incorporó varias de las principales características que se tienen en la actualidad, con ello, posteriormente surge el concepto  de   una  red   abierta,  la   cual  permitiría la escalabilidad  sin depender  de  la  infraestructura como: nodos, los protocolos, interfaces y estándares, así  que a mediados de  1972 Robert Kahn introdujo este concepto como  parte   de   uno  de  sus  proyectos  en  DARPA, nombrandolo Internetting. Kahn junto con  Vint  Cerf diseñaron un  protocolo  que permitiera  llegar  tanto  a  las  máquinas directamente conectadas,   como    a las    subredes   que    podrían eventualmente ir  naciendo en  cada  nodo.  

Operada por el servicio Tor que permite que los usuarios naveguen anónimamente y libres del monitoreo de sus actividades. Las cuentas de vendedores en su lanzamiento eran limitadas, pero ante el éxito del sitio, salieron a la venta por medio de un sistema de subasta,  hasta que fue desmantelada por el FBI en 2013.  Finalmente, el sitio fue cerrado y Ross Ulrich, su fundador,  fue condenado a cadena perpetua por 7 cargos que incluyen lavado de dinero y estupefacientes en el 2015.

Este tipo de mercado negro abriría paso a más modernos y contemporáneos mercados oscuros,cuyo modelo de compras es similar al de páginas como EBay o Amazon, donde se pueden encontrar catálogos de compras y carritos de compras para adquirir estos productos ilegales.

¿Qué es la Deep Web?

La Deep Web es todo el contenido que no está indexado en los motores de búsqueda y que, por tanto, no se puede acceder a él fácilmente y representa además la mayor parte de la red. También es conocida como Deepnet, Onionland, Invisible web o Hidden web. Una manera fácil de entender el concepto de Deep web puede ser imaginarse un océano, las primeras capas corresponde a la web superficial mientras que en el fondo estaría la web profunda. En este océano hay gran cantidad de peces (información), pero desde el bote (buscador convencional) solo se conseguirá llegar a los peces más cercanos (contenido indexado).  Los demás peces seguirán ahí, pero no se podrán alcanzar  usando el mismo  bote.

Este Internet invisible representa más de un 85%, aunque se calcula que actualmente ocupa un total del 90% del total. Es difícil calcular con exactitud, pero alberga todo el contenido que se guarda por ejemplo en servicios en la nube, también bases de datos académicas, informes médicos, reportes gubernamentales, repositorios que utilizan determinadas organizaciones, etc.

Hay diferentes motivos por los que el contenido y las páginas de la Deep web se mantienen ocultas, en algunos casos es por decisión deliberada, pues el mismo desarrollador decide que no quiere ser rastreado o indexado en ningún buscador; en otras ocasiones es por cuestión técnica, muchos buscadores se han quedado atrás en términos de indexación y el cambio continuo de una página, lleva a que se le pierda el rastro.Otros motivos por los que no pueden ser encontradas con facilidad, es el hecho de que muchas de estas páginas cambian constantemente de dirección o usan extensiones anónimas (.onion), a las cuales solo se puede acceder por medio de ciertos programas, si se tiene el link directo.

Básicamente para ingresar se debe tener en cuenta que no todo funciona con dominios .Com, .es, .org, .net, o los que normalmente se promocionan en la web pública, sino que existen otros tipo de dominios que pertenecen a otra clase, para ello se debe utilizar un navegador especializado, que permita mostrar el contenido que no se encuentran bajos los dominios conocido, como es el caso de Tor; esta es una aplicación que permite visualizar muchos de estos sitios como aquellos con terminación .onion, ya que está diseñada para reconocer esta resolución. El acceso se da mediante el programa diseñado para ello, el cual a su vez procura la conexión por repetidores o nodo a nodo, dependiendo del caso, lo cual pasa por distintas troncales antes de llegar al destino indicado, con ello se logra perder la traza que deja una conexión normal y es mucho más difícil rastrear la conexión.

El iceberg de Internet

Si hay una imagen que pueda representar a la perfección la estructura de Internet es la del perfil de un iceberg siendo separado en tres niveles de profundidad:

  1. La parte superior, o surface, hace referencia a toda la información a la que se puede acceder de manera pública, que ha sido previamente indexada, que se puede encontrar mediante buscadores como Google, Bing o Yahoo!, o todo aquello publicado en las redes sociales y tan solo usando un 4% del internet total.
  2. La Deep Web en la que se pueden encontrar cosas falsificadas como: Recetas médicas, datos de finanzas, documentos legales, documentos del gobierno, etc. Este sitio web se encuentra en el segundo nivel de profundidad en el internet y ocupa un 90% de este mismo. Algunos autores sugieren que puede abarcar hasta un 96% del internet.
  3. La Dark Web en donde se pueden encontrar  todo tipo de cosas ilegales como son: Drogas, armas, órganos, partes humanas, etc. La Dark Web es una extensión dentro de la Deep Web y ocupa un 6% de toda la internet.

Tanto para la Deep Web y la Dark Web se necesitan ciertos navegadores para poder acceder a ellos como son: Tor, I2P, FreeNet y ZeroNet.

Navegadores de la Deep Web

La aparición del concepto de Onion Routing en 1996, clarificó la posibilidad  de tener un escenario real lejos de la censura, supervisión y monitoreo del tráfico existente en Internet. De esta forma, se implementó un sistema basado en nodos para anonimizar el flujo de información que pasa a través de ello. Entre Los principales navegadores se destacan: :

  • Tor, o The Onion Router, es una red de túneles virtuales que permiten al usuario mantenerse anónimo y seguro en Internet, básicamente se encarga de enmascarar la verdadera IP a través de relevos, lo que impiden conocer la localización y dirección IP real del usuario. TOR fue creado en 2002 por el US Naval Research Laboratory, como una herramienta para comunicarse online de manera anónima. La multiplicidad de saltos y el cifrado que implementa en cada uno hace que sea casi imposible rastrear o analizar una comunicación. Cuenta aproximadamente con 200,000 usuarios, lo que la hace la red anónima más grande actualmente. Es muy sencillo de usar y cuenta con soporte en varios idiomas y para diferentes plataformas, como Linux, Windows e incluso Android. Además, la velocidad de navegación es muy buena y consume relativamente pocos recursos. Tor posee el mejor bloqueo contra los firewalls estatales (como los claros casos de China e Irán).

  • I2P fue pensado para proveer un mejor ambiente para hospedar servicios y no tanto para proveer proxies de salida. Al ser una red completamente distribuida y auto-organizada, Está mejor optimizada para los servicios ocultos y no tanto para el usuario promedio que navega por la red. Sin embargo, al no ser una red tan popular como Tor, aún no cuenta con el mismo volumen de usuarios, lo que hace que en ocasiones la navegación sea más lenta.

  • FreeNet es la red más antigua de todas, pues comenzó a funcionar en el año 2000. Está diseñada como una red peer-to-peer (P2P) no estructurada de nodos no jerárquicos, entre los cuales comparten información. El objetivo es almacenar documentos cifrados, los cuales pueden ser accedidos únicamente conociendo la llave asociada, impidiendo que los mismos sean encontrados y censurados. A su vez, ofrece anonimato tanto a quienes publican como a quienes descargan información. Entre sus funciones principales, permite navegar sitios web, consultar o leer foros y publicar archivos con fuertes controles de privacidad y anonimato. Requiere mucho espacio.

Niveles de la Deep Web

En 2014  la universidad de “La Salle” realizó un proyecto de investigación titulado: “proyecto de investigación Deep Web” en la cual se establece que cualquier sitio eliminado por entidades o agencias de inteligencia como el FBI o grupos poderosos de hacker es la Deep web, con la salvedad que no funciona como un sistema de reciclaje, dado que el sitio sigue teniendo un lugar, de manera útil y visible bajo parámetros que restringen su acceso; uno de los elemento que impide esto, es que el nombre de dominio resulta ser la suma de muchos caracteres para nada mnemotécnicos y que además el contenido rompe con la moral social. La investigación establece que la Deep web consta de nivel que parte desde el:

...

Descargar como (para miembros actualizados) txt (23 Kb) pdf (193 Kb) docx (96 Kb)
Leer 14 páginas más »
Disponible sólo en Clubensayos.com