La Deep Web
Patricia Hidalgo HernandezInforme9 de Junio de 2022
3.663 Palabras (15 Páginas)89 Visitas
Liceo Bicentenario de Excelencia [pic 1]
Polivalente San Nicolás
La Deep Web
Nombre: Rodrigo Gomez Hidalgo
Curso: 1°medio F
Profesores: Rodrigo Campos y Camxila Pinilla
Asignatura: Tecnología
Fecha: 31/03/2021
Introducción
La globalización ha facilitado el desarrollo de la ciencia y la tecnología permitiendo un fortalecimiento de la comunicación y de vínculos entre personas, organizaciones y Estados, al derribar las fronteras y llegar a, virtualmente, cualquier rincón del planeta.
Lo anterior ha permitido que internet se ha convierta en la red más grande, importante y conocida a nivel mundial. Es una dimensión en expansión porque su utilidad es constante además de facilitar la comunicación y la búsqueda de información, al punto que en la actualidad no se ha dimensionado de manera precisa el tamaño de esta gran red. En ella se puede encontrar sitios con características particulares que comparten rasgos comunes, sin embargo, existe una región de la internet, la Deep Web, que no es muy conocida, pues su dominio no es de total conocimiento público.
El objetivo del presente informe es dar a conocer lo que es la Deep Web, como acceder y tips de lo que se puede encontrar ahí. También se hablará de una pequeña zona más profunda denominada Dark Web y sus riesgos.
A partir de lo anterior, surgen términos como ciberespacio, quinta dimensión, ciberdelito, onions, bitcoins, etc que ya han comenzado a ser parte del lenguaje cotidiano contemporáneo y serán aún más comunes para las siguientes generaciones.
La Deep Web
Orígenes
Para comprender a la Deep Web, lo primero es entender a la Web, en donde la Internet, se concibe como una “red de redes”, que permite la comunicación entre redes distantes y compartir datos entre diversos equipos. En los años 60 en el Instituto de Tecnología de Massachusetts (Massachusetts Institute of Technology, MIT), el psicólogo J.C.R. Licklider inicia el desarrollo de la idea de una Red galáctica, a la cual visualizaba como “el medio principal y esencial de interacción normativa para gobiernos, instituciones, corporaciones e individuos”. Posteriormente,Licklider fue director de la agencia estadounidense DARPA 3, allí en conjunto con otros científicos como Leonard Kleinrock y Lawrence G. Roberts, construyó a la antecesora de la Internet actual, denominada ARPANET, la cual se terminó de afinar entre 1968 y 1969, poniéndola en marcha con solo 4 nodos (UCLA 4, SRI 5, UC Santa Bárbara y la Universidad de Utah). Después del lanzamiento se incorporaron diversos centros de investigación, laboratorios y centros militares.
Con la incorporación de los distintos centros de investigación, se inicia la creación de los primeros protocolos de comunicación para mejorar el aprovechamiento de la red, por lo que se buscó desarrollar un programa que permitiera la coordinación de conexión existente entre cada usuario, lo cual dio origen al correo electrónico en 1972, donde Ray Tomlinson incorporó varias de las principales características que se tienen en la actualidad, con ello, posteriormente surge el concepto de una red abierta, la cual permitiría la escalabilidad sin depender de la infraestructura como: nodos, los protocolos, interfaces y estándares, así que a mediados de 1972 Robert Kahn introdujo este concepto como parte de uno de sus proyectos en DARPA, nombrandolo Internetting. Kahn junto con Vint Cerf diseñaron un protocolo que permitiera llegar tanto a las máquinas directamente conectadas, como a las subredes que podrían eventualmente ir naciendo en cada nodo.
Operada por el servicio Tor que permite que los usuarios naveguen anónimamente y libres del monitoreo de sus actividades. Las cuentas de vendedores en su lanzamiento eran limitadas, pero ante el éxito del sitio, salieron a la venta por medio de un sistema de subasta, hasta que fue desmantelada por el FBI en 2013. Finalmente, el sitio fue cerrado y Ross Ulrich, su fundador, fue condenado a cadena perpetua por 7 cargos que incluyen lavado de dinero y estupefacientes en el 2015.
Este tipo de mercado negro abriría paso a más modernos y contemporáneos mercados oscuros,cuyo modelo de compras es similar al de páginas como EBay o Amazon, donde se pueden encontrar catálogos de compras y carritos de compras para adquirir estos productos ilegales.
¿Qué es la Deep Web?
La Deep Web es todo el contenido que no está indexado en los motores de búsqueda y que, por tanto, no se puede acceder a él fácilmente y representa además la mayor parte de la red. También es conocida como Deepnet, Onionland, Invisible web o Hidden web. Una manera fácil de entender el concepto de Deep web puede ser imaginarse un océano, las primeras capas corresponde a la web superficial mientras que en el fondo estaría la web profunda. En este océano hay gran cantidad de peces (información), pero desde el bote (buscador convencional) solo se conseguirá llegar a los peces más cercanos (contenido indexado). Los demás peces seguirán ahí, pero no se podrán alcanzar usando el mismo bote.
Este Internet invisible representa más de un 85%, aunque se calcula que actualmente ocupa un total del 90% del total. Es difícil calcular con exactitud, pero alberga todo el contenido que se guarda por ejemplo en servicios en la nube, también bases de datos académicas, informes médicos, reportes gubernamentales, repositorios que utilizan determinadas organizaciones, etc.
Hay diferentes motivos por los que el contenido y las páginas de la Deep web se mantienen ocultas, en algunos casos es por decisión deliberada, pues el mismo desarrollador decide que no quiere ser rastreado o indexado en ningún buscador; en otras ocasiones es por cuestión técnica, muchos buscadores se han quedado atrás en términos de indexación y el cambio continuo de una página, lleva a que se le pierda el rastro.Otros motivos por los que no pueden ser encontradas con facilidad, es el hecho de que muchas de estas páginas cambian constantemente de dirección o usan extensiones anónimas (.onion), a las cuales solo se puede acceder por medio de ciertos programas, si se tiene el link directo.
Básicamente para ingresar se debe tener en cuenta que no todo funciona con dominios .Com, .es, .org, .net, o los que normalmente se promocionan en la web pública, sino que existen otros tipo de dominios que pertenecen a otra clase, para ello se debe utilizar un navegador especializado, que permita mostrar el contenido que no se encuentran bajos los dominios conocido, como es el caso de Tor; esta es una aplicación que permite visualizar muchos de estos sitios como aquellos con terminación .onion, ya que está diseñada para reconocer esta resolución. El acceso se da mediante el programa diseñado para ello, el cual a su vez procura la conexión por repetidores o nodo a nodo, dependiendo del caso, lo cual pasa por distintas troncales antes de llegar al destino indicado, con ello se logra perder la traza que deja una conexión normal y es mucho más difícil rastrear la conexión.
El iceberg de Internet
Si hay una imagen que pueda representar a la perfección la estructura de Internet es la del perfil de un iceberg siendo separado en tres niveles de profundidad:
- La parte superior, o surface, hace referencia a toda la información a la que se puede acceder de manera pública, que ha sido previamente indexada, que se puede encontrar mediante buscadores como Google, Bing o Yahoo!, o todo aquello publicado en las redes sociales y tan solo usando un 4% del internet total.
- La Deep Web en la que se pueden encontrar cosas falsificadas como: Recetas médicas, datos de finanzas, documentos legales, documentos del gobierno, etc. Este sitio web se encuentra en el segundo nivel de profundidad en el internet y ocupa un 90% de este mismo. Algunos autores sugieren que puede abarcar hasta un 96% del internet.
- La Dark Web en donde se pueden encontrar todo tipo de cosas ilegales como son: Drogas, armas, órganos, partes humanas, etc. La Dark Web es una extensión dentro de la Deep Web y ocupa un 6% de toda la internet.
Tanto para la Deep Web y la Dark Web se necesitan ciertos navegadores para poder acceder a ellos como son: Tor, I2P, FreeNet y ZeroNet.
Navegadores de la Deep Web
La aparición del concepto de Onion Routing en 1996, clarificó la posibilidad de tener un escenario real lejos de la censura, supervisión y monitoreo del tráfico existente en Internet. De esta forma, se implementó un sistema basado en nodos para anonimizar el flujo de información que pasa a través de ello. Entre Los principales navegadores se destacan: :
- Tor, o The Onion Router, es una red de túneles virtuales que permiten al usuario mantenerse anónimo y seguro en Internet, básicamente se encarga de enmascarar la verdadera IP a través de relevos, lo que impiden conocer la localización y dirección IP real del usuario. TOR fue creado en 2002 por el US Naval Research Laboratory, como una herramienta para comunicarse online de manera anónima. La multiplicidad de saltos y el cifrado que implementa en cada uno hace que sea casi imposible rastrear o analizar una comunicación. Cuenta aproximadamente con 200,000 usuarios, lo que la hace la red anónima más grande actualmente. Es muy sencillo de usar y cuenta con soporte en varios idiomas y para diferentes plataformas, como Linux, Windows e incluso Android. Además, la velocidad de navegación es muy buena y consume relativamente pocos recursos. Tor posee el mejor bloqueo contra los firewalls estatales (como los claros casos de China e Irán).
- I2P fue pensado para proveer un mejor ambiente para hospedar servicios y no tanto para proveer proxies de salida. Al ser una red completamente distribuida y auto-organizada, Está mejor optimizada para los servicios ocultos y no tanto para el usuario promedio que navega por la red. Sin embargo, al no ser una red tan popular como Tor, aún no cuenta con el mismo volumen de usuarios, lo que hace que en ocasiones la navegación sea más lenta.
- FreeNet es la red más antigua de todas, pues comenzó a funcionar en el año 2000. Está diseñada como una red peer-to-peer (P2P) no estructurada de nodos no jerárquicos, entre los cuales comparten información. El objetivo es almacenar documentos cifrados, los cuales pueden ser accedidos únicamente conociendo la llave asociada, impidiendo que los mismos sean encontrados y censurados. A su vez, ofrece anonimato tanto a quienes publican como a quienes descargan información. Entre sus funciones principales, permite navegar sitios web, consultar o leer foros y publicar archivos con fuertes controles de privacidad y anonimato. Requiere mucho espacio.
Niveles de la Deep Web
En 2014 la universidad de “La Salle” realizó un proyecto de investigación titulado: “proyecto de investigación Deep Web” en la cual se establece que cualquier sitio eliminado por entidades o agencias de inteligencia como el FBI o grupos poderosos de hacker es la Deep web, con la salvedad que no funciona como un sistema de reciclaje, dado que el sitio sigue teniendo un lugar, de manera útil y visible bajo parámetros que restringen su acceso; uno de los elemento que impide esto, es que el nombre de dominio resulta ser la suma de muchos caracteres para nada mnemotécnicos y que además el contenido rompe con la moral social. La investigación establece que la Deep web consta de nivel que parte desde el:
...