Para informacion gratis, suscríbete:

sábado, 6 de diciembre de 2014

Listado de nuevos links .onion 2015 (Mas de 4000 sitios actualmente en funcionamiento). La Librería de links de TOR 2015 oficial.



En esta ocasión traigo un listado completo de links de la red TOR en forma de un pastebin con direcciones .onion de diferentes índoles, desde mercados clandestinos hasta blogs independientes de personas que poseen conocimeintos tan extraños como útiles. Encontrarás un link al final de este post. Clika en él y te llevará directamente a mas de 4000 webs .onion actualizadas y en funcionamiento.

Pero ¿Que es la deep web?

Se conoce como Internet profunda o Internet invisible (en inglés: Deepweb, Invisible Web, Deep Web, Dark Web o Hidden Web) a todo el contenido de Internet que no forma parte del Internet superficial, es decir, de las páginas indexadas por las redes de los motores de búsqueda de la red. Esto se debe a las limitaciones que tienen las redes para acceder a todos los sitios web por distintos motivos. La mayor parte de la información encontrada en la Internet Profunda está enterrada en sitios generados dinámicamente y para los motores de búsqueda tradicionales es difícil hallarla. Fiscales y Agencias Gubernamentales han calificado a la Internet Profunda como un refugio para la delincuencia debido al contenido ilícito que se encuentra en ella.

La principal causa de la existencia de la Internet profunda es la imposibilidad de los motores de búsqueda (Google,Yahoo, Bing, etc.) de encontrar o indexar gran parte de la información existente en Internet. Si los buscadores tuvieran la capacidad para acceder a toda la información entonces la magnitud de la "Internet profunda" se reduciría casi en su totalidad. No obstante, aunque los motores de búsqueda pudieran indexar la información de la Internet Profunda esto no significaría que ésta dejará de existir, ya que siempre existirán las páginas privadas. Los motores de búsqueda no pueden acceder a la información de estas páginas y sólo determinados usuarios, aquellos con contraseña o códigos especiales, pueden hacerlo.
Los siguientes son algunos de los motivos por los que los buscadores son incapaces de indexar la Internet profunda:
  • Páginas y sitios web protegidos con contraseñas o códigos establecidos.
  • Páginas que el buscador decidió no indexar: esto se da generalmente porque la demanda para el archivo que se decidió no indexar es poca en comparación con los archivos de texto HTML; estos archivos generalmente también son más “difíciles” de indexar y requieren más recursos.
  • Sitios, dentro de su código, tiene archivos que le impiden al buscador indexarlo.
  • Documentos en formatos no indexables.
  • De acuerdo a la tecnología usada por el sitio, por ejemplo los sitios que usan bases de datos. Para estos casos los buscadores pueden llegar a la interfaz creada para acceder a dichas bases de datos, como por ejemplo catalogo de librerías o agencias de gobierno.
  • Enciclopedias, diccionarios, revistas en las que para acceder a la información hay que interrogar a la base de datos, como por ejemplo la base de datos de la RAE.
  • Sitios que tienen una mezcla de media o archivos que no son fáciles de clasificar como visible o invisible (Web opaca).
  • La información es efímera o no suficientemente valiosa para indexar. Es posible indexar está información pero como cambia con mucha frecuencia y su valor es de tiempo limitado no hay motivo para indexarla. }
  • Páginas que contienen mayormente imágenes, audio o video con poco o nada de texto.
  • Los archivos en formatos PostScript, Flash, Shockwave, ejecutables (.exe), archivos comprimidos (.zip, .tar, etc)
  • Información creada en páginas dinámicas después de llenar un formulario, la información detrás de los formularios es invisible.
  • Documentos dinámicos, son creados por un script que selecciona datos de diversas opciones para generar una página personalizada. Este tipo de documentos, aunque sí se pueden indexar, no están en los motores de búsqueda porque en ocasiones puede haber varias páginas iguales, pero con pequeños cambios, y las arañas web quedan atrapadas en ellos.
  • Es un sitio aislado, es decir, no hay ligas que lo vinculen con otros sitios y viceversa.
  • Son subdirectorios o bases de datos restringidas.

La Internet profunda (Deep Web) es un conjunto de sitios web y bases de datos que buscadores comunes no pueden encontrar ya que no están indexadas. El contenido que puede ser hallado dentro de la Internet profunda es muy amplio.

Se estima que la Internet Profunda es 500 veces mayor que la Internet Superficial, siendo el 95% de esta información públicamente accesible.

El internet se ve divido en dos ramas, La internet profunda y la superficial. El Internet superficial se compone de páginas estáticas o fijas , mientras que Web profunda está compuesta de páginas dinámicas. La páginas estáticas no dependen de una base de datos para desplegar su contenido si no que residen en un servidor en espera de ser recuperadas, y son básicamente archivos HTML cuyo contenido nunca cambia . Todos los cambios se realizan directamente en el código y la nueva versión de la página se carga en el servidor. Estas páginas son menos flexibles que las páginas dinámicas . Las páginas dinámicas se crean como resultado de una búsqueda de base de datos. El contenido se coloca en una base de datos y se proporciona sólo cuando lo solicite el usuario.

Se estima que la información que se encuentra en la Internet profunda es de 7,500 terabytes, lo que equivale a aproximadamente 550 billones de documentos individuales. El contenido de la internet profunda es de 400 a 550 veces mayor de lo que se puede encontrar en la Internet superficial. En comparación, se estima que la Internet superficial contiene solo19 terabytes de contenido y un billón de documentos individuales.

En 2010 existían más de 200,000 sitios en la internet profunda.

La ACM por sus siglas en inglés (Association for Computing Machinery) publicó en 2007 que Google y Yahoo indexaban el 32 % de los objetos de la internet profunda , y MSN tenía la cobertura más pequeña con el 11 % . Sin embargo, la cobertura de lo tres motores era de 37 % , lo que indicaba que estaban indexando casi los mismos objetos.

Se prevé que alrededor del 95% del internet es internet profunda, también le llaman invisible u oculta, la información que alberga no siempre está disponible para su uso. Por ello se han desarrollado herramientas como buscadores especializados para acceder a ella.

Ahora sin más, aqui les dejo los links .onion para ingresar a través de TOR:


No hay comentarios:

Publicar un comentario

Tódo para el blog