Internet se está reinventando a cada momento con la llegada de la web 2.0 y ése es su gran reto. En esta nueva era, a menudo las páginas se enlazan a redes como Tumblr, Facebook o Twitter, pero a veces los enlaces se producen a servidores web fuera del mapa de estándares y las páginas terminan perdiéndose.
Esto significa que un porcentaje de la web no está archivada por nadie ni localizable en ningún sitio. Los investigadores intentan dar pasos adelante en la recurrida cuestión sobre dónde queda almacenada la web, pero la verdad es que aún no se sabe muy bien.
En un documento presentado a finales del mes pasado en el repositorio arXiv, los avances de últimas investigaciones corroboran dos cosas, que Internet tiene un problema de memoria y que no se sabe lo grande que es.
“Los resultados de nuestro muestreo indican que en un rango del 35% al 90%, la red tiene al menos una copia archivada”, especifica el documento. Pero se trata de un rango demasiado amplio, ya que hablamos o de que estamos capturando poco más de un tercio de la red o de que la archivamos casi en su totalidad.
Lo que está claro es que el archivo de la web pública puede y debe ser mejor, y como informa The Atlantic, básicamente hay una forma de conseguirlo, que el archivo de Internet reciba más dinero.
Girará en torno a tres temáticas: desinformación, contrainteligencia y credenciales expuestas.
El 57 % de las compañías españolas está manteniendo este año su nivel de inversión…
Entre los problemas a los que se enfrentan las compañías con infraestructura distribuida geográficamente se…
Juniper Research prevé un incremento del 50 % en el tráfico de mensajes para 2025.
Aumentaron un 20,4 % durante los meses de julio, agosto y septiembre para llegar a…
CrowdStrike celebra este evento en Ámsterdam entre el 5 y el 7 de noviembre.