Aunque ahora nos cueste imaginárnoslo, hace 20 años, sin Internet, el panorama de las comunicaciones era completamente distinto.
A pesar de que las primeras redes de ordenadores que fueron las precursoras de lo que hoy en día se considera Internet se remontan la década de los 60 (con la red ARPANET), la estructura de la World Wide Web nació en 1989, con la propuesta de Tim Berners-Lee para compartir información en línea mediante un sistema de hipertexto.
El primer esbozo de Internet surgió con la idea era conectar todos los ordenadores del proyecto estadounidense ARPA , que posteriormente se extendió a universidades de EEUU, conectando con éxito en 1969 el nodo de la Universidad de Los Ángeles (UCLA) con el Instituto de Investigación de Stanford (SRI). A medida que se fueron resolviendo detalles técnicos relativos a la programación y fijando protocolos de red para administrar el tráfico en los canales de comunicación (apertura, transmisión de datos y cierre), la red ARPANET se fue expandiendo por norteamérica.
En 1971 se empezó a utilizar el carácter arroba (@) en el correo electrónico para posibilitar el envío de mensajes entre equipos interconectados, utilizando ese símbolo para separa el nombre de usuario de la dirección del equipo. Se escogió ese carácter fue porque su uso hasta entonces era prácticamente nulo. Dos años más tarde, en 1973, se desarrolló el protocolo FTP (File Transfer Protocol) para transmitir ficheros por la red, mientras se trabajaba en un proyecto para buscar una solución al Inter-Networking Problem (problema de interconexión de redes), un término que inspiró la creación de la palabra Internet.
La solución a este problema se apoyaba en el uso de una arquitectura de sistemas abiertos con el protocolo de interconexión de redes TCP, cuya característica era el uso de un espacio de direcciones de 32 bits, con 8 primeros bits para identificar a la red y los otros 24 para identificar a equipo que funcionaba en esa red. Posteriormente, en 1978, se dividió este protocolo en TCP/IP, ya que suponía mucha carga para los routers.
Los avances en la transmisión de datos impulsaron la creación de nuevas redes. Primero la red USENET (de ‘Users Network’), que permitía a los usuarios trasmitir mensajes de texto simple a unos grupos de noticias clasificados de forma jerárquica, y en 1981 la BITNET (de ‘Because It’s Time NETwork), una red que conectaba las Universidades permitiendo enviar correos electrónicos y ficheros. Posteriormente, ARPA decide expandir sus servicios y compartir su infraestructura, generalizándose el protocolo TCP/IP.
En 1983 la red ARPANET se divide en MILNET (con fines militares y uso exclusivo del Departamento de Defensa de los Estados Unidos) y ARPANET (para investigación y desarrollo). Ese mismo año se desarrolla la primera implementación del DNS (Domain Name System), el sistema de nombres de dominio que permite unir las localizaciones de servidores con un nombre de dominio.
Paralelamente en Europa se desarrollan redes universitarias basadas en la red BITNET, mientras en EEUU se crea FidoNet, una red para publicar boletines de noticias.
En 1986 la National Science Foundation (NSF) trabaja en el desarrollo de NSFNet, una red en pensada inicialmente para la comunicación de cinco superordenadores de diferentes centros de investigación (que logra una capacidad de conexión de 1,5 Mbps), pero que acabó siendo el origen de la red actual tras la desaparición de ARPANET en 1990.
Hace 20 años, en 1989, Tim Berners-Lee creó lo que hoy se conoce como World Wide Web, desarrollando el lenguaje de marcas de hipertexto HTML (HyperText Markup Language), el protocolo de transferencia de hipertexto HTTP (HyperText Transfer Protocol) y un software cliente denominado navegador web. Berners-Lee presentó su propuesta al CERN (el Consejo Europeo para la Investigación Nuclear), liberando posteriormente su implementación el uso público en 1991.
Desde que comenzó a popularizase Internet como herramienta de trabajo y comunicación, muchas compañías han ido creando distintos navegadores (Internet Browsers) para poder bucear por la Red.
En sus primeros años, Netscape era el navegador estándar, con la única competencia de algunos pocos navegadores diseñados por universitarios, como Mosaic y Lynx. En esa época Microsoft se dio cuenta de la importancia que estaba adquiriendo Internet y compró varias licencias de Mosaic, a partir de las cuales creó la primera versión de Internet Explorer que incluyó en el paquete de ampliación de Windows 95.
La primera batalla de los navegadores se libró entre Netscape e Internet Explorer en 1996, de la que Microsoft salió victorioso gracias a su monopolio en el mercado de los sistemas operativos, junto a los que incluía la versión de su browser. Netscape fue comprado por AOL, quien posteriormente, con el fin de ofrecer una alternativa real a IE, creó la Fundación Mozilla y presentó un navegador completamente reescrito a partir del código de Netscape, Firefox .
A día de hoy, aunque Internet Explorer sigue siendo el browsermás utilizado, hay nuevas opciones para navegar por la Red que empiezan a suponer una amenaza real al domino de IE. Según los últimos datos de Net Applications del mes de diciembre, de cada cien internautas, 67,55 utilizan Internet Explorer, una cifra que mes a mes va descendiendo. Microsoft ha perdido en un año hasta un 9% de cuota de mercado. El gran beneficiado de la bajada de IE es Firefox, que ya posee el 21,53% del mercado mundial.
Aparte de Firefox, hay otros navegadores como Safari , que aunque hasta ahora estaba limitado a los usuarios de Mac OS X, recientemente ha lanzado su versión para Windows con la que ha alcanzado el 8,29% del mercado. Opera sigue siendo un navegador minoritario (con un 0,7% del mercado mundial), y empieza a despuntar Chrome, el navegador de Google recientemente lanzado al mercado que ha logrado un 1,12% del total.
En un mundo cada vez más dependiente de Internet, la verdadera lucha se está centrando alrededor del control los buscadores más utilizados, es decir, las herramientas que ofrecen los resultados que buscan los internautas, dando así la posibilidad de controlar la publicidad relacionada.
A lo largo de la historia de Internet han sido muchos los buscadores que han indexado todas las páginas webs disponibles en la red, pero los usuarios han ido decidiendo cuál es el más popular en función de su eficacia.
El primer buscador fue Wandex y data de 1993, aunque a partir de ese momento empezaron a proliferar nuevos motores de búsqueda que fueron sustituyéndose con el paso de los años. En los inicios surgieron Altavista , WebCrawler y Excite , aunque por esos años también empezaba a tener éxito Lycos y Yahoo! . El desarrollo de los buscadores ha estado ligado al criterio con el que mostraban la información, un algoritmo concreto responsable de que una web apareciera en los primeros puestos del listado o no. En este enredado entorno se creó en 1995 Google , por un par de estudiantes universitarios, con su revolucionario sistema de posicionamiento PageRank, que mostraba sus resultados basado en la importancia de cada página en función del número de páginas que la enlazasen. A partir de ese momento, la popularidad de Google ha sido imparable, hasta el punto de situarse como el primer buscador de Internet. Aunque en algunas regiones del mundo, como China, no estén en las primeras posiciones, sigue disfrutando de una amplia diferencia respecto al resto. Hoy en día, en Occidente, la guerra está reñida entre el buscador de Google, de Yahoo!, y Live Search de Microsoft. Una de las últimas batallas de este enfrentamiento ha sido el intento de compra de Yahoo! por parte de Microsoft, en un esfuerzo por crecer en el negocio de las búsquedas online y competir de forma más equilibrada con Google. Las negociaciones para que esta operación llegue a buen puerto siguen abiertas y, tras unos desacuerdos iniciales, ambas partes parecen haberse decidido a entablar el contacto.
En la otra cara de la moneda están los creadores de contenido para la Red y las empresas, que han descubierto la importancia de aparecer en los primeros puestos de los buscadores para recibir un mayor número de visitas. Esto ha creado el concepto de ‘posicionamiento en buscadores’ o ‘posicionamiento web’, SEO (Search Engine Optimization). Con éste fin, se han desarrollado diversas técnicas para lograr que las páginas web estén en los primeros puestos, aunque es un trabajo muy complejo, ya que afecta al código de programación, al diseño y a los contenidos de las webs.
Internet ha conseguido colarse en nuestras vidas convirtiéndose en una herramienta indispensable. Por ello es importante destacar que la configuración de la Red y su utilización está en constante cambio.
Durante unos años hemos sido testigos de cómo se hablaba de la Web 2.0 como el futuro de Internet. El concepto se ha aplicado a los portales en los que son los propios usuarios los que crean los contenidos: los portales de vídeos como YouTube, las páginas de fotos como Flickr, los blogs, o las web de noticias enviadas por los propios internautas.
Estamos en un momento maduro de la Web 2.0 pero empieza a despuntar una nueva tendencia que, según los expertos, dará una nueva forma a la web respecto a como la concebimos hoy en día. Según Tim Berners Lee, el futuro de Internet pasa por lograr que se use el significado de las palabras en vez de localizar simplemente términos o símbolos escritos, es decir, la llamada web semántica.
El número de páginas online crece tan rápido que la cantidad de información se ha convertido en el problema del exceso de información. Con esta premisa, se ha pensado una manera adecuada para clasificar, gestionar y encontrar la información. La web semántica intenta que los sistemas sean capaces de comprender la información, no sólo de mostrarla en forma de listados de webs, ofreciendo el resultado más adecuado a cada búsqueda.
El siguiente gráfico muestra la estructura de Internet y la tendencia que lleva, desde su nacimiento, su crecimiento como red social y su evolución hace la Web semántica y Metaweb. Si no puede ver bien la foto, haga clic sobre ella para ampliarla.
La compañía ha registrado durante el tercer trimestre incrementos del 20 % en ingresos por…
Fujitsu Kozuchi AI Agent se ofrecerá a través de la plataforma Fujitsu Data Intelligence PaaS.
De momento han sido certificados los modelos TOUGHBOOK 55mk3 y TOUGHBOOK 33mk4.
El objetivo de esta compañía, especializada en productos digitales, es ayudar a las organizaciones combinando…
Entre sus cometidos están supervisar la implementación de proyectos y el desarrollo de iniciativas de…
Así lo afirma un 71 % de los consumidores encuestados por GoDaddy. Hasta una cuarta…