La Verdadera Historia de Internet

La Verdadera Historia de InternetInternet ha revolucionado el mundo de la informática y las comunicaciones como nada lo había ehco antes. La invención del telégrafo, el teléfono, la radio y la computadora, preparó el terreno para esta integración de capacidades, sin precedentes. Internet es a la vez una capacidad mundial de radiodifusión, un mecanismo de difusión de la información y un medio de colaboración e interacción entre las personas y sus ordenadores, independientemente de su ubicación geográfica. Internet representa uno de los ejemplos más exitosos de los beneficios de una inversión sostenida y del compromiso con la investigación y el desarrollo de la infraestructura de la información.

A partir de las primeras investigaciones sobre la conmutación de paquetes, el gobierno, la industria y el mundo académico han sido socios en la evolución y el despliegue de esta nueva tecnología. Pero… ¿Cual es la verdadera historia de Internet? Aquí te la contamos, se trata de una historia breve, superficial e incompleta ya que actualmente existe mucho material sobre Internet, que cubre la historia, la tecnología y su uso.

Pero… ¿Cual es la verdadera historia de Internet?




Esta historia gira en torno a cuatro aspectos distintos. Existe la evolución tecnológica que comenzó con la investigación temprana sobre conmutación de paquetes y el ARPANET (Ordenador que puedes ver en la imagen de portada de este artículo), y donde la investigación actual continúa expandiendo los horizontes de la infraestructura a lo largo de varias dimensiones, tales como la escala el rendimiento y la funcionalidad de alto nivel. Existe el aspecto operativo y de gestión de una infraestructura operativa global y compleja. Existe el aspecto social, que resultó en una amplia comunidad de Internautas trabajando juntos para crear y desarrollar la tecnología. Y está el aspecto de la comercialización, lo que resulta en una transición extremadamente efectiva de los resultados de la investigación hacia una infraestructura de información ampliamente desplegada y disponible.

Internet, es hoy en día una infraestructura de información muy extendida, el prototipo inicial de lo que a menudo se conoce como la Infraestructura de Información Nacional o Global o Galáctica. Su historia es compleja e involucra muchos aspectos: tecnológicos, organizativos y comunitarios. Y su influencia no sólo llega a los campos técnicos de las comunicaciones informáticas, sino también a toda la sociedad, en su camino hacia un uso creciente de las herramientas online, para lograr el comercio electrónico, la adquisición de información y las operaciones comunitarias.

El documental de la verdadera historia de Internet

El documental de la verdadera historia de internet, es un documental que resume en 4 capítulos, algunos de los conceptos mas importantes para el desarrollo de esta tecnología. Si deseas leer la historia completa, más abajo encontrarás toda la historia completa. También tienes este otro post, donde puedes leer la verdadera historia de Google, encontrarás información relacionada con los documentales que tienes a continuación.

La guerra de los navegadores Capítulo 1

Documental de la historia de la Internet Capítulo 1: La guerra de los navegadores

Búsquedas Capítulo 2

Documental de la verdadera historia de la Internet Capítulo 2: Las Búsquedas

eBay y Amazon Capítulo 3

Documental de la verdadera historia de la Internet Capítulo 3: eBay y Amazon

Poder Popular Capítulo 4

Documental de la verdadera historia de la Internet Capítulo 4: El Poder Popular

El auténtico origen de internet




La primera descripción grabada de las interacciones sociales que podrían ser habilitadas a través de redes, fue una serie de memorandos escritos por J.C.R. Licklider del MIT en agosto de 1962 discutiendo su concepto de “Red Galáctica”. Él imaginó un conjunto de computadoras interconectadas globalmente, a través de las cuales todos podían acceder rápidamente a los datos y programas desde cualquier sitio. En espíritu, el concepto era muy parecido al de Internet de hoy en día.

J.C.R. Licklider del MIT en agosto de 1962Licklider fue el primer responsable del programa de investigación informática de DARPA, a partir de octubre de 1962. Durante su estancia en DARPA, él convenció a sus sucesores del DARPA, Ivan Sutherland, Bob Taylor y el investigador del MIT Lawrence G. Roberts, de la importancia de este concepto de trabajo en red.

Leonard Kleinrock en el MIT publicó el primer artículo sobre la teoría de conmutación de paquetes en julio de 1961 y el primer libro sobre el tema en 1964. Kleinrock convenció a Roberts de la viabilidad teórica de las comunicaciones utilizando paquetes en lugar de circuitos, lo que supuso un gran paso en el camino hacia la creación de redes informáticas.

El otro paso clave fue hacer que las computadoras hablen juntas. Para explorar esto, en 1965 trabajando con Thomas Merrill, Roberts conectó la computadora TX-2 en Mass a la Q-32, en California con una línea telefónica de baja velocidad, y creó la primera red de computadoras de banda ancha, jamás construida hasta entonces.

El resultado de este experimento fue la demostración de que las computadoras compartidas en tiempo real podían trabajar bien juntas, ejecutando programas y recuperando datos, según fuera necesario, pero que el circuito del sistema telefónico, era totalmente inadecuado para el trabajo. La convicción de Kleinrock de la necesidad de cambiar al sistema de paquetes, fue confirmada.

A finales de 1966, Roberts fue a DARPA, para desarrollar el concepto de red informática y rápidamente armó su plan para el “ARPANET”, publicándolo en 1967. En la conferencia en la que presentó el trabajo, también hubo un documento sobre un concepto de red de paquetes del Reino Unido, escrito por Donald Davies y Roger Scantlebury de NPL.

Scantlebury le contó a Roberts el trabajo de NPL así como el de Paul Baran y otros colaboradores, en RAND. El grupo RAND había escrito un artículo sobre redes de conmutación de paquetes para voz segura, en el ejército, en 1964.

Lo que sucedió es que el trabajo en el MIT (1961-1967), en RAND (1962-1965), y en NPL (1964-1967) habían procedido en paralelo sin que ninguno de los investigadores supiera del otro trabajo.

La palabra “paquete” fue adoptada del trabajo en NPL y la velocidad de línea propuesta para ser usada en el diseño del ARPANET, fue mejorada de 2.4 kbps a 50 kbps. 5

En agosto de 1968, después de que Roberts y la comunidad financiada por DARPA habían refinado la estructura general y las especificaciones para el ARPANET, DARPA lanzó una petición de oferta para el desarrollo de uno de los componentes clave, los conmutadores de paquetes llamados Procesadores de Mensajes de Interfaz (IMP’ s).

La RFQ fue ganada en diciembre de 1968 por un grupo encabezado por Frank Heart, Bolt Beranek y Newman (BBN). Mientras el equipo de BBN trabajaba en los IMP con Bob Kahn desempeñando un papel importante en el diseño arquitectónico general de ARPANET, la topología y economía de la red fueron diseñadas y optimizadas por Roberts, trabajando con Howard Frank y su equipo en Network Analysis Corporation, y el sistema de medición de la red fue preparado por el equipo de Kleinrock en UCLA.

Debido al desarrollo inicial de Kleinrock de la teoría de conmutación de paquetes y su enfoque en el análisis, diseño y medición, su Centro de Medición de Redes en UCLA, fue seleccionado para ser el primer nodo en el ARPANET. Todo esto se produjo en septiembre de 1969, cuando BBN instaló el primer IMP en UCLA y se conectó el primer ordenador central.

El proyecto de Doug Engelbart sobre “Aumento del intelecto humano” (que incluía NLS, un sistema de hipertexto temprano) en el Stanford Research Institute (SRI), proporcionó un segundo nodo. SRI apoyó el Centro de Información de Red, dirigido por Elizabeth Feinler e incluyendo funciones tales como el mantenimiento de tablas de nombres de host para mapeo de direcciones, así como un directorio de RFC’ s.

Un mes después, cuando SRI se conectó al ARPANET, el primer mensaje de host a host fue enviado desde el laboratorio de Kleinrock al SRI. Dos nodos más fueron agregados en UC Santa Bárbara y la Universidad de Utah.

Estos dos últimos nodos, incorporaron proyectos de visualización de aplicaciones, con Glen Culler y Burton Fried en UCSB investigando métodos para la visualización de funciones matemáticas usando pantallas de almacenamiento, para tratar el problema de actualizarse, sobre la red, y Robert Taylor e Ivan Sutherland en Utah investigando métodos de representación tridimensional sobre la red.

Así, a finales de 1969, 4 ordenadores host se conectaron en el ARPANET inicial, y la incipiente Internet estaba en funcionamiento.

Incluso en esta etapa temprana, cabe señalar que la investigación de redes incorporó tanto el trabajo sobre la red subyacente como el trabajo sobre cómo utilizarla, tradición continúa hasta nuestros días.

Los ordenadores se añadieron rápidamente a ARPANET durante los años siguientes, y se trabajó para completar un protocolo Host-to-Host funcionalmente completo y otro software de red. En diciembre de 1970, el Grupo de Trabajo de Red (NWG) que trabajaba bajo las ordenes de S. Crocker finalizó el protocolo inicial ARPANET Host-to-Host, denominado Protocolo de Control de Red (NCP). A medida que los sitios de ARPANET completaron la implementación del NCP durante el periodo 1971-1972, los usuarios de la red finalmente pudieron comenzar a desarrollar aplicaciones.

En octubre de 1972, Kahn organizó una gran y muy exitosa demostración de ARPANET en la Conferencia Internacional de Comunicaciones Informáticas (ICCC). Esta fue la primera demostración pública, de esta nueva tecnología de red, al gran público.

El nacimiento del correo electrónico




Fue también en 1972 que se introdujo la aplicación “HOT” los inicios del correo electrónico. En marzo, Ray Tomlinson de BBN escribió el software básico de envío y lectura de mensajes de correo electrónico, motivado por la necesidad de los desarrolladores de ARPANET, de contar con un mecanismo de coordinación fácil.

El nacimiento del correo electrónico Ray Tomlinson de BBNEn julio, Roberts amplió su utilidad, escribiendo el primer programa de correo electrónico para listar, leer selectivamente, archivar, reenviar y responder mensajes. Desde allí, el correo electrónico despegó como la aplicación de red más grande durante más de una década. Esto fue un presagio del tipo de actividad que veremos en la World Wide Web hoy en día y el enorme crecimiento de todo tipo de tráfico “usuario a usuario”.

Los conceptos iniciales de Internet

redes de satelites para comunicacionEl ARPANET original creció en Internet. Internet se basaba en la idea de que habría múltiples redes independientes de diseño bastante arbitrario, empezando por ARPANET como la red pionera de conmutación de paquetes, pero que pronto incluiría redes de satélites por paquetes, redes terrestres de radiocomunicaciones por paquetes y otras redes.

Internet, tal y como la conocemos ahora, encarna una idea técnica clave subyacente: Una red de arquitectura abierta. Con este enfoque, la elección de cualquier tecnología de red individual no fue dictada por una arquitectura de red en particular, sino que más bien podía ser elegida libremente por un proveedor y hecha para interactuar con las otras redes a través de una arquitectura de “Internetworking Architecture” de meta-nivel. Hasta ese momento sólo había un método general para federar las redes. Este era el método tradicional de conmutación de circuitos donde las redes se interconectan a nivel de circuito, pasando bits individuales en base síncrona a lo largo de una porción de un circuito, de extremo a extremo, entre un par de emplazamientos finales.

Recordemos que Kleinrock había demostrado en 1961 que la conmutación de paquetes era un método de conmutación más eficiente. Junto con la conmutación de paquetes, los acuerdos de interconexión con fines especiales entre redes eran otra posibilidad. Si bien existían otras formas limitadas de interconectar diferentes redes, éstas requerían, que una de ellas se utilizara como componente de la otra, en lugar de actuar como una parte de la otra, para ofrecer un servicio extremo a extremo.

Red de arquitectura abierta

En una red de arquitectura abierta, las redes individuales pueden diseñarse y desarrollarse por separado y cada una de ellas puede tener su propia interfaz única, que puede ofrecer a los usuarios y/u otros proveedores (incluidos otros proveedores de Internet). Cada red puede diseñarse de acuerdo con el entorno específico y los requisitos del usuario de esa red. Por lo general, no existen restricciones sobre los tipos de redes que pueden incluirse o sobre su alcance geográfico, aunque ciertas consideraciones pragmáticas dictarán, en un futuro, lo que tiene más sentido ofrecer a esta tecnología.

La idea de la arquitectura abierta de redes fue introducida por primera vez por Kahn poco después de haber llegado a DARPA en 1972. Este trabajo fue originalmente parte del programa de radio por paquetes, pero posteriormente se convirtió en un programa separado por derecho propio.

En ese momento, el programa se llamaba “Internetting“.

La clave para hacer que el sistema de radio por paquetes funcionara, era un protocolo final fiable que pudiera mantener una comunicación efectiva frente a interferencias y otras interferencias de radio o soportar un apagón intermitente, como el causado por estar en un túnel o bloqueado por el terreno local.

Kahn contempló primero desarrollar un protocolo local sólo para la red de radio por paquetes, ya que eso evitaría tener que lidiar con la multitud de sistemas operativos diferentes, y continuar usando NCP.

Sin embargo, el PNC no tenía la capacidad de direccionar las redes ni de las máquinas, más que un PDI de destino en el ARPANET, por lo que también se requeriría algún cambio en el PNC.

NCP confió en ARPANET para proporcionar fiabilidad de extremo a extremo. Si se perdiera algún paquete, el protocolo, y presumiblemente cualquier aplicación que soportara, se detendría. En este modelo, NCP no tenía control de errores en el host final, ya que el ARPANET iba a ser la única red existente y sería tan confiable que no se requeriría control de errores por parte de los hosts.

Por lo tanto, Kahn decidió desarrollar una nueva versión del protocolo que pudiera satisfacer las necesidades de un entorno de red de arquitectura abierta. Este protocolo se llamaría eventualmente Protocolo de Control de Transmisión / Protocolo de Internet (TCP/IP). Mientras que NCP tendía a actuar como un controlador de dispositivo, el nuevo protocolo sería más bien un protocolo de comunicaciones.

Cuatro reglas básicas fueron críticas para el pensamiento temprano de Kahn:

  1. Cada red distinta tendría que ser independiente y no se requeriría ningún cambio interno a ninguna de esas redes para conectarla a Internet.
  2. Las comunicaciones se basarían en los menores esfuerzos. Si un paquete no llegaba al destino final, se retransmitiría rápidamente desde el origen.
  3. Las cajas negras se utilizarían para conectar las redes, más tarde se llamarían pasarelas y enrutadores. Las pasarelas no retendrían ninguna información sobre los flujos individuales de paquetes que pasan a través de ellos, por lo que serían simples y evitarían complicadas adaptaciones y recuperaciones de los distintos modos de fallo.
  4. No habría un control global a nivel operativo.

Otras cuestiones clave que era necesario abordar eran:

  • Algoritmos para evitar que los paquetes perdidos deshabiliten permanentemente las comunicaciones y permitan su retransmisión desde la fuente.
  • Disponer la “canalización” de host a host, para que múltiples paquetes puedan ser encaminados de origen a destino a discreción de los hosts participantes, si las redes intermedias lo permiten.
  • Funciones de Gateway para permitir que reenvíe los paquetes apropiadamente. Esto incluía la interpretación de encabezados IP para enrutamiento, manejo de interfaces, rotura de paquetes en piezas más pequeñas si fuera necesario, etc.
  • La necesidad de sumas de control de fin de ciclo, el reensamblaje de los paquetes a partir de fragmentos y la detección de duplicados, si los hubiera.
  • La necesidad de una respuesta global
  • Técnicas para el control de flujo de host a host.
  • Interfaz con los distintos sistemas operativos
  • También había otras preocupaciones, como la eficiencia de la implementación, el rendimiento de la red de Internet, pero al principio eran consideraciones secundarias.

Kahn comenzó a trabajar en un conjunto de principios de sistemas operativos orientados a la comunicación mientras estaba en BBN y documentó algunos de sus primeros pensamientos en un memorándum interno de BBN titulado “Principios de Comunicaciones para Sistemas Operativos”.

En este punto se dio cuenta de que sería necesario aprender los detalles de implementación de cada sistema operativo para tener la oportunidad de integrar los nuevos protocolos de una manera eficiente. Así, en la primavera de 1973, después de comenzar el esfuerzo de Internet, le pidió a Vint Cerf, de la universidad de Stanford, que trabajara con él en el diseño detallado del protocolo. Cerf había estado íntimamente involucrado en el diseño y desarrollo del PNC original y ya tenía el conocimiento sobre la interfaz con los sistemas operativos existentes. Así pues, armados con el enfoque arquitectónico de Kahn hacia el lado de las comunicaciones y con la experiencia del PNC de Cerf, se unieron para explicar los detalles de lo que se convirtió en TCP/IP.

El intercambio de opiniones fue muy productivo y la primera versión escrita del enfoque resultante se distribuyó en una reunión especial del Grupo de Trabajo de la Red Internacional (INWG) que se había establecido en una conferencia celebrada en la Universidad de Sussex, en septiembre de 1973. Cerf había sido invitado a presidir este grupo y aprovechó la ocasión para celebrar una reunión de miembros del INWG, que estuvieron muy representados en la Conferencia de Sussex.

De esta colaboración entre Kahn y Cerf surgieron algunos enfoques básicos:

  • La comunicación entre dos procesos lógicamente consistiría en un flujo muy largo de bytes, llamados octetos.
  • La posición de cualquier octeto en el arroyo, se usaría para identificarla.
  • El control de flujo se realizaría mediante ventanas deslizantes y acuse de recibo, acks.
  • El destino podría seleccionar cuándo confirmar y cada ack devuelto sería acumulativo para todos los paquetes recibidos hasta ese punto.
  • Se dejó abierto en cuanto a la forma exacta en que la fuente y el destino acordarían los parámetros de la ventana a utilizar. Inicialmente se utilizaron valores por defecto.

Aunque en ese momento Xerox PARC estaba desarrollando Ethernet, no se preveía la proliferación de LAN’s en ese momento, mucho menos PC’s y estaciones de trabajo. El modelo original era el de las redes a nivel nacional como ARPANET, de las cuales se esperaba que sólo existiera un número relativamente pequeño. Así pues, se utilizó una dirección IP de 32 bits de la que los primeros 8 bits significaban la red y los 24 bits restantes designaban el host en esa red. Esta suposición, según la cual las 256 redes serían suficientes en un futuro previsible, necesitaba ser reconsiderada cuando empezaron a aparecer las redes LAN a finales de los 60’s.

colaboracion entre Kahn y Cerf
El documento original de Cerf/Kahn en Internet describía un protocolo, llamado TCP, que proporcionaba todos los servicios de transporte y expedición en Internet. Kahn había pretendido que el protocolo TCP soportara una gama de servicios de transporte, desde la entrega de datos en secuencia totalmente fiable, el modelo de circuito virtual, hasta un servicio de datagramas en el que la aplicación utilizaba directamente el servicio de red subyacente, lo que podría implicar paquetes ocasionalmente perdidos, corruptos o reordenados. Sin embargo, el esfuerzo inicial para implementar TCP resultó en una versión que sólo permitía circuitos virtuales.

Este modelo funcionó perfectamente para las aplicaciones de transferencia de archivos y de acceso remoto, pero algunos de los primeros trabajos sobre aplicaciones de red avanzadas, en particular la voz en paquetes en los años setenta, dejaron claro que en algunos casos las pérdidas de paquetes no deberían ser corregidas por TCP, sino que deberían dejarse en manos de la aplicación a la que se dirigen.

Esto condujo a una reorganización del TCP original en dos protocolos, el IP simple que sólo permitía direccionar y reenviar paquetes individuales y el TCP separado, que se ocupaba de características de servicio como el control de flujo y la recuperación de paquetes perdidos. Para aquellas aplicaciones que no querían los servicios de TCP, se agregó una alternativa denominada Protocolo Datagrama de Usuario (UDP) con el fin de proporcionar acceso directo al servicio básico de IP.

Una de las principales motivaciones iniciales de ARPANET e Internet fue el uso compartido de recursos. Por ejemplo, permitir a los usuarios de las redes de radiocomunicaciones por paquetes acceder a los sistemas de tiempo compartido conectados al ARPANET. La conexión de los dos juntos, era mucho más económica que la duplicación de estas computadoras muy costosas. Sin embargo, mientras que la transferencia de archivos y el acceso remoto (Telnet), fueron aplicaciones muy importantes, el correo electrónico ha tenido probablemente el impacto más significativo de las innovaciones de esa época. El correo electrónico proporcionó un nuevo modelo de cómo las personas podían comunicarse entre sí y cambió la naturaleza de la colaboración, primero en la construcción de Internet misma y más tarde para gran parte de la sociedad.

Hubo otras aplicaciones propuestas en los primeros días de Internet, incluyendo la comunicación de voz basada en paquetes, el precursor de la telefonía de Internet, varios modelos de compartición de archivos y discos, y los primeros programas “gusanos” que mostraban el concepto de agentes y por supuesto, los virus. Un concepto clave de Internet es que no fue diseñado para una sola aplicación, sino como una infraestructura general sobre la que se podrían concebir nuevas aplicaciones, como lo ilustra más adelante la aparición de la World Wide Web. Es la naturaleza de propósito general del servicio proporcionado por TCP e IP lo que hace esto posible.

El comienzo de la experimentación y el desarrollo

DARPA dejó 3 contratos a Stanford (Cerf), BBN (Ray Tomlinson) y UCL (Peter Kirstein) para implementar TCP/IP, que simplemente se llamaba TCP en el documento de Cerf/Kahn, pero contenía ambos componentes. El equipo de Stanford, liderado por Cerf, produjo la especificación detallada y en un año hubo 3 implementaciones independientes de TCP que pudieron interoperar.

Este fue el comienzo de la experimentación y el desarrollo a largo plazo para desarrollar y madurar los conceptos y la tecnología de Internet. A partir de las 3 primeras redes: ARPANET, Packet Radio y Packet Satellite, y sus comunidades de investigación iniciales, el entorno experimental ha crecido para incorporar esencialmente todas las formas de redes y una comunidad de investigación y desarrollo muy amplia.

Con cada expansión han surgido nuevos retos.

Las primeras implementaciones de TCP se hicieron para grandes sistemas de tiempo compartido como Tenex y TOPS 20. Cuando los ordenadores de escritorio aparecieron por primera vez, algunos pensaron que el TCP era demasiado grande y complejo para ejecutarse en un ordenador personal.

David Clark y su grupo de investigación en el MIT se propusieron demostrar que una implementación compacta y sencilla del TCP era posible. Produjeron una implementación, primero para Xerox Alto, la primera estación de trabajo personal desarrollada en Xerox PARC y luego para el PC IBM. Esa implementación era totalmente interoperable con otros PCT, pero se adaptó al conjunto de aplicaciones y a los objetivos de rendimiento del ordenador personal, y demostró que las estaciones de trabajo, así como los grandes sistemas de tiempo compartido, podían formar parte de Internet.

En 1976, Kleinrock publicó el primer libro sobre ARPANET. Incluyó un énfasis en la complejidad de los protocolos y los escollos que a menudo introducen. Este libro fue influyente en la difusión de la tradición de redes de conmutación de paquetes a una comunidad muy amplia.

El desarrollo generalizado de LANS, PCs y estaciones de trabajo en la década de 1980 permitió que Internet naciente prosperara. La tecnología Ethernet, desarrollada por Bob Metcalfe en Xerox PARC en 1973, es ahora probablemente la tecnología de red dominante en Internet y las computadoras y estaciones de trabajo son las computadoras dominantes. Este cambio de tener unas pocas redes con un número modesto de hosts compartidos en el tiempo (modelo ARPANET original) a tener muchas redes ha dado lugar a una serie de nuevos conceptos y cambios en la tecnología subyacente.

En primer lugar, dio lugar a la definición de tres clases de red (A, B y C) para dar cabida a la gama de redes.

  • La clase A representaba redes de gran escala nacional, unpequeño número de redes con un gran número de hosts.
  • La clase B representaba redes de escala regional
  • La clase C representaba redes de área local y ungran número de redes con relativamente pocos hosts.

Se produjo un cambio importante como resultado del aumento de la escala de Internet y sus problemas de gestión asociados. Para facilitar el uso de la red, se asignaron nombres a los hosts, de manera que no era necesario recordar las direcciones numéricas.

Originalmente, había un número bastante limitado de hosts, por lo que era factible mantener una única tabla de todos los hosts y sus nombres y direcciones asociados. El cambio a tener un gran número de redes gestionadas independientemente (por ejemplo, LANs) significó que tener una sola tabla de hosts ya no era factible, y el Sistema de Nombres de Dominio (DNS) fue inventado por Paul Mockapetris de USC/ISI. El DNS permitió un mecanismo distribuido escalable para resolver nombres de host jerárquicos (por ejemplo, www.laverdaderahistoriade.com) en una dirección de Internet.

El aumento del tamaño de Internet también puso en tela de juicio las capacidades de los enrutadores. Originalmente, había un algoritmo único distribuido para el enrutamiento que fue implementado uniformemente por todos los enrutadores de Internet. A medida que el número de redes de Internet explotó, este diseño inicial no pudo expandirse en la medida necesaria, por lo que fue reemplazado por un modelo jerárquico de encaminamiento, con un protocolo de puerta de enlace interior (IGP) utilizado dentro de cada región de Internet, y un protocolo de puerta de enlace exterior (EGP) utilizado para unir las regiones.

Este diseño permitió que diferentes regiones utilizaran un IGP diferente, de modo que se pudieran satisfacer los diferentes requisitos de coste, rápida reconfiguración, robustez y escala. No sólo el algoritmo de enrutamiento, sino también el tamaño de las tablas de direccionamiento, enfatizaron la capacidad de los enrutadores.

Recientemente se han introducido nuevos enfoques para la agregación de direcciones, en particular el enrutamiento entre dominios sin clases (CIDR), para controlar el tamaño de las tablas de enrutadores.

A medida que Internet fue evolucionando, uno de los mayores desafíos era cómo propagar los cambios en el software, particularmente el software host. DARPA apoyó a UC Berkeley para investigar modificaciones al sistema operativo Unix, incluyendo la incorporación de TCP/IP desarrollado en BBN. Aunque Berkeley reescribió más tarde el código BBN para que encaje más eficientemente en el sistema y núcleo Unix, la incorporación de TCP/IP en las versiones del sistema Unix BSD demostró ser un elemento crítico en la dispersión de los protocolos a la comunidad investigadora. Gran parte de la comunidad investigadora de CS comenzó a utilizar Unix BSD para su entorno informático diario.

Mirando hacia atrás, la estrategia de incorporar los protocolos de Internet en un sistema operativo compatible con la comunidad investigadora, fue uno de los elementos clave para la adopción generalizada y exitosa de Internet.

Uno de los retos más interesantes fue la transición del protocolo ARPANET host de NCP a TCP/IP a partir del 1 de enero de 1983. Se trataba de una transición, que requería que todos los anfitriones se convirtieran simultáneamente o que tuvieran que comunicarse a través de mecanismos más bien ad hoc. Esta transición fue cuidadosamente planeada dentro de la comunidad durante varios años antes de que realmente se llevara a cabo y fue sorprendentemente suave, pero resultó en una distribución de botones que decían “Sobreviví a la transición TCP/IP“.

El TCP/IP fue adoptado como estándar de defensa 3 años antes en 1980. Esto permitió que la defensa comenzara a compartir en la base tecnológica de DARPA en Internet y condujo directamente a la eventual división de las comunidades militares y no militares. En 1983, ARPANET estaba siendo utilizado por un número significativo de organizaciones operativas y de I+D de defensa. La transición de ARPANET del PNC al TCP/IP permitió dividirlo en un MILNET que soporta los requisitos operativos y un ARPANET que apoya las necesidades de investigación.

Así, en 1985, Internet ya estaba bien establecida como una tecnología que apoyaba a una amplia comunidad de investigadores y desarrolladores, y comenzaba a ser utilizada por otras comunidades para las comunicaciones diarias con computadoras. El correo electrónico se estaba utilizando ampliamente en varias comunidades, a menudo con sistemas diferentes, pero la interconexión entre distintos sistemas de correo demostraba la utilidad de las comunicaciones electrónicas de base amplia entre las personas.

Transición a una infraestructura más amplia

Al mismo tiempo que la tecnología de Internet se validaba experimentalmente y se utilizaba ampliamente entre un subconjunto de investigadores informáticos, se perseguían otras redes y tecnologías de redes. La utilidad de las redes informáticas, especialmente el correo electrónico, demostrada por DARPA y los contratistas del Departamento de Defensa en el ARPANET no se perdió en otras comunidades y disciplinas, por lo que a mediados de los 70’s las redes informáticas habían comenzado a crecer donde quiera que se encontraban fondos para este propósito.

  • El Departamento de Energía de los Estados Unidos (DoE) estableció MFENet para sus investigadores en Magnetic Fusion Energy,
  • Los físicos de alta energía del DoE respondieron construyendo HEPNet.
  • Los físicos espaciales de la NASA siguieron con SPAN
  • Rick Adrion, David Farber y Larry Landweber establecieron CSNET para la comunidad académica e industrial de Ciencias de la Computación con una subvención inicial de la Fundación Nacional de Ciencias de EE. UU. (NSF).

La diseminación de AT&T en libertad del sistema operativo UNIX generó USENET, basado en los protocolos de comunicación UUCP incorporados en UNIX, y en 1981 Ira Fuchs y Greydon Freeman concibieron BITNET, que unió las computadoras principales académicas en un paradigma de “correo electrónico como tarjeta gráfica”.

Con la excepción de BITNET y USENET, estas primeras redes (incluyendo ARPANET) fueron construidas con un propósito específico: Estaban destinadas y restringidas en gran medida a comunidades cerradas de académicos, por lo tanto, había poca presión para que las redes individuales fueran compatibles, y de hecho, en gran parte no lo eran.

Además, se buscaban tecnologías alternativas en el sector comercial, incluyendo XNS de Xerox, DECNet y el SNA de IBM. Quedó para los programas británicos JANET (1984) y NSFNET (1985) anunciar explícitamente su intención de servir a toda la comunidad de educación superior, independientemente de la disciplina. De hecho, una condición para que una universidad de los EE. UU. reciba fondos de la NSF para una conexión a Internet es que “… la conexión debe estar disponible para todos los usuarios cualificados en el campus”.

En 1985, Dennis Jennings, vino de Irlanda para pasar un año en la NSF liderando el programa NSFNET. Trabajó con la comunidad para ayudar a la NSF a tomar una decisión crítica, que el TCP/IP sería obligatorio para el programa NSFNET. Cuando Steve Wolff se hizo cargo del programa NSFNET en 1986, reconoció la necesidad de una infraestructura de redes de área amplia para apoyar a la comunidad académica y de investigación en general, junto con la necesidad de desarrollar una estrategia para establecer dicha infraestructura sobre una base que en última instancia fuera independiente de los fondos federales directos y se adoptaron políticas y estrategias para lograrlo.

NSF también eligió apoyar la infraestructura organizacional de DARPA en Internet, jerárquicamente ordenada bajo la Junta de Actividades de Internet (IAB). La declaración pública de esta elección fue hecha por el grupo de trabajo de Ingeniería y Arquitectura de Internet del IAB y por el grupo asesor técnico de redes del RFC 985, requisitos para las pasarelas de Internet, de la NSF, que formalmente garantizaba la interoperabilidad de las piezas de Internet de DARPA y NSF.

Además de la selección de TCP/IP para el programa NSFNET, las agencias federales tomaron e implementaron varias otras decisiones de política que dieron forma a la Internet de hoy en día.

Las agencias federales compartieron el costo de la infraestructura común, como los circuitos transoceánicos de conexión a intenret. También apoyaron conjuntamente los “puntos de interconexión administrados” para el tráfico interagencial, los Intercambios Federales de Internet (FIX-E y FIX-W) construidos para este propósito sirvieron como modelos para los Puntos de Acceso a la Red y las facilidades “*IX” que son características prominentes de la arquitectura actual de Internet.

los circuitos transoceánicos de conexión de internet

Para coordinar este intercambio, se formó el Consejo Federal de Redes. La FNC también cooperó con otras organizaciones internacionales, como RARE en Europa, a través del Comité Coordinador de Redes Intercontinentales de Investigación, CCIRN, para coordinar el apoyo de la comunidad de investigación en todo el mundo a través de Internet.

Este intercambio y cooperación entre organismos sobre cuestiones relacionadas con Internet tiene una larga historia. Un acuerdo de 1981 sin precedentes entre Farber, actuando para CSNET y la NSF, y el Kahn de DARPA, permitió al tráfico de CSNET compartir la infraestructura de ARPANET sobre una base estadística y de asentamientos sin medición de metros.

Posteriormente, en un modo similar, la NSF animó a sus redes regionales, inicialmente académicas, de la NSFNET a buscar clientes comerciales y no académicos, ampliar sus instalaciones para atenderlos y explotar las economías de escala resultantes para reducir los costos de suscripción para todos.

En el NSFNET Backbone, el segmento a escala nacional de la NSFNET – NSF aplicó una “Política de Uso Aceptable” (AUP) que prohibía el uso de la red troncal con fines “de no apoyo a la investigación y la educación” El resultado previsible y previsto) de fomentar el tráfico de redes comerciales a nivel local y regional, mientras que negaba su acceso al transporte a escala nacional, era estimular la aparición y/o el crecimiento de las redes “privadas”, competitivas y de largo recorrido. Este proceso de aumento financiado con fondos privados para usos comerciales fue discutido a partir de 1988 en una serie de conferencias iniciadas por la NSF en la Escuela de Gobierno Kennedy de Harvard sobre “La Comercialización y Privatización de Internet”  y en la lista de “com-priv” en la propia red.

En 1988, un comité del Consejo Nacional de Investigación, presidido por Kleinrock y con Kahn y Clark como miembros, elaboró un informe encargado por la NSF titulado “Towards a National Research Network”. Este informe fue influyente en el entonces senador Al Gore, y marcó el inicio de las redes de alta velocidad que sentaron las bases para la futura supercarretera de la información.

En 1994, se publicó un informe del Consejo Nacional de Investigación, nuevamente presidido por Kleinrock, que con Kahn y Clark como nuevos miembros, titulado “Realizing The Information Future: The Internet and Beyond“. Este informe, encargado por la NSF, fue el documento en el que se articuló un anteproyecto para la evolución de la superautopista de la información y que ha tenido un efecto duradero en la forma de pensar sobre su evolución.

Anticipaba las cuestiones fundamentales de los derechos de propiedad intelectual, la ética, la fijación de precios, la educación, la arquitectura y la reglamentación de Internet.

La política de privatización de NSF culminó en abril de 1995, con la desfinanciación de la red troncal de NSFNET. Los fondos recuperados se redistribuyeron, competitivamente a las redes regionales para comprar la conectividad de Internet a escala nacional, a partir de las ya numerosas redes privadas de larga distancia.

La red troncal había hecho la transición de una red construida a partir de routers fuera de la comunidad investigadora, los routers “Fuzzball” de David Mills, a equipos comerciales. En sus primeros 1 y 2 años de vida, la espina dorsal había crecido de 6 nodos con enlaces de 56 kbps a 21 nodos con múltiples enlaces de 45 Mbps. Había visto crecer Internet a más de 50.000 redes en los siete continentes y el espacio extraterrestre, con aproximadamente 29.000 redes en los Estados Unidos.

Tal fue el peso del ecumenismo y financiamiento del programa NSFNET, unos 200 millones de dólares entre 1986 y 1995 y la calidad de los propios protocolos, que para 1990, cuando finalmente el ARPANET fue desmantelado, TCP/IP había suplantado o marginado a la mayoría de los otros protocolos de redes informáticas de área amplia en todo el mundo, y la IP estaba bien encaminada para convertirse en EL servicio portador de la Infraestructura Global de Información.

El Rol de la documentación

Una clave para el rápido crecimiento de Internet ha sido el acceso libre y abierto a los documentos básicos, especialmente las especificaciones de los protocolos.

Los inicios de ARPANET e Internet en la comunidad investigadora universitaria promovieron la tradición académica de la publicación abierta de ideas y resultados. Sin embargo, el ciclo normal de la publicación académica tradicional era demasiado formal y demasiado lento para el intercambio dinámico de ideas esencial para la creación de redes.

En 1969, S. Crocker, entonces en UCLA, dio un paso clave al establecer la serie de notas de la Solicitud de Comentarios (o RFC). Estos memorandos fueron pensados para ser una forma informal de distribución rápida para compartir ideas con otros investigadores de la red. Al principio, los RFC se imprimieron en papel y se distribuyeron por correo postal. A medida que se empezó a utilizar el protocolo de transferencia de archivos (FTP), los RFC se prepararon como archivos online y se accedió a ellos a través de FTP. Ahora, por supuesto, los RFCs son fácilmente accesibles a través de la World Wide Web en docenas de sitios alrededor del mundo.

SRI, en su rol como Centro de Información de la Red, mantuvo los directorios en línea. Jon Postel actuó como editor de RFC, además de gestionar la administración centralizada de las asignaciones de números de protocolo requeridas.

El efecto de los RFC’s fue crear un circuito de retroalimentación positiva, con ideas o propuestas presentadas en un RFC que desencadenaba otro RFC con ideas adicionales, y así sucesivamente. Cuando se hubiera llegado a un consenso, o al menos un conjunto coherente de ideas, se prepararía un documento de especificación. Esta especificación se utilizaría entonces como base para las implementaciones de los distintos equipos de investigación.

Con el tiempo, los RFC’s se han enfocado más en los estándares de protocolo, aunque todavía existen RFC’s informacionales que describen enfoques alternativos, o proveen información de fondo sobre protocolos y asuntos de ingeniería. Los RFC’s son ahora vistos como los “documentos de registro” en la comunidad de ingeniería y estándares de Internet.

El acceso abierto a los RFC’s, gratuitos, si se tiene cualquier tipo de conexión a Internet,promueve el crecimiento de Internet porque permite que las especificaciones reales, puedan ser utilizadas para ejemplos en clases universitarias y por empresarios desarrollando nuevos sistemas.

El correo electrónico ha sido un factor importante en todas las áreas de Internet, y eso es ciertamente cierto en el desarrollo de especificaciones de protocolo, estándares técnicos e ingeniería de Internet. Los primeros RFC’s a menudo presentaban un conjunto de ideas desarrolladas por los investigadores en un lugar para el resto de la comunidad. Después de que el correo electrónico entró en uso, el patrón de autoría cambió,  los RFCs fueron presentados por autores conjuntos con una visión común independientemente de sus ubicaciones.

El uso de listas de correo electrónico especializadas ha sido utilizado durante mucho tiempo en el desarrollo de especificaciones de protocolo, y sigue siendo una herramienta importante. El IETF cuenta ahora con más de 75 grupos de trabajo, cada uno de los cuales trabaja en un aspecto diferente de la ingeniería de Internet. Cada uno de estos grupos de trabajo tiene una lista de correo para discutir uno o más proyectos de documentos en desarrollo. Cuando se llega a un consenso sobre un borrador de documento, éste puede ser distribuido como RFC.

Dado que la rápida expansión actual de Internet se alimenta de la realización de su capacidad para promover el intercambio de información, debemos entender que la primera función de la red en el intercambio de información fue, compartir la información sobre su propio diseño y funcionamiento a través de los documentos de la RFC. Este método único para desarrollar nuevas capacidades en la red, seguirá siendo crítico para la evolución futura de Internet.

Formación de la gran comunidad




Internet es tanto una colección de comunidades como un conjunto de tecnologías, y su éxito se atribuye en gran medida tanto a la satisfacción de las necesidades básicas de la comunidad como a la utilización de la comunidad de una manera eficaz para impulsar la infraestructura.

Este espíritu comunitario tiene una larga historia que comienza con el ARPANET temprano. Los primeros investigadores de ARPANET trabajaron como una comunidad muy unida para realizar las demostraciones iniciales de tecnología de conmutación de paquetes descritas anteriormente. Del mismo modo, el Packet Satellite, Packet Radio y varios otros programas de investigación en ciencias de la computación DARPA fueron actividades colaborativas de múltiples contratistas que utilizaron en gran medida los mecanismos disponibles para coordinar sus esfuerzos, comenzando con el correo electrónico y añadiendo compartición de archivos, acceso remoto y, eventualmente, las capacidades de la World Wide Web.

Cada uno de estos programas formó un grupo de trabajo, comenzando con el Grupo de Trabajo de la Red ARPANET. Debido al papel único que ARPANET desempeñó como una infraestructura de apoyo a los diversos programas de investigación, a medida que Internet comenzó a evolucionar, el Grupo de Trabajo de la Red evolucionó y se convirtió en el Grupo de Trabajo de Internet.

A finales de los 60’s, reconociendo que el crecimiento de Internet fue acompañado por un crecimiento del tamaño de la comunidad investigadora interesada y, por lo tanto, una mayor necesidad de mecanismos de coordinación, Vint Cerf, entonces gerente del Programa Internet de DARPA, formó varios órganos de coordinación, una Junta de Cooperación Internacional (ICB), presidida por Peter Kirstein de la UCL, para coordinar las actividades con algunos países europeos cooperantes centradas en la investigación de paquetes satelitales, un grupo de investigación en Internet que fue un grupo de investigación inclusivo. La ICCB fue un órgano de invitación para ayudar a Cerf a gestionar la creciente actividad de Internet.

En 1983, cuando Barry Leiner asumió la gerencia del programa de investigación de Internet en DARPA, él y Clark reconocieron que el continuo crecimiento de la comunidad de Internet exigía una reestructuración de los mecanismos de coordinación. Se disolvió la ICCB y en su lugar se creó una estructura de grupos de trabajo, cada uno de los cuales se centró en un área particular de la tecnología, por ejemplo, enrutadores, protocolos de extremo a extremo, etc. La Junta de Actividades de Internet (IAB) se formó a partir de los presidentes de los Grupos de Trabajo.

Por supuesto, fue sólo una coincidencia que los presidentes de los grupos de trabajo fueran las mismas personas que los miembros de la antigua Junta, y Dave Clark siguió ocupando la presidencia. Después de algunos cambios en la membresía del IAB, Phill Gross se convirtió en presidente de un Grupo de Tareas de Ingeniería de Internet (IETF) revitalizado, en ese momento sólo uno de los Grupos de Tareas del IAB. Como vimos anteriormente, en 1985 hubo un enorme crecimiento del lado más práctico/ingeniería de Internet. Este crecimiento se tradujo en una explosión de la asistencia a las reuniones del IETF, y Gross se vio obligada a crear una subestructura para el IETF en forma de grupos de trabajo.

Este crecimiento se complementó con una importante expansión de la comunidad. DARPA ya no era el único actor importante en la financiación de Internet. Además de NSFNet y las diversas actividades financiadas por el gobierno estadounidense e internacional, el interés en el sector comercial comenzó a crecer. También en 1985, tanto Kahn como Leiner abandonaron DARPA y hubo una disminución significativa en la actividad de Internet en DARPA. Como resultado, la IAB se quedó sin un patrocinador principal y asumió cada vez más el manto de liderazgo.

El crecimiento continuó, lo que se tradujo en una subestructura aún mayor, tanto en el IAB como en el IETF. El IETF combinó Grupos de Trabajo en Áreas y designó Directores de Área. Un Grupo Directivo de Ingeniería de Internet (IESG) fue formado por los Directores de Área. La JIA reconoció la creciente importancia del IETF y reestructuró el proceso de normalización para reconocer explícitamente al IESG como el principal órgano de examen de las normas. El IAB también se reestructuró para que el resto de los grupos de trabajo (distintos del IETF) se fusionaran en un grupo de trabajo de investigación en Internet (IRTF) presidido por Postel, y los antiguos grupos de trabajo pasaron a denominarse grupos de investigación.

El crecimiento del sector comercial trajo aparejada una mayor preocupación por el proceso de normalización. A partir de principios de los años 80 y hasta nuestros días, Internet creció más allá de sus raíces, primordialmente de investigación para incluir tanto a una amplia comunidad de usuarios como a una mayor actividad comercial. Se prestó mayor atención a que el proceso fuera abierto y justo. Esto, junto con una necesidad reconocida de apoyo comunitario de Internet, llevó finalmente a la formación de la Internet Society en 1991, bajo los auspicios de la Corporación de Kahn para Iniciativas Nacionales de Investigación (CNRI) y el liderazgo de Cerf, luego con CNRI.

En 1992 se produjo otra reorganización. En 1992, el Consejo de Actividades de Internet fue reorganizado y rebautizado como el Consejo de Arquitectura de Internet que funciona bajo los auspicios de Internet Society. Se definió una relación más “paritaria” entre el nuevo IAB y el IESG, en la que el IETF y el IESG asumieron una mayor responsabilidad en la aprobación de las normas.

En última instancia, se formó una relación de cooperación y apoyo mutuo entre el IAB, el IETF y la Internet Society, con el objetivo de que Internet Society asumiera la prestación de servicios y otras medidas que facilitaran el trabajo del IETF.

El desarrollo reciente y el despliegue generalizado de la World Wide Web, ha traído consigo una nueva comunidad, ya que muchas de las personas que trabajan en la WWW no se han considerado principalmente investigadores y desarrolladores de redes. Se formó una nueva organización de coordinación, el World Wide Web Consortium (W3C). Inicialmente liderado por el Laboratorio de Informática del MIT por Tim Berners-Lee, el inventor de la WWW y Al Vezza, el W3C ha asumido la responsabilidad de desarrollar los diversos protocolos y estándares asociados a la Web.

Tim Berners-Lee el inventor de la WWW

Así, a través de las más de dos décadas de actividad en Internet, hemos visto una evolución constante de las estructuras organizacionales diseñadas para apoyar y facilitar a una comunidad, cada vez mayor que trabaja en colaboración en temas de Internet.

Comercialización de la Tecnología

La comercialización de Internet involucró no sólo el desarrollo de servicios de redes privadas y competitivas, sino también el desarrollo de productos comerciales que implementan la tecnología de Internet. A principios de la década de 1980, docenas de vendedores estaban incorporando TCP/IP en sus productos porque veían a los compradores por ese enfoque hacia el trabajo en red. Desafortunadamente, carecían tanto de información real sobre cómo se suponía que iba a funcionar la tecnología como de cómo los clientes planeaban utilizar este enfoque para la creación de redes. Muchos lo veían como un añadido molesto, que tenía que ser pegado a sus propias soluciones de red propietarias: SNA, DECNet, Netware, NetBios. El Departamento de Defensa había ordenado el uso de TCP/IP en muchas de sus compras, pero dio poca ayuda a los vendedores con respecto a cómo construir productos útiles de TCP/IP.

En 1985, reconociendo esta falta de información disponible y capacitación apropiada, Dan Lynch, en cooperación con el IAB, organizó un taller de 3 días para que todos los vendedores se enteraran de cómo funcionaba el TCP/IP y lo que todavía no podía hacer bien. Los oradores procedían en su mayoría de la comunidad investigadora de DARPA, que había desarrollado estos protocolos y los había utilizado en el trabajo diario. Alrededor de 250 vendedores vinieron a escuchar a 50 inventores y experimentadores. Los resultados fueron sorpresas en ambos lados: los vendedores se sorprendieron al descubrir que los inventores eran tan abiertos sobre la forma en que las cosas funcionaban y las que todavía no funcionaba. Y los inventores estaban encantados de escuchar nuevos problemas que no habían considerado, pero que estaban siendo descubiertos por los vendedores sobre el terreno.

Así pues, se formó una discusión de dos vías, que ha durado más de una década.

Después de 2 años de conferencias, tutoriales, reuniones de diseño y talleres, se organizó un evento especial que invitó a los vendedores cuyos productos funcionaban con TCP/IP lo suficientemente bien como para reunirse en una habitación durante 3 días para mostrar lo bien, que todos ellos trabajaban conjuntamente y también funcionaba a través de Internet.




En septiembre de 1988 nace la primera feria Interop de 50 empresas hicieron el corte de5.000 ingenieros de organizaciones de clientes potenciales vinieron a ver si todo funcionaba como se había prometido. Porque los vendedores trabajaron muy duro para asegurarse de que todos los productos, de todos los demás productos interceptados con todos los demás productos, incluso con los de sus competidores. La feria comercial de Interop ha crecido enormemente desde entonces y hoy en día se celebra en 7 lugares de todo el mundo cada año, con una audiencia de más de 250.000 personas que vienen a conocer los productos que trabajan entre sí de forma fluida, a conocer los últimos productos y a debatir sobre las últimas tecnologías.

Paralelamente a los esfuerzos de comercialización que destacaron las actividades de Interop, los proveedores comenzaron a asistir a las reuniones del IETF que se celebraban 3 o 4 veces al año para debatir nuevas ideas, de ampliación del conjunto de protocolos TCP/IP. Empezando con unos pocos cientos de asistentes, en su mayoría de origen académico y pagados por el gobierno. Ahora estas reuniones superan con frecuencia los 1000 asistentes, en su mayoría de la comunidad de vendedores y pagados por los propios asistentes. Este grupo auto-seleccionado desarrolla la suite TCP/IP de manera cooperativa. La razón por la que es tan útil es que está compuesto por todas las partes interesadas: investigadores, usuarios finales y vendedores.

La gestión de la red proporciona un ejemplo de la interacción entre las comunidades de investigación y comerciales.

En los comienzos de Internet, el énfasis se puso en la definición y aplicación de protocolos que lograron la interoperación.

A medida que la red se hizo más grande, quedó claro que los procedimientos ad hoc, utilizados para administrar la red, no se ampliarían. La configuración manual de las tablas fue reemplazada por algoritmos automatizados distribuidos, y se diseñaron mejores herramientas para aislar fallas.

En 1987 se hizo evidente la necesidad de un protocolo que permitiera que los elementos de la red, como los enrutadores, se gestionaran de forma remota y uniforme. Se propusieron varios protocolos para este propósito, incluyendo Simple Network Management Protocol o SNMP, diseñado, como su nombre lo sugiere, para simplificar, y derivado de una propuesta anterior llamada SGMP. HEMS,un diseño más complejo de la comunidad investigadora y CMIP, de la comunidad OSI. Una serie de reuniones condujo a las decisiones de que el HEMS sería retirado como candidato a la estandarización, con el fin de ayudar a resolver la controversia, pero que el trabajo tanto en el SNMP como en el CMIP seguiría adelante, con la idea de que el SNMP podría ser una solución a corto plazo y el CMIP un enfoque a más largo plazo. El mercado pudo elegir el que le pareció más adecuado.

SNMP se utiliza ahora casi universalmente para la gestión basada en red.

En los últimos años, hemos visto una nueva fase de comercialización. Originalmente, los esfuerzos comerciales comprendían principalmente a los proveedores de productos básicos de redes y a los proveedores de servicios que ofrecían la conectividad y los servicios básicos de Internet.

Pero ahora, Internet se ha convertido ahora casi en un servicio “básico”, y gran parte de la atención más reciente se ha centrado en el uso de esta infraestructura mundial de la información, para apoyar otros servicios comerciales. Esto se ha acelerado enormemente debido a la adopción generalizada y rápida de los navegadores y la tecnología World Wide Web, lo que ha permitido a los usuarios un fácil acceso a la información vinculada en todo el mundo. Se dispone de productos para facilitar el suministro de esa información y muchos de los últimos avances tecnológicos se han destinado a prestar servicios de información cada vez más sofisticados, además de las comunicaciones básicas de datos por Internet.

La historia del futuro

El 24 de octubre de 1995, la FNC aprobó por unanimidad una resolución que define el término Internet. Esta definición se elaboró en consulta con los miembros de las comunidades de Internet y de los derechos de propiedad intelectual.

Resolución: El Consejo Federal de Redes (FNC) está de acuerdo en que el siguiente lenguaje refleja nuestra definición del término “Internet”.

Internet “se refiere al sistema mundial de información que: i) está lógicamente unido por un espacio de direcciones único a nivel mundial basado en el Protocolo Internet (IP) o sus posteriores extensiones seguimientos: ii), es capaz de soportar comunicaciones utilizando el conjunto Protocolo de control de transmisión: Protocolo Internet (TCP/IP) o sus posteriores extensiones seguimientos, y/u otros protocolos compatibles con IP y iii) proporciona, utiliza o hace accesibles, pública o privadamente, servicios de alto nivel.

Internet ha cambiado mucho en las dos décadas que han transcurrido desde su creación. Fue concebido en la era del tiempo compartido, pero ha sobrevivido a la era de las computadoras personales, la computación cliente-servidor y peer-to-peer, y la computadora de red.

Fue diseñado antes de que existieran las LANs, pero ha dado cabida a esa nueva tecnología de red, así como a los servicios más recientes de conmutación de marcos y cajeros automáticos. Fue concebido para soportar una amplia gama de funciones, desde el uso compartido de archivos y el inicio de sesión remoto hasta el uso compartido y la colaboración de recursos, y ha generado correo electrónico, y más recientemente, la World Wide Web. Pero lo más importante, comenzó como la creación de una pequeña banda de investigadores dedicados, y ha crecido hasta convertirse en un éxito comercial con miles de millones de dólares de inversión anual.

Internet no ha terminado de cambiar

No hay que concluir que Internet ha terminado de cambiar. Internet, aunque es una red en nombre y geografía, es una criatura de la computadora, no la red tradicional de la industria telefónica o televisiva. De hecho, debe seguir cambiando y evolucionando a la velocidad de la industria informática para que siga siendo pertinente. Ahora está cambiando para ofrecer nuevos servicios, como el transporte en tiempo real, para dar soporte, por ejemplo, a las transmisiones de audio y vídeo.

La disponibilidad de redes omnipresentes, es decir, Internet, junto con la computación y las comunicaciones poderosas y asequibles en forma portátil, es decir, computadoras portátiles, buscapersonas bidireccionales, PDAs, teléfonos móviles, está haciendo posible un nuevo paradigma de computación y comunicaciones nómadas.

Esta evolución nos traerá nuevas aplicaciones, teléfono por Internet y, un poco más allá, televisión por Internet. Está evolucionando para permitir formas más sofisticadas de fijación de precios y recuperación de costos, un requisito quizás doloroso en este mundo comercial. Está cambiando para adaptarse a una nueva generación de tecnologías de red subyacentes con características y requisitos diferentes, por ejemplo, acceso residencial de banda ancha y satélites.

Los nuevos modos de acceso y las nuevas formas de servicio generarán nuevas aplicaciones, lo que a su vez impulsará una mayor evolución de la propia red.

Cómo se gestionará el proceso de cambio

La cuestión más apremiante para el futuro de Internet, no es cómo cambiará la tecnología, sino cómo se va a gestionar el proceso de cambio y la evolución en sí mismo. Como se describe en este artículo, la arquitectura de Internet siempre ha estado impulsada por un núcleo central de diseñadores, pero la forma de este grupo ha cambiado a medida que ha crecido el número de partes interesadas. Con el éxito de Internet ha llegado una proliferación de partes interesadas, los interesados directos ahora con una inversión tanto económica como intelectual en la red.

Ahora vemos, en los debates sobre el control del espacio de nombres de dominio y la forma de las direcciones IP de próxima generación, una lucha por encontrar la próxima estructura social que guiará a Internet en el futuro. La forma de esa estructura será más difícil de encontrar, dado el gran número de partes interesadas.

Al mismo tiempo, la industria lucha por encontrar el fundamento económico de las grandes inversiones necesarias para el crecimiento futuro, por ejemplo, para mejorar el acceso residencial a una tecnología más adecuada.

Si Internet tropieza, no será porque nos falte tecnología, visión o motivación. Será porque no podemos establecer una dirección y marchar colectivamente hacia el futuro.




Deja tu comentario