Tag Archives: historia

40 años de historia del libro electrónico

1 Mar

Pese a que pueda parecer una novedad reciente, en 2011 se cumplen 40 años desde que, con el inicio del Proyecto Gutenberg, comenzó la era del libro en formato electrónico.

(Infografía de Ebookfriend.ly, vía Teleread.com)

40 años de historia del ebook (Fuente: ebookfriendy.ly)

40 años de historia del ebook (Fuente: ebookfriendy.ly)

Anuncios

Neutralidad de red IV. La privatización del backbone de Internet.

31 Ago

[Gran parte de lo que cuento en este post lo he sacado del artículo “The Privatization of the Internet’s Backbone Network” (pdf), publicado por Rajiv C. Shah y Jay P. Kesan en 2003]

El debate alrededor de la neutralidad está muy relacionado con la evolución del modelo económico que sustenta Internet: quién paga a quién y a cambio de qué. Por eso, creo que es importante entender a quién pertenece la infraestructura física de la Red, así que a continuación vamos a ver rápidamente cómo se llevó a cabo su privatización.

Como vimos, ARPANET, la red precursora de la actual Internet, comenzó como un proyecto con financiación pública del Departamento de Defensa estadounidense, en el que participaron varias de las principales universidades del país.

Comprobado el éxito de la red de ARPA, a principios de los años 80 la National Science Foundation (NSF), agencia del gobierno estadounidense para la promoción de la investigación científica, financió la creación de una red basada en TCP/IP, NSFNET.

En una primera fase, esta red conectó varios centros universitarios de supercomputación, permitiendo el  uso compartido de recursos tan escasos y caros. La segunda etapa consistió en la construcción de un backbone de alta velocidad para interconectar distintas redes regionales, universitarias, y de otras agencias gubernamentales (como la red del Departamento de Energía o la de la NASA).

La interconexión de estas redes a través del backbone de NSFNET es lo que empezó a conocerse como Internet.

Privatización del backbone

Backbone de NSFNET (1992)

Backbone de NSFNET (1992) (Fuente: http://www.computerhistory.org/internet_history/)

A principios de los años 90, en pleno auge de la ideología privatizadora y desreguladora de los servicios públicos, comenzó a verse como inevitable el paso a manos privadas de la infraestructura del backbone de Internet.

Para propiciar la transición, la NSF hizo uso de su Política de Uso Aceptable (AUP, Acceptable Use Policy) de la red, que prohibía el uso de sus recursos para fines distintos de la investigación y la educación. Como un número cada vez mayor de usuarios de NSFNET pretendía darle otros usos, esa prohibición fomentó que empresas privadas construyesen vías alternativas, en las que no rigiesen esas limitaciones, mediante las que ofrecieron conectividad a Internet a quienes temían violar la restrictiva política de NSF.

Inicialmente, el backbone de NSFNET y los de las compañías privadas se interconectaban en cuatro Puntos de Acceso a la Red (NAPs, Network Access Points), situados en Nueva York, Washington, Chicago y California, y operados por distintas compañías privadas por concesión de NSF. Una vez conseguida la interconexión de las redes privadas en los NAPs, el backbone de NSFNET dejó de funcionar en 1995 y, al año siguiente, la gestión de los NAPs pasó enteramente a manos privadas, culminándose así la privatización del backbone de Internet.

Infraestructura actual de Internet

Actualmente, la infraestructura física de Internet está formada por la interconexión de redes (agrupadas en sistemas autónomos) gestionadas por distintos operadores (empresas privadas de distinto tipo, Administraciones públicas, universidades…), los denominados proveedores de servicios de Internet (ISPs, Internet Services Providers).*

Esta interconexión se produce mediante enlaces privados entre dos redes (private exchanges) o en los denominados puntos neutros de Internet (IXPs, Internet Exchange Points), infraestructuras físicas gestionadas por entidades privadas que proporcionan los servicios necesarios para que múltiples ISPs interconecten sus redes entre sí.

La transmisión de datos entre las redes puede efectuarse a su vez mediante acuerdos de peering, en los que dos ISPs de similar tamaño acuerdan intercambiar información con origen o destino en sus propios clientes (pero no en clientes de terceros) sin contraprestación económica, o bien mediante contratos de tránsito, en los que un ISP permite a otro el acceso al resto de Internet a cambio de una tarifa.

Por tanto, cualquier usuario actual de Internet, tanto doméstico como corporativo (incluidos los grandes proveedores de contenido, como Google) accede a ella a través de un ISP, que le cobrará por ese servicio.

—————————————————————————————————————————

* A veces se utiliza el término ISP para referirse únicamente a los proveedores de “última milla, que ofrecen su servicio de acceso a Internet a usuarios finales. Aquí yo lo empleo en sentido más amplio, que incluye a todos los operadores de la infraestructura de red, entre los que se pueden distinguir varios niveles (tiers): el nivel 1 incluye a los operadores que sólo firman acuerdos de peering; el nivel 2, a aquéllos que se relacionan mediante peering y tránsito; y el nivel 3, a los ISPs que sólo obtienen acceso al bacbone mediante tránsito. Según Wikipedia, los ISPs de nivel 1 son: AOL, AT&T, Global Crossing, Level3, British Telecom, Verizon Business, NTT Communications, Qwest, Cogent, SprintLink, Telefónica International Wholesale Services (TIWS) y Tinet.


También en esta misma serie:

Neutralidad de red I. Introducción

Neutralidad de red II. Qué es Internet

Neutralidad de red III. Arquitectura de Internet

Neutralidad de red V. El debate

Neutralidad de red VI. Argumentos a favor

Neutralidad de red VII. Argumentos en contra

Neutralidad de la red III. Arquitectura de Internet.

31 Ago

Ya hemos visto que existen varias formas de entender qué es Internet, y que ese hecho tiene repercusiones en lo que los distintos actores interesados en su evolución esperan de ella, algo que guarda estrecha relación con sus posiciones respecto a la neutralidad de red, tema central de esta serie de posts.

Antes de poder profundizar en el debate actual, creo que es imprecindible tener una idea de de dónde venimos. Así que vamos a dar un rápido repaso a la estructura de Internet.

Orígenes de la arquitectura de Internet

A principios de los años 60, en círculos académicos, tanto en Estados Unidos como en otros países, se estudiaba la viabilidad práctica de la comunicación entre ordenadores mediante redes de conmutación de paquetes, que prometían hacer un uso más eficiente de los recursos que las redes de conmutación de circuitos, como la red telefónica tradicional.

En las redes de conmutación de circuitos, la ruta que seguirá la información se establece antes de que comience la transmisión. Los recursos que componen dicha ruta se dedican en exclusiva a esa transmisión durante todo el tiempo que dure la comunicación, lo que permite garantizar una calidad mínima en todo momento, pero a costa de un derroche de recursos, en particular cuando, aunque la ruta sigue en pie, no se está transmitiendo información.

Si se emplea conmutación de paquetes, la información que se va a transmitir se divide en trozos que, junto con cierta información adicional (en particular, la dirección a la que se dirige y de la que proviene el paquete), forma los paquetes. Los paquetes se envían independientemente unos de otros, y pueden de hecho seguir caminos distintos hasta su destino: no existe una ruta predeterminada. Los nodos intermedios de la red se basan en la dirección de destino que contiene el propio paquete para acercarlo hacia ella. Una vez que alcanzan su destino, los paquetes se reensamblan para reconstruir la información original. La conmutación de paquetes supone en general un uso más eficiente de los recursos de la red, pero a costa de contemplar la posibilidad de que, en momentos de congestión, no toda la información alcance su destino.

Por esa época, ARPA, la Agencia de Proyectos de Investigación Avanzada (Advanced Research Projects Agency) del Departamento de Defensa estadounidense, buscaba, como explica David Clark, “una técnica efectiva para la interconexión de redes con multiplexación“, y se fijó en los estudios sobre conmutación de paquetes de gente como Leonard Kleinrock o Paul Baran.

Con la financiación de ARPA, se creó a finales de los 60 la red ARPANET, precursora de la actual Internet,  que comenzó conectando centros de investigación de varias universidades norteamericanas (MIT, en Boston; UCLA, UC Berkeley, UC Santa Bárbara, Stanford, en California; la Universidad de Utah).

El objetivo principal de ARPANET era la interconexión de distintas redes (en inglés, internetworking o internetting, origen del término “internet”), posiblemente gestionadas por entidades diferentes.

Además, por orden de relevancia, tenía también los siguientes objetivos secundarios:

1. La comunicación debía mantenerse aunque se perdiesen redes o pasarelas (gateways) entre ellas.

2. Debía soportar distintos tipos de servicios de comunicaciones.

3. Debía acomodar redes de distintos tipos.

4. Debía permitir la gestión distribuida de sus recursos.

5. Debía tener en cuenta el coste de los recursos que componen la red y hacer un uso eficiente de ellos.

6. Debía permitir la conexión de nuevos ordenadores sin mucho esfuerzo.

7. Debía proporcionar alguna forma de contabilidad de los recursos consumidos.

La satisfacción de estos objetivos, en este orden preciso, fue lo que dio lugar a la arquitectura original de Internet, cuyos principios se plasmaron en el protocolo TCP/IP, definido por Robert Kahn y Vinton Cerf en 1973.

TCP/IP

Para permitir la interconexión de redes distintas sobre medios de transmisión posiblemente diferentes, los ingenieros que diseñaron ARPANET dividieron el proceso de comunicación entre entidades en distintas capas, cada una implementada siguiendo uno o varios protocolos. Esta división puede entenderse así:

  • Las capas inferiores son las que se encargan de la transmisión de los paquetes a través del medio físico correspondiente (cable de cobre, fibra óptica, aire…).
  • Por su parte, en las capas superiores se encuentran las aplicaciones que permiten a quiener utilizan la red realizar tareas útiles (correo electrónico, voz, videoconferencia, web…).
Pila de protocolos de Internet

Protocolos de Internet (Fuente: http://dret.net/lectures/web-fall08/)

IP se encarga únicamente de dirigir los paquetes del origen al destino, a medida que van llegando a cada nodo intermedio (First In, First Out), a través de una o varias redes distintas, pero no impide que, por congestión de la red o cualquier otro motivo, la información pueda perderse en el camino. Es lo que se denomina un protocolo best-effort: simplemente, lo hace lo mejor que puede.

Por su parte, TCP funciona sobre IP para proporcionar transmisión garantizada de datos: si algún paquete se pierde en el camino, avisa para que el emisor lo reenvíe y así acabe llegando al receptor.

La comunicación fiable de información que permite TCP es muy útil para aplicaciones que impliquen la transmisión de ficheros (como, por ejemplo, la propia Web). Sin embargo, en contraprestación por esas garantías, impone un cierto sobrecoste en la transmisión, por la información de control que se incluye en cada paquete, algo que puede no resultar apropiado para ciertas aplicaciones.

Por ejemplo, en aplicaciones de tiempo real como la transmisión de voz o de vídeo, no es aceptable el retardo que impone el procesamiento adicional de TCP. Y sin embargo, sí se puede tolerar la pérdida de algún que otro paquete (que resulta en un instante de silencio o en una imagen congelada durante un momento). Por ello, junto a este protocolo fiable, se desarrolló otro que, como el propio IP, no ofrece ninguna garantía de recepción, pero a cambio es mucho más ligero y rápido: UDP (User Datagram Protocol; Protocol de Datagramas de Usuario).

El principio end-to-end

Esta división en capas de la funcionalidad de la red proporcionó a su diseño una gran flexibilidad: para transmitir la información sobre un nuevo medio, bastaba con implementar la parte de la transmisión correpondiente a las capas inferiores, dependientes del propio medio. Análogamente, para proporcionar un nuevo servicio o aplicación a los usuarios de la red, sólo era necesario diseñar la comunicación entre los extremos de la red, emisor y receptor, haciendo uso de las características de TCP o UDP, según fuese apropiado.

Esta última característica es lo que se conoce como principio end-to-end o extremo a extremo, muy importante en el debate sobre la neutralidad de red, que afirma que la funcionalidad de la red debe implementarse en las capas inferiores e intermedias, y por tanto en cada router, sólo en el caso de que no se pueda implementar de forma efectiva en las capas superiores, y por tanto únicamente en los extremos (emisor y receptor).

Protocolos en los extremos y en nodos intermedios de la red

Principio "end-to-end" ideal: las aplicaciones "inteligentes" residen en los extremos; los routers intermedios sólo dirigen los paquetes hacia su destino. (Fuente: http://www.cs.rpi.edu/academics/courses/netprog/ProtocolStack.gif)

Los defensores de la neutralidad de de la red creen que el principio end-to-end es el responsable del impresionante ritmo de innovación en las últimas décadas en la capa de aplicación, y afirman que la mejor manera de mantenerlo es hacer que la red siga siendo “estúpida” (dumb pipes) y que la inteligencia resida en sus extremos (smart applications), en las aplicaciones desarrolladas sobre las capas superiores de la red. Como ejemplos de esta posibilidad de innovar en los extremos sin necesidad de contar con la aprobación de las operadoras de la red ponen la World Wide Web, inventada a principios de los años 90 por Tim Berners-Lee, científico del CERN; el buscador de Google, creado por dos estudiantes de Stanford, y que revolucionó la capacidad de encontrar información en la propia Web; o Skype, la aplicación de telefonía sobre IP que tantos quebraderos de cabeza está provocando a las telcos.

Por su parte, quienes se oponen a la neutralidad piensan que la evolución de la red conduce a abandonar el principio end-to-end. Creen que los operadores de la red son quienes están en mejor disposición de decidir el camino para esta evolución y que no se debe restringir su capacidad de buscar maneras innovadoras de gestionar su “red inteligente” (discriminación de tráfico, priorización de ciertos flujos de datos para conseguir así la diferenciación de productos), lo que incrementaría sus ingresos y les permitiría financiar las inversiones necesarias para mejorar las infraestructuras.


También en esta misma serie:

Neutralidad de red I. Introducción

Neutralidad de red II. Qué es Internet

Neutralidad de red IV. La privatización del backbone de Internet

Neutralidad de red V. El debate

Neutralidad de red VI. Argumentos a favor

Neutralidad de red VII. Argumentos en contra

Neutralidad de red II. Qué es Internet.

30 Ago

Como dije, al empezar a leer cosas sobre la neutralidad de red me di cuenta de que no existe una definición común de lo que significa neutralidad.

De hecho, creo que esta falta de consenso es aún más profunda, porque los distintos intervinientes en el debate ni siquiera se ponen de acuerdo sobre algo tan fundamental como qué es Internet.

Tratando de darle forma a esta percepción, encontré un artículo de Susan Crawford (profesora de Derecho en la Universidad de Michigan y ayudante del equipo de transición de Obama para las políticas de ciencia, tecnología e innovación cuando éste llegó a la Casa Blanca) titulado “Internet Think“, que me resultó muy útil.

En él, Crawford distingue tres visiones claramente diferenciadas de Internet: la de los ingenieros que contribuyeron a crearla; la de las compañías de telecomunicaciones (“telcos”), que poseen la infraestructura física de comunicaciones en la que se sustenta; y la de los visionarios de Internet (los “netheads“), cuya visión idealista de las posibilidades de la Red para el progreso de la humanidad está detrás de muchos de los avances que ésta ha propiciado.

Qué es Internet

En primer lugar, Crawford se pregunta qué entienden por “Internet” los ingenieros como Robert Kahn, coinventor del protocolo TCP/IP en que se basa Internet, que afirma:

Una de las cosas sobre Internet que mucha gente no entiende […] es que en realidad está compuesta de routers, cables, ordenadores, y cosas así, pero eso no es lo que define Internet. Eso son sólo las cosas con la que está construida. Internet en realidad era un arquitectura lógica que te permitía conectar prácticamente cualquier tipo de máquina de red. Por eso, cuando la gente me pregunta qué es Internet, digo que es una construcción lógica, independiente de los elementos concretos que la componen. Si esta red desapareciese y fuese sustituida en el futuro por una nueva tecnología, seguiría siendo Internet.

Así, desde el punto de vista de Kahn, TCP/IP es Internet, una arquitectura lógica pensada como una infraestructura de propósito general sobre la cual se pueden desarrollar y desplegar diversas aplicaciones.

Según Crawford, la definición de Internet más acorde a las ideas de los ingenieros es la que adoptó el Federal Networking Council en 1995:

“Internet” se refiere al sistema de información global que: (i) está conectado a nivel lógico mediante un espacio de direcciones global único basado en el protocolo IP o sus subsecuentes extensiones o continuaciones, (ii) es capaz de permitir comunicaciones utilizando el conjunto de protocolos TCP/IP o sus subsecuentes extensiones o continuaciones, y/o otros protocolos compatibles con IP, y (iii) proporciona, utiliza, o pone a disposición, ya sea pública o privadamente, servicios de alto nivel apoyados sobre las comunicaciones e infraestructura relacionada aquí descrita.

Por su parte, como ejemplo de la visión de las telcos Crawford propone la de James Crowe, director ejecutivo de Level 3, empresa que proporciona servicios de conectividad al backbone o núcleo de Internet:

Primero está la conexión local, normalmente una conexión bastante grande, del proveedor de contenido al backbone. En general, es una conexión de fibra óptica bastante grande. Después, está el propio backbone, que también es una conexión óptica muy grande. Después está la parte que conecta al usuario final al backbone, el acceso local a Internet. Las primeras dos secciones de Internet, la que va del proveedor de contenido al backbone, y el propio backbone, son muy competitivas. Tenemos gran variedad de proveedores. En la parte que todos compramos, la que conecta nuestras casas a Internet, es donde está el problema. Creo que los proveedores de contenido y la comunidad de Internet están en general en lo cierto cuando dicen que los proveedores de telecomunicaciones y las empresas de cable tienen un duopolio [para esta sección de Internet].

Crowe imagina Internet compuesta por tres categorías de caños que conectan a los “consumidores” con el “contenido” y viceversa. La definición de Internet, para él, no depende de la arquitectura lógica que se utilice para el sobre los tubos de transporte, aunque sin duda está al tanto del protocolo IP, sino que los propios tubos forman Internet.

En general, dice Crawford, para las telcos:

Internet es lo que surgió cuando las compañías telefónicas de todo el mundo hicieron posible que los ordenadores se conectasen (mediante módems) a las redes telefónicas preexistentes. Por tanto, la combinación de esas redes subyacentes forma para ellos la totalidad de Internet.

Por último, para exponer la forma de entender Internet de los netheads (literalmente, “cabezas de red”), Crawford escoge esta afirmación de David Weinberger, coautor de uno de los textos de referencia de la cultura de la Red, el Manifiesto Cluetrain, investigador en el Berkman Center e influyente bloguero:

Internet es un medio únicamente a nivel de bits. A escala humana, es una conversación que, debido a la persistencia y a la interconexión de las páginas, posee las características de un mundo. Sólo podría ser un medio si a los humanos nos resultase completamente indiferente.

Para los visionarios de Internet, aunque los estándares (TCP/IP, HTML, HTTP…) permiten que Internet (y la Web) funcione, no definen por completo lo que es. Lo más importante para ellos son las relaciones (entre textos, entre máquinas, entre personas, entre grupos) que estos estándares hacen posibles.

Hacia dónde va

Estas tres nociones distintas de lo que es Internet conllevan necesariamente visiones divergentes sobre su evolución futura.

Los ingenieros aceptan la posibilidad de que la arquitectura lógica que es Internet haya dejado de ser la más adecuada para prestar servicio a sus usuarios, y que sea por tanto conveniente reinventarla.

Por ejemplo, explica Crawford, tanto Kahn como David Clark, otro de los pioneros de Internet, han hecho llamamientos, cada uno por su parte, para una reingeniería de Internet con el fin de hacer frente a problemas actuales de Internet, como la seguridad, el spam, o el respeto a las normas de propiedad intelectual.

Por su parte, las telcos ven cómo aumenta vertiginosamente la utilización de sus “tubos”, a la vez que se les empieza a tratar como meros proveedores de transporte de datos, un servicio cada vez más “comoditizado”. Les resulta frustrante verse incapaces de internalizar los beneficios de la creciente conectividad que proporcionan al mundo entero.

El aumento de capacidad de la banda ancha que la sociedad demanda, explican las telcos, requiere enormes inversiones. Pretenden que los reguladores les permitan buscar maneras de monetizar “sus” redes más allá del mero cobro por la conectividad, como por ejemplo mediante la diferenciación de precios por distintas calidades de servicio o por la priorización de tráfico.

Querrían comercializar sus propios servicios de valor añadido, como el vídeo bajo demanda, como otra forma de recuperar sus enormes inversiones en infraestructura. Además, afirman que estos servicios son sensibles a problemas de latencia y jitter para los que Internet no permite asegurar la calidad del servicio, por lo que exigen tener la capacidad de gestionar adecuadamente el tráfico que circula por sus caños.

Para los netheads, el mundo está crecientemente online, y eso hace que sea un lugar mejor. Aspiran a alcanzar la conectividad global y el flujo de información sin restricciones. Para ellos, el acceso de banda ancha hace posible innumerables aplicaciones, muchas aún por inventar, que mejorarán la vida de los usuarios, facilitando la colaboración y la participación, y les preocupa que el intento de monetización por parte de las telcos retrase o incluso detenga esta evolución positiva.

En respuesta a las telcos, afirman que todos los problemas que latencia y jitter se resolverían si aumentase el ancho de banda de las redes.

Síntesis

Cada uno de estos tres puntos de vista por sí solo, señala Crawford, es demasiado limitado como para resultar útil a los responsables de tomar las decisiones regulatorias.

Ni la perspectiva del ingeniero ni la del nethead sirven de mucho cuando a los legisladores lo que les preocupa son las implicaciones económicas de instalar y mejorar las redes físicas.

La perspectiva de las telcos, por su parte, parece algo corta de miras, porque da por sentado que la gente prefiere recibir comunicaciones pasivamente en lugar de participar en crear las suyas propias. Ni las telcos ni los ingenieros tienen en cuenta el contexto social o cultural de Internet.

En cambio, los netheads se interesan casi exclusivamente por ese contexto cultural, y no tienen respuestas claras para la cuestión de cómo sufragar los costes de la transición a las redes de nueva generación, que tanto preocupa a las telcos.


También en esta misma serie:

Neutralidad de red I. Introducción

Neutralidad de red III. Arquitectura de Internet

Neutralidad de red IV. La privatización del backbone de Internet

Neutralidad de red V. El debate

Neutralidad de red VI. Argumentos a favor

Neutralidad de red VII. Argumentos en contra

A %d blogueros les gusta esto: