Neutralidad de la red III. Arquitectura de Internet.

31 Ago

Ya hemos visto que existen varias formas de entender qué es Internet, y que ese hecho tiene repercusiones en lo que los distintos actores interesados en su evolución esperan de ella, algo que guarda estrecha relación con sus posiciones respecto a la neutralidad de red, tema central de esta serie de posts.

Antes de poder profundizar en el debate actual, creo que es imprecindible tener una idea de de dónde venimos. Así que vamos a dar un rápido repaso a la estructura de Internet.

Orígenes de la arquitectura de Internet

A principios de los años 60, en círculos académicos, tanto en Estados Unidos como en otros países, se estudiaba la viabilidad práctica de la comunicación entre ordenadores mediante redes de conmutación de paquetes, que prometían hacer un uso más eficiente de los recursos que las redes de conmutación de circuitos, como la red telefónica tradicional.

En las redes de conmutación de circuitos, la ruta que seguirá la información se establece antes de que comience la transmisión. Los recursos que componen dicha ruta se dedican en exclusiva a esa transmisión durante todo el tiempo que dure la comunicación, lo que permite garantizar una calidad mínima en todo momento, pero a costa de un derroche de recursos, en particular cuando, aunque la ruta sigue en pie, no se está transmitiendo información.

Si se emplea conmutación de paquetes, la información que se va a transmitir se divide en trozos que, junto con cierta información adicional (en particular, la dirección a la que se dirige y de la que proviene el paquete), forma los paquetes. Los paquetes se envían independientemente unos de otros, y pueden de hecho seguir caminos distintos hasta su destino: no existe una ruta predeterminada. Los nodos intermedios de la red se basan en la dirección de destino que contiene el propio paquete para acercarlo hacia ella. Una vez que alcanzan su destino, los paquetes se reensamblan para reconstruir la información original. La conmutación de paquetes supone en general un uso más eficiente de los recursos de la red, pero a costa de contemplar la posibilidad de que, en momentos de congestión, no toda la información alcance su destino.

Por esa época, ARPA, la Agencia de Proyectos de Investigación Avanzada (Advanced Research Projects Agency) del Departamento de Defensa estadounidense, buscaba, como explica David Clark, “una técnica efectiva para la interconexión de redes con multiplexación“, y se fijó en los estudios sobre conmutación de paquetes de gente como Leonard Kleinrock o Paul Baran.

Con la financiación de ARPA, se creó a finales de los 60 la red ARPANET, precursora de la actual Internet,  que comenzó conectando centros de investigación de varias universidades norteamericanas (MIT, en Boston; UCLA, UC Berkeley, UC Santa Bárbara, Stanford, en California; la Universidad de Utah).

El objetivo principal de ARPANET era la interconexión de distintas redes (en inglés, internetworking o internetting, origen del término “internet”), posiblemente gestionadas por entidades diferentes.

Además, por orden de relevancia, tenía también los siguientes objetivos secundarios:

1. La comunicación debía mantenerse aunque se perdiesen redes o pasarelas (gateways) entre ellas.

2. Debía soportar distintos tipos de servicios de comunicaciones.

3. Debía acomodar redes de distintos tipos.

4. Debía permitir la gestión distribuida de sus recursos.

5. Debía tener en cuenta el coste de los recursos que componen la red y hacer un uso eficiente de ellos.

6. Debía permitir la conexión de nuevos ordenadores sin mucho esfuerzo.

7. Debía proporcionar alguna forma de contabilidad de los recursos consumidos.

La satisfacción de estos objetivos, en este orden preciso, fue lo que dio lugar a la arquitectura original de Internet, cuyos principios se plasmaron en el protocolo TCP/IP, definido por Robert Kahn y Vinton Cerf en 1973.

TCP/IP

Para permitir la interconexión de redes distintas sobre medios de transmisión posiblemente diferentes, los ingenieros que diseñaron ARPANET dividieron el proceso de comunicación entre entidades en distintas capas, cada una implementada siguiendo uno o varios protocolos. Esta división puede entenderse así:

  • Las capas inferiores son las que se encargan de la transmisión de los paquetes a través del medio físico correspondiente (cable de cobre, fibra óptica, aire…).
  • Por su parte, en las capas superiores se encuentran las aplicaciones que permiten a quiener utilizan la red realizar tareas útiles (correo electrónico, voz, videoconferencia, web…).
Pila de protocolos de Internet

Protocolos de Internet (Fuente: http://dret.net/lectures/web-fall08/)

IP se encarga únicamente de dirigir los paquetes del origen al destino, a medida que van llegando a cada nodo intermedio (First In, First Out), a través de una o varias redes distintas, pero no impide que, por congestión de la red o cualquier otro motivo, la información pueda perderse en el camino. Es lo que se denomina un protocolo best-effort: simplemente, lo hace lo mejor que puede.

Por su parte, TCP funciona sobre IP para proporcionar transmisión garantizada de datos: si algún paquete se pierde en el camino, avisa para que el emisor lo reenvíe y así acabe llegando al receptor.

La comunicación fiable de información que permite TCP es muy útil para aplicaciones que impliquen la transmisión de ficheros (como, por ejemplo, la propia Web). Sin embargo, en contraprestación por esas garantías, impone un cierto sobrecoste en la transmisión, por la información de control que se incluye en cada paquete, algo que puede no resultar apropiado para ciertas aplicaciones.

Por ejemplo, en aplicaciones de tiempo real como la transmisión de voz o de vídeo, no es aceptable el retardo que impone el procesamiento adicional de TCP. Y sin embargo, sí se puede tolerar la pérdida de algún que otro paquete (que resulta en un instante de silencio o en una imagen congelada durante un momento). Por ello, junto a este protocolo fiable, se desarrolló otro que, como el propio IP, no ofrece ninguna garantía de recepción, pero a cambio es mucho más ligero y rápido: UDP (User Datagram Protocol; Protocol de Datagramas de Usuario).

El principio end-to-end

Esta división en capas de la funcionalidad de la red proporcionó a su diseño una gran flexibilidad: para transmitir la información sobre un nuevo medio, bastaba con implementar la parte de la transmisión correpondiente a las capas inferiores, dependientes del propio medio. Análogamente, para proporcionar un nuevo servicio o aplicación a los usuarios de la red, sólo era necesario diseñar la comunicación entre los extremos de la red, emisor y receptor, haciendo uso de las características de TCP o UDP, según fuese apropiado.

Esta última característica es lo que se conoce como principio end-to-end o extremo a extremo, muy importante en el debate sobre la neutralidad de red, que afirma que la funcionalidad de la red debe implementarse en las capas inferiores e intermedias, y por tanto en cada router, sólo en el caso de que no se pueda implementar de forma efectiva en las capas superiores, y por tanto únicamente en los extremos (emisor y receptor).

Protocolos en los extremos y en nodos intermedios de la red

Principio "end-to-end" ideal: las aplicaciones "inteligentes" residen en los extremos; los routers intermedios sólo dirigen los paquetes hacia su destino. (Fuente: http://www.cs.rpi.edu/academics/courses/netprog/ProtocolStack.gif)

Los defensores de la neutralidad de de la red creen que el principio end-to-end es el responsable del impresionante ritmo de innovación en las últimas décadas en la capa de aplicación, y afirman que la mejor manera de mantenerlo es hacer que la red siga siendo “estúpida” (dumb pipes) y que la inteligencia resida en sus extremos (smart applications), en las aplicaciones desarrolladas sobre las capas superiores de la red. Como ejemplos de esta posibilidad de innovar en los extremos sin necesidad de contar con la aprobación de las operadoras de la red ponen la World Wide Web, inventada a principios de los años 90 por Tim Berners-Lee, científico del CERN; el buscador de Google, creado por dos estudiantes de Stanford, y que revolucionó la capacidad de encontrar información en la propia Web; o Skype, la aplicación de telefonía sobre IP que tantos quebraderos de cabeza está provocando a las telcos.

Por su parte, quienes se oponen a la neutralidad piensan que la evolución de la red conduce a abandonar el principio end-to-end. Creen que los operadores de la red son quienes están en mejor disposición de decidir el camino para esta evolución y que no se debe restringir su capacidad de buscar maneras innovadoras de gestionar su “red inteligente” (discriminación de tráfico, priorización de ciertos flujos de datos para conseguir así la diferenciación de productos), lo que incrementaría sus ingresos y les permitiría financiar las inversiones necesarias para mejorar las infraestructuras.


También en esta misma serie:

Neutralidad de red I. Introducción

Neutralidad de red II. Qué es Internet

Neutralidad de red IV. La privatización del backbone de Internet

Neutralidad de red V. El debate

Neutralidad de red VI. Argumentos a favor

Neutralidad de red VII. Argumentos en contra

5 comentarios to “Neutralidad de la red III. Arquitectura de Internet.”

Trackbacks/Pingbacks

  1. Neutralidad de red II. Qué es Internet. « IT ruminations - agosto 31, 2010

    […] Agosto 31, 2010 en 9:28 am | #2 Neutralidad de la red III. Arquitectura de Internet. « IT ruminations […]

  2. Neutralidad de red I. Introducción. « IT ruminations - agosto 31, 2010

    […] Neutralidad de red III. Arquitectura de Internet Categorías:EOIPI Etiquetas: Internet, neutralidad de red Comentarios (0) Trackbacks (2) Dejar un comentario Trackback […]

  3. Neutralidad de red IV. La privatización de Internet. « IT ruminations - agosto 31, 2010

    […] Como vimos, ARPANET, la red precursora de la actual Internet, comenzó como un proyecto con financiación pública del Departamento de Defensa estadounidense, en el que participaron varias de las principales universidades del país. […]

  4. Neutralidad de red VI. Argumentos a favor. « IT ruminations - septiembre 3, 2010

    […] características tradicionales de transmisión first-in-first-out y best-efforts de Internet que ya hemos comentado. Les inquieta que la posibilidad de priorizar resulte en el bloqueo o la degradación del contenido […]

  5. Neutralidad de red VII. Argumentos en contra. « IT ruminations - septiembre 9, 2010

    […] no es neutral ni lo ha sido nunca en realidad. Normalmente, aceptan que las características first-in-first-out y best-effort de los protocolos TCP/IP han sido muy importantes para el desarrollo de Internet. Señalan, sin […]

Los comentarios están cerrados.

A %d blogueros les gusta esto: