Neutralidad de red V. El debate.

2 Sep

Como vimos, el diseño original de Internet se caracteriza por el “first-in-first-out” (el primero en llegar es el primer en ser servido), con la única diferenciación de servicio que ofrecen los dos principales protocolos de transporte: TCP (fiable pero menos eficiente, apropiado para transmisión de ficheros estáticos, como texto o fotos) y UDP (no fiable pero más eficiente, y por ello mejor adaptado para flujos como los de voz o vídeo sobre IP).
Como explica Marcel Coderch*, vicepresidente de la Comisión del Mercado de las Telecomunicaciones (CMT), el organismo regulador en España:

Este diseño resulta muy eficiente para gestionar grandes volúmenes de tráfico según el criterio best-effort, pero no garantiza ni la seguridad ni la calidad de servicio que requieren algunas de las aplicaciones que se cree son las que justifican las inversiones en redes de nueva generación, como, por ejemplo, la transmisión de voz y vídeo en tiempo real. Aun cuando los ingenieros y diseñadores han encontrado fórmulas inteligentes e innovadoras para mejorar la calidad de los contenidos audiovisuales distribuidos en redes sin priorización de tráfico, la calidad final viene siempre condicionada por la intensidad del tráfico global y por las inevitables congestiones de la red. En su implementación actual, los protocolos de Internet no proporcionan las funcionalidades necesarias para garantizar distintos niveles de calidad de servicio en la red de redes, por mucho que en sus especificaciones iniciales sí estaban contempladas. En su momento no fueron implementadas debido a su complejidad, y en cualquier caso hubieran sido de difícil gestión en redes muy interconectadas como las que hoy constituyen Internet.

En los últimos años, sin embargo, la conjunción de varios factores ha hecho crecer la presión sobre la arquitectura tradicional de Internet:

  • La convergencia de las distintas redes de distribución de contenidos (telefonía fija, telefonía móvl: voz; televisión por cable: vídeo; Internet: datos), cada una con su regulación particular, en una plataforma común (NGN, Next Generation Networking), basada en el protocolo IP.
  • La transición del acceso a Internet de banda estrecha (“dial-up”, mediante módem sobre la infraestructura de acceso de la red telefónica tradicional) al acceso de banda ancha (xDSL, fibra, cable-módem).
  • Los cambios en los hábitos de consumo de los usuarios de Internet, con un importante crecimiento del vídeo en streaming, que suele requerir un ancho de banda considerable y una determinada calidad de servicio. Esa mayor demanda ha hecho crecer la preocupación, en particular entre las telcos, sobre la posible congestión de la Red y la necesidad de invertir en mejorar y aumentar la capacidad.
  • Avances en las tecnologías de “traffic shaping que hacen factible la discriminación de paquetes basada no sólo en origen y destino (direcciones IP), sino en el tipo de datos e incluso en el contenido (inspección produnda de paquetes), lo que podría permitir a los operadores ofrecer la priorización de tráfico a proveedores de contenidos afiliados o que pagasen por ello.
Modelo de referencia de las redes de nueva generación (NGN)

Modelo de referencia de las redes de nueva generación (NGN) (Wikipedia)

Todo ello en un ambiente propenso a la desregulación de los servicios de comunicaciones (en particular en EEUU, donde una serie de decisiones del organismo regulador, la Federal Communications Commission (FCC), a partir del año 2005** ha ido dejando el acceso a Internet de banda ancha fuera de la regulación de “common carrier” que imperaba anteriormente), ha contribuido a situar en el centro del debate la neutralidad de red, que Coderch resume así:

Para unos, la posibilidad de ofrecer un servicio de acceso a Internet con niveles de calidad diferenciados en función del tipo de tráfico, o de su origen y/o destino, representa una oportunidad más de innovar y rentabilizar las nuevas inversiones. Para otros, un cambio de esta naturaleza en la arquitectura actual significaría violar los principios fundacionales de Internet que tanto éxito han cosechado, y amenazaría con desestabilizar muchos de los modelos de negocio que han contribuido a éste éxito o, lo que es peor, podría crear incentivos anticompetitivos para las operadoras al posibilitarles la discriminación de los flujos de tráfico que compiten con sus propios servicios

La polémica enfrenta, utilizando la terminología de Tim Wu (profesor de Derecho en Columbia a quien se atribuye haber acuñado el término “neutralidad de red”), a “aperturistas”, partidarios de regular la neutralidad de red para preservar el carácter abierto de Internet, y “desreguladores”, que se oponen a la imposición de obligaciones de neutralidad a los operadores de red.

En las siguientes entradas de la serie veremos con algo más de detalle los argumentos de unos y otros.


————–

* En el artículo “Regulación de Redes de Nueva Generación: ¿Neutralidad o Convergencia?“, incluido en el volumen sobre neutralidad de red publicado por Deloitte en marzo de este año.

** Para un recuento detallado de la evolución regulatoria en EEUU, consultar “Net Neutrality in the United States: Past, present and future” de Fernando Huerta y Antonio García Zaballos, el volumen de Deloitte de 2010 y, particularmente, “Transporting Communications“, artículo de 2009 de Susan Crawford.


También en esta misma serie:

Neutralidad de red I. Introducción

Neutralidad de red II. Qué es Internet

Neutralidad de red III. Arquitectura de Internet

Neutralidad de red IV. La privatización del backbone de Internet

Neutralidad de red VI. Argumentos a favor

Neutralidad de red VII. Argumentos en contra

Otras referencias:

Antecendentes sobre neutralidad de la red (Wikitel)

Una respuesta to “Neutralidad de red V. El debate.”

Trackbacks/Pingbacks

  1. Neutralidad de red VII. Argumentos en contra. « IT ruminations - septiembre 9, 2010

    […] Neutralidad de red V. El debate […]

Los comentarios están cerrados.

A %d blogueros les gusta esto: