Tag Archives: neutralidad de red

Neutralidad de red VII. Argumentos en contra.

9 Sep

El otro día repasamos los argumentos de los defensores de la neutralidad de red; hoy veremos los de quienes se oponen a su regulación.

Entre éstos destacan los operadores de red, tanto cableada como inalámbrica (las telcos de las que ya hemos hablado), es decir, los principales dueños del backbone de Internet, como AT&T, Verizon o Comcast en los Estados Unidos, o Telefónica en España. También se oponen a la neutralidad ciertos ingenieros (cuya visión también comenté en esa misma entrada anterior).

Verizon, AT&T

Afirman que la neutralidad no sólo es innecesaria, pues los operadores no tienen incentivos para discriminar (una Internet “capada” restaría valor a sus servicios de acceso), sino que podría resultar perjudicial al impedir que los operadores de la red busquen nuevos modelos de negocio que podrían revertir en mejores servicios tanto a los usuarios finales como a los proveedores de aplicaciones y contenidos.

Sostienen que imponer la regulación de la neutralidad de red impedirá la inversión en la mejora del acceso a Internet y puede dificultar la innovación, algo que iría contra la creciente demanda de capacidad y velocidad por los usuarios.

También afirman que, aparte del caso de Madison River (en que esta compañía, que proporciona acceso a Internet en zonas rurales de Estados Unidos impidió en 2005 que sus usuarios accediesen a servicios de VoIP que competían con los que ella ofrecía), los perjuicios para los usuarios que los defensores de la neutralidad de red esgrimen son meramente hipotéticos y no hacen necesario un nuevo régimen regulatorio ex-ante, que bastaría con un tratamiento a posteriori, caso por caso.

Veamos sus argumentos en más detalle*:

1. No neutralidad histórica y actual de Internet

Afirman que Internet no es neutral ni lo ha sido nunca en realidad. Normalmente, aceptan que las características first-in-first-out y best-effort de los protocolos TCP/IP han sido muy importantes para el desarrollo de Internet. Señalan, sin embargo, que desde los primeros días de Internet los informáticos han reconocido que la congestión de datos puede afectar al rendimiento de la red y han buscado distintas maneras de afrontar este problema.

Indican que todos los routers deben tomar decisiones sobre la transmisión de datos y afirman que dichas decisiones tienen inevitablemente consecuencias que no tienen por qué ser estrictamente uniformes o neutrales. En concreto, hacen notar que las redes desde hace mucho tiempo emplean técnicas de enrutamiento “hot potato”, que traspasan cuanto antes a otras redes los datos cuyo destino no se encuentra en su propia red. Un objetivo principal de este tipo de enrutamiento es reducir la utilización de los recursos de red. Señalan que, durante periodos de congestión, los paquetes de datos pueden redirigirse a través de otros caminos o descartarse completamente y que los paquetes han de ser reenviados cuando hay errores de transmisión.

Afirman que el propio protocolo TCP/IP puede tener efectos distintos para diversos contenidos y aplicaciones. Por ejemplo, el contenido de páginas web estáticas, como texto y fotos, y aplicaciones como el correo electrónico, en general no son sensibles a la latencia. Por tanto, los usuarios acceden a ellas mediante TCP/IP son problemas apreciables, incluso durante periodos de congestión. Sin embargo, aplicaciones como el vídeo en streaming o la videoconferencia sí pueden ser sensibles a la latencia y al jitter. Por ello, quienes se oponen a la neutralidad de red afirman que, si bien los principios de first-in-first-out y best-effort pueden parecer neutrales en abstracto, su efecto práctico puede ser el de perjudicar ciertos contenidos y aplicaciones sensibles a la latencia y al jitter, porque no puede utilizarse la priorización para transmitir el flujo continuo y regular de datos que los usuarios esperan incluso durante periodos de congestión.

También hacen notar que los proveedores de contenido cada vez con más frecuencia están utilizando técnicas de caché local para copiar su contenido en múltiples servidores distribuidos por todo el mundo, y afirman que esta práctica sortea las características first-in-first-out y best-effort del protocolo TCP/IP.

Indican asimismo que los portales web, los buscadores y otros proveedores de contenido suelen ofrecer colocación preferencial a los anunciantes en función de su disposición para pagar.

En su opinión, todas estas prácticas constituyen ejemplos de no neutralidad ya existente.

2. Priorización, bloqueo y necesidades de gestión de la red

A menudo afirman que se debería permitir que los operadores restrinjan activamente o bloqueen datos que consideren perjudiciales para el rendimiento de sus redes (como el spam), haciendo referencia a informes que indican que un número relativamente pequeño de usuarios puede saturar los recursos de la red mediante el uso de aplicaciones que consumen mucho ancho de banda, como la compartición de ficheros por p2p y el vídeo en streaming. Avisan que la gestión de red, la priorización y otro tipo de compromisos de calidad de servicio son necesarios para evitar que Internet, o alguna de sus partes, se ralentice o directamente se colapse en una versión hi-tech de la “tragedia de los comunes”.

En su opinión, limitarse a ampliar la capacidad de la red es caro y puede no ser el método más rentable de gestión de la red, y es posible que aplicaciones futuras requieran aún mayores recursos que aplicaciones como BitTorrent hoy en día.

3. Eficiencias y beneficios de la priorización para los consumidores

Afirman que generar un mercado para la priorización y otras formas de calidad de servicio permite en muchos casos distribuir los escasos recursos de red de una forma más consecuente con las prioridades reales de los usuarios finales. También indican que priorizar los flujos de vídeo para telemedicina, por ejemplo, por delante del correo electrónico o los juegos en red para reducir la latencia y el jitter sería beneficioso para la sociedad.

Por tanto, sostienen que los operadores de red deberían poder priorizar la transmisión de ciertos datos o establecer compromisos de calidad de servicio por un precio, de la misma manera en que los consumidores pagan por el correo prioritario. Hay quien señala que muchos otros tipos de prioridad pagada, como los asientos de primera clase en los aviones, el pago por el transporte público o por usar el coche privado en función de la congestión, o la mejor colocación de anuncios, son muy habituales y en general se consideran beneficiosos para la sociedad.

Además, niegan que los datos no priorizados se vayan a ver relegados a un carril lento inaceptable y anticuado. Sostienen en cambio que el tráfico no priorizado continuará recibiendo un nivel aceptable de servicio básico que seguirá mejorando con los avances de los métodos de transmisión en general.

4. Nuevo contenido y aplicaciones y necesidad de “inteligencia” en la red

Afirman que nuevos tipos de servicios especializados y de contenido premium requieren gestión de la red “inteligente” tanto en los extremos como en el núcleo de Internet. Los principales ejemplos son VoIP, vídeo en streaming para películas y telemedicina, la descarga de grandes ficheros de vídeo, videojuegos interactivos y aplicaciones empresariales especializadas. En su opinión, las redes “tontas” basadas en los principios first-in-first-out y best-effort del protocolo TCP/IP original están quedando obsoletas para ciertos contenidos y aplicaciones. Sostienen que muchas de estas aplicaciones novedosas son sensibles a diferentes niveles de velocidad, latencia, jitter, simetría, gestión de ráfagas y capacidad. Por ejemplo, la teleconferencia necesita en general alta velocidad, baja latencia y simetría, mientras que las descargas de vídeo pueden necesitan sólo velocidad. En cambio, VoIP no requiere mucho ancho de banda, pero es sensible a la latencia y al jitter. Quienes se oponen a la neutralidad afirman, por tanto, que la inteligencia en la red será cada vez más necesaria para proporcionar el entorno de transmisión óptimo para cada uno de estos nuevos tipos de contenido y aplicaciones, y que tanto los proveedores de contenido y aplicaciones como otros usuarios finales deberían tener la posibilidad de pagar por los servicios adecuados a sus necesidades particulares.

5. Innovación y competencia en la red

Defienden que los operadores de red deber poder innovar libremente y diferenciar sus redes como una forma de competencia que conducirá a mejores ofertas de servicios para los proveedores de contenido y aplicaciones y otros usuarios finales.

Creen que los operadores deberían ser capaces de experimentar con nuevos métodos de transmisión y diversos modelos de negocio para proporcionar mejor servicio a las demandas cambiantes de los usuarios finales. Se esos experimentos fracasan, los operadores aprenderán de sus errores y mejorarán sus ofertan o simplemente volverán al status quo, siguiendo la dinámica habitual de los procesos de mercado. En su opinión, prohibir la priorización restringiría en la práctica nuevos tipos de competencia, entorpecería la innovación, podría descartar bajadas de precio para los usuarios, dificultaría mejoras de eficiencia y fijaría un único modelo de negocio. Advierten de que, en un mercado aún reciente y en evolución como el de los servicios de banda ancha, obligar a un único modelo de negocio tendría probablemente consecuencias inesperadas y poco eficientes. También afirman que permitir que los proveedores de contenido y aplicaciones paguen por garantías de calidad de servicio y de priorización puede permitir que nuevos proveedores contrarresten las ventajas competitivas de que disfrutan normalmente los proveedores ya establecidos (incumbents), como la capacidad de pagar por grandes granjas de servidores o servicios de caché de terceros.

6. Inversión en la red y posibles beneficios para los consumidores

Sostienen que prohibir que los operadores de red cobren precios distintos por el envío con prioridad u otros servicios especializados o de contenido premium dificultaría que recuperasen los costes de sus inversiones en infraestructura y, por tanto, reduciría los incentivos para invertir. Afirman que tanto los usuarios finales como los proveedores de contenido y aplicaciones deberían poder elegir cualquier nivel de servicio que ofrezcan los operadores de red en condiciones de mercado.

También hacen hincapié en que, aunque Internet empezó siendo una red de comunicaciones de investigación con financiación pública, su explosivo crecimiento desde mediados de los 90 se ha alimentado, principalmente, de inversiones privadas, con su consiguiente riesgo. Inciden en que las redes individuales y descentralizadas que componen Internet son en su mayoría propiedad de las compañías privadas que las operan y, en términos generales, son propiedad privada, aunque puedan estar sujetas a ciertas obligaciones legales, como las servidumbres de paso. Señalan que desplegar y mejorar las redes de banda ancha puede suponer miles de millones de dólares en costos iniciales, hundidos. Por ello, cualquier regulación que reduzca la capacidad de los operadores para recuperar sus inversiones también aumenta en la práctica su perfil de riegos para los inversores y, por tanto, hace que los mercados de capitales exigan un mayor retorno en sus préstamos. Sugieren que este incremento en el coste del capital a su vez reduciría la probabilidad de que proyectos ya en ejecución puedan terminarse a la escala planificada.

Además de reducir los incentivos para la inversión en redes en general, afirman que prohibir que los operadores ofrezcan servicios de envío priorizado de datos a los proveedores de contenido y aplicaciones impediría que los operadores de red recuperasen sus inversiones a partir de una base más amplia de clientes. En concreto, indican que se debería permitir a los operadores que experimenten con un modelo en que los proveedores de contenido y aplicaciones les pagan por la priorización y otros servicios premium de la misma manera que los comerciantes pagan por la colocación de anuncios en periódicos y otras publicaciones. Creen que un modelo de negocio de este tipo reduciría los precios para ciertos usuarios finales, igual que la publicidad subvenciona el precio de las suscripciones de las publicaciones con anuncios, permitiendo que clientes marginales se pudiesen permitir el servicio de banda ancha. Esta mayor penetración de la banda ancha, continúan, haría crecer la demanda de contenido y aplicaciones en general, beneficiando así a sus proveedores.

7. Economías de gama debidas a la integración vertical y a la oferta combinada

Sostienen que la integración vertical de los operadores de red en el contenido y las aplicaciones, junto con prácticas relacionadas de ofertas combinadas, puede producir economías de gama y reducciones de precio. Ponen de manifiesto la creciente convergencia de muchas áreas de las telecomunicaciones. Por ejemplo, tanto las compañías de cable como las de telecomunicaciones tradicionales cada vez más ofrecen ofertas combinadas triples y cuádruples de datos de alta velocidad, telefonía, televisión y servicios inalámbricos. Además, afirman que la integración o la distribución vertical con otros tipos de contenido es ya habitual porque los consumidores no suelen querer únicamente distribución, sino que desean el contenido concreto que esa distribución permite obtener. Algunos indican que la posibilidad de flujos de ingresos adicionales provenientes de la integración vertical y la combinación de servicios puede promover la competencia en los servicios de acceso de banda ancha y proporcionar otras ventajas a los usuarios finales.

8. Insuficientes pruebas de perjuicio para justificar nueva regulación

Afirman que no hay pruebas suficientes de perjuicio que justifiquen un nuevo régimen regulatorio ex-ante, sobre todo cuando, en su opinión, la competencia en los servicios de banda ancha es cada vez mayor, debido en gran medida a la desregulación. Insisten en que, aparte del caso de Madison River, que fue resuelto rápidamente por la FCC (Federal Communications Commission), los perjuicios que los defensores de la neutralidad de red prevén son meramente hipotéticos y, por tanto, no hacen necesarias nuevas reglas. También hacen referencia a los afirmaciones públicas de distintos operadores de red de que no bloquearán o degradarán la utilización de sus servicios por parte de los usuarios finales. Sostienen que los operadores no tienen suficiente poder sobre la distribución de contenido y aplicaciones y que, de hecho, si llevasen a cabo ese tipo de prácticas perderían clientes. Más aún, dudan incluso de que fuese rentable para los operadores de red buscar y bloquear tipos específicos de contenido y aplicaciones en el contexto de una Internet en continua expansión, teniendo en cuenta que los usuarios finales disponen de cada vez más servidores proxy y técnicas de encriptación para hacer frente a ese bloqueo. En la misma línea, algunos sugieren que si se detectase ese tipo de prácticas, los usuarios podrían hacerlo público rápidamente y “avergonzar” al operador de red correspondiente.

Por último, afirman que la regulación actual por parte de las agencias antimonopolio y la FCC es suficiente para enfrentarse a cualquier posible problema futuro que pueda resultar del uso de nuevos métodos de transmisión. En general, observan que cualquiera de esos problemas podrían resolverse “caso por caso”, sin necesidad de regulación ex-ante. Les preocupa que un régimen de este tipo pudiese ser manipulado para obtener resultados anticompetitivos o que pudiese tener consecuencias no deseadas.

—————————–

* La práctica totalidad de lo que sigue es traducción de parte del documento “Broadband Connectivity Competition Policy”, elaborado en 2007 por la Federal Trade Commission, el organismo encargado de velar por la competencia y defender a los consumidores en los mercados estadounidenses.


También en esta misma serie:

Neutralidad de red I. Introducción

Neutralidad de red II. Qué es Internet

Neutralidad de red III. Arquitectura de Internet

Neutralidad de red IV. La privatización del backbone de Internet

Neutralidad de red V. El debate

Neutralidad de red VI. Argumentos a favor

Anuncios

Neutralidad de red VI. Argumentos a favor.

3 Sep

Los “aperturistas”, partidarios de regular la neutralidad de red, son principalmente proveedores de aplicaciones o contenidos a través de la red (como Facebook, eBay, Microsoft o Amazon, con Google a la cabeza) y asociaciones de defensa de los derechos de los usuarios. (Según la clasificación de Susan Crawford que comenté en otro post, se corresponderían aproximadamente con los visionarios de Internet, los netheads.)

Muchos entroncan sus reivindicaciones con el principio de no discriminación que ha regido la regulación de las redes de comunicaciones desde hace al menos 150 años, con la invención del telégrafo, según el cual la importancia de las comunicaciones para el bienestar de la sociedad en su conjunto recomienda imponer a las compañías que gestionan la infraestructura la obligación de no discriminar contra determinadas fuentes o contenidos de los mensajes y de interconectar con otras redes. En el siglo XX, el teléfono sustituyó al telégrafo como la red básica de comunicaciones, y ahora, a principios del XXI, es a su vez Internet la que reemplaza a la red telefónica tradicional como la infraestructura básica para las comunicaciones de nuestra época. Quienes promueven la neutralidad de red consideran necesario trasladar el principio de no discriminación a la nueva realidad, imponiendo ciertas limitaciones a quienes gestionan la infraestructura de Internet para impedir que se produzcan situaciones perniciosas para el bienestar general.

Siguiendo la clasificación de Tim Wu*, Marcel Coderch** relaciona los tres principios de los partidarios de regular la neutralidad de red:

  1. La red como infraestructura: Internet es una infraestructura básica de la sociedad moderna, cuya mayor virtud reside en los efectos indirectos que tiene como fuente de externalidades positivas para la economía y la sociedad en su conjunto, lo que contrasta con la visión de los operadores de red que ya comentamos, según la cual la Internet no es más que un conjunto de redes privadas interconectadas, y el acceso a la red un “servicio” o un “producto”, cuya utilidad se agota en el propio acto de consumo.
  2. Neutralidad de la red: para que la infraestructura de comunicaciones públicas alcance su máximo potencial para la sociedad, no debe discriminar entre aplicaciones, usuarios o contenidos. Tampoco debería estar diseñada para satisfacer las necesidades concretas de ninguna aplicación específica. Sólo así puede ocurrir que acabe por dar servicio a innovaciones hoy imposibles de prever.
  3. End-to-end: no limitado al sentido técnico en que lo vimos anteriormente, sino como teoría de la innovación que se sustenta en esa arquitectura de la Red y según la cual, para que la innovación resulte en los mayores beneficios para la sociedad, es preferible que no se concentre únicamente en un puñado de empresas operadoras de red sino que se distribuya en los “extremos” de la red, múltiples y variados.
Tim Wu

Tim Wu, profesor de Derecho en Columbia, popularizó la expresión "neutralidad de red" (Fuente: Wikipedia)

Según los aperturistas, continúa Coderch, son estos tres principios “los que han hecho que Internet sea algo distinto a las demás redes de comunicaciones y, por tanto, hay que mantenerlos sean cuales sean las encarnaciones futuras de la red de redes, ya que son la esencia de la revolución que en su momento supuso Internet.”











Las consecuencias de una red no neutral podrían ser, en opinión de los partidarios de la regulación*:

1. Bloqueo y degradación del contenido y las apllcaciones no favorecidos

Creen que los operadores de red utilizarían técnicas de inspección de paquetes para favorecer la transmisión de su propio contenido y aplicaciones o de aquéllos con quienes estén afiliados sobre los de otros proveedores, en lugar de ofrecer el acceso sin restricciones que los usuarios en general disfrutan actualmente. Temen la “balcanización” del acceso a Internet, que acabaría restringido a lo que los operadores de red decidan mostrar en sus “jardines tapiados” (walled gardens), y remiten a declaraciones de directivos de ISPs como muestra de su intención de tratar ciertos contenidos y aplicaciones de manera distinta.

Creen que los operadores de red poseen los medios técnicos y la motivación para degradar activamente o directamente bloquear ciertos contenidos y aplicaciones y dudan de que los, en caso de que lo hiciesen, los usuarios fuesen capaces de discernir por qué ciertos contenidos y aplicaciones podrían no estar disponibles o funcionar más lentamente o con menos fiabilidad que otros.

Creen que los operadores de red pueden tratar de desfavorecer algunos contenidos y aplicaciones al dificultar o prohibir que los usuarios conecten a sus redes determinados dispositivos, como teléfonos para VoIP de proveedores de la competencia o teléfonos móviles preparados para VoIP.  También indican que se han dado casos en que las compañías de cable han bloqueado aplicaciones de vídeo por streaming para proteger sus propios negocios de televisión por cable, y que las compañías de telefonía móvil han establecido límites respecto a los tipos de contenido y aplicaciones a los que se puede acceder utilizando sus servicios de Internet inalámbrica.

Sin embargo, algunos de los partidarios de la neutralidad entienden que las ciertas restricciones pueden estar justificadas para evitar situaciones en que unos pocos usuarios generan costes que se revierten sobre los demás de forma injusta.

2. Cobro a los proveedores de aplicaciones por la transmisión priorizada de datos

Les preocupa que, aparte del bloqueo o la degradación activa, los operadores de red puedan cobrar por mostrar ciertos contenidos a sus usuarios de manera preferente. Temen que los operadores de red utilicen por ejemplo tecnologías de inspección de paquetes para hacer que las páginas web de ciertos proveedores carguen más rápido o que faciliten conexiones más rápidas y fiables a ciertos proveedores de VoIP o de vídeo en streaming. Algunos operadores de red han expresado su intención de ofrecer servicios priorizados o con otro tipo de garantías de calidad de servicio a cambio de cuotas adicionales (premium).

Los partidarios de la neutralidad se oponen a la idea de que un operador de red cobre por la transmisión priorizada de datos o con calidad de servicio garantizada. Es decir, se oponen al abandono de las características tradicionales de transmisión first-in-first-out y best-efforts de Internet que ya hemos comentado. Les inquieta que la posibilidad de priorizar resulte en el bloqueo o la degradación del contenido y las aplicaciones no favorecidos. Temen que el contenido y las aplicaciones de los proveedores que firmen acuerdos con el operador de red o tengan mayor capacidad financiera se transmitan por un “carril rápido” mientras que que el resto sean relegados a un “carril lento”, discrimados o directamente excluidos.

Creen que los operadores de red deberían obtener ingresos únicamente por proporcionar acceso a Internet a clientes domésticos y empresariales.

Algunos de quienes se oponen a la priorización de datos sí creen permisible que los operadores cobren más a los usuarios finales por consumir mayores cantidades de ancho de banda.

Otros no se oponen estrictamente a que se cobre por la priorización o a la calidad de servicio. Pero proponen que los diferentes niveles de priorización se deben ofrecer en condiciones uniformes a todos los proveedores “similares” de contenido y aplicaciones y que se debe garantizar que todos los usuarios finales tienen un mínimo nivel de acceso al conjunto del universo de contenido de Internet.

Algunos de los defensores de la neutralidad afirman que, a medida que la velocidad de Internet sigue aumentando con el despliegue de tecnologías más rápidas, como las líneas de fibra óptica o mejores conexiones inalámbricas, el problema de la priorización puede acabar siendo irrelevante. Cuando sean habituales velocidades de más de 100 megabits por segundo, la transmisión first-in-first-out y best-efforts debería ser suficiente para transmitir todo el tráfico de Internet sin problemas, incluso el de aplicaciones avanzadas y con requisitos temporales exigentes. Creen que los problemas de congestión y de escasez de ancho de banda desaparecerán a esas velocidades y que el problema de la priorización perderá relevancia. Ven el régimen de neutralidad como un remedio temporal, como una medida importante para impedir que los operadores de red generen entretanto una escasez articial en sus redes para obtener ingresos adicionales cobrando a los proveedores de contenido y aplicaciones por nuevos tipos de transmisión de datos. Estos partidarios de la neutralidad creen que, en lugar de permitir que los operadores prioricen ciertos flujos de datos, los reguladores deberían centrarse en generar los incentivos para el despliegue de las redes de alta velocidad de siguiente generación.

3. Integración vertical

Les preocupa la idea de que los operadores de red se integren verticalmente con proveedores de contenido y aplicaciones. Argumentan que disponen ahora de la capacidad legal y tecnológica para controlar tanto sus propias redes físicas como la capacidad de que los proveedores de contenido y aplicaciones lleguen a los usuarios finales y creen que los operadores de red integrados verticalmente favorecerán su propio contenido y aplicaciones, o los de aquéllos con quienes mantengan acuerdos, sobre los del resto. Algunos proponen que se debe restringir legalmente o incluso prohibir la capacidad de los operadores de red de integrarse verticalmente.

4. Riesgos para la innovación en los extremos de Internet

Como ya hemos comentado, los defensores de la neutralidad señalan que si se permiten prácticas no neutrales en el núcleo de las redes que componen Internet, se resentirá la innovación por parte de los proveedores de contenido y aplicaciones situados en los “extremos” de Internet. A algunos les preocupa la complejidad y los costes a los que se enfrentarían los proveedores de contenido y aplicaciones si tuviesen que negociar acuerdos con numerosos operadores de red de todo el mundo.

Indican que los proveedores y contenido y aplicaciones tendrían que dedicar considerables recursos a negociar y obtener acuerdos de priorización u otro tipo de tratamientos preferenciales con múltiples operadores de red y que muchas compañías (sobre todo las pequeñas) no podrían pagar las cuotas que los operadores solicitarían para poder llegar a los usuarios finales de forma competitiva. Por ello, temen que se bloquee o se degrade activamente a los innovadores, o se los relegue a transmisiones de baja prioridad, y que se impida el desarrollo de la siguiente generación de sitios web o aplicaciones de éxito. Predicen que pondría barreras a la innovación espontánea, obligando a que tuviese lugar a través de empresas ya establecidas y con el suficiente capital y relaciones con los operadores de red.

Análogamente, los partidarios de la neutralidad a veces argumentan que las entidades educativas o sin ánimo de lucro estarían en desventaja frente a empresas con importantes capitales.

5. Competencia en el servicio de acceso de banda ancha

(Creo que este punto es bastante más relevante en EEUU que en Europa.)

Los partidarios de la neutralidad de red suelen afirmar que, en EEUU, existe en la mayoría de mercados un duopolio entre las empresas de cable y las de telefonía y que la competencia entre sólo dos proveedores no es suficiente para evitar los riesgos que prevén. En general, no creen que uno de estos competidores ofrezca a los usuarios una alternativa aceptable si el otro decide alcanzar acuerdos exclusivos o de priorización de datos. También dudan del potencial de tecnologías más novedosas, como la Internet inalámbrica o la banda ancha mediante cable eléctrico (PLC, Power Line Communications), para ofrecer una alternativa robusta y competitiva en un futuro cercano al acceso que ofrecen las compañías de cable y de teléfono.

También les preocupa que los ISPs que proporcionan acceso a usuarios finales no informen a sus usuarios del tratamiento diferenciado de ciertos datos y que puedan permitirse esa falta de transparencia por la inexistencia de alternativas viables y competitivas en el mercado o por la dificultad de demostrar la relación entre los problemas y las prácticas del ISP. También señalan que, aunque los ISPs informasen de sus prácticas, muchos usuarios no serían capaces de entenderlas, haciéndolas en la práctica poco efectivas para contrarrestrar las potenciales malas prácticas de los ISPs.

Algunos de los defensores de la neutralidad también afirman que la inspección de paquetes y otras técnicas de análisis de tráfico por parte de los operadores de red podrían dar lugar a problemas de privacidad de los que los usuarios no serían conscientes.

6. Incertidumbre legal y regulatoria

(Este punto es muy específico de la situación estadounidense, no sé hasta qué punto se puede trasladar a Europa.)

Afirman que los principios para la banda ancha propuestos por la FCC en 2005**** (y ampliados en 2009*****)  y su jurisdicción auxilar dispuesta en el Título Primero de la Ley de Comunicaciones de 1934, junto con las leyes antimonopolio, son insuficientes para evitar o vigilar conductas potencialmente perjudiciales de los proveedores de banda ancha. En concreto, consideran que los principios de banda ancha de la FCC no son legalmente aplicables, que aún está por determinar el alcance de su autoridad bajo el Titulo Primero, y que cualquier acción paliativa probablemente resulte en años de ligitios y recursos, dejando el estatus de Internet sin definir.

Afirman que no existen más ejemplos de perjucios, además de Madison River, sobre todo porque los operadores de red se han estado comportando bien para evitar atraer la atención. Creen sin embargo que sin más regulación los operadores probablemente adopten esas prácticas en el futuro y que no habrá forma de evitarlo o de remediar los perjuicios que resulten sin un régimen integral y ex-ante.

7. Libertad de expresión y participación

Sin una norma de neutralidad, afirman sus partidarios, los operadores de red probablemente llevarían a cabo prácticas que reducirían la variedad y la calidad del contenido a disposición de los usuarios. En concreto, los operadores de red podrían degradar o bloquear el contenido que les parezca cuestionable por motivos políticos o de otro tipo, o contrario a los intereses de su negocio.


Una vez vistos los argumentos de quienes defienden la neutralidad de red, en el siguiente post repasaré los de sus detractores.


————-

* “The Broadband Debate. A User’s Guide“, Tim Wu, 2004.

** Vicepresidente de la Comisión del Mercado de las Telecomunicaciones, organismo regulador en España, en el artículo “Regulación de Redes de Nueva Generación: ¿Neutralidad o Convergencia?“, incluido en el volumen sobre neutralidad de red publicado por Deloitte en marzo de este año.

*** Esta lista, y la mayor parte de lo que sigue, proviene del documento “Broadband Connectivity Competition Policy”, elaborado en 2007 por la Federal Trade Commission, el organismo encargado de velar por la competencia y defender a los consumidores en los mercados estadounidenses.

**** Los cuatro principios establecidos por la FCC en agosto de 2005 (pdf), como los describe Coderch en el artículo citado arriba: “Sin perjuicio de su derecho a una gestión razonable de su red, y siempre que sus usuarios respeten la legalidad vigente, un proveedor de acceso a Internet de banda ancha no puede: (1) Prohibir a sus clientes enviar o recibir contenidos de su elección; (2) Prohibir a sus clientes utilizar cualquier aplicación o servicio de su elección; (3) Prohibir a sus clientes la conexión a la red y la utilización de dispositivos de su elección; (4) Evitar que sus clientes tengan acceso competitivo a otros proveedores de red, y a cualquier proveedor de aplicaciones, servicios o contenidos.”

Además, en octubre de 2009 se incorporaron dos más (se amplió el ámbito previsto de aplicación a la Internet inalámbrica): “(5) Tratar todos los contenidos, aplicaciones y servicios de una forma no discriminatoria; (6) Hacer pública información relevante en relación a la gestión de su red y a otras prácticas que pueda aplicar, tan detallada como sea razonablemente necesario para que los usuarios y los proveedores de aplicaciones, servicios y contenidos puedan ejercer los derechos que les otorgan estos principios.

Para un recuento detallado de la evolución regulatoria en EEUU, consultar “Net Neutrality in the United States: Past, present and future” de Fernando Huerta y Antonio García Zaballos, el volumen de Deloitte de 2010 y, particularmente, “Transporting Communications“, artículo de 2009 de Susan Crawford.

***** “Notice of Proposed Rulemaking”, FCC, octubre de 2009 (pdf)


También en esta misma serie:

Neutralidad de red I. Introducción

Neutralidad de red II. Qué es Internet

Neutralidad de red III. Arquitectura de Internet

Neutralidad de red IV. La privatización del backbone de Internet

Neutralidad de red V. El debate

Neutralidad de red V. El debate.

2 Sep

Como vimos, el diseño original de Internet se caracteriza por el “first-in-first-out” (el primero en llegar es el primer en ser servido), con la única diferenciación de servicio que ofrecen los dos principales protocolos de transporte: TCP (fiable pero menos eficiente, apropiado para transmisión de ficheros estáticos, como texto o fotos) y UDP (no fiable pero más eficiente, y por ello mejor adaptado para flujos como los de voz o vídeo sobre IP).
Como explica Marcel Coderch*, vicepresidente de la Comisión del Mercado de las Telecomunicaciones (CMT), el organismo regulador en España:

Este diseño resulta muy eficiente para gestionar grandes volúmenes de tráfico según el criterio best-effort, pero no garantiza ni la seguridad ni la calidad de servicio que requieren algunas de las aplicaciones que se cree son las que justifican las inversiones en redes de nueva generación, como, por ejemplo, la transmisión de voz y vídeo en tiempo real. Aun cuando los ingenieros y diseñadores han encontrado fórmulas inteligentes e innovadoras para mejorar la calidad de los contenidos audiovisuales distribuidos en redes sin priorización de tráfico, la calidad final viene siempre condicionada por la intensidad del tráfico global y por las inevitables congestiones de la red. En su implementación actual, los protocolos de Internet no proporcionan las funcionalidades necesarias para garantizar distintos niveles de calidad de servicio en la red de redes, por mucho que en sus especificaciones iniciales sí estaban contempladas. En su momento no fueron implementadas debido a su complejidad, y en cualquier caso hubieran sido de difícil gestión en redes muy interconectadas como las que hoy constituyen Internet.

En los últimos años, sin embargo, la conjunción de varios factores ha hecho crecer la presión sobre la arquitectura tradicional de Internet:

  • La convergencia de las distintas redes de distribución de contenidos (telefonía fija, telefonía móvl: voz; televisión por cable: vídeo; Internet: datos), cada una con su regulación particular, en una plataforma común (NGN, Next Generation Networking), basada en el protocolo IP.
  • La transición del acceso a Internet de banda estrecha (“dial-up”, mediante módem sobre la infraestructura de acceso de la red telefónica tradicional) al acceso de banda ancha (xDSL, fibra, cable-módem).
  • Los cambios en los hábitos de consumo de los usuarios de Internet, con un importante crecimiento del vídeo en streaming, que suele requerir un ancho de banda considerable y una determinada calidad de servicio. Esa mayor demanda ha hecho crecer la preocupación, en particular entre las telcos, sobre la posible congestión de la Red y la necesidad de invertir en mejorar y aumentar la capacidad.
  • Avances en las tecnologías de “traffic shaping que hacen factible la discriminación de paquetes basada no sólo en origen y destino (direcciones IP), sino en el tipo de datos e incluso en el contenido (inspección produnda de paquetes), lo que podría permitir a los operadores ofrecer la priorización de tráfico a proveedores de contenidos afiliados o que pagasen por ello.
Modelo de referencia de las redes de nueva generación (NGN)

Modelo de referencia de las redes de nueva generación (NGN) (Wikipedia)

Todo ello en un ambiente propenso a la desregulación de los servicios de comunicaciones (en particular en EEUU, donde una serie de decisiones del organismo regulador, la Federal Communications Commission (FCC), a partir del año 2005** ha ido dejando el acceso a Internet de banda ancha fuera de la regulación de “common carrier” que imperaba anteriormente), ha contribuido a situar en el centro del debate la neutralidad de red, que Coderch resume así:

Para unos, la posibilidad de ofrecer un servicio de acceso a Internet con niveles de calidad diferenciados en función del tipo de tráfico, o de su origen y/o destino, representa una oportunidad más de innovar y rentabilizar las nuevas inversiones. Para otros, un cambio de esta naturaleza en la arquitectura actual significaría violar los principios fundacionales de Internet que tanto éxito han cosechado, y amenazaría con desestabilizar muchos de los modelos de negocio que han contribuido a éste éxito o, lo que es peor, podría crear incentivos anticompetitivos para las operadoras al posibilitarles la discriminación de los flujos de tráfico que compiten con sus propios servicios

La polémica enfrenta, utilizando la terminología de Tim Wu (profesor de Derecho en Columbia a quien se atribuye haber acuñado el término “neutralidad de red”), a “aperturistas”, partidarios de regular la neutralidad de red para preservar el carácter abierto de Internet, y “desreguladores”, que se oponen a la imposición de obligaciones de neutralidad a los operadores de red.

En las siguientes entradas de la serie veremos con algo más de detalle los argumentos de unos y otros.


————–

* En el artículo “Regulación de Redes de Nueva Generación: ¿Neutralidad o Convergencia?“, incluido en el volumen sobre neutralidad de red publicado por Deloitte en marzo de este año.

** Para un recuento detallado de la evolución regulatoria en EEUU, consultar “Net Neutrality in the United States: Past, present and future” de Fernando Huerta y Antonio García Zaballos, el volumen de Deloitte de 2010 y, particularmente, “Transporting Communications“, artículo de 2009 de Susan Crawford.


También en esta misma serie:

Neutralidad de red I. Introducción

Neutralidad de red II. Qué es Internet

Neutralidad de red III. Arquitectura de Internet

Neutralidad de red IV. La privatización del backbone de Internet

Neutralidad de red VI. Argumentos a favor

Neutralidad de red VII. Argumentos en contra

Otras referencias:

Antecendentes sobre neutralidad de la red (Wikitel)

Neutralidad de red IV. La privatización del backbone de Internet.

31 Ago

[Gran parte de lo que cuento en este post lo he sacado del artículo “The Privatization of the Internet’s Backbone Network” (pdf), publicado por Rajiv C. Shah y Jay P. Kesan en 2003]

El debate alrededor de la neutralidad está muy relacionado con la evolución del modelo económico que sustenta Internet: quién paga a quién y a cambio de qué. Por eso, creo que es importante entender a quién pertenece la infraestructura física de la Red, así que a continuación vamos a ver rápidamente cómo se llevó a cabo su privatización.

Como vimos, ARPANET, la red precursora de la actual Internet, comenzó como un proyecto con financiación pública del Departamento de Defensa estadounidense, en el que participaron varias de las principales universidades del país.

Comprobado el éxito de la red de ARPA, a principios de los años 80 la National Science Foundation (NSF), agencia del gobierno estadounidense para la promoción de la investigación científica, financió la creación de una red basada en TCP/IP, NSFNET.

En una primera fase, esta red conectó varios centros universitarios de supercomputación, permitiendo el  uso compartido de recursos tan escasos y caros. La segunda etapa consistió en la construcción de un backbone de alta velocidad para interconectar distintas redes regionales, universitarias, y de otras agencias gubernamentales (como la red del Departamento de Energía o la de la NASA).

La interconexión de estas redes a través del backbone de NSFNET es lo que empezó a conocerse como Internet.

Privatización del backbone

Backbone de NSFNET (1992)

Backbone de NSFNET (1992) (Fuente: http://www.computerhistory.org/internet_history/)

A principios de los años 90, en pleno auge de la ideología privatizadora y desreguladora de los servicios públicos, comenzó a verse como inevitable el paso a manos privadas de la infraestructura del backbone de Internet.

Para propiciar la transición, la NSF hizo uso de su Política de Uso Aceptable (AUP, Acceptable Use Policy) de la red, que prohibía el uso de sus recursos para fines distintos de la investigación y la educación. Como un número cada vez mayor de usuarios de NSFNET pretendía darle otros usos, esa prohibición fomentó que empresas privadas construyesen vías alternativas, en las que no rigiesen esas limitaciones, mediante las que ofrecieron conectividad a Internet a quienes temían violar la restrictiva política de NSF.

Inicialmente, el backbone de NSFNET y los de las compañías privadas se interconectaban en cuatro Puntos de Acceso a la Red (NAPs, Network Access Points), situados en Nueva York, Washington, Chicago y California, y operados por distintas compañías privadas por concesión de NSF. Una vez conseguida la interconexión de las redes privadas en los NAPs, el backbone de NSFNET dejó de funcionar en 1995 y, al año siguiente, la gestión de los NAPs pasó enteramente a manos privadas, culminándose así la privatización del backbone de Internet.

Infraestructura actual de Internet

Actualmente, la infraestructura física de Internet está formada por la interconexión de redes (agrupadas en sistemas autónomos) gestionadas por distintos operadores (empresas privadas de distinto tipo, Administraciones públicas, universidades…), los denominados proveedores de servicios de Internet (ISPs, Internet Services Providers).*

Esta interconexión se produce mediante enlaces privados entre dos redes (private exchanges) o en los denominados puntos neutros de Internet (IXPs, Internet Exchange Points), infraestructuras físicas gestionadas por entidades privadas que proporcionan los servicios necesarios para que múltiples ISPs interconecten sus redes entre sí.

La transmisión de datos entre las redes puede efectuarse a su vez mediante acuerdos de peering, en los que dos ISPs de similar tamaño acuerdan intercambiar información con origen o destino en sus propios clientes (pero no en clientes de terceros) sin contraprestación económica, o bien mediante contratos de tránsito, en los que un ISP permite a otro el acceso al resto de Internet a cambio de una tarifa.

Por tanto, cualquier usuario actual de Internet, tanto doméstico como corporativo (incluidos los grandes proveedores de contenido, como Google) accede a ella a través de un ISP, que le cobrará por ese servicio.

—————————————————————————————————————————

* A veces se utiliza el término ISP para referirse únicamente a los proveedores de “última milla, que ofrecen su servicio de acceso a Internet a usuarios finales. Aquí yo lo empleo en sentido más amplio, que incluye a todos los operadores de la infraestructura de red, entre los que se pueden distinguir varios niveles (tiers): el nivel 1 incluye a los operadores que sólo firman acuerdos de peering; el nivel 2, a aquéllos que se relacionan mediante peering y tránsito; y el nivel 3, a los ISPs que sólo obtienen acceso al bacbone mediante tránsito. Según Wikipedia, los ISPs de nivel 1 son: AOL, AT&T, Global Crossing, Level3, British Telecom, Verizon Business, NTT Communications, Qwest, Cogent, SprintLink, Telefónica International Wholesale Services (TIWS) y Tinet.


También en esta misma serie:

Neutralidad de red I. Introducción

Neutralidad de red II. Qué es Internet

Neutralidad de red III. Arquitectura de Internet

Neutralidad de red V. El debate

Neutralidad de red VI. Argumentos a favor

Neutralidad de red VII. Argumentos en contra

Neutralidad de la red III. Arquitectura de Internet.

31 Ago

Ya hemos visto que existen varias formas de entender qué es Internet, y que ese hecho tiene repercusiones en lo que los distintos actores interesados en su evolución esperan de ella, algo que guarda estrecha relación con sus posiciones respecto a la neutralidad de red, tema central de esta serie de posts.

Antes de poder profundizar en el debate actual, creo que es imprecindible tener una idea de de dónde venimos. Así que vamos a dar un rápido repaso a la estructura de Internet.

Orígenes de la arquitectura de Internet

A principios de los años 60, en círculos académicos, tanto en Estados Unidos como en otros países, se estudiaba la viabilidad práctica de la comunicación entre ordenadores mediante redes de conmutación de paquetes, que prometían hacer un uso más eficiente de los recursos que las redes de conmutación de circuitos, como la red telefónica tradicional.

En las redes de conmutación de circuitos, la ruta que seguirá la información se establece antes de que comience la transmisión. Los recursos que componen dicha ruta se dedican en exclusiva a esa transmisión durante todo el tiempo que dure la comunicación, lo que permite garantizar una calidad mínima en todo momento, pero a costa de un derroche de recursos, en particular cuando, aunque la ruta sigue en pie, no se está transmitiendo información.

Si se emplea conmutación de paquetes, la información que se va a transmitir se divide en trozos que, junto con cierta información adicional (en particular, la dirección a la que se dirige y de la que proviene el paquete), forma los paquetes. Los paquetes se envían independientemente unos de otros, y pueden de hecho seguir caminos distintos hasta su destino: no existe una ruta predeterminada. Los nodos intermedios de la red se basan en la dirección de destino que contiene el propio paquete para acercarlo hacia ella. Una vez que alcanzan su destino, los paquetes se reensamblan para reconstruir la información original. La conmutación de paquetes supone en general un uso más eficiente de los recursos de la red, pero a costa de contemplar la posibilidad de que, en momentos de congestión, no toda la información alcance su destino.

Por esa época, ARPA, la Agencia de Proyectos de Investigación Avanzada (Advanced Research Projects Agency) del Departamento de Defensa estadounidense, buscaba, como explica David Clark, “una técnica efectiva para la interconexión de redes con multiplexación“, y se fijó en los estudios sobre conmutación de paquetes de gente como Leonard Kleinrock o Paul Baran.

Con la financiación de ARPA, se creó a finales de los 60 la red ARPANET, precursora de la actual Internet,  que comenzó conectando centros de investigación de varias universidades norteamericanas (MIT, en Boston; UCLA, UC Berkeley, UC Santa Bárbara, Stanford, en California; la Universidad de Utah).

El objetivo principal de ARPANET era la interconexión de distintas redes (en inglés, internetworking o internetting, origen del término “internet”), posiblemente gestionadas por entidades diferentes.

Además, por orden de relevancia, tenía también los siguientes objetivos secundarios:

1. La comunicación debía mantenerse aunque se perdiesen redes o pasarelas (gateways) entre ellas.

2. Debía soportar distintos tipos de servicios de comunicaciones.

3. Debía acomodar redes de distintos tipos.

4. Debía permitir la gestión distribuida de sus recursos.

5. Debía tener en cuenta el coste de los recursos que componen la red y hacer un uso eficiente de ellos.

6. Debía permitir la conexión de nuevos ordenadores sin mucho esfuerzo.

7. Debía proporcionar alguna forma de contabilidad de los recursos consumidos.

La satisfacción de estos objetivos, en este orden preciso, fue lo que dio lugar a la arquitectura original de Internet, cuyos principios se plasmaron en el protocolo TCP/IP, definido por Robert Kahn y Vinton Cerf en 1973.

TCP/IP

Para permitir la interconexión de redes distintas sobre medios de transmisión posiblemente diferentes, los ingenieros que diseñaron ARPANET dividieron el proceso de comunicación entre entidades en distintas capas, cada una implementada siguiendo uno o varios protocolos. Esta división puede entenderse así:

  • Las capas inferiores son las que se encargan de la transmisión de los paquetes a través del medio físico correspondiente (cable de cobre, fibra óptica, aire…).
  • Por su parte, en las capas superiores se encuentran las aplicaciones que permiten a quiener utilizan la red realizar tareas útiles (correo electrónico, voz, videoconferencia, web…).
Pila de protocolos de Internet

Protocolos de Internet (Fuente: http://dret.net/lectures/web-fall08/)

IP se encarga únicamente de dirigir los paquetes del origen al destino, a medida que van llegando a cada nodo intermedio (First In, First Out), a través de una o varias redes distintas, pero no impide que, por congestión de la red o cualquier otro motivo, la información pueda perderse en el camino. Es lo que se denomina un protocolo best-effort: simplemente, lo hace lo mejor que puede.

Por su parte, TCP funciona sobre IP para proporcionar transmisión garantizada de datos: si algún paquete se pierde en el camino, avisa para que el emisor lo reenvíe y así acabe llegando al receptor.

La comunicación fiable de información que permite TCP es muy útil para aplicaciones que impliquen la transmisión de ficheros (como, por ejemplo, la propia Web). Sin embargo, en contraprestación por esas garantías, impone un cierto sobrecoste en la transmisión, por la información de control que se incluye en cada paquete, algo que puede no resultar apropiado para ciertas aplicaciones.

Por ejemplo, en aplicaciones de tiempo real como la transmisión de voz o de vídeo, no es aceptable el retardo que impone el procesamiento adicional de TCP. Y sin embargo, sí se puede tolerar la pérdida de algún que otro paquete (que resulta en un instante de silencio o en una imagen congelada durante un momento). Por ello, junto a este protocolo fiable, se desarrolló otro que, como el propio IP, no ofrece ninguna garantía de recepción, pero a cambio es mucho más ligero y rápido: UDP (User Datagram Protocol; Protocol de Datagramas de Usuario).

El principio end-to-end

Esta división en capas de la funcionalidad de la red proporcionó a su diseño una gran flexibilidad: para transmitir la información sobre un nuevo medio, bastaba con implementar la parte de la transmisión correpondiente a las capas inferiores, dependientes del propio medio. Análogamente, para proporcionar un nuevo servicio o aplicación a los usuarios de la red, sólo era necesario diseñar la comunicación entre los extremos de la red, emisor y receptor, haciendo uso de las características de TCP o UDP, según fuese apropiado.

Esta última característica es lo que se conoce como principio end-to-end o extremo a extremo, muy importante en el debate sobre la neutralidad de red, que afirma que la funcionalidad de la red debe implementarse en las capas inferiores e intermedias, y por tanto en cada router, sólo en el caso de que no se pueda implementar de forma efectiva en las capas superiores, y por tanto únicamente en los extremos (emisor y receptor).

Protocolos en los extremos y en nodos intermedios de la red

Principio "end-to-end" ideal: las aplicaciones "inteligentes" residen en los extremos; los routers intermedios sólo dirigen los paquetes hacia su destino. (Fuente: http://www.cs.rpi.edu/academics/courses/netprog/ProtocolStack.gif)

Los defensores de la neutralidad de de la red creen que el principio end-to-end es el responsable del impresionante ritmo de innovación en las últimas décadas en la capa de aplicación, y afirman que la mejor manera de mantenerlo es hacer que la red siga siendo “estúpida” (dumb pipes) y que la inteligencia resida en sus extremos (smart applications), en las aplicaciones desarrolladas sobre las capas superiores de la red. Como ejemplos de esta posibilidad de innovar en los extremos sin necesidad de contar con la aprobación de las operadoras de la red ponen la World Wide Web, inventada a principios de los años 90 por Tim Berners-Lee, científico del CERN; el buscador de Google, creado por dos estudiantes de Stanford, y que revolucionó la capacidad de encontrar información en la propia Web; o Skype, la aplicación de telefonía sobre IP que tantos quebraderos de cabeza está provocando a las telcos.

Por su parte, quienes se oponen a la neutralidad piensan que la evolución de la red conduce a abandonar el principio end-to-end. Creen que los operadores de la red son quienes están en mejor disposición de decidir el camino para esta evolución y que no se debe restringir su capacidad de buscar maneras innovadoras de gestionar su “red inteligente” (discriminación de tráfico, priorización de ciertos flujos de datos para conseguir así la diferenciación de productos), lo que incrementaría sus ingresos y les permitiría financiar las inversiones necesarias para mejorar las infraestructuras.


También en esta misma serie:

Neutralidad de red I. Introducción

Neutralidad de red II. Qué es Internet

Neutralidad de red IV. La privatización del backbone de Internet

Neutralidad de red V. El debate

Neutralidad de red VI. Argumentos a favor

Neutralidad de red VII. Argumentos en contra

Neutralidad de red II. Qué es Internet.

30 Ago

Como dije, al empezar a leer cosas sobre la neutralidad de red me di cuenta de que no existe una definición común de lo que significa neutralidad.

De hecho, creo que esta falta de consenso es aún más profunda, porque los distintos intervinientes en el debate ni siquiera se ponen de acuerdo sobre algo tan fundamental como qué es Internet.

Tratando de darle forma a esta percepción, encontré un artículo de Susan Crawford (profesora de Derecho en la Universidad de Michigan y ayudante del equipo de transición de Obama para las políticas de ciencia, tecnología e innovación cuando éste llegó a la Casa Blanca) titulado “Internet Think“, que me resultó muy útil.

En él, Crawford distingue tres visiones claramente diferenciadas de Internet: la de los ingenieros que contribuyeron a crearla; la de las compañías de telecomunicaciones (“telcos”), que poseen la infraestructura física de comunicaciones en la que se sustenta; y la de los visionarios de Internet (los “netheads“), cuya visión idealista de las posibilidades de la Red para el progreso de la humanidad está detrás de muchos de los avances que ésta ha propiciado.

Qué es Internet

En primer lugar, Crawford se pregunta qué entienden por “Internet” los ingenieros como Robert Kahn, coinventor del protocolo TCP/IP en que se basa Internet, que afirma:

Una de las cosas sobre Internet que mucha gente no entiende […] es que en realidad está compuesta de routers, cables, ordenadores, y cosas así, pero eso no es lo que define Internet. Eso son sólo las cosas con la que está construida. Internet en realidad era un arquitectura lógica que te permitía conectar prácticamente cualquier tipo de máquina de red. Por eso, cuando la gente me pregunta qué es Internet, digo que es una construcción lógica, independiente de los elementos concretos que la componen. Si esta red desapareciese y fuese sustituida en el futuro por una nueva tecnología, seguiría siendo Internet.

Así, desde el punto de vista de Kahn, TCP/IP es Internet, una arquitectura lógica pensada como una infraestructura de propósito general sobre la cual se pueden desarrollar y desplegar diversas aplicaciones.

Según Crawford, la definición de Internet más acorde a las ideas de los ingenieros es la que adoptó el Federal Networking Council en 1995:

“Internet” se refiere al sistema de información global que: (i) está conectado a nivel lógico mediante un espacio de direcciones global único basado en el protocolo IP o sus subsecuentes extensiones o continuaciones, (ii) es capaz de permitir comunicaciones utilizando el conjunto de protocolos TCP/IP o sus subsecuentes extensiones o continuaciones, y/o otros protocolos compatibles con IP, y (iii) proporciona, utiliza, o pone a disposición, ya sea pública o privadamente, servicios de alto nivel apoyados sobre las comunicaciones e infraestructura relacionada aquí descrita.

Por su parte, como ejemplo de la visión de las telcos Crawford propone la de James Crowe, director ejecutivo de Level 3, empresa que proporciona servicios de conectividad al backbone o núcleo de Internet:

Primero está la conexión local, normalmente una conexión bastante grande, del proveedor de contenido al backbone. En general, es una conexión de fibra óptica bastante grande. Después, está el propio backbone, que también es una conexión óptica muy grande. Después está la parte que conecta al usuario final al backbone, el acceso local a Internet. Las primeras dos secciones de Internet, la que va del proveedor de contenido al backbone, y el propio backbone, son muy competitivas. Tenemos gran variedad de proveedores. En la parte que todos compramos, la que conecta nuestras casas a Internet, es donde está el problema. Creo que los proveedores de contenido y la comunidad de Internet están en general en lo cierto cuando dicen que los proveedores de telecomunicaciones y las empresas de cable tienen un duopolio [para esta sección de Internet].

Crowe imagina Internet compuesta por tres categorías de caños que conectan a los “consumidores” con el “contenido” y viceversa. La definición de Internet, para él, no depende de la arquitectura lógica que se utilice para el sobre los tubos de transporte, aunque sin duda está al tanto del protocolo IP, sino que los propios tubos forman Internet.

En general, dice Crawford, para las telcos:

Internet es lo que surgió cuando las compañías telefónicas de todo el mundo hicieron posible que los ordenadores se conectasen (mediante módems) a las redes telefónicas preexistentes. Por tanto, la combinación de esas redes subyacentes forma para ellos la totalidad de Internet.

Por último, para exponer la forma de entender Internet de los netheads (literalmente, “cabezas de red”), Crawford escoge esta afirmación de David Weinberger, coautor de uno de los textos de referencia de la cultura de la Red, el Manifiesto Cluetrain, investigador en el Berkman Center e influyente bloguero:

Internet es un medio únicamente a nivel de bits. A escala humana, es una conversación que, debido a la persistencia y a la interconexión de las páginas, posee las características de un mundo. Sólo podría ser un medio si a los humanos nos resultase completamente indiferente.

Para los visionarios de Internet, aunque los estándares (TCP/IP, HTML, HTTP…) permiten que Internet (y la Web) funcione, no definen por completo lo que es. Lo más importante para ellos son las relaciones (entre textos, entre máquinas, entre personas, entre grupos) que estos estándares hacen posibles.

Hacia dónde va

Estas tres nociones distintas de lo que es Internet conllevan necesariamente visiones divergentes sobre su evolución futura.

Los ingenieros aceptan la posibilidad de que la arquitectura lógica que es Internet haya dejado de ser la más adecuada para prestar servicio a sus usuarios, y que sea por tanto conveniente reinventarla.

Por ejemplo, explica Crawford, tanto Kahn como David Clark, otro de los pioneros de Internet, han hecho llamamientos, cada uno por su parte, para una reingeniería de Internet con el fin de hacer frente a problemas actuales de Internet, como la seguridad, el spam, o el respeto a las normas de propiedad intelectual.

Por su parte, las telcos ven cómo aumenta vertiginosamente la utilización de sus “tubos”, a la vez que se les empieza a tratar como meros proveedores de transporte de datos, un servicio cada vez más “comoditizado”. Les resulta frustrante verse incapaces de internalizar los beneficios de la creciente conectividad que proporcionan al mundo entero.

El aumento de capacidad de la banda ancha que la sociedad demanda, explican las telcos, requiere enormes inversiones. Pretenden que los reguladores les permitan buscar maneras de monetizar “sus” redes más allá del mero cobro por la conectividad, como por ejemplo mediante la diferenciación de precios por distintas calidades de servicio o por la priorización de tráfico.

Querrían comercializar sus propios servicios de valor añadido, como el vídeo bajo demanda, como otra forma de recuperar sus enormes inversiones en infraestructura. Además, afirman que estos servicios son sensibles a problemas de latencia y jitter para los que Internet no permite asegurar la calidad del servicio, por lo que exigen tener la capacidad de gestionar adecuadamente el tráfico que circula por sus caños.

Para los netheads, el mundo está crecientemente online, y eso hace que sea un lugar mejor. Aspiran a alcanzar la conectividad global y el flujo de información sin restricciones. Para ellos, el acceso de banda ancha hace posible innumerables aplicaciones, muchas aún por inventar, que mejorarán la vida de los usuarios, facilitando la colaboración y la participación, y les preocupa que el intento de monetización por parte de las telcos retrase o incluso detenga esta evolución positiva.

En respuesta a las telcos, afirman que todos los problemas que latencia y jitter se resolverían si aumentase el ancho de banda de las redes.

Síntesis

Cada uno de estos tres puntos de vista por sí solo, señala Crawford, es demasiado limitado como para resultar útil a los responsables de tomar las decisiones regulatorias.

Ni la perspectiva del ingeniero ni la del nethead sirven de mucho cuando a los legisladores lo que les preocupa son las implicaciones económicas de instalar y mejorar las redes físicas.

La perspectiva de las telcos, por su parte, parece algo corta de miras, porque da por sentado que la gente prefiere recibir comunicaciones pasivamente en lugar de participar en crear las suyas propias. Ni las telcos ni los ingenieros tienen en cuenta el contexto social o cultural de Internet.

En cambio, los netheads se interesan casi exclusivamente por ese contexto cultural, y no tienen respuestas claras para la cuestión de cómo sufragar los costes de la transición a las redes de nueva generación, que tanto preocupa a las telcos.


También en esta misma serie:

Neutralidad de red I. Introducción

Neutralidad de red III. Arquitectura de Internet

Neutralidad de red IV. La privatización del backbone de Internet

Neutralidad de red V. El debate

Neutralidad de red VI. Argumentos a favor

Neutralidad de red VII. Argumentos en contra

Neutralidad de red I. Introducción.

30 Ago

El pasado 9 de agosto, una noticia sacudió al mundo de Internet: Google, el buscador dominante en todo el mundo, y uno de los mayores proveedores de servicios y aplicaciones, y Verizon, una de las principales empresas estadounidenses de telecomunicaciones, anunciaban en sus respectivos blogs corporativos (Google; Verizon) una “propuesta conjunta para una Internet abierta” dirigida al organismo que regula Internet en Estados Unidos, la Federal Communications Commission (FCC), en la que exponían su idea sobre hacia dónde debería ir la regulación de uno de los asuntos candentes desde hace unos años, la neutralidad de la red.

Neutralidad de redYo no estaba muy al tanto de la polémica y me sorprendió lo airado de muchas de las reacciones (por ejemplo: una; otra), que en general acusaban a Google de traicionar la neutralidad de red, aliándose con uno de sus grandes enemigos.

Busqué la definición de neutralidad de red en Wikipedia y me encontré con esto:

La neutralidad de red es un principio propuesto para las redes de banda ancha de uso residencial (de las que Internet es el paradigma), y potencialmente aplicable a todas las redes de comunicación, que describe cuál debería ser el tratamiento del tráfico que circula a través de ellas.

Una red neutral es aquella que está libre de restricciones en las clases de equipamiento que pueden ser usadas y los modos de comunicación permitidos, que no restringe el contenido, sitios y plataformas, y donde la comunicación no está irrazonablemente degradada por otras comunicaciones.

Desde luego, si esto es la neutralidad de red, no parece muy razonable estar en contra. Y si Google la ha “traicionado”, la indignación de sus defensores está justificada.

Sin embargo, el debate persiste desde hace un tiempo y, lejos de amainar, parece que últimamente va a más. Algo más habrá, me dije, así que me puse a leer por aquí y por allá, tratando de entender de qué iba la cosa. Pero cuanto más leía más perdido me encontraba. Incluso llegué a tener la la sensación de que quienes opinaban ni siquieran se ponían de acuerdo sobre lo que entendían por “neutralidad”.

Así que empecé a tirar del hilo y, aprovechando que tengo que preparar un trabajillo sobre el primer módulo del máster, en el que hemos visto, entre otras muchas cosas, cómo funciona Internet, pensé que podía ser una buena idea dedicar mi trabajo a la neutralidad de red.

En los próximos días iré publicando una serie de posts con lo que he ido entendiendo. Y también con lo que aún no comprendo, porque la verdad es que sigo teniendo muchas más dudas que certezas al respecto.

Si algo tengo claro es que la neutralidad de red es un asunto con múltiples facetas: técnicas, económicas, políticas, sociales en general.

Así que, para ir aclarándome, creo que lo mejor será empezar por el principio: ¿Qué es Internet?


También en esta misma serie:

Neutralidad de red II. Qué es Internet

Neutralidad de red III. Arquitectura de Internet

Neutralidad de red IV. La privatización del backbone de Internet

Neutralidad de red V. El debate

Neutralidad de red VI. Argumentos a favor

Neutralidad de red VII. Argumentos en contra

A %d blogueros les gusta esto: