Tag Archives: Internet

Egipto, Al Jazeera y Creative Commons

1 Feb

La cadena de televisión “panárabe” Al Jazeera se ha convertido en uno de los referentes para el seguimiento, tanto desde los propios países de la zona como desde el resto del mundo (emite en árabe y en inglés), de los acontecimientos que están amenazando con hacer caer algunas de las dictaduras a que están sometidos varios países árabes, desde Túnez a Yemen, pasando por Egipto, centro actualmente de todas las miradas. Tan es así que Mubarak, en un intento de frenar la oleada de revueltas que se le ha venido encima, ha llegado a cerrar la sede de la cadena en El Cairo, revocando la licencia para emitir en Egipto.

Ayer leí esta noticia en Techdirt, “Al Jazeera ofrece su cobertura de Egipto a quien quiera usarla bajo licencia Creative Commons” (en inglés):

[…] Al Jazeera ha optado por una forma fascinante de hacer frente a todo eso: ha publicado gran parte de sus reportajes bajo licencia Creative Commons. De hecho, la cadena ha creado un sitio específico para el contenido CC, donde archiva y recopila todo su material que cualquiera puede utilizar libremente, con sólo reconocer su autoría. Por suerte, ni siquiera utiliza una licencia “no comercial”. La licencia sólo exige que quien quiera utilizar el contenido reconozca la autoría del mismo.

[…] Si atendemos a los argumentos tradicionales sobre la escasez, hay quien diría que Al Jazeera debería controlar férreamente todo este gran contenido. Está muy demandado ahora mismo, y teniendo en cuenta su amplia cobertura y la experiencia de sus reporteros allí destacados, algunos dirían que es el momento perfecto para que Al Jazeera se muestre lo más restrictiva posible con su contenido. Pero la cadena parece estar pensando a mucho más largo plazo, siendo consciente de que cada vez más gente en todo el mundo confía en su cobertura (con un gran interés proveniente de Estados Unidos). Esto constituye realmente una oportunidad para la compañía de hacer crecer mucho su marca, y quizá incluso de superar algunos de los estereotipos y ataques que recibe desde Estados Unidos y varios otros países occidentales. Y la manera de conseguirlo es hacer que más gente vea su contenido y se dé cuenta de que merece la pena. Para lo cual, utilizar Creative Commons (o algo parecido) tiene todo el sentido del mundo.

Hace unos meses, en los inicios de nuestro máster, estudiamos los distintos tipos de licencias inspiradas en las más utilizadas para el software libre. Entre éstas, tienen un lugar destacado las distintas variedades de Creative Commons, sobre las que ya hablé aquí entonces, explicando por qué yo también opto por publicar lo que escribo y las pocas fotos que cuelgo en Flickr bajo una licencia CC-BY, sin cláusula “no comercial”.

La decisión de Al Jazeera de utilizar CC, y más en una de sus versiones menos restrictivas (pues no limita los posibles usos de su material a los no comerciales, lo que permite que otras cadenas puedan utilizarlo, siempre que citen adecuadamente la fuente), puede tener una gran repercusión no sólo para la propia cadena sino para la adopción por otras compañías de prácticas más adaptadas al nuevo ecosistema de medios en que nos movemos.

Lecciones de Wikileaks: la diferencia entre la prensa y los medios

22 Dic

Jay Rosen, en el episodio número 77 de su podcast con Dave Winer sobre el futuro del periodismo (que es ya presente, como ha quedado meridianamente claro estas últimas semanas), Rebooting The News, hablando sobre lo que él ha aprendido del caso Wikileaks:

I’ve found in my blog on a distinction between the press and the media. The press, to me, is a key social institution in a democracy that helps us understand what’s going on, because without it we can’t have consent of the governed, we can’t have a check on power. The media is the modern, industrial communications complex that is mostly involved in the production of audiences and the the buying and selling of mindshare in the marketplace. For a very long time, press and media overlapped so much that we tended to talk about them as the same thing. But for a variety of reasons these two things are being pulled apart. And one of them is we see that the media is actually very very closely aligned with the State, and when the State says “jump!”, media companies have to jump, like Amazon, or, you know, service providers, or telcos or, you know, big corporations, that they actually aren’t going to be the ones to oppose the State, whereas the press has to be able to do that, or it doesn’t really have any function. So what’s happening is that this broader press sphere, of which blogging, and the Internet, and Wikileaks, and voluntary organizations, and individuals as well as civil society groups, like Reporters Without Borders, this new unfolding and growing press sphere is pulling the establishment press toward it while the media companies show that they are less and less reliable as homes for the press.

And the old press, the institutional press, the Bill Keller press, is kind of like looking around and saying “Where’s our home? […]”

He descubierto en mi blog una diferencia entre la prensa y los medios. La prensa, para mí, es una institución social clave en una democracia que nos ayuda a entender lo que sucede, porque sin ella no podemos tener consentimiento de los gobernados, no podemos vigilar al poder. Los medios son el complejo moderno e industrial de comunicación que se dedica principalmente a la producción de audiencias y a la compra y venta de relevancia en el mercado. Durante mucho tiempo, la prensa y los medios se superponían hasta tal punto que solíamos referirnos a ellos como si fuesen la misma cosa. Pero por diversas razones están separándose. Una de ellas es que vemos que los medios están en realidad muy muy alineados con el Estado, y cuando el Estado dice “¡saltad!”, las empresas de medios tienen que saltar, como Amazon, o los proveedores de servicio, o las telcos, o las grandes empresas, que no van a ser las que se opongan al Estado, mientras que la prensa debe ser capaz de hacerlo, o si no no tendría en realidad función alguna. Así que lo está pasando es que una esfera más amplia de la prensa, de la [forman parte] los blogs, Internet, Wikileaks, las organizaciones de voluntarios, individuos y grupos de la sociedad civil, como Reporteros Sin Fronteras, esta nueva esfera de la prensa, creciente y en evolución, está tirando de la prensa establecida hacia ella, mientras que las empresas de medios demuestran que son cada vez menos fiables como hogar de la prensa.

Y la prensa tradicional, la prensa institucional, la prensa de Bill Keller [director del New York Times], mira a su alrededor y dice “¿Dónde está nuestro hogar? […]”

Estas son algunas de las cosas más interesantes que he leído al respecto en las últimas semanas:

Julian Assange and the Computer Conspiracy; “To destroy this invisible government” (Aaron Bady, 29 de noviembre de 2010)
If Amazon has silenced Wikileaks… (Ethan Zuckerman, 1 de diciembre de 2010)
“The watchdog press failed; what we have is Wikileaks instead” (Vídeo de Jay Rosen, 2 de diciembre de 2010)
Episodio 75 de Rebooting The News (Jay Rosen y Dave Winer, 6 de diciembre)
Wikileaks and the long haul (Clay Shirky, 6 de diciembre de 2010)
Freedomleaks (Doc Searls, 9 de diciembre de 2010)

Neutralidad de red IV. La privatización del backbone de Internet.

31 Ago

[Gran parte de lo que cuento en este post lo he sacado del artículo “The Privatization of the Internet’s Backbone Network” (pdf), publicado por Rajiv C. Shah y Jay P. Kesan en 2003]

El debate alrededor de la neutralidad está muy relacionado con la evolución del modelo económico que sustenta Internet: quién paga a quién y a cambio de qué. Por eso, creo que es importante entender a quién pertenece la infraestructura física de la Red, así que a continuación vamos a ver rápidamente cómo se llevó a cabo su privatización.

Como vimos, ARPANET, la red precursora de la actual Internet, comenzó como un proyecto con financiación pública del Departamento de Defensa estadounidense, en el que participaron varias de las principales universidades del país.

Comprobado el éxito de la red de ARPA, a principios de los años 80 la National Science Foundation (NSF), agencia del gobierno estadounidense para la promoción de la investigación científica, financió la creación de una red basada en TCP/IP, NSFNET.

En una primera fase, esta red conectó varios centros universitarios de supercomputación, permitiendo el  uso compartido de recursos tan escasos y caros. La segunda etapa consistió en la construcción de un backbone de alta velocidad para interconectar distintas redes regionales, universitarias, y de otras agencias gubernamentales (como la red del Departamento de Energía o la de la NASA).

La interconexión de estas redes a través del backbone de NSFNET es lo que empezó a conocerse como Internet.

Privatización del backbone

Backbone de NSFNET (1992)

Backbone de NSFNET (1992) (Fuente: http://www.computerhistory.org/internet_history/)

A principios de los años 90, en pleno auge de la ideología privatizadora y desreguladora de los servicios públicos, comenzó a verse como inevitable el paso a manos privadas de la infraestructura del backbone de Internet.

Para propiciar la transición, la NSF hizo uso de su Política de Uso Aceptable (AUP, Acceptable Use Policy) de la red, que prohibía el uso de sus recursos para fines distintos de la investigación y la educación. Como un número cada vez mayor de usuarios de NSFNET pretendía darle otros usos, esa prohibición fomentó que empresas privadas construyesen vías alternativas, en las que no rigiesen esas limitaciones, mediante las que ofrecieron conectividad a Internet a quienes temían violar la restrictiva política de NSF.

Inicialmente, el backbone de NSFNET y los de las compañías privadas se interconectaban en cuatro Puntos de Acceso a la Red (NAPs, Network Access Points), situados en Nueva York, Washington, Chicago y California, y operados por distintas compañías privadas por concesión de NSF. Una vez conseguida la interconexión de las redes privadas en los NAPs, el backbone de NSFNET dejó de funcionar en 1995 y, al año siguiente, la gestión de los NAPs pasó enteramente a manos privadas, culminándose así la privatización del backbone de Internet.

Infraestructura actual de Internet

Actualmente, la infraestructura física de Internet está formada por la interconexión de redes (agrupadas en sistemas autónomos) gestionadas por distintos operadores (empresas privadas de distinto tipo, Administraciones públicas, universidades…), los denominados proveedores de servicios de Internet (ISPs, Internet Services Providers).*

Esta interconexión se produce mediante enlaces privados entre dos redes (private exchanges) o en los denominados puntos neutros de Internet (IXPs, Internet Exchange Points), infraestructuras físicas gestionadas por entidades privadas que proporcionan los servicios necesarios para que múltiples ISPs interconecten sus redes entre sí.

La transmisión de datos entre las redes puede efectuarse a su vez mediante acuerdos de peering, en los que dos ISPs de similar tamaño acuerdan intercambiar información con origen o destino en sus propios clientes (pero no en clientes de terceros) sin contraprestación económica, o bien mediante contratos de tránsito, en los que un ISP permite a otro el acceso al resto de Internet a cambio de una tarifa.

Por tanto, cualquier usuario actual de Internet, tanto doméstico como corporativo (incluidos los grandes proveedores de contenido, como Google) accede a ella a través de un ISP, que le cobrará por ese servicio.

—————————————————————————————————————————

* A veces se utiliza el término ISP para referirse únicamente a los proveedores de “última milla, que ofrecen su servicio de acceso a Internet a usuarios finales. Aquí yo lo empleo en sentido más amplio, que incluye a todos los operadores de la infraestructura de red, entre los que se pueden distinguir varios niveles (tiers): el nivel 1 incluye a los operadores que sólo firman acuerdos de peering; el nivel 2, a aquéllos que se relacionan mediante peering y tránsito; y el nivel 3, a los ISPs que sólo obtienen acceso al bacbone mediante tránsito. Según Wikipedia, los ISPs de nivel 1 son: AOL, AT&T, Global Crossing, Level3, British Telecom, Verizon Business, NTT Communications, Qwest, Cogent, SprintLink, Telefónica International Wholesale Services (TIWS) y Tinet.


También en esta misma serie:

Neutralidad de red I. Introducción

Neutralidad de red II. Qué es Internet

Neutralidad de red III. Arquitectura de Internet

Neutralidad de red V. El debate

Neutralidad de red VI. Argumentos a favor

Neutralidad de red VII. Argumentos en contra

Neutralidad de la red III. Arquitectura de Internet.

31 Ago

Ya hemos visto que existen varias formas de entender qué es Internet, y que ese hecho tiene repercusiones en lo que los distintos actores interesados en su evolución esperan de ella, algo que guarda estrecha relación con sus posiciones respecto a la neutralidad de red, tema central de esta serie de posts.

Antes de poder profundizar en el debate actual, creo que es imprecindible tener una idea de de dónde venimos. Así que vamos a dar un rápido repaso a la estructura de Internet.

Orígenes de la arquitectura de Internet

A principios de los años 60, en círculos académicos, tanto en Estados Unidos como en otros países, se estudiaba la viabilidad práctica de la comunicación entre ordenadores mediante redes de conmutación de paquetes, que prometían hacer un uso más eficiente de los recursos que las redes de conmutación de circuitos, como la red telefónica tradicional.

En las redes de conmutación de circuitos, la ruta que seguirá la información se establece antes de que comience la transmisión. Los recursos que componen dicha ruta se dedican en exclusiva a esa transmisión durante todo el tiempo que dure la comunicación, lo que permite garantizar una calidad mínima en todo momento, pero a costa de un derroche de recursos, en particular cuando, aunque la ruta sigue en pie, no se está transmitiendo información.

Si se emplea conmutación de paquetes, la información que se va a transmitir se divide en trozos que, junto con cierta información adicional (en particular, la dirección a la que se dirige y de la que proviene el paquete), forma los paquetes. Los paquetes se envían independientemente unos de otros, y pueden de hecho seguir caminos distintos hasta su destino: no existe una ruta predeterminada. Los nodos intermedios de la red se basan en la dirección de destino que contiene el propio paquete para acercarlo hacia ella. Una vez que alcanzan su destino, los paquetes se reensamblan para reconstruir la información original. La conmutación de paquetes supone en general un uso más eficiente de los recursos de la red, pero a costa de contemplar la posibilidad de que, en momentos de congestión, no toda la información alcance su destino.

Por esa época, ARPA, la Agencia de Proyectos de Investigación Avanzada (Advanced Research Projects Agency) del Departamento de Defensa estadounidense, buscaba, como explica David Clark, “una técnica efectiva para la interconexión de redes con multiplexación“, y se fijó en los estudios sobre conmutación de paquetes de gente como Leonard Kleinrock o Paul Baran.

Con la financiación de ARPA, se creó a finales de los 60 la red ARPANET, precursora de la actual Internet,  que comenzó conectando centros de investigación de varias universidades norteamericanas (MIT, en Boston; UCLA, UC Berkeley, UC Santa Bárbara, Stanford, en California; la Universidad de Utah).

El objetivo principal de ARPANET era la interconexión de distintas redes (en inglés, internetworking o internetting, origen del término “internet”), posiblemente gestionadas por entidades diferentes.

Además, por orden de relevancia, tenía también los siguientes objetivos secundarios:

1. La comunicación debía mantenerse aunque se perdiesen redes o pasarelas (gateways) entre ellas.

2. Debía soportar distintos tipos de servicios de comunicaciones.

3. Debía acomodar redes de distintos tipos.

4. Debía permitir la gestión distribuida de sus recursos.

5. Debía tener en cuenta el coste de los recursos que componen la red y hacer un uso eficiente de ellos.

6. Debía permitir la conexión de nuevos ordenadores sin mucho esfuerzo.

7. Debía proporcionar alguna forma de contabilidad de los recursos consumidos.

La satisfacción de estos objetivos, en este orden preciso, fue lo que dio lugar a la arquitectura original de Internet, cuyos principios se plasmaron en el protocolo TCP/IP, definido por Robert Kahn y Vinton Cerf en 1973.

TCP/IP

Para permitir la interconexión de redes distintas sobre medios de transmisión posiblemente diferentes, los ingenieros que diseñaron ARPANET dividieron el proceso de comunicación entre entidades en distintas capas, cada una implementada siguiendo uno o varios protocolos. Esta división puede entenderse así:

  • Las capas inferiores son las que se encargan de la transmisión de los paquetes a través del medio físico correspondiente (cable de cobre, fibra óptica, aire…).
  • Por su parte, en las capas superiores se encuentran las aplicaciones que permiten a quiener utilizan la red realizar tareas útiles (correo electrónico, voz, videoconferencia, web…).
Pila de protocolos de Internet

Protocolos de Internet (Fuente: http://dret.net/lectures/web-fall08/)

IP se encarga únicamente de dirigir los paquetes del origen al destino, a medida que van llegando a cada nodo intermedio (First In, First Out), a través de una o varias redes distintas, pero no impide que, por congestión de la red o cualquier otro motivo, la información pueda perderse en el camino. Es lo que se denomina un protocolo best-effort: simplemente, lo hace lo mejor que puede.

Por su parte, TCP funciona sobre IP para proporcionar transmisión garantizada de datos: si algún paquete se pierde en el camino, avisa para que el emisor lo reenvíe y así acabe llegando al receptor.

La comunicación fiable de información que permite TCP es muy útil para aplicaciones que impliquen la transmisión de ficheros (como, por ejemplo, la propia Web). Sin embargo, en contraprestación por esas garantías, impone un cierto sobrecoste en la transmisión, por la información de control que se incluye en cada paquete, algo que puede no resultar apropiado para ciertas aplicaciones.

Por ejemplo, en aplicaciones de tiempo real como la transmisión de voz o de vídeo, no es aceptable el retardo que impone el procesamiento adicional de TCP. Y sin embargo, sí se puede tolerar la pérdida de algún que otro paquete (que resulta en un instante de silencio o en una imagen congelada durante un momento). Por ello, junto a este protocolo fiable, se desarrolló otro que, como el propio IP, no ofrece ninguna garantía de recepción, pero a cambio es mucho más ligero y rápido: UDP (User Datagram Protocol; Protocol de Datagramas de Usuario).

El principio end-to-end

Esta división en capas de la funcionalidad de la red proporcionó a su diseño una gran flexibilidad: para transmitir la información sobre un nuevo medio, bastaba con implementar la parte de la transmisión correpondiente a las capas inferiores, dependientes del propio medio. Análogamente, para proporcionar un nuevo servicio o aplicación a los usuarios de la red, sólo era necesario diseñar la comunicación entre los extremos de la red, emisor y receptor, haciendo uso de las características de TCP o UDP, según fuese apropiado.

Esta última característica es lo que se conoce como principio end-to-end o extremo a extremo, muy importante en el debate sobre la neutralidad de red, que afirma que la funcionalidad de la red debe implementarse en las capas inferiores e intermedias, y por tanto en cada router, sólo en el caso de que no se pueda implementar de forma efectiva en las capas superiores, y por tanto únicamente en los extremos (emisor y receptor).

Protocolos en los extremos y en nodos intermedios de la red

Principio "end-to-end" ideal: las aplicaciones "inteligentes" residen en los extremos; los routers intermedios sólo dirigen los paquetes hacia su destino. (Fuente: http://www.cs.rpi.edu/academics/courses/netprog/ProtocolStack.gif)

Los defensores de la neutralidad de de la red creen que el principio end-to-end es el responsable del impresionante ritmo de innovación en las últimas décadas en la capa de aplicación, y afirman que la mejor manera de mantenerlo es hacer que la red siga siendo “estúpida” (dumb pipes) y que la inteligencia resida en sus extremos (smart applications), en las aplicaciones desarrolladas sobre las capas superiores de la red. Como ejemplos de esta posibilidad de innovar en los extremos sin necesidad de contar con la aprobación de las operadoras de la red ponen la World Wide Web, inventada a principios de los años 90 por Tim Berners-Lee, científico del CERN; el buscador de Google, creado por dos estudiantes de Stanford, y que revolucionó la capacidad de encontrar información en la propia Web; o Skype, la aplicación de telefonía sobre IP que tantos quebraderos de cabeza está provocando a las telcos.

Por su parte, quienes se oponen a la neutralidad piensan que la evolución de la red conduce a abandonar el principio end-to-end. Creen que los operadores de la red son quienes están en mejor disposición de decidir el camino para esta evolución y que no se debe restringir su capacidad de buscar maneras innovadoras de gestionar su “red inteligente” (discriminación de tráfico, priorización de ciertos flujos de datos para conseguir así la diferenciación de productos), lo que incrementaría sus ingresos y les permitiría financiar las inversiones necesarias para mejorar las infraestructuras.


También en esta misma serie:

Neutralidad de red I. Introducción

Neutralidad de red II. Qué es Internet

Neutralidad de red IV. La privatización del backbone de Internet

Neutralidad de red V. El debate

Neutralidad de red VI. Argumentos a favor

Neutralidad de red VII. Argumentos en contra

Neutralidad de red II. Qué es Internet.

30 Ago

Como dije, al empezar a leer cosas sobre la neutralidad de red me di cuenta de que no existe una definición común de lo que significa neutralidad.

De hecho, creo que esta falta de consenso es aún más profunda, porque los distintos intervinientes en el debate ni siquiera se ponen de acuerdo sobre algo tan fundamental como qué es Internet.

Tratando de darle forma a esta percepción, encontré un artículo de Susan Crawford (profesora de Derecho en la Universidad de Michigan y ayudante del equipo de transición de Obama para las políticas de ciencia, tecnología e innovación cuando éste llegó a la Casa Blanca) titulado “Internet Think“, que me resultó muy útil.

En él, Crawford distingue tres visiones claramente diferenciadas de Internet: la de los ingenieros que contribuyeron a crearla; la de las compañías de telecomunicaciones (“telcos”), que poseen la infraestructura física de comunicaciones en la que se sustenta; y la de los visionarios de Internet (los “netheads“), cuya visión idealista de las posibilidades de la Red para el progreso de la humanidad está detrás de muchos de los avances que ésta ha propiciado.

Qué es Internet

En primer lugar, Crawford se pregunta qué entienden por “Internet” los ingenieros como Robert Kahn, coinventor del protocolo TCP/IP en que se basa Internet, que afirma:

Una de las cosas sobre Internet que mucha gente no entiende […] es que en realidad está compuesta de routers, cables, ordenadores, y cosas así, pero eso no es lo que define Internet. Eso son sólo las cosas con la que está construida. Internet en realidad era un arquitectura lógica que te permitía conectar prácticamente cualquier tipo de máquina de red. Por eso, cuando la gente me pregunta qué es Internet, digo que es una construcción lógica, independiente de los elementos concretos que la componen. Si esta red desapareciese y fuese sustituida en el futuro por una nueva tecnología, seguiría siendo Internet.

Así, desde el punto de vista de Kahn, TCP/IP es Internet, una arquitectura lógica pensada como una infraestructura de propósito general sobre la cual se pueden desarrollar y desplegar diversas aplicaciones.

Según Crawford, la definición de Internet más acorde a las ideas de los ingenieros es la que adoptó el Federal Networking Council en 1995:

“Internet” se refiere al sistema de información global que: (i) está conectado a nivel lógico mediante un espacio de direcciones global único basado en el protocolo IP o sus subsecuentes extensiones o continuaciones, (ii) es capaz de permitir comunicaciones utilizando el conjunto de protocolos TCP/IP o sus subsecuentes extensiones o continuaciones, y/o otros protocolos compatibles con IP, y (iii) proporciona, utiliza, o pone a disposición, ya sea pública o privadamente, servicios de alto nivel apoyados sobre las comunicaciones e infraestructura relacionada aquí descrita.

Por su parte, como ejemplo de la visión de las telcos Crawford propone la de James Crowe, director ejecutivo de Level 3, empresa que proporciona servicios de conectividad al backbone o núcleo de Internet:

Primero está la conexión local, normalmente una conexión bastante grande, del proveedor de contenido al backbone. En general, es una conexión de fibra óptica bastante grande. Después, está el propio backbone, que también es una conexión óptica muy grande. Después está la parte que conecta al usuario final al backbone, el acceso local a Internet. Las primeras dos secciones de Internet, la que va del proveedor de contenido al backbone, y el propio backbone, son muy competitivas. Tenemos gran variedad de proveedores. En la parte que todos compramos, la que conecta nuestras casas a Internet, es donde está el problema. Creo que los proveedores de contenido y la comunidad de Internet están en general en lo cierto cuando dicen que los proveedores de telecomunicaciones y las empresas de cable tienen un duopolio [para esta sección de Internet].

Crowe imagina Internet compuesta por tres categorías de caños que conectan a los “consumidores” con el “contenido” y viceversa. La definición de Internet, para él, no depende de la arquitectura lógica que se utilice para el sobre los tubos de transporte, aunque sin duda está al tanto del protocolo IP, sino que los propios tubos forman Internet.

En general, dice Crawford, para las telcos:

Internet es lo que surgió cuando las compañías telefónicas de todo el mundo hicieron posible que los ordenadores se conectasen (mediante módems) a las redes telefónicas preexistentes. Por tanto, la combinación de esas redes subyacentes forma para ellos la totalidad de Internet.

Por último, para exponer la forma de entender Internet de los netheads (literalmente, “cabezas de red”), Crawford escoge esta afirmación de David Weinberger, coautor de uno de los textos de referencia de la cultura de la Red, el Manifiesto Cluetrain, investigador en el Berkman Center e influyente bloguero:

Internet es un medio únicamente a nivel de bits. A escala humana, es una conversación que, debido a la persistencia y a la interconexión de las páginas, posee las características de un mundo. Sólo podría ser un medio si a los humanos nos resultase completamente indiferente.

Para los visionarios de Internet, aunque los estándares (TCP/IP, HTML, HTTP…) permiten que Internet (y la Web) funcione, no definen por completo lo que es. Lo más importante para ellos son las relaciones (entre textos, entre máquinas, entre personas, entre grupos) que estos estándares hacen posibles.

Hacia dónde va

Estas tres nociones distintas de lo que es Internet conllevan necesariamente visiones divergentes sobre su evolución futura.

Los ingenieros aceptan la posibilidad de que la arquitectura lógica que es Internet haya dejado de ser la más adecuada para prestar servicio a sus usuarios, y que sea por tanto conveniente reinventarla.

Por ejemplo, explica Crawford, tanto Kahn como David Clark, otro de los pioneros de Internet, han hecho llamamientos, cada uno por su parte, para una reingeniería de Internet con el fin de hacer frente a problemas actuales de Internet, como la seguridad, el spam, o el respeto a las normas de propiedad intelectual.

Por su parte, las telcos ven cómo aumenta vertiginosamente la utilización de sus “tubos”, a la vez que se les empieza a tratar como meros proveedores de transporte de datos, un servicio cada vez más “comoditizado”. Les resulta frustrante verse incapaces de internalizar los beneficios de la creciente conectividad que proporcionan al mundo entero.

El aumento de capacidad de la banda ancha que la sociedad demanda, explican las telcos, requiere enormes inversiones. Pretenden que los reguladores les permitan buscar maneras de monetizar “sus” redes más allá del mero cobro por la conectividad, como por ejemplo mediante la diferenciación de precios por distintas calidades de servicio o por la priorización de tráfico.

Querrían comercializar sus propios servicios de valor añadido, como el vídeo bajo demanda, como otra forma de recuperar sus enormes inversiones en infraestructura. Además, afirman que estos servicios son sensibles a problemas de latencia y jitter para los que Internet no permite asegurar la calidad del servicio, por lo que exigen tener la capacidad de gestionar adecuadamente el tráfico que circula por sus caños.

Para los netheads, el mundo está crecientemente online, y eso hace que sea un lugar mejor. Aspiran a alcanzar la conectividad global y el flujo de información sin restricciones. Para ellos, el acceso de banda ancha hace posible innumerables aplicaciones, muchas aún por inventar, que mejorarán la vida de los usuarios, facilitando la colaboración y la participación, y les preocupa que el intento de monetización por parte de las telcos retrase o incluso detenga esta evolución positiva.

En respuesta a las telcos, afirman que todos los problemas que latencia y jitter se resolverían si aumentase el ancho de banda de las redes.

Síntesis

Cada uno de estos tres puntos de vista por sí solo, señala Crawford, es demasiado limitado como para resultar útil a los responsables de tomar las decisiones regulatorias.

Ni la perspectiva del ingeniero ni la del nethead sirven de mucho cuando a los legisladores lo que les preocupa son las implicaciones económicas de instalar y mejorar las redes físicas.

La perspectiva de las telcos, por su parte, parece algo corta de miras, porque da por sentado que la gente prefiere recibir comunicaciones pasivamente en lugar de participar en crear las suyas propias. Ni las telcos ni los ingenieros tienen en cuenta el contexto social o cultural de Internet.

En cambio, los netheads se interesan casi exclusivamente por ese contexto cultural, y no tienen respuestas claras para la cuestión de cómo sufragar los costes de la transición a las redes de nueva generación, que tanto preocupa a las telcos.


También en esta misma serie:

Neutralidad de red I. Introducción

Neutralidad de red III. Arquitectura de Internet

Neutralidad de red IV. La privatización del backbone de Internet

Neutralidad de red V. El debate

Neutralidad de red VI. Argumentos a favor

Neutralidad de red VII. Argumentos en contra

Neutralidad de red I. Introducción.

30 Ago

El pasado 9 de agosto, una noticia sacudió al mundo de Internet: Google, el buscador dominante en todo el mundo, y uno de los mayores proveedores de servicios y aplicaciones, y Verizon, una de las principales empresas estadounidenses de telecomunicaciones, anunciaban en sus respectivos blogs corporativos (Google; Verizon) una “propuesta conjunta para una Internet abierta” dirigida al organismo que regula Internet en Estados Unidos, la Federal Communications Commission (FCC), en la que exponían su idea sobre hacia dónde debería ir la regulación de uno de los asuntos candentes desde hace unos años, la neutralidad de la red.

Neutralidad de redYo no estaba muy al tanto de la polémica y me sorprendió lo airado de muchas de las reacciones (por ejemplo: una; otra), que en general acusaban a Google de traicionar la neutralidad de red, aliándose con uno de sus grandes enemigos.

Busqué la definición de neutralidad de red en Wikipedia y me encontré con esto:

La neutralidad de red es un principio propuesto para las redes de banda ancha de uso residencial (de las que Internet es el paradigma), y potencialmente aplicable a todas las redes de comunicación, que describe cuál debería ser el tratamiento del tráfico que circula a través de ellas.

Una red neutral es aquella que está libre de restricciones en las clases de equipamiento que pueden ser usadas y los modos de comunicación permitidos, que no restringe el contenido, sitios y plataformas, y donde la comunicación no está irrazonablemente degradada por otras comunicaciones.

Desde luego, si esto es la neutralidad de red, no parece muy razonable estar en contra. Y si Google la ha “traicionado”, la indignación de sus defensores está justificada.

Sin embargo, el debate persiste desde hace un tiempo y, lejos de amainar, parece que últimamente va a más. Algo más habrá, me dije, así que me puse a leer por aquí y por allá, tratando de entender de qué iba la cosa. Pero cuanto más leía más perdido me encontraba. Incluso llegué a tener la la sensación de que quienes opinaban ni siquieran se ponían de acuerdo sobre lo que entendían por “neutralidad”.

Así que empecé a tirar del hilo y, aprovechando que tengo que preparar un trabajillo sobre el primer módulo del máster, en el que hemos visto, entre otras muchas cosas, cómo funciona Internet, pensé que podía ser una buena idea dedicar mi trabajo a la neutralidad de red.

En los próximos días iré publicando una serie de posts con lo que he ido entendiendo. Y también con lo que aún no comprendo, porque la verdad es que sigo teniendo muchas más dudas que certezas al respecto.

Si algo tengo claro es que la neutralidad de red es un asunto con múltiples facetas: técnicas, económicas, políticas, sociales en general.

Así que, para ir aclarándome, creo que lo mejor será empezar por el principio: ¿Qué es Internet?


También en esta misma serie:

Neutralidad de red II. Qué es Internet

Neutralidad de red III. Arquitectura de Internet

Neutralidad de red IV. La privatización del backbone de Internet

Neutralidad de red V. El debate

Neutralidad de red VI. Argumentos a favor

Neutralidad de red VII. Argumentos en contra

Lecturas sobre neutralidad de red

10 Ago

(Edito: Acabé escribiendo una serie de entradas sobre el asunto:

Neutralidad de red I. Introducción

Neutralidad de red II. Qué es Internet

Neutralidad de red III. Arquitectura de Internet

Neutralidad de red IV. La privatización del backbone de Internet

Neutralidad de red V. El debate

Neutralidad de red VI. Argumentos a favor

Neutralidad de red VII. Argumentos en contra)

Éstas son algunas de las cosas que me gustaría leer para hacerme una idea de lo que está en juego en el debate sobre la neutralidad de la red, de candente actualidad últimamente, en particular tras el anuncio ayer de la “propuesta conjunta por una Internet abierta” de Google y Verizon:

Recientes (actualizado a 11 de agosto de 2010):

Future of Music Coalition, “A Closer Look at the Verizon-Google Internet Proposal” (11 de agosto de 2010)

Electronic Frontier Foundation, “A Review of Verizon and Google’s Net Neutrality Proposal” (10 de agosto de 2010)

Ryan Singel, Why Google Became A Carrier-Humping, Net Neutrality Surrender Monkey” (Wired.com, 10 de agosto de 2010)

Juan Varela, “Plataformas digitales contra neutralidad de la red” (Periodistas 21, 9 de agosto de 2010)

Juan Varela, “Neutralidad de la red, no en las plataformas” (Periodistas 21, 9 de agosto de 2010)

Rosa Jiménez Cano, “¿Quién quiere acabar con la neutralidad en la Red?” (El País, 9 de agosto de 2010)

Rosa Jiménez Cano, “Google y Verizon, a favor de la neutralidad en la Red” (El País, 9 de agosto de 2010)

José F. Alcántara y David de Ugarte, “Una pésima idea” (El País, 9 de agosto de 2010)

Jonathan Zittrain, “What matters in net neutrality

Adam Green, “Google Goes ‘Evil’” (Huffington Post)

Josh Silver, “Google-Verizon Deal: The End of The Internet as We Know It” (The Huffington Post)

Robert X. Cringely, “A Net Game for Google?” (New York Times, 7 de agosto de 2010)

Susan Crawford, “Leadership” (en su blog, 9 de agosto de 2010)

Dan Gillmor, “Google-Verizon plan: Why you should worry” (Salon.com, 9 de agosto de 2010)

Gigi Sohn, “Why the FCC’s Net Neutrality Negotiations Failed and the Opportunity it Presents” (PublicKnowledge.org, 9 de agosto de 2010)

About the Verizon/Google ‘Deal’ on Net Neutrality” (Save the Internet, 6 de agosto de 2010)

David Megginson, “Evil or misunderstood? Google and net neutrality” (8 de agosto de 2010)

Eliot Van Buskirk, “Here’s The Real Google/Verizon Story: A Tale of Two Internets” (Wired.com, actualizado a 9 de agosto de 2010)

Samuel Axon, “Demystifying Google and Verizon’s Proposed Policy for the Open Internet” (Mashable.com, 9 de agosto de 2010)

Future of Music Coalition, “Statement on Verizon-Google “Legislative Framework Proposal” for the Internet” (9 de agosto de 2010)

Digital Music News, “Google+Verizon Make a Little Proposal. Is This a Big Problem for Artist+Indies?” (9 de agosto de 2010)

De fondo:

Juan Varela, “Cuando medios y telefónicas quieren ser plataformas digitales” (Cuadernos de periodistas, vía Scribd)

Varios autores, “Neutralidad de red (Deloitte, 2010; pdf de 54 páginas):

Visión internacional e implicaciones regulatorias

– “How the European Union avoided the temptation of harmful interference with the Internet, while the USA might succumb”, Martin Cave, Warwick Business School Professor

– “Regulación de Redes de Nueva Generación: ¿Neutralidad o Convergencia?”, Marcel Coderch Collell, Vicepresidente, Comisión del Mercado de las Telecomunicaciones

– “The current debate on ‘Net Neutrality’ in Europe: the reform of the Telecom Package and beyond”, Peter Rodford, Head of Unit of Policy Development, Information Society& Media Directorate General, European Commission

– “Net Neutrality in the United States: Past, present and future”, Fernando Huerta, Socio de Deloitte, Antonio García Zaballos, Gerente de Deloitte

Efecto en los modelos de negocio de operadoras, proveedores de contenido y fabricantes

– “Net neutrality, or how to mismatch the rights of users and operators”, Alberto Moreno Rebollo, Director de Política Regulatoria de Telefónica, Fernando Herrera González, Responsable de Política Regulatoría, Telefónica de España

– “¿Por qué es importante preservar la neutralidad de la red?”, Bárbara Navarro, Directora Europea Asuntos Institucionales y del Gobierno, Google España

– “Net Neutrality – Orange España”, Christian Hacker, Director de Regulación, France Telecom España, S.A.

– “La neutralidad tecnológica y los fabricantes”, Jordi Botifoll, Vicepresidente Mediterranean Cisco Europe

– “Media y Neutralidad de la Red”, Luis Jiménez Guerrero, socio de Deloitte

María del Mar Palazuelos y Fernando Herrera, “La neutralidad de red. Un debate interesado sobre los derechos de los usuarios” (Fundación Telefónica, marzo de 2010)

Tim Wu, “Network neutrality FAQ

Susan Crawford, “Network rules” (paper de 2007)

Susan Crawford, “Transporting communications” (paper de 2009)

Bob Frankston, “Conversation with Erik Cecil on Network Neutrality

Bob Frankston, “Network Neutrality: It’s not just Common Carriage and Antitrust

La Quadrature du Net, “Protecting Net Neutrality in Europe” (pdf, 23 páginas)

A %d blogueros les gusta esto: