Tag Archives: seminarios

La privacidad en la nube

28 Dic

El más reciente de los seminarios del máster, titulado “Retos legales del cloud computing“, tuvo lugar en la EOI el pasado 16 de diciembre. En él pudimos conocer, por boca de María González, la opinión de Google sobre cuáles son los obstáculos legales a los que se enfrenta la computación en nube, la forma actualmente en boga de denominar a la provisión de servicios (de software, de plataforma, de infraestructura) a través de Internet.

Su intervención se centró en repasar las limitaciones de que según Google adolece el actual marco jurídico español de protección de datos personales (y por ende el europeo del que deriva), lo que nos permitió tener una visión complementaria de la que la Agencia Española de Protección de Datos nos expuso en un seminario anterior.

La computación en nube nos ofrece indudables beneficios a sus usuarios, tanto en cuanto a ubicuidad (podemos conectarnos desde cualquier sitio y mediante una variedad cada vez mayor de dispositivos) como en disponibilidad (fallos como los de Twitter, con su memorable “fail whale“, llaman la atención por infrecuentes) o en mera rapidez de respuesta (por otro lado, la velocidad con la que se actualiza el timeline de Twitter es un pequeño milagro al que nos vamos acostumbrando). Estas extraordinarias características se alcanzan gracias a la distribución geográfica de múltiples centros de proceso de datos cada vez más grandes y potentes, y la replicación en ellos, mediante algoritmos diseñados para optimizar su rendimiento, de la información y las aplicaciones que componen los servicios en nube.

Esta dispersión de los servidores (y por tanto de los datos que tratan, incluidos los de carácter personal de los usuarios) por distintos países, quizá incluso continentes, es la que complica la situación legal de la computación en nube, pues choca con la dimensión inevitablemente territorial de los marcos legales actuales.

Google considera que el marco jurídico europeo, articulado en torno a una Directiva de 1995, es decir, del periodo inmediatamente  anterior a la eclosión comercial de Internet, está obsoleto y limita las posibilidades que ofrece actualmente la tecnología. Esta es una opinión generalizada, pues este marco regulatorio se encuentra actualmente en proceso de revisión. (De hecho, la Comisión Europea mantiene abierta hasta el próximo 15 de enero de 2011 una consulta pública para recibir sugerencias al respecto de todos los actores implicados, con Google y otras grandes compañías de Internet en un lugar destacado.)

Algo se está moviendo también al otro lado del Atlántico, pues en las últimas semanas dos entidades con competencia para velar por los derechos de los consumidores estadounidenses, como son el Departamento de Comercio (DoC) del gobierno de Obama y la Agencia Federal de Comercio (FTC), han publicado sendos informes sobre privacidad en la red (Informe del DoC [pdf]; informe de la FTC [pdf]).

Pero estas iniciativas de actualización de normas al fin y al cabo regionales no pueden ocultar la necesidad de afrontar retos globales, como son la mayoría de los que por sus propias características presenta Internet, con soluciones también globales. En este sentido, las autoridades de protección de datos vienen trabajando desde hace tiempo, en colaboración con organizaciones de la sociedad civil y otra serie de entidades tanto públicas como privadas, en la elaboración de una propuesta de estándares internacionales de privacidad (pdf) que se presentó a finales de 2009 en Madrid, con motivo de la 31ª Conferencia Internacional de Autoridades de Protección de Datos y Privacidad. La propuesta, como explica la propia nota de presentación (pdf), “no es un acuerdo internacional ni tampoco una normativa jurídicamente vinculante“, sino que pretende servir “como base para un futuro trabajo de elaboración de un convenio universal.”

En un mundo (aún lejano, me temo) en el que la privacidad estuviese igualmente protegida en todo el planeta, tendría mucho más sentido una de las frases con las que me quedé de la intervención de María González: para Google, “How is more important than where” [El cómo es más importante que el dónde]. De momento habrá que seguir discutiendo sobre jurisdicciones, lugares de establecimiento del responsable y del encargado de tratamiento, transferencias internacionales y todo lo que conlleva tratar de conjugar la territorialidad del mundo físico con la globalidad de la nube.

Anuncios

El futuro de la lectura

27 Dic

El pasado 18 de noviembre tuvo lugar, dentro de las actividades de nuestro Máster en Economía Digital e Industrias Creativas, un seminario sobre edición digital que prometía ser de lo más interesante, pues, bajo la moderación de Luis Cueto, del Ministerio de Ciencia e Innovación, en él estaban representados diversos actores vinculados al sector, desde los editores (representados por Antonio María de Ávila, director ejecutivo de la Federación de Gremios de Editores de España), a los bibliotecarios (con la presencia de Margarita Taladriz, directora de la biblioteca de la Universidad Carlos III de Madrid), pasando por los propios autores (en la figura de Nuria Barrios, escritora y periodista), las entidades de gestión (con Antonio Isabel, del gabinete jurídico de CEDRO) o las empresas que participan en la transformación de la edición (con la participación de Rafael Rivera, socio director de Iclaves).

Sin embargo, mi ilusión derivó en frustración al ver cómo el debate acabó polarizándose entre las posturas encontradas (y en mi opinión poco constructivas) de uno de los alumnos del máster y el señor De Ávila respecto a la “cultura libre”, en lugar de tratar algunos de los muchos asuntos interesantes relacionados con la transformación que está sufriendo el mundo de la edición, en auténtica ebullición en estos momentos. [Al final de este post encontraréis enlaces a los vídeos de las distintas intervenciones.]

Así que, en lugar de comentar lo que se habló entonces (nuestro compañero David hizo en su blog un detallado recuento que no me veo capaz de mejorar), voy a comentar algo que he leído recientemente sobre el futuro de la lectura y que me ha dado que pensar. (Añado: otra compañera, Yolanda, también ha dado su interesante opinión sobre el seminario.)

Pero antes, confesaré mi peculiar relación con los libros: no me considero un gran lector (de libros, al menos), no llegan siquiera a diez los que leo al año, y sin embargo son muuuchos más los que compro (prefiero no echar cuentas…). Siempre en papel, por cierto, pues curiosear (y comprar, claro) en una librería es una de mis actividades favoritas y, aunque tengo un lector de libros electrónicos desde hace casi dos años, lo utilizo principalmente para leer artículos, posts y papers que encuentro en Internet (la única vez que traté de comprar un libro electrónico acabó en rotundo fracaso). Combino por tanto lectura en papel con lectura en pantallas (del ordenador, del lector, del iPod, del móvil) y, aunque para lecturas largas sigo prefiriendo el papel (sobre todo por mi costumbre de subrayar y anotar, que el aparato que tengo no permite hacer), compruebo que cada vez me molesta menos leer en pantalla.

Aun así, el libro en papel me parece un gran invento, una tecnología muy conseguida, como demuestran sus quinientos años de vigencia. Por eso, no soy de los que vaticinan su desaparición inminente, ni mucho menos. Sin embargo, no me considero tampoco un fundamentalista defensor del papel.

Creo que el apego de la gente de mi generación y de las anteriores por el papel se debe en gran medida a la educación que recibimos, siempre a través del papel y la letra impresa o manuscrita, tan distinta de la que daremos o estamos dando ya a nuestros jóvenes, cada vez más basada en las pantallas, la interactividad y la remezcla. Y esto, evidentemente, tendrá consecuencias sobre el futuro del libro.

Como dice José Antonio Vázquez, de dosdoce.com, hablando del futuro de las librerías físicas:

Para empezar, es posible que en una o dos generaciones, con la entrada de los ordenadores portátiles en las escuelas, ya no existan estudiantes que hayan trabajado en clase con papel, y los libros impresos serán para ellos algo tan vintage como el walkman y el vinilo, aunque no me gustan demasiado las analogías del sector discográfico con el editorial, pero digital oblige. Puede ser una exageración, es cierto, pero la exageración sólo quiere ubicar a aquellos que se aferran al papel para que repasen los cambios que han sufrido en su cotidianeidad con respecto a la vida de sus padres, no ya de sus abuelos. Y aunque pensemos –y sabemos- que el libro tal y como lo conocemos tiene un componente especial, de valor intrínseco, además de vehículo de cultura, transmisión de lenguaje, pensamiento humano, etc., (argumentos relativos según el que coge un libro, pues al que sólo lee el bestseller del año no le interesan tanto estos valores como  poder pasar un buen rato con un libro “de esos que no puedes dejar de leer”; además, las editoriales de hoy –no todas, pero casi-, como muy bien recuerda Jason Epstein, necesitan alguno de estos bestseller para sobrevivir) no por ello, y a pesar de las peticiones a contracorriente de autores como Silva en el último FICOD para la creación de un protectorado del libro de papel -o del  propio librero-, van a ser eternos o, al menos, de uso común para las generaciones que estudien, trabajen y se manejen casi exclusivamente con lo digital.

Incidiendo en esta idea, Mike Shatzkin, que escribe cosas muy interesantes sobre el futuro del sector editorial, prevé que será precisamente en los libros dirigidos a los más jóvenes, y no en los libros para adultos, donde antes se pongan de manifiesto las ventajas de los libros electrónicos “mejorados” o “enriquecidos”:

The reasons that I’m skeptical about enhanced (or enriched, a recent term I’ve heard that might be better) ebooks is because most adult books are written as narrative reading experiences not intended to be interrupted and now being read by people who value the immersive experience. (Not all. But most of the kind we think of as bestsellers or literature.) My guess is that it is going to be hard to shift many of the hours of consumption now devoted to immersive reading to something quite different. And I see that as a qualitatively different challenge than moving immersive reading itself from one delivery mechanism (paper) to another (screens.)

[La razón por la que soy escéptico sobre los libros mejorados (o enriquecidos, un término reciente que he oído y que puede ser mejor) es que la mayoría de los libros para adultos están escritos como experiencias de lectura narrativa no pensadas para sufrir interrumpciones, y los lee gente que valora la experiencia envolvente. (No todos. Pero sí la mayoría de los bestsellers o de la literatura.) Creo que va a ser difícil que muchas de las horas dedicadas ahora a lectura envolvente se empleen en algo muy diferente. Y esto es para mí un reto cualitativamente diferente del de trasladar la propia lectura envolvente de un mecanismo de distribución (el papel) a otro (las pantallas.)]

Sin embargo, según Shatzkin, la situación es muy distinta en los libros para niños:

The degree to which you can immerse yourself in a book is directly proportional to the fluency with which you read. That means that the younger you are, the more likely you are to accept the interrupted reading experience .

And as the devices get cheaper and more ubiquitous, parents and kids will learn fast how entertaining, instructive, and accessible interactive experiences can be.

[…]

That means it is a lot harder for a younger person to get immersed in just words on paper. That’s why kids’ books offer so much more than that: pictures, of course, but also pop-ups and various other entertaining three-dimensional devices, to the extent they can be delivered in something which is fundamentally bound paper.

You could say kids have been getting “enhanced books” forever!

The new devices have much better capabilities than CD-Roms did to engage in ways other than with words — ways which those of us who love immersive reading might find distracting or annoying but which kids love. Intuitive touchscreen navigation, a relatively recent development, makes it even easier to engage and interact with an active mind that hasn’t yet learned enough language to work comfortably with written cues.

[El grado en el que puedes sumergirte en un libro es directamente proporcional a la fluidez con la que lees. Eso significa que, cuanto más joven eres, más probable es que aceptes interrupciones en tu experiencia lectora.

Y a medida que los dispositivos van siendo más baratos y ubicuos, los padres y los niños aprenderán rápido lo entretenidas, instructivas y accesibles que pueden ser las experiencias interactivas.

[…]

Eso significa que es mucho más difícil para una persona joven sumergirse en meras palabras sobre papel. Esa es la razón por la que los libros para niños ofrecen mucho más que eso: imágenes, por supuesto, pero también desplegables y otros artilugios tridimensionales que los entretengan, siempre dentro de las posibilidades que ofrece algo que es básicamente papel encuadernado.

¡Se podría decir que los libros para niños han sido desde siempre “libros mejorados”!

Los nuevos dispositivos ofrecen muchas más posibilidades que los CD-Roms para llamar la atención [de los “lectores”], no sólo con palabras — mecanismos que a quienes disfrutamos de una lectura envolvente nos distraen o nos molestan, pero que a los chavales les encantan. La navegación intuitiva mediante pantalla táctil, un avance relativamente reciente, hace todavía más fácil interaccionar con una mente activa que aún no tiene suficiente dominio del lenguaje como para trabajar cómodamente con indicaciones escritas.]

Probablemente ya en el inminente 2011 podremos empezar a vislumbrar hasta qué punto estas predicciones están en lo cierto.

Vídeos del seminario sobre edición digital (EOI, 18 de noviembre de 2010):

Luis Cueto (moderador, Ministerio de Ciencia e Innovación)

Antonio María de Ávila (Director ejecutivo de la Federación de Gremios de editores de España)

Nuria Barrios (escritora y periodista)

Antonio Isabel (Gabinete jurídico de CEDRO)

Rafael Rivera (Iclaves) (presentación)

Margarita Taladriz (Directora de la Biblioteca de la Universidad Carlos III de Madrid) (presentación)

Otros enlaces de interés:

Artículos de opinión en DosDoce.com (portal cultural dirigido por Javier Celaya)

The Shatzkin Files (blog de Mike Shatzkin sobre el futuro del mundo editorial)

– Future of books” (mi selección de fuentes sobre el futuro de los libros en Google Reader)

Mi serie de entradas sobre el futuro del libro:

El futuro del libro 1. ¿El ocaso de la era Gutenberg?

El futuro del libro 2. Conceptos

El futuro del libro 3. La cadena de valor

El futuro del libro 4. Marco jurídico I

El futuro del libro 5. Marco jurídico II

El futuro del libro 6. Oleadas de la digitalización

El futuro del libro 7. Los proyectos de digitalización masiva de libros

El futuro del libro 8. El proyecto Google Books

El futuro del libro 9. El acuerdo sobre Google Books

La popularización del libro electrónico. Amazon vs Apple

That means it is a lot harder for a younger person to get immersed in just words on paper. That’s why kids’ books offer so much more than that: pictures, of course, but also pop-ups and various other entertaining three-dimensional devices, to the extent they can be delivered in something which is fundamentally bound paper. 

You could say kids have been getting “enhanced books” forever!

The new devices have much better capabilities than CD-Roms did to engage in ways other than with words — ways which those of us who love immersive reading might find distracting or annoying but which kids love. Intuitive touchscreen navigation, a relatively recent development, makes it even easier to engage and interact with an active mind that hasn’t yet learned enough language to work comfortably with written cues.

La privacidad vista desde el otro lado

9 Dic

Hace unas semanas, dentro de las actividades del máster, tuvimos ocasión de escuchar a José López Calvo, subdirector de Inspección de la Agencia Española de Protección de Datos (AEPD), hablar sobre la protección de datos personales en Internet.

López Calvo expuso una visión convencional del asunto desde el punto de vista de una autoridad de control, como es la AEPD, recordando cuáles son los principios en los que se basa la legislación vigente al respecto (información, consentimiento, calidad de los datos, seguridad…) y alertando sobre los riesgos que nuestra cada más frecuente y continua presencia en la Red, en particular en las distintas redes sociales, supone para nuestra privacidad.

Es decir, hasta cierto punto, y salvando las distancias, lo mismo que cuento yo cuando me toca salir de sarao por la región de cuyo nombre no quiero acordarme… :)

Creo que este es uno de los asuntos centrales del momento que estamos viviendo en la evolución de la Red. Sin ir más lejos, porque es en cierta medida el campo de batalla de la lucha entre dos gigantes como Facebook y Google por ver quién controla nuestra identidad online y, sobre todo, quién extrae de ella los dólares que los anunciantes están dispuestos a pagar por mensajes publicitarios cada vez más específicos para cada uno de nosotros, que tienen en cuenta no sólo qué hemos introducido en el campo de texto del buscador, sino cuáles son nuestros intereses, aficiones, dónde vivimos, con quién nos relacionamos. En definitiva, quiénes somos.

Aún estamos asumiendo el cambio que ha supuesto la irrupción en los últimos años de fenómenos masivos como MySpace, Facebook, Foursquare o Twitter. A mí me llama la atención cómo estos servicios han conectado con una necesidad generalizada de compartir detalles de nuestra vida, cosas que antes sólo conocían unos pocos familiares o amigos cercanos, pero en muchos casos más por dificultades materiales, de logística, que por voluntad de restringir el acceso a esa información a unos pocos elegidos (¿Quién no recuerda esas interminables sesiones de fotos a la vuelta de un viaje? Y lo que hemos ganado ahora que podemos fingir que las hemos visto todas, y sin tener que poner cara de asombro o envidia, en Flickr, en Picasa, o en el propio Facebook…)

Pienso que estamos todavía creando normas sociales que regulen cómo nos manejamos en este nuevo espacio. Por ejemplo, hay quien afirma que los jóvenes no valoran la privacidad, que están encantados de exponerse continuamente ante sus “amigos” (ni siquiera sé si tenemos claro qué significa realmente esta palabra ahora), de aparecer en las cientos de fotos que hacen, ellos o sus amigos, con sus smartphones. No he estudiado los datos que existen al respecto, pero dudo que la cosa sea tan así: estoy seguro de que en esta nueva forma de interacción social, como en todas las que vinieron antes o conviven con ella, hay mucho de relación de poder, de necesidad de aceptación, de pertenencia al grupo… No dudo que las reglas hayan cambiado, lo que no me creo es que no existan reglas. (Para entender mejor los matices de estos asuntos, en particular en relación con los jóvenes, es muy recomendable leer a danah boyd, investigadora sobre redes sociales en Microsoft. Por ejemplo, esta charla que dio hace unos meses: “Making Sense of Privacy and Publicity“.)

Otra opinión muy extendida es la de que es inevitable que cedamos parte de nuestra privacidad a las empresas que gestionan los espacios en los que nos comunicamos.

A este supuesto es al que se enfrenta Doc Searls, a quien ya he mencionado aquí más de una vez, en un post titulado Do we have to trade-off privacy? que me parece revelador de la situación de nuestra privacidad online. Searls nos recuerda que nosotros, nuestros datos, somos el producto que las redes sociales ofrecen a sus clientes, los anunciantes. Y sigue:

The issue here isn’t how much our privacy is worth to the advertising mills of the world, or to intermediaries like FourSquare. It’s how we maintain and control our privacy, which is essentially priceless—even if millions of us give it away for trinkets or less. Privacy is deeply tied with who we are as human beings in the world. To be fully human is to be in control of one’s self, including the spaces we occupy.

[Lo importante aquí no es cuánto vale nuestra privacidad para los anunciantes, o para intermediarios como Foursquare. Es cómo preservamos y controlamos nuestra privacidad, que básicamente no tiene precio aunque millones de nosotros la regale a cambio de minucias. La privacidad guarda una estrecha relación con quiénes somos como seres humanos en el mundo. Ser completamente humano es tener control sobre uno mismo, incluyendo los espacios que ocupamos.]

Searls da por supuesto algo que una interesantísima serie de publicaciones del Wall Street Journal sobre privacidad online titulada “What They Know” ha puesto claramente de manifiesto en los últimos meses: en la práctica, muchos de quienes intervienen en el negocio de la publicidad online ignoran o violan sistemáticamente la privacidad de los usuarios. Y explica el motivo estructural:

Individuals have no independent status on the Web. Instead we have dependent status. Our relationships (and we have many) are all defined by the entities with which we choose to relate via the Web. All those dependencies are silo’d in the systems of sellers, schools, churches, government agencies, social media, associations, whatever. […] You have to deal with all of them separately, on their terms, and in their spaces. Those spaces are not your spaces. […]

What I’m saying here is that, on the Web, we do all our privacy-trading in contexts that are not out in the open marketplace, much less in our own private spaces […]. They’re all in closed private spaces owned by the other party—where none of the rules, none of the terms of engagement, are yours. In other words, these places can’t be private, in the sense that you control them. You don’t. And in nearly all cases (at least here in the U.S.), your “agreements” with these silos are contracts of adhesion that you can’t break or change, but the other party can—and often does.

These contexts have been so normative, for so long, that we can hardly imagine anything else, even though we have that “else” out here in the physical world. We live and sleep and travel and get along in the physical world with a well-developed understanding of what’s mine, what’s yours, what’s ours, and what’s none of those. That’s because we have an equally well-developed understanding of bounded spaces. These differ by culture. In her wonderful book French or Foe, Polly Platt writes about how French proxemics—comfortable distances from others—are smaller than those of Americans. The French feel more comfortable getting close, and bump into each other more in streets, while Americans tend to want more personal space, and spread out far more when they sit. Whether she’s right about that or not, we actually have personal spaces on Earth. We don’t on the Web, and in Web’d spaces provided by others. […]

So one reason that privacy trading is so normative is that dependency requires it. We have to trade it, if that’s what the sites we use want, regardless of how they use whatever we trade away.

The only way we can get past this problem (and it is a very real one) is to create personal spaces on the Web. Ones that we own and control. Ones where we set the terms of engagement. Ones where we decide what’s private and what’s not.

[Los individuos no tenemos un estado independiente en la Web. En su lugar, tenemos un estado dependiente. Todas nuestras relaciones (y tenemos muchas) vienen definidas por las entidades con las que escogemos relacionarnos a través de la Web. Todas estas dependencias se guardan en los silos de los vendedores, escuelas, iglesias, agencias gubernamentales, redes sociales, asociaciones, etcétera. […] Tienes que tratar con ellos por separado, según sus condiciones y en sus espacios. Esos espacios no son los tuyos. […]

Lo que quiero decir es que, en la Web, cedemos nuestra privacidad en contextos que no están en un mercado abierto, menos aún en nuestros propios espacios […]. Están todos en espacios privados cerrados propiedad de la otra parte —donde ninguna de las reglas, ninguno de los compromisos, son tuyos. Dicho de otro modo, esos lugares no pueden ser privados, en el sentido de que tú los controlas. No es así. Y en casi todos los casos (al menos aquí en EEUU), tus “acuerdos” con esos silos son contratos de adhesión que tú no puedes romper o cambiar, pero la otra parte sí —y con frecuencia lo hace.

Estos contextos han sido tan habituales, durante tanto tiempo, que nos cuesta imaginarnos otra cosa, aunque esa “otra cosa” la tenemos en el mundo físico. Vivimos y dormimos y viajamos y nos tratamos en el mundo físico con un acuerdo bien asentado de lo que es mío, lo que es tuyo, lo que es nuestro y lo que no es nada de eso. Es así porque tenemos un acuerdo igualmente bien fundado de qué se entiende por espacios acotados. Hay diferencias culturales. En su maravilloso libro French or Foe, Polly Platt escribe sobre cómo la proxémica de los franceses—la distancia entre unos y otros a la que están cómodos— es menor que para los estadounidenses. Los franceses están más cómodos acercándose, y se chocan más unos con otros en la calle, mientras que los estadounidenses tienden a querer más espacio personal, y se separan más entre sí cuando se sientan. Tenga razón o no, lo cierto es que tenemos espacios personales en la Tierra. No así en la Web, ni en los espacios Web que otros nos proporcionan. […]

Así pues, una de las razones por las que esta concesión es tan habitual es que la dependencia lo hace necesario. Tenemos que comerciar (con nuestra privacidad), si eso es lo que los sitios web quieren, independientemente de cómo utilicen lo que les demos.

La única forma de superar este problema (que es muy real) es crear espacios personales en la Web. Espacios que nosotros poseamos y controlemos. Espacios donde nosotros dictemos las condiciones. Espacios donde nosotros decidamos qué es privado y qué no.]

Al pensar en privacidad en general, tendemos (al menos, yo tiendo, supongo que por deformación profesional) a situarnos en el lugar de las organizaciones que por el hecho de tratar datos personales tienen, de acuerdo con la legislación europea, una serie de obligaciones relacionadas con el manejo de los datos, y dedicamos el tiempo a buscar maneras para que dichas organizaciones mejoren su grado de respeto de este derecho fundamental de los individuos (Privacy by design, Privacy Enhancing Technologies…).

Lo que me sorprendió y me pareció tan interesante es que Searls parte desde el otro lado, desde el individuo. Él proviene del mundo de la publicidad (de hecho, es coautor del Cluetrain Manifesto, clásico de la publicidad online), y el trabajo que lidera, el Proyecto VRM (Vendor Relationship Management), del Berkman Center de la Universidad de Harvard, está orientado a la relación entre empresas y consumidores, aunque yo entiendo que se podría generalizar a otro tipo de organizaciones. De hecho, su nombre, VRM, juega con el de los actuales CRMs (Customer Relationship Management) de las empresas, es decir, de la oferta, que los VRMs vendrían a complementar desde el lado de los clientes, de la demanda.

El proyecto parte del convencimiento de que “los clientes libres son más valiosos que los cautivos —para ellos mismos,  para los vendedores y para el conjunto de la economía” y, para que sean libres:

1. Las relaciones han de ser voluntarias.
2. Los clientes deben establecer relaciones con los vendedores como actores independientes.
3. Los clientes deben ser los puntos de integración de sus propios datos.
4. Los clientes deben controlar los datos que generan y acumulan. Deben poder compartir los datos de forma selectiva y voluntaria, y controlar las condiciones de su uso.
5. Los clientes han de poder imponer sus propias condiciones de relación y de servicio.
6. Los clientes han de poder expresar sus exigencias e intenciones fuera del control de cualquier compañía.

Estos principios se traducen en los siguientes objetivos:

1. Proporcionar a los individuos herramientas para gestionar sus relaciones con las organizaciones. Estas herramientas son personales, esto es, pertenecen al individuo en el sentido de que están bajo su control. También pueden ser sociales, en el sentido de que pueden conectar con otros y permitir la creación y la acción de grupos. Pero deben ser personales antes.
2. Hacer que los individuos sean el centro de recopilación de sus propios datos, de manera que los historiales de transacciones, las historias clínicas, la información de los detalles de afiliación, los contratos de servicios y otras formas de datos personales no estén dispersos en multitud de silos separados.
3. Proporcionar a los individuos la capacidad para compartir datos de forma selectiva, sin revelar más información personal de la que el individuo permita.
4. Proporcionar a los individuos la capacidad de controlar cómo otros utilizan sus datos, y durante cuánto tiempo. A discreción del individuo, esto puede incluir acuerdo que exijan a terceros que borren los datos del individuo cuando la relación acaba.
5. Proporcionar a los individuos la capacidad de imponer sus propias condiciones de servicio, reduciendo o eliminando la necesidad de condiciones de servicio escritas por la organización que nadie lee pero todos tienen que “aceptar” de todos modos.
6. Proporcionar a los individuos los medios para expresar su demanda en el mercado abierto, fuera de cualquier silo de una organización, sin revelar ninguna información personal innecesaria.
7. Convertir a los individuos en plataformas para los negocios abriendo el mercado a muchos tipos de servicios de terceros que sirvan tanto a compradores como a vendedores.
8. Basar las herramientas de gestión de relaciones en estándares abiertos, APIs abiertas y código abierto. […]

Finaliza Searls su post diciendo:

“Once we have those, the need for privacy trade-offs won’t end. But they will begin to make the same kind of down-to-Earth sense they do in the physical world. And that will be a huge leap forward.”

[Una vez que tengamos (estas herramientas), no cesará la necesidad de hacer concesiones con la privacidad. Pero empezará a tener el mismo sentido práctico que en el mundo físico. Y eso será un gran salto adelante.]

Ojalá tenga razón. Desde luego, creo que es un camino que merece la pena explorar.

Octality

30 Sep

El pasado 16 de septiembre tuvo lugar en la sede de la EOI un nuevo seminario relacionado con nuestro máster, en esta ocasión bajo el título “Modelos de negocio de empresas de software libre“. Aunque no pude asistir presencialmente, he visto los vídeos de las presentaciones de Jorge Ferrer (de Liferay) y de Álvaro López Ortega (de Octality) en la mediateca de la web de la EOI.

Octality

Me han llamado la atención en particular las reflexiones de Álvaro sobre la dificultad de construir un modelo de negocio alrededor del software libre (en el caso de su empresa, Octality, principalmente en torno al servidor web de alto rendimiento Cherokee, que él mismo creó). La mayor complicación salta a la vista: el producto principal, al que se dedica la mayor parte del esfuerzo creador, es gratis, por lo que los ingresos se tienen que obtener por otras vías.

Álvaro destacó que, por mucha importancia que tenga que la gente en general sea consciente de la diferencia entre gratis y libre (cuya confusión proviene en gran medida de que en inglés se utiliza una misma palabra, free, para ambas), en la práctica uno no puede pretender organizar un modelo de negocio basado en software libre alrededor del propio código.

En sus palabras, se trata de serle útil a alguien que esté dispuesto a pagarte por resolverle un problema. El software contribuirá a la solución, pero no puede constituir toda la solución, o no tienes negocio.

Aquí introduce una interesante distinción que le escuchó una vez a Jonathan Schwartz, antiguo CEO de Sun Microsystems, que dice que el mundo está dividido en dos tipos de personas: las que nunca, bajo ninguna circunstancia, pagarían por el software que usan y las que necesitan pagar por su software y que, si lo obtienen gratis, no lo van a poder usar.

Las primeras pueden contribuir a crear para la empresa que desarrolle el software libre nombre de marca, relevancia, visibilidad, publicidad con bajo coste… pero no negocio.  Este, si es que es posible, se debe edificar alrededor del segundo tipo de personas. Esta división se corresponde muy aproximadamente con las aplicaciones de escritorio, creadas para un usuario final cada vez más acostumbrado a no pagar por las aplicaciones que instala en su ordenador (navegador, suite ofimática, cliente de correo…), y las aplicaciones empresariales, donde está extendida la idea de que no se puede confiar en software por el que no se paga y que en general están más que dispuestos a pagar por servicios de soporte ligados al producto. Por tanto, lo ideal para alguien que quiere vivir de un negocio relacionado con el software libre es servirse de la publicidad que pueda obtener de la difusión de su producto entre los usuarios de escritorio (desktop) para hacer caja con los clientes corporativos.

Otra de los puntos más interesantes de su charla es que puso de manifiesto la tensión que existe entre la necesidad de todo proyecto de software libre de propiciar la creación de una comunidad de usuarios/contribuyentes alrededor del código, con los beneficios que eso supone: mayor difusión del producto, gran cantidad y diversidad de probadores, posibilidad de sondear a los usuarios sobre posibles caminos de evolución, etc., y la capacidad de la empresa que desarrolla el software, en su mayor parte o en su totalidad, de decidir de forma autónoma el rumbo de su proyecto.

En el caso de Octality, por ejemplo, Álvaro insistió en que licencian su software bajo GPL versión 2 (no versión 3, ni siquiera “versión 2 o superior”), lo cual tiene consecuencias en particular para quienes pretender utilizarlo en sistemas empotrados, pues el carácter vírico de esta licencia copyleft “contaminaría” al resto del software con el que se vinculase. Aquí entra en juego una característica particular del proyecto de Octality, que no se da necesariamente en todos los proyectos libres, y es que la empresa es titular del copyright sobre la totalidad del código, lo que les permite publicarlo bajo una licencia dual, cobrando a quienes pretenden utilizarlo en sistemas empotrados a cambio de obtenerlo bajo una licencia restrictiva que no les obligue a hacer libres sus desarrollos. Es este privilegio que tiene Octality sobre el resto de los actores de la comunidad alrededor de sus productos, en el que se basa parte de su modelo de negocio, el que provoca la tensión, pues puede hacer que gente interesada en un principio en contribuir a la comunidad no lo haga al sentir que está trabajando gratis en beneficio de un tercero, Octality.

Es necesario encontrar un equilibro que satisfaga a todas las partes, de forma que quienes contribuyan al proyecto sientan que su opinión y sus necesidades se tienen en cuenta, al tiempo que la empresa consigue rentabilizar su inversión en el código que, además de constituir la base de su negocio, acaba revirtiendo en la propia comunidad.

El software libre como herramienta de estrategia empresarial (II)

22 Jul

(Aquí podéis leer la primera parte de esta serie de posts.)

Otro ejemplo de aplicación de la ley de conservación de los beneficios atractivos de Christensen al software libre es el caso del servidor web Apache, distribuido bajo una licencia libre y que lleva 15 años, prácticamente desde su lanzamiento en 1995, dominando y por tanto comoditizando el mercado de los servidores web:

Netcraft web server survey (July 2010)

Cuotas de mercado de servidores web (Netcraft, julio de 2010)

Esta comoditización, con la consiguiente reducción de los costes, propició la proliferación de sitios web, al permitir que cualquier organización, desde las más grandes hasta las pymes, pudiese contar con su propio sitio en la Red, lo que, señala Juanjo, supuso un gran beneficio para las telcos, la mayoría de cuyos directivos siguen sin ser conscientes de cuánto le deben al software libre.

Pero los grandes proveedores de telecomunicaciones no deberían pararse ahí. Hierro les invita a ser proactivos, a no esperar a que surjan nuevos apaches, sino a provocarlos deliberadamente, a incluir la inversión en software libre dentro de sus estrategias de crecimiento.

Así, pone el ejemplo de MyMobileWeb, una plataforma de software libre y basada en estándares para el desarrollo rápido (y barato) de portales y aplicaciones web orientados a dispositivos móviles. Con ella, en la línea de Apache, Telefónica pretende estimular la creación de sitios web pensados en este caso para su acceso desde terminales móviles, lo que espera que acabe repercutiendo en una mayor demanda de sus servicios de telecomunicaciones.

De hecho, Juanjo lleva su razonamiento un paso más allá al imaginar que podrían ser no sólo las compañías sino los propios gobiernos quienes, para favorecer a sus “campeones nacionales”, financiasen el desarrollo de productos de software libre que les permitiesen aprovecharse de este tipo de efectos.

Además de los beneficios evidentes del software libre comentados hasta ahora, Juanjo identifica en su charla varios más, como son:

  • Para las empresas que consumen software, el software libre es un medio para proteger la inversión frente a la continua reinvención de estándares por parte de los fabricantes de software propietario para evitar la comoditización de sus productos.
  • Desde el punto de vista de Telefónica, la participación o la promoción de proyectos basados en software libre contribuye a mejorar su imagen de marca por varios motivos: por un lado, al demostrar que la compañía tiene perfil tecnológico, algo que con frecuencia se obvia; por otro, se puede entender como una forma de devolver valor a la sociedad de forma gratuita; más específicamente, se pueden destacar los beneficios que estos desarrollos pueden tener para el desarrollo de países emergentes.
  • Por último, otra ventaja fundamental del software libre frente a las opciones privativas es que aquél permite el establecimiento de un modelo de innovación abierta, como es el caso para Telefónica con la Comunidad Morfeo. Es muy difícil que una sola compañía consiga reunir siempre el mejor talento, las mejores ideas; la colaboración en torno al software libre permite sumar y sacar provecho del talento distribuido, pues facilita en gran medida la gestión de los derechos de propiedad intelectual de los productos, ya que las distintas licencias libres establecen reglas claras al respecto.

7 de enero de 2011: añado un par de enlaces interesantes sobre la estrategia de Google con Android:

El software libre como herramienta de estrategia empresarial (I)

22 Jul

Ése es el título de la conferencia que ofreció el pasado 24 de junio Juan José Hierro, Chief Technologist en tecnologías de software de Telefónica I+D, dentro del seminario sobre software libre en entorno empresarial organizado alrededor del máster en Economía Digital e Industrias Creativas.

(El vídeo completo de la charla se puede ver en la página de EOI. No encuentro la manera de incrustarlo aquí.)

En ella, Juanjo nos expuso su visión de las posibilidades del software libre como arma estratégica para una empresa como Telefónica, cuyo negocio no gira alrededor de la venta de software, aunque sí de servicios o productos o adyacentes de alguna manera.

Para ello, empezó refiriéndose a la ley de conservación de los beneficios atractivos (también conocida como ley de conservación de la integración) enunciada por Clayton Christensen, según la cual:

“Cuando la modularidad y la comodificación* hacen que los beneficios atractivos desaparezcan de un eslabón en la cadena de valor, la conservación de la integración implica que surgirá la oportunidad de obtener beneficios atractivos con productos privativos en un eslabón adyacente.”

En lugar de “cadena de valor”, con su connotación lineal, secuencial, Juanjo prefiere hablar de “red de valor”, en la que distintos actores conectados entre sí aportan valor creando o modificando un producto o servicio, hasta que éste llega al cliente final.

Según Christenten, si un nodo de la red de valor se modulariza (esto es, se separan los elementos que lo componen), y alguno de los elementos se comoditiza, los beneficios que alguno de los actores estaba obteniendo de ese elemento pasan a poder cosecharlos los actores situados en los nodos adyacentes de la red.

Para Juanjo, el software libre es un instrumento muy eficiente para la comoditización, y para ilustrar esta opinión pone un ejemplo muy relevante y esclarecedor (al menos para mí, que casi me atrevería a considerarme un Google fanboy): cómo y por qué Google utiliza el software libre, en particular el sistema operativo para móviles Android.

Cómo utiliza Google el software libre (Juanjo Hierro, Telefónica I+D)

Cómo utiliza Google el software libre (Juanjo Hierro, Telefónica I+D)

Google utiliza el software libre (por ejemplo, Android) para comoditizar actividades adyacentes al núcleo de su negocio y capturar los beneficios

1. Modularización y comoditización.

– Google ha modularizado la oferta en dispositivos móviles y ha comoditizado el sistema operativo (Android)

– Esto ha permitido que fabricantes de dispositivos nuevos y más baratos entren en el mercado.

– Los precios más bajos estimulan el crecimiento de la demanda de terminales Android, en los que el acceso a los servicios de Google [búsqueda, Gmail, Calendar, Maps, Voice…] se incorpora “de serie”.

2. Menos que gratis

– Google establecerá relaciones fuertes con los fabricantes de dispositivos, compartiendo parte de sus ingresos con ellos (por ejemplo, de la publicidad).

– Google se apoyará en estas relaciones para dar los siguientes pasos.

Antes de la aparición de Android, Nokia era (y en cierta medida lo sigue siendo, aunque no en el mercado de los smartphones) el actor dominante en la fabricación de dispositivos móviles, y ofrecía sus terminales con sus sistemas operativos propietarios.

Junto a ella, en la red de valor también se encuentran los proveedores de servicios de telecomunicaciones (telcos) cuyo negocio principal (core business) está en el servicio de acceso a los contenidos, y también los proveedores de las aplicaciones que se ejecutan en los móviles.

Google, cuyo negocio principal se basa en la publicidad dirigida relacionada con la búsqueda y con el resto de sus servicios, desarrolló Android con el objetivo de, primero, modularizar los dispositivos móviles, estableciendo una separación entre la fabricación de los aparatos físicos y de sus sistemas operativos y, segundo, comoditizar dichos sistemas operativos, para poder capturar al menos parte de los beneficios que antes obtenía Nokia al vender conjuntamente los dispositivos y el software.

Esta comoditización, al eliminar los costes asociados a las licencias del sistema operativo, reduce las barreras de entrada en el negocio de fabricación de los dispositivos, lo que ha permitido que nuevos actores entrasen en el mercado. Y esto revierte, para el cliente final, en una mayor y más variada oferta de dispositivos.

A su vez, este incremento de la oferta estimula la demanda de los dispositivos, y por tanto de su uso, lo que se traduce en mayor demanda también de los servicios que ofrecen las telcos, como Telefónica.

Ésta es, según Juanjo, la razón por la que Google se embarca en proyectos como Android, por mucho que a la hora de explicar sus movimientos, la empresa haga énfasis en que con ello crea un ecosistema donde todos los actores ganan (salvo Nokia, claro…), en que facilita que los desarrolladores de aplicaciones puedan portar sus productos a cualquier dispositivo, o cosas por el estilo.

Juanjo prevé que el siguiente paso de Google, al que se refiere como la estrategia “menos que gratis”, será sacar provecho de su privilegiada posición cuasi-monopolista en las búsquedas en Internet para ofrecer a los fabricantes de dispositivos compartir con ellos parte de los beneficios que obtiene por el uso de sus servicios desde los terminales, a cambio de que éstos distribuyan sus aparatos con Android, algo contra lo que sus competidores tendrían dificultades en reaccionar por mucho que optasen por liberar el código fuente de sus sistemas operativos, como ha hecho Nokia con Symbian.

La segunda parte de mi reseña de la conferencia de Juan Hierro puede leerse aquí:

El software libre como herramienta de estrategia empresarial (II)

7 de enero de 2011: añado un par de enlaces interesantes sobre la estrategia de Google con Android:

———————————

* El palabro “comoditización”, traducción silvestre del inglés “commoditization”  que no existe en castellano pulcro, se refiere al “proceso por el que bienes que tienen valor económico y que pueden distinguirse por sus atributos (singularidad o marca) acaban convirtiéndose en meras “commodities” a los ojos del mercado o de los consumidores. Es la transformación de mercado de competencia diferenciada a otro de competencia basada únicamente en el precio, y de un mercado monolopista a uno de competencia perfecta.”

Del mismo modo, “commodity“, que no tiene que yo sepa una traducción satisfactoria en español (el Free Dictionary lo traduce como “artículo, “producto”, “mercancía”, “mercadería” o “materia prima”), se refiere al bien (producto o servicio) que sólo se diferencia de aquéllos con los que compite por su precio, no habiendo ninguna otra característica que lo distinga.

A %d blogueros les gusta esto: