La popularización del libro electrónico. Amazon vs Apple

20 Mar

La digitalización en masa de libros impresos es una de las corrientes de fondo que nos están llevando hacia la lectura electrónica. Pero parece claro que la pantalla del ordenador, donde aún tiene lugar la mayor parte de esa lectura, no incita precisamente a la concentración sobre textos extensos. Aunque el libro electrónico tiene ya 40 años de historia, para que la lectura de libros en formato digital comenzase su fase de popularización masiva hubo que esperar al año 2007, cuando Amazon lanzó su lector, el Kindle (que, según anunció la propia compañía recientemente, se ha convertido en el artículo más vendido de su historia).

Kindle vs iPad

Kindle vs iPad (fuente: tecnometro.blogspot.com)

Aunque existían dispositivos técnicamente similares desde algún tiempo antes, se puede decir que el Kindle, con su integración inalámbrica con la tienda online de Amazon y la gran variedad de títulos que esta ofrece (alrededor de 90.000 en el momento de su lanzamiento; actualmente, más de 800.000), creó el mercado del libro electrónico, apenas existente hasta entonces y cuyo ritmo de crecimiento es ahora espectacular (siempre teniendo en cuenta que, en cifras absolutas, aún representa alrededor del 8% del total en Estados Unidos y que en España este porcentaje es inferior al 2%).

Algo análogo ha sucedido más recientemente con el iPad, que Apple presentó a principios de 2010: aunque el concepto de tablet o tableta, ordenador portátil con pantalla táctil, ya existía desde hacía unos cuantos años, no había llegado a cuajar en el mercado hasta la llegada del iPad, que en 9 meses vendió 17 millones de unidades, y cuya nueva versión, que se lanzó hace una semana en Estados Unidos y llegará a España en los próximos días, se espera que alcance cifras de ventas mucho mayores. El éxito del iPad ha propiciado que muchos otros fabricantes se lancen a la comercialización de tabletas de distintas características y precios, aunque a día de hoy ninguna, ni siquiera las más punteras de las equipadas con Android, como la Xoom de Motorola o la Galaxy Tab de Samsung, parecen en condiciones de amenazar el liderazgo de Apple.

Junto con el iPad, Apple presentó su tienda de libros, iBooks, cuya oferta de títulos es aún muy inferior a la de Amazon. Sin embargo, la versatilidad de las tabletas permite que la compra y lectura de libros en el iPad no se produzca únicamente a través de la tienda de Apple, sino también mediante aplicaciones de terceros (ver gráfico), incluida la propia aplicación Kindle de Amazon, que ha pasado así de ser la denominación únicamente del dispositivo físico a referirse también a una aplicación de lectura de libros disponible en múltiples plataformas.

La competencia entre Apple y Amazon por los lectores lleva aparejada otra batalla: la del precio de los libros y el modelo de reparto de los ingresos.

Amazon, aprovechando la popularidad del Kindle y la ausencia de rivales de entidad, impuso a los editores un modelo (“al por mayor“, wholesale) por el cual les compraba pagando la cantidad que estos determinaban pero era libre de ofrecerlos a sus clientes al precio que estimase más oportuno. Fue así como Amazon consiguió fijar los 9,99 dólares como precio de referencia para los ebooks en Estados Unidos, pese a incurrir con ello en unas pérdidas de varios dólares en cada venta, pues los pagaba más caros a los proveedores de contenido. Estas pérdidas se recuperarían con la venta de más dispositivos de lectura, lo que serviría para reforzar su liderazgo.

Los editores, que temían que Amazon acabase aprovechando su posición de dominio en el mercado para exigir rebajas en el precio que les pagaba por los libros, recibieron como agua de mayo la llegada del iPad y el modelo “de agencia que establecía Apple con su tienda, por el que son los propios editores quienes establecen el precio final de venta, del cual Apple recibe una comisión del 30%. De hecho, de las seis grandes editoriales americanas (Hachette, HarperCollins, Macmillan, Penguin, Simon & Schuster y Random House), las cinco primeras aprovecharon la posición negociadora que les permitió la aparición del iPad para exigir a Amazon el paso al modelo de agencia. Random House, cuya relación con Amazon se mantuvo durante un año con el modelo anterior y cuyos libros no figuraban en la tienda de Apple, ha acabado, con la llegada del iPad 2, pasando también a este modelo.

La cuestión está de candente actualidad, pues el cambio de modelo ha supuesto por el momento una subida de los precios de los libros, que los lectores no ven con agrado y ha levantado sospechas de connivencia entre los editores para la fijación de precios, lo que ha llevado a las autoridades de defensa de la competencia en varios países europeos, y también a escala comunitaria, a investigar el asunto.

Otras entradas de la serie:

El futuro de la lectura

El futuro del libro 1. ¿El ocaso de la era Gutenberg?

El futuro del libro 3. La cadena de valor

El futuro del libro 4. Marco jurídico I

El futuro del libro 5. Marco jurídico II

El futuro del libro 6. Oleadas de la digitalización

El futuro del libro 7. Los proyectos de digitalización masiva de libros

El futuro del libro 8. El proyecto Google Books

El futuro del libro 9. El acuerdo sobre Google Books

40 años de historia del libro electrónico

1 Mar

Pese a que pueda parecer una novedad reciente, en 2011 se cumplen 40 años desde que, con el inicio del Proyecto Gutenberg, comenzó la era del libro en formato electrónico.

(Infografía de Ebookfriend.ly, vía Teleread.com)

40 años de historia del ebook (Fuente: ebookfriendy.ly)

40 años de historia del ebook (Fuente: ebookfriendy.ly)

El futuro del libro 9. El acuerdo sobre Google Books

28 Feb

[Actualización: el 22 de marzo de 2011, el juez Chin rechazó el acuerdo sobre Google Books, argumentando que su ámbito, en particular en lo referente a los usos futuros por parte de Google de los libros digitalizados, excedía con creces lo que la demanda inicial debía dirimir, a saber, si el escaneo de los libros para su incorporación a la base de datos del buscador y la muestra de pequeños fragmentos en respuesta a consultas de los usuarios suponía una infracción de los derechos de los titulares o bien cabría dentro del límite del fair use.]

Como comenté en la entrada anterior de la serie, el proyecto de Google de escanear millones de libros de las colecciones varias de las principales bibliotecas de investigación estadounidenses, sin autorización previa de los titulares de los derechos de propiedad intelectual sobre ellos, dio lugar en 2005 a sendas demandas por parte del Gremio de Escritores y de varias editoriales.

Lo que prometía ser un importante caso de aplicación del fair use (un límite a los derechos de propiedad intelectual contemplado en la legislación estadounidense, cuya aplicación ha de determinar el juez caso por caso, siguiendo los criterios establecidos en la ley) dio un vuelco cuando, tras tres años de litigio, el 28 de octubre de 2008, las partes presentaron ante el juez un acuerdo que iba, como veremos, mucho más allá de lo que en principio se estaba dirimiendo con la demanda: a saber, la posibilidad de que el fair use cubriese la digitalización de obras sin autorización de sus titulares y su incorporación a la base de datos de Google para mostrar pequeños fragmentos en respuesta a las consultas de sus usuarios.

Por tratarse de una demanda en forma de class action, en la que los demandantes representan a todos los titulares de derechos sobre las obras afectadas que no manifiesten su voluntad de no participar del acuerdo, para que sea este sea válido ha de ser aprobado por el juez, algo que aún no se ha producido y sobre lo que hay dudas de que se produzca en los términos actuales del acuerdo.

Durante el periodo de alegaciones, el juzgado recibió cientos de escritos, en su mayor parte críticos con el acuerdo propuesto. Entre ellos, tuvo especial importancia el que remitió el Departamento de Justicia (pdf) en nombre del Gobierno estadounidense, que provocó una revisión del acuerdo, presentada ante el juez el 13 de noviembre de 2009 (Acuerdo revisado, Amended Settlement).

Se trata de un documento largo y complejo (pdf, 368 páginas), con un lenguaje propio (el apartado de definiciones ocupa 21 páginas), y su influencia se extiende a cuestiones tan diversas como el acceso a la cultura en la era digital, las deficiencias y rigideces de la legislación sobre propiedad intelectual o el riesgo de monopolio en la explotación comercial de obras hasta ahora fuera de circulación, entre muchas otras, lo que ha dado lugar a un intenso debate a su alrededor.

En resumen, el acuerdo permite que Google prosiga con el escaneo de los libros para incorporarlos a su buscador, a cambio de lo cual pagará a los titulares. El acuerdo, tras su revisión de 2009, afecta sólo a obras publicadas en Estados Unidos, Canadá, Reino Unido y Australia antes del 5 de enero de 2009, si bien, en lugar de resolver únicamente la cuestión de los fragmentos de texto de los libros escaneados que Google pretendía mostrar en su buscador, prevé la creación de varios servicios que van mucho más allá del alcance original.

Los servicios que implican la visualización (display) por parte del usuario de la totalidad o parte de la obra que el acuerdo contempla explícitamente son:

  • Vistas previas (previews): dependiendo del tipo de obra (ficción, no ficción, antología/poesía…), pueden alcanzar el 20% del total de la obra, frente al máximo de 3 fragmentos de una pocas frases que Google pretendía mostrar antes del acuerdo.
  • Compras por clientes finales (consumer purchases): que darán acceso online de por vida al texto completo del libro. De aprobarse el acuerdo, los libros afectados por él se incorporarían a los que ya ofrece Google ebookstore, la tienda que ya opera en Estados Unidos y se espera que en unos meses lo haga también en España.
  • Suscripciones institucionales (institutional subscriptions): una entidad podrá pagar por una suscripción anual que permita a su personal acceder al texto completo de todos los libros o de un subconjunto temático.
  • Acceso público (public access): Google proporcionará acceso gratuito mediante un único terminal en cada una de las bibliotecas públicas o instituciones de educación superior que lo soliciten.

Los servicios sin visualización (non-display), que no implican mostrar al público del contenido de los libros, incluyen entre otros: la visualización de información bibliográfica, la indexación por Google del texto completo y su utilización para proyectos internos, como traducción automática, mejora de los algoritmos de búsqueda, etc.

El acuerdo trata de distinta manera las obras actualmente a la venta (commercially available) y las descatalogadas (not commercially available), estableciendo las siguientes reglas por defecto:

  • Para libros a la venta: no se incluirán en los servicios de venta ni de suscripción institucional; sólo se mostrará información bibliográfica.
  • Para libros descatalogados: se permitirán los servicios de visualización, salvo que el titular se oponga.
  • Además, Google pondrá libremente a disposición de sus usuarios las obras en dominio público, incluida la posibilidad de descargarlas.
Tipos de vistas previas según GBS (fuente: Jonathan Band, "The GBS Settlement. The Reader's Digest Version"

Tipos de vistas previas según GBS (fuente: Jonathan Band, "The GBS Settlement. The Reader's Digest Version"

Los titulares de derechos (autores o editores) que quisiesen quedar fuera del acuerdo (y retener así la facultad de ejercer acciones legales contra Google) tenían de plazo hasta el pasado 28 de enero para hacerlo. A partir de entonces, sólo pueden indicar a Google que no desean que haga uso de sus obras. Google pagará a los titulares 60 dólares por cada libro que hubiese escaneado antes de mayo de 2009. En total, al menos serán 45 millones de dólares.

De los ingresos que se generen por publicidad, suscripciones institucionales y ventas a clientes finales, Google se quedará con el 37% y pagará el 63% restante al Registro de Derechos sobre los Libros (Book Rights Registry, BRR), la entidad sin ánimo de lucro creada para gestionar los derechos sobre los libros afectados por el acuerdo, que lo distribuirá entre los titulares, para lo que mantendrá una base de datos de autores y editores y llevará a cabo esfuerzos para localizar a los titulares de las obras que aún no hayan sido identificados. Como parte del acuerdo, Google se compromete a pagar 34,5 millones de dólares para poner en funcionamiento el BRR; después, se financiará con un porcentaje de lo que Google recaude.

Un aspecto especialmente controvertido es el relativo a las obras huérfanas, pues sus detractores entienden que el acuerdo supone de facto una licencia exclusiva a Google para explotarlas comercialmente; frente a lo cual hay quienes ven en el acuerdo la posibilidad de que parte de la cultura del siglo XX escape al agujero negro en que habría quedado sumida, provocado por la prolongación de los plazos de protección de la propiedad intelectual y los altísimos costes de transacción en que habría de incurrir quien acometiese la tarea de localizar a todos los titulares de las obras que aún se encuentran protegidas pero que dejaron de explotarse comercialmente hace tiempo para obtener su permiso para convertirlas y utilizarlas en formato digital.

Referencias

The Public Index (exhaustiva recopilación de documentación relacionada con el caso y textos de análisis gestionada por James Grimmelmann).

Conferencia “D is for Digitize” (celebrada en la New York Law School del 8 al 10 de octubre de 2009) y artículos relacionados con la conferencia publicados en la NYLS Review.

Otras entradas de la serie:

El futuro de la lectura

El futuro del libro 1. ¿El ocaso de la era Gutenberg?

El futuro del libro 2. Conceptos

El futuro del libro 3. La cadena de valor

El futuro del libro 4. Marco jurídico I

El futuro del libro 5. Marco jurídico II

El futuro del libro 6. Oleadas de la digitalización

El futuro del libro 7. Los proyectos de digitalización masiva de libros

El futuro del libro 8. El proyecto Google Books

La popularización del libro electrónico. Amazon vs Apple

El futuro del libro 8. El proyecto Google Books

21 Feb

Como comentamos en la entrada anterior de esta serie sobre el futuro del libro, entre los proyectos de digitalización masiva de obras impresas destaca por varios motivos el que está llevando a cabo Google, que ha dado lugar a un litigio aún pendiente de resolución con importantes repercusiones.

En octubre de 2004, durante la Feria del Libro de Fráncfort, Google presentó Google Print, un acuerdo con varias importantes editoriales (como McGraw-Hill, Cambridge University Press, Oxford University Press, Pearson o Penguin, entre otras) por el que el buscador podría mostrar entre los resultados de las consultas, junto a los enlaces a las páginas web relevantes, pequeños extractos (snippets) de los libros en los que apareciesen los términos buscados.

Poco después, en diciembre, presentaba asimismo su proyecto Google Library en el que, de acuerdo con varias de las principales bibliotecas estadounidenses (de las universidades de Harvard, Stanford y Michigan, y la New York Public Library) y la biblioteca de la Universidad de Oxford, Google escanearía digitalmente unos 30 millones de volúmenes de sus colecciones, incluyendo tanto las obras en dominio público como ejemplares aún bajo copyright, para incorporarlos a la base de datos de su buscador. Mientras que de los libros en dominio público Google mostraría el texto entero del libro, de libros aún protegidos por la propiedad intelectual únicamente permitiría ver hasta tres pequeños fragmentos por libro, cada uno de ellos de unas pocas líneas.

Búsqueda de libros de GoogleAmbas iniciativas constituyen lo que actualmente se conoce como Google Books.

Aunque Google ofrecía a los titulares de los derechos la posibilidad de solicitar que sus obras se excluyesen del programa de escaneo de las bibliotecas (sistema de tipo opt-out), así como de incorporarse al programa para editores, por el que recibirían parte de los ingresos que Google obtuviese por los anuncios situados en las páginas donde se mostrasen los fragmentos de sus libros, encontró gran resistencia a Google Library, pues muchos de los titulares de los derechos de propiedad intelectual sobre los libros, autores o editores, consideraban que tanto el escaneo completo de los textos para incorporarlos a la base de datos del buscador como el hecho de mostrar pequeños fragmentos de los libros alrededor de los términos buscados constituían una vulneración de sus derechos exclusivos, ya que Google debería haber contado con su autorización previa para poder hacerlo legalmente.

La disputa con autores y editores dio lugar a sendas demandas. El 20 de septiembre de 2005, el Gremio de Escritores (Authors Guild) y varios autores individuales demandaron a Google alegando que el proyecto Google Library vulneraba sus derechos de propiedad intelectual. Eligieron la forma de demanda colectiva (class action), una figura propia del ordenamiento jurídico estadounidense que les permitía actuar en nombre de los autores cuyos libros se viesen afectados (en concreto, se ciñeron a los que pertenecían a la colección de la Universidad de Michigan). Un mes más tarde, cinco editoriales —McGraw-Hill, Pearson, Penguin, Simon & Schuster y John Wiley & Sons— demandaron también a Google en el mismo tribunal. Más adelante, ambos casos acabaron integrándose en uno solo.

Desde el punto de vista de la propiedad intelectual, varias de las actuaciones de Google levantaban suspicacias:

  • El hecho de escanear un libro e incluirlo en la base de datos del buscador, aunque sólo se mostrasen al público pequeños fragmentos, podía vulnerar los derechos exclusivos de reproducción de los titulares.
  • Además, Google convertía los ficheros resultado del escaneo a un formato susceptible de indexación mediante software de reconocimiento óptico de caracteres (OCR).
  • Google proporcionaba una copia de cada fichero a las bibliotecas que participaban en el programa.
  • La propiedad intelectual está basada, como regla general, en un sistema opt-in, que impone sobre Google la carga de obtener autorización previa para proceder a la reproducción o transformación de las obras protegidas. Por tanto, el sistema opt-out que había implantado no era legalmente admisible.

Frente a estas presuntas vulneraciones de la ley de propiedad intelectual, la defensa de Google pasaba por hacer ver al juez que sus actuaciones entraban dentro del fair use (“uso legítimo” o “uso razonable”), un límite a los derechos de propiedad intelectual que permite un uso limitado del material protegido sin la necesidad de obtener permiso de los titulares. Es un juez el encargado de determinar, valorando las particularidades de cada caso, si se trata de un uso razonable o no, para lo cual la propia Copyright Act (sección 107) proporciona varios criterios (el propósito y la naturaleza del uso, incluyendo si el uso es comercial o para finales educativos sin ánimo de lucro; la naturaleza de la obra protegida; la cantidad y la importancia de la porción utilizada en relación con el conjunto de la obra protegida; y el efecto del uso sobre el mercado potencial o el valor de la obra protegida).

El resultado final del litigio no estaba claro: en un precedente reciente, el caso Kelly v Arriba Soft, el juez había dictaminado que el buscador de imágenes Arriba Soft hacía un uso razonable de las imágenes que Kelly, fotógrafo profesional, publicaba en su sitio web, al mostrar imágenes en miniatura (thumbnails) en los resultados de búsqueda. Google entendía que su posición frente a los titulares de derechos era aún más sólida que la de Arriba Soft; autores y editores, por su parte, argumentaban que la situación era demasiado diferente como para trazar analogías.

Sin embargo, el juez nunca llegó a dictar sentencia sobre un posible fair use pues, tras tres años de litigio, el 28 de octubre de 2008 las partes anunciaron un acuerdo, aún pendiente de aprobación judicial, cuyos detalles y posibles consecuencias trataremos a continuación.

[Actualización: el 22 de marzo de 2011, el juez Chin rechazó el acuerdo sobre Google Books, argumentando que su ámbito, en particular en lo referente a los usos futuros por parte de Google de los libros digitalizados, excedía con creces lo que la demanda inicial debía dirimir, a saber, si el escaneo de los libros para su incorporación a la base de datos del buscador y la muestra de pequeños fragmentos en respuesta a consultas de los usuarios suponía una infracción de los derechos de los titulares o bien cabría dentro del límite del fair use.]

Referencias:

Jonathan Band, The Long and Winding Road to the Google Books Settlement, 9 J. MARSHALL REV. INTELL. PROP. L. 227 (2009)

Jonathan Band, The Google Book Search Project, Lawsuit, and Settlement, presentación en la conferencia “D is for Digitize” (New York School of Law, 8 a 10 de octubre de 2009)

James Grimmelmann, The Elephantine Google Books Settlement, Buffalo Intellectual Property Law Journal (2010)

Otras entradas de la serie:

El futuro de la lectura

El futuro del libro 1. ¿El ocaso de la era Gutenberg?

El futuro del libro 2. Conceptos

El futuro del libro 3. La cadena de valor

El futuro del libro 4. Marco jurídico I

El futuro del libro 5. Marco jurídico II

El futuro del libro 6. Oleadas de la digitalización

El futuro del libro 7. Los proyectos de digitalización masiva de libros

El futuro del libro 9. El acuerdo sobre Google Books

La popularización del libro electrónico. Amazon vs Apple

El futuro del libro 7. Los proyectos de digitalización masiva de libros

15 Feb

El futuro del libro es digital, pero su pasado no, y su presente, en gran medida, tampoco. Se atisba el final de la era Gutenberg y la sociedad ha de encontrar la manera de trasladar al universo de bits la herencia cultural acumulada durante cientos de años en papel.

Como vimos en la entrada anterior de la serie, en estos momentos convergen, reforzándose, varias corrientes que empujan hacia la digitalización de los textos escritos. Una de ellas la encarnan las iniciativas de digitalización masiva de libros impresos que, promovidas por entidades públicas o privadas, se vienen desarrollando desde hace unos años.

Así, por ejemplo, desde la Comisión Europea se ha financiado la creación y el desarrollo de una biblioteca digital europea, Europeana, lanzada en 2008 con el objetivo de poner a disposición del público el patrimonio cultural y científico europeo, y que recoge no sólo libros digitalizados, sino también imágenes, cuadros, grabaciones sonoras y en vídeo. En noviembre de 2010, alcanzó los 14 millones de obras, de las cuales un 64% son fotografías, mapas, cuadros, piezas de museos y otras imágenes digitalizadas; un 34% son textos digitalizados, entre ellos 1,2 millones de libros completos; y alrededor de un 2% son grabaciones sonoras y de vídeo. Aunque Europeana cuenta con contribuciones de todos los países europeos, esta es bastante desigual, destacando particularme la aportación de Francia, con el 30% de las obras. España ocupa el tercer lugar, con un 11%.

Contribución a Europeana por países (junio 2010)

Fuente: "Highlights of Europeana v1.0", agosto 2010

También con fondos públicos se mantiene Gallica, la rama digital de la Biblioteca Nacional de Francia, creada en 1997 y que en 2010 superó el millón de obras disponibles, sumando libros, revistas, periódicos, imágenes, mapas, manuscritos y partituras musicales.

Microsoft, por su parte, se embarcó en 2006 un proyecto de digitalización de textos a gran escala, Live Search Books, abandonado apenas dos años más tarde. Tras dar carpetazo a su iniciativa, puso todos los resultados de sus escaneos a disposición del público a través del Internet Archive, una organización sin ánimo de lucro que lleva a cabo su propio esfuerzo de digitalización de libros en dominio público, y cuenta a día de hoy con más de 2,6 millones de textos.

Otro proyecto de gran envergadura es el de HathiTrust, una “comunidad internacional de biblotecas de investigación” que desde 2008 ofrece acceso a materiales escaneados por Google, el Internet Archive y una serie de importantes instituciones colaboradoras, entre las que se encuentran la Biblioteca del Congreso estadounidense, la mayor del mundo, las de muchas de las principales universidades estadounidenses, la New York Public Library o la biblioteca de la Universidad Complutense de Madrid, y que incluye más de 6 millones de volúmenes, entre ellos más de 3,6 millones de libros.

Pero sin duda el proyecto más importante, tanto por su envergadura actual (a mediados de 2010 alcanzó los 12 millones de libros escaneados), como por su ambición (Google pretende digitalizar los 130 millones de libros distintos que calcula que existen en el mundo) y por sus posibles repercusiones es el conocido actualmente como Google Books (Google Libros), que el gigante californiano inició en 2004, enmarcándolo dentro de su misión corporativa de “organizar la información mundial para que resulte universalmente accesible y útil.”

A describir este proyecto, el litigio a que dio lugar y el polémico acuerdo entre las partes (aún pendiente de aprobación judicial Ver actualización) dedicaré las próximas entradas de la serie.

[Actualización: el 22 de marzo de 2011, el juez Chin rechazó el acuerdo sobre Google Books, argumentando que su ámbito, en particular en lo referente a los usos futuros por parte de Google de los libros digitalizados, excedía con creces lo que la demanda inicial debía dirimir, a saber, si el escaneo de los libros para su incorporación a la base de datos del buscador y la muestra de pequeños fragmentos en respuesta a consultas de los usuarios suponía una infracción de los derechos de los titulares o bien cabría dentro del límite del fair use.]

Otras entradas de la serie:

El futuro de la lectura

El futuro del libro 1. ¿El ocaso de la era Gutenberg?

El futuro del libro 2. Conceptos

El futuro del libro 3. La cadena de valor

El futuro del libro 4. Marco jurídico I

El futuro del libro 5. Marco jurídico II

El futuro del libro 6. Oleadas de la digitalización

El futuro del libro 8. El proyecto Google Books

El futuro del libro 9. El acuerdo sobre Google Books

La popularización del libro electrónico. Amazon vs Apple

El futuro del libro 6. Oleadas de la digitalización

10 Feb

Bernard Lunn, en una serie de artículos para ReadWriteWeb (1, 2 , 3 y 4), explica las maneras en que los “bits de la destrucción” de la digitalización e Internet están alcanzando a la industria del libro, identificando tres oleadas  de cambio (no necesariamente sucesivas, sino más bien convergentes) respecto al modelo tradicional de edición:

1. Los proyectos de digitalización masiva de libros impresos. El más importante de ellos, Google Books, fue acometido por el gigante de Internet en 2004 en colaboración con varias grandes bibliotecas estadounidenses. Esta pionera y polémica iniciativa derivó en una disputa judicial en Estados Unidos entre Google y los gremios de autores y editores, que consideraban que se habían vulnerado sus derechos de propiedad intelectual. Las partes alcanzaron en 2008 un acuerdo extrajudicial, revisado al año siguiente y que a día de hoy sigue pendiente de aprobación por el Juez, cuyas potenciales repercusiones podrían alcanzar a todo el mundo editorial.

2. La adopción masiva de los dispositivos de lectura y los libros electrónicos: primero en Estados Unidos, en gran medida debida al efecto del Kindle de Amazon, aparecido allí en 2007, y que se va extendiendo al resto del mundo, acelerándose con la irrupción de las tablets, siguiendo la estela del iPad.

3. La generalización de la impresión bajo demanda (POD, Print on demand): la utilización de nuevas herramientas permite responder con agilidad a los pedidos, generando un número determinado de ejemplares a posteriori, tras recibir recibir el encargo, frente al proceso tradicional por el que se producen los libros en tiradas, calculando a priori la cantidad de ellos que se venderán.

A estas añado yo una cuarta:

4. Ebook primero, o “Empezar con XML: hasta ahora, el libro en formato electrónico se genera en la mayoría de los casos a partir de la versión pensada para impresión en papel, lo que implica que se hace un uso limitado de las posibilidades que presenta la edición digital. A medida que los ebooks vayan ganando cuota de mercado frente a los libros tradicionales, cabe esperar que este proceso se invierta y se explote plenamente la riqueza de posibilidades del nuevo medio, reduzca costes, acelere el proceso de producción del libro y fomente la utilización de metadatos (codificados probablemente en alguna variedad de XML) que enriquezcan la información sobre el propio libro, contribuyendo a su “encontrabilidad”* o “descubrebilidad”** en el creciente océano de contenido al que se asoman los lectores.

En las próximas entradas de esta serie sobre el futuro del libro pretendo comentar cada una de estas oleadas de disrupción.

 

*Encontrabilidad (findability): cualidad de un elemento conocido que permite que pueda ser encontrado.  [Fuente: Designing for discoverability, Steve Mulder & Joanne McLernon]

**Descubrebilidad (discoverability): cualidad de un elemento, conocido o desconocido, que permite que sea visible en un conjunto. [Fuente: Designing for discoverability, Steve Mulder & Joanne McLernon]

Otras entradas de la serie:
El futuro de la lectura

El futuro del libro 1. ¿El ocaso de la era Gutenberg?

El futuro del libro 2. Conceptos

El futuro del libro 3. La cadena de valor

El futuro del libro 4. Marco jurídico I

El futuro del libro 5. Marco jurídico II

El futuro del libro 7. Los proyectos de digitalización masiva de libros

El futuro del libro 8. El proyecto Google Books

El futuro del libro 9. El acuerdo sobre Google Books

La popularización del libro electrónico. Amazon vs Apple

Egipto, Al Jazeera y Creative Commons

1 Feb

La cadena de televisión “panárabe” Al Jazeera se ha convertido en uno de los referentes para el seguimiento, tanto desde los propios países de la zona como desde el resto del mundo (emite en árabe y en inglés), de los acontecimientos que están amenazando con hacer caer algunas de las dictaduras a que están sometidos varios países árabes, desde Túnez a Yemen, pasando por Egipto, centro actualmente de todas las miradas. Tan es así que Mubarak, en un intento de frenar la oleada de revueltas que se le ha venido encima, ha llegado a cerrar la sede de la cadena en El Cairo, revocando la licencia para emitir en Egipto.

Ayer leí esta noticia en Techdirt, “Al Jazeera ofrece su cobertura de Egipto a quien quiera usarla bajo licencia Creative Commons” (en inglés):

[…] Al Jazeera ha optado por una forma fascinante de hacer frente a todo eso: ha publicado gran parte de sus reportajes bajo licencia Creative Commons. De hecho, la cadena ha creado un sitio específico para el contenido CC, donde archiva y recopila todo su material que cualquiera puede utilizar libremente, con sólo reconocer su autoría. Por suerte, ni siquiera utiliza una licencia “no comercial”. La licencia sólo exige que quien quiera utilizar el contenido reconozca la autoría del mismo.

[…] Si atendemos a los argumentos tradicionales sobre la escasez, hay quien diría que Al Jazeera debería controlar férreamente todo este gran contenido. Está muy demandado ahora mismo, y teniendo en cuenta su amplia cobertura y la experiencia de sus reporteros allí destacados, algunos dirían que es el momento perfecto para que Al Jazeera se muestre lo más restrictiva posible con su contenido. Pero la cadena parece estar pensando a mucho más largo plazo, siendo consciente de que cada vez más gente en todo el mundo confía en su cobertura (con un gran interés proveniente de Estados Unidos). Esto constituye realmente una oportunidad para la compañía de hacer crecer mucho su marca, y quizá incluso de superar algunos de los estereotipos y ataques que recibe desde Estados Unidos y varios otros países occidentales. Y la manera de conseguirlo es hacer que más gente vea su contenido y se dé cuenta de que merece la pena. Para lo cual, utilizar Creative Commons (o algo parecido) tiene todo el sentido del mundo.

Hace unos meses, en los inicios de nuestro máster, estudiamos los distintos tipos de licencias inspiradas en las más utilizadas para el software libre. Entre éstas, tienen un lugar destacado las distintas variedades de Creative Commons, sobre las que ya hablé aquí entonces, explicando por qué yo también opto por publicar lo que escribo y las pocas fotos que cuelgo en Flickr bajo una licencia CC-BY, sin cláusula “no comercial”.

La decisión de Al Jazeera de utilizar CC, y más en una de sus versiones menos restrictivas (pues no limita los posibles usos de su material a los no comerciales, lo que permite que otras cadenas puedan utilizarlo, siempre que citen adecuadamente la fuente), puede tener una gran repercusión no sólo para la propia cadena sino para la adopción por otras compañías de prácticas más adaptadas al nuevo ecosistema de medios en que nos movemos.

A %d blogueros les gusta esto: