Archives de avril 2008

Impression à la demande : et si Amazon avait raison ?

Il y a un mois, un entrefilet du Wall Street Journal causa un certain émoi dans la bouquinosphère. Il y était question de la nouvelle politique d’Amazon en matière d’impression à la demande. Il s’agissait pour le libraire en ligne de ne plus vendre d’ouvrages imprimés à la demande, sinon ceux imprimés par son propre service BookSurge. Sachant le poids acquis ces dernières années par Amazon, on se trouvait en présence d’un abus de position dominante manifeste.

À y regarder de plus près, on peut légitimement se demander si l’indignation à l’égard d’Amazon ne reposait pas cette fois sur un quiproquo. En effet, l’expression « impression à la demande » est trompeuse, puisqu’elle fait le plus souvent référence à la notion idéalisée de flux tendu. Or, contrairement à ce qu’on croit généralement, le flux tendu est rarement une bonne option pour les éditeurs.

  • D’abord pour une question de coût : en 2008, imprimer et brocher un livre de qualité professionnelle à l’unité, couverture comprise, coûte souvent plus d’une dizaine d’euros, même sur des machines récentes. Pour l’imprimeur, à moins d’être équipé d’un système très optimisé (type lulu.com), la gestion des fichiers et le calage de l’imprimante représentent des frais fixes élevés qui plombent le coût de revient d’une impression à un seul exemplaire. En revanche, à partir de 5 ou 10 exemplaires, le coût de revient à l’unité peut devenir acceptable.
  • Plus important : disposer d’un stock tampon de quelques exemplaires d’un même titre permet de proposer à ses clients un service de distribution digne de ce nom : il s’agit non seulement de lui faire parvenir l’ouvrage le plus rapidement possible, mais surtout d’être en mesure de panacher dans un même colis des livres à très faible tirage et des livres à plus forte rotation. La présence d’un seul livre imprimé en flux tendu dans un panier de commande retarde toute la chaîne, car l’impression ne se fait généralement pas sur le lieu de stockage des autres livres proposés par l’éditeur.

Or, lorsqu’on prend le temps de lire les arguments de la défense, on apprend que c’est justement de cet enjeu qu’il s’agit. La logique d’Amazon est la suivante :

Pour servir correctement nos clients, nous nous devons de maîtriser le temps nécessaire à l’envoi d’une commande. Pour cela, deux options :

  1. Si vous tenez absolument à vendre un livre en flux tendu via notre site, vous devez passer par notre propre service d’impression à la demande, car ainsi nous contrôlons le timing de chaque étape du processus.
  2. Si vous êtes un éditeur professionnel, envoyez-nous plutôt quelques exemplaires de chaque titre, pour que nous puisions dans ces petits stocks de quoi satisfaire immédiatement les commandes.

Je n’ai pas d’actions chez Amazon, mais je ne vois rien de choquant là-dedans. La fabrication à l’unité est une option intéressante pour un particulier qui souhaite imprimer ses mémoires en deux exemplaires, ou à l’extrême limite pour un éditeur qui souhaite remettre en vente un ensemble de titres sans pouvoir évaluer lesquels se vendront à plus d’un exemplaire dans l’année — quoique dans ce cas il ait probablement intérêt à ne pas passer par Amazon pour les vendre mais par son propre site ! Dans les autres situations, il me paraît beaucoup plus raisonable de contrôler ses stocks que de les éliminer.

J’ajoute que gérer des micro-stocks permet d’alimenter plus simplement plusieurs revendeurs à la fois, ce qui me paraît indispensable si l’on souhaite toucher plus de lecteurs, et moins dépendre d’Amazon…

xavier@immateriel.fr

William Gibson introduit Google dans la création littéraire

Si jusqu’à maintenant le monde du livre a entretenu des rapports de méfiance avec les poids lourds du Web 2.0 que sont Google et Amazon, la question de leur possible utilité pour les auteurs et les éditeurs se pose plus que jamais. Pour une fois, les termes du débat ne proviennent pas d’institutions comme la Bibliothèque Nationale de France ou du Syndicat de National de l’Edition mais d’un écrivain américain populaire et à l’avant-garde des réflexions sur les technologies.

Code Source le nouveau roman de William Gibson est sorti, non sans attirer l’attention des geeks mais aussi des journalistes en mal de matière à penser le présent à l’aune des technologies futuristes. Ainsi, comme pour son précédent roman Identification des schémas où Gibson surfait sur un grand nombre de thématiques contemporaines (les marques, le marketing viral, la Russie ultime patrie des hackeurs, la plasticité des contenus avec un DivX au montage déstructuré etc.), la narration se nourrit d’une mosaïque de thèmes, un peu comme ces murs de photos produisant une image géante.

Quel rapport avec Google me demanderez-vous ? Eh bien Gibson ne s’est pas contenté de gloser sur les possibles applications de la géolocalisation comme grille surimposée au monde réel par opposition à la matrice du cyberespace. En sus de la mosaïque de thèmes, il a écrit avec en tête le système d’indexation de Google. Ce qui nous amène à ce délicieux néologisme qui fait le bonheur des critiques : la googlisation.

La googlisation, c’est l’intégration de l’existence du moteur de recherche comme voie royale pour être lu quand on blogue ou qu’on publie sur le Web. On écrit avec une liste de tags en tête, un titre accrocheur, autant pour le lecteur que pour le moteur de recherche. On utilise les mots et les sujets à la mode dans une course effrénée à la première position dans Google. Le but est d’être le premier à être consulté quand un internaute s’interroge sur un sujet, et entre les termes de sa recherche dans le moteur de Google.

Ainsi les rédactions en ligne sont-elles passées progressivement de l’autre côté du miroir, quand elles se sont préoccupées de rankings et de Google AdSense, d’abord pour augmenter leur popularité, ensuite pour dégager des revenus publicitaires. Un phénomène extrêmement contemporain et jusqu’ici spécifique au Web version 2.0. Dans un tel contexte, la démarche de William Gibson peut apparaître comme logique, voire suiviste (après les blogs, les romans !) à un détail près : les blogs et la presse en ligne sont numériques et prêts à être indexés par Google, les romans, eux, en sont loin.

Cela nous amène à dresser un état des lieux de l’indexation des livres dans Google aujourd’hui (c’est-à-dire avant que les livres ne soient couramment numérisés dans leur intégralité et consultables en ligne comme le propose… Google Book Search !). A l’heure actuelle, un livre est référencé sous forme numérique fragmentée :

  • un titre,
  • un auteur,
  • un prix,
  • un ISBN d’identification,
  • une 4e de couverture,
  • une notice de référencement pour librairies en ligne,
  • les critiques écrites sur le Net à son sujet

Tous ces éléments textuels épars et informations diverses sont autant de cailloux blancs lâchés/jetés pour que le lecteur trouve son chemin vers Amazon ou Fnac.com. Imaginons maintenant la multiplication de ces cailloux si le texte d’un roman de Proust était totalement indexé par Google. On entre Guermantes à tout hasard dans Google ou bien Vue de Delft et le résultat des recherches converge naturellement vers Proust. Bien sûr, la notoriété des écrits de Proust est telle qu’il n’est pas nécessaire d’indexer toute la Recherche pour obtenir ces résultats.

Dans le cas d’un jeune auteur nettement moins connu le gain ne serait-il pas énorme ? Une promotion de type virale de son œuvre. Si par exemple, un Allemand cherche des renseignements sur le lycée Ernst Bloch de Bonn, il y aura de fortes chances pour qu’il tombe sur le site du lycée et pas loin en dessous sur La fille sans qualités de la romancière Julie Zeh.

Allons plus loin dans le raisonnement. Imaginons un auteur en mal de publication mais qui aurait fait indexer son livre par Google. Il augmente sensiblement ses chances de notoriété. Tel Simenon déroulant ses polars sur fond d’ambiance liégeoise qui aurait mis l’un de ses livres en ligne avec un partenariat Adsense, il y a fort à parier que tout internaute en quête d’écrits sur Liège passerait d’une façon ou d’une autre par son site et potentiellement cliquerait sur les publicités de l’office du tourisme de Liège.

A présent, envisageons une position intermédiaire entre le type de données actuellement indexées sur un livre et l’indexation du texte intégral. Une bonne partie du contenu Web 2.0 pensé pour la googlisation s’appuie sur le système des tags. Comme pour ce blog, la spécification de tags pour chaque billet permet de toucher un lectorat qui ne connaît pas immateriel.fr mais qui s’intéresse aux mêmes sujets que nous. Pourquoi ne pas envisager pour chaque livre, non pas les tags un peu prévisibles de classification (roman, psychologie, aventure, sciences humaines, voyage etc…) mais des mots-clés, pensés par l’éditeur ou l’auteur, uniques en un sens car adaptés à un contenu unique. Ces tags constituent une nébuleuse de méta-données propre à ceux qui les choisissent, en quelque sorte, une grille de lecture sous la forme de mots, un index pensé pour le Web. L’avantage est principalement de faire connaître un contenu sans tout dévoiler.

D’ailleurs, si la démarche littéraire de William Gibson pose les jalons d’une réflexion sur l’indexation des contenus comme nouvelle étape de la diffusion du livre, il n’en demeure pas moins que Code Source n’est pas à l’heure actuelle intégralement indexé dans Google ; ne confondons tout de même pas fiction littéraire avec réalité contemporaine !

samuel@immateriel.fr

Piratage — une étude de cas

L’industrie du jeu vidéo est devenue en quelques années un des plus gros médias, dépassant même la musique. Pourtant de nouveaux défis se présentent, notamment vis-à-vis de l’Internet et particulièrement du piratage qui effraye, depuis longtemps déjà, la plupart des éditeurs. Cette nouvelle donne les conduit souvent à se tromper d’attitude.

Nous allons voir, en comparant les modèles de distribution et de protection contre la copie de deux « Blockbuster » du jeu vidéo, que ce problème n’en est pas vraiment un et qu’il n’empêche pas cette industrie de se porter au mieux.

Le premier, Call of duty 4, paru en novembre 2007 chez Activision, se présente comme le poids lourd du genre, avec un modèle de protection classique :

  • protection contre la copie de CD,
  • possibilité d’acheter le titre en téléchargement, mais uniquement sur des sites spécialisés (Direct2Drive par exemple) et avec DRM.
Avec aujourd’hui plus de 7 millions de copies vendues, toutes consoles et PC confondus, c’est la plus grosse vente de l’année.

De l’autre côté, Sins of a solar empire (Stardock), paru en février 2008, repose sur un modèle novateur :

  • aucune protection contre la copie,
  • possibilité d’acheter le titre en téléchargement directement sur le site de l’éditeur, sans DRM.

Notons que ces deux titres n’appartiennent pas au même genre de jeux, et que leurs modes de développement divergent (grosse équipe pour le premier, petite équipe pour le second). Enfin, l’équipe de Sins of a solar empire s’inspire énormément de l’avis de ses clients pour améliorer progressivement le produit via l’utilisation de versions betas bien avant la sortie officielle. Nous allons néanmoins comparer leurs ventes (qui sont similaires) et leur taux de piratage respectif.

Quelques chiffres de vente

Tout d’abord, regardons du côté des ventes de boîtes DVD. Afin de comparer ce qui est comparable, reprenons seulement les chiffres des deux premiers mois après la mise en vente.

  • Pour Call of duty 4 (uniquement sur PC), 383 000 copies pour novembre et décembre 2007.
  • Pour Sins of a solar empire, 200 000 copies ont été vendues le premier mois.
On peut donc dire que ces deux titres ont eu à peu près le même succès à leur sortie.

Piratage

Intéressons-nous à présent au piratage, en reprenant ce calcul, où apparaît Call of duty 4. On peut voir qu’il serait téléchargé illégalement environ 9000 fois par jour sur l’un des principaux sites de téléchargement via BitTorrent : mininova. Ce qui est intéressant c’est que sur ce même site, Sins of a solar empire n’est disponible dans aucune version, exceptées les mises à jour du jeu que Stardock propose à ses clients.

Corsons un peu la recherche. Au lieu de se contenter de mininova, utilisons un meta-moteur de recherche de fichiers BitTorrent pour faire notre calcul. Torrentz fédère une dizaine d’autres moteurs. Si on recherche Call of duty 4, on trouve plus de 20 000 résultats (il y a de fortes chances que ce chiffre ait été encore plus élevé dans les premiers mois de sortie du titre). Pour Sins of a solar empire, on en trouve environ 400. Ce dernier est donc bel et bien piraté, mais comme on peut le constater, dans des proportions bien moindres !

Analyse

La question est : pourquoi une telle différence ? 50 fois moins de piratage pour le second titre, ça n’est pas rien. Comme vu au début, les ventes ne sont similaires que pour les versions boîte ; Stardock vend également une version électronique, téléchargeable sur leur site. Comme ils l’annoncent :

"Despite that most sales of Sins of a Solar Empire thus far have been through TotalGaming.net (direct digital download), Sins topped the charts last month at retail for PC games."

Traduction :

"Bien que la plupart des ventes de Sins of a Solar Empire aient eu lieu jusqu’à maintenant via TotalGaming.net (téléchargement direct), Sins a été numéro un des ventes PC le mois dernier en magasin."

Ce qui sous entend qu’ils vendent encore plus de versions électroniques que de versions boîte ! De là à dire que ces ventes correspondent au piratage de l’autre titre, il n’y a qu’un pas !

Le fait que Call of duty 4 soit la meilleure vente de jeu vidéo pour 2007 montre bien qu’il y a une forte demande pour celui-ci. Le nombre d’exemplaires piratés indique quant à lui qu’il y a une demande pour une version numérique sans protection. Malheureusement, il reste plus commode de récupérer la version numérique piraté que la version numérique légale, et même pire, que la version boîte ! Pourquoi payer pour un fichier qu’on ne peut pas copier, alors qu’on peut l’avoir gratuitement et copiable à volonté ? De même, pourquoi devoir mettre le DVD du jeu dans le lecteur à chaque utilisation, pour prouver qu’on est bien le client ? Je ne serai pas étonné que certains utilisateurs (qui ont acheté le jeu), passe par le piratage pour obtenir une version plus souple de leur produit (les fameux patch no cd) ! Le volume de ventes des versions numériques de Sins of a solar empire suggère en tout cas que le retrait des DRM n’empêche pas les clients de continuer à acheter leur produit.

Quoi qu’il en soit, être en mesure de proposer ses produits sur support dématérialisé prend une importance croissante avec la démocratisation de l’Internet, et miser sur la qualité de service et les avantages octroyés au client (mises à jour régulières et copie à volonté) est plus rentable que miser sur la punition censée lutter contre le piratage (protection anti-copie et DRM). Le manque à gagner supposément lié au piratage ne serait-il pas en réalité le fait des éditeurs eux-mêmes, qui correspondrait plutôt à une offre manquante ? Peut-on affirmer être volé de quelque chose que l’on ne vend pas ?

julien@immateriel.fr

Le e-book au salon du livre 2008 c’est déjà dem@in ?

Quelques semaines après le salon du livre 2008 à Paris revenons sur la grande nouveauté de cette année : le livre électronique. Il devient en effet difficile de nier l’impact médiatique des premiers e-reader à encre électronique, d’une part à travers les nombreux articles consacrés au sujet par la presse grand public (Libération, Le Monde) et professionnelle (Livre Hebdo) et d’autre part sur nos écrans de télévision avec le journal de France 2.

Le stand intitulé Lecture de dem@in présentait un excellent échantillon de l’offre à venir en matière d’appareils mais également quelques fournisseurs de contenus comme Les Echos et des prestataires proposant aux éditeurs un élément de chaîne éditoriale électronique pour préparer du contenu conforme aux spécifications des e-readers. Il est évident que le monde de l’édition observe avec attention l’évolution de ces appareils prometteurs.

En effet, quoi de plus rassurant qu’une boîte noire prête à recevoir du contenu numérique minimisant les risques de fuite sur Internet et donc le piratage ? Pour autant, ce que l’on appelle abusivement le livre électronique (un terminal à encre électronique et du contenu numérisé) ne masque-t-il pas le vaste débouché qui s’offre actuellement aux éditeurs ? le Web, les appareils mobiles (PDA, SmartPhones, Portable Media Viewers, consoles de jeux portables et bien entendu les ordinateurs personnels) sont autant de terminaux connectés aptes à recevoir du contenu dès aujourd’hui. Revenons donc aux promesses de Lectures de dem@in.

L’offre de e-readers à encre électronique tournait essentiellement autour de 4 modèles : le fameux Kindle d’Amazon, le Sony PRS-505 disponible aux Etats-Unis depuis l’année dernière, le Cybook 3 de Bookeen (le descendant du Cybook de Cytale) et l’iLiad de iRex en provenance de Hollande. Les deux derniers font déjà partie de l’offre d’abonnement des Echos, donc déjà visible sur le marché français, alors que la disponibilité des deux premiers en Europe est encore à déterminer (avec une forte probabilité pour cet été pour le Sony). En les prenant en main, on ne peut qu’être surpris par le rendu de l’affichage à encre électronique ; c’est bien simple, on a l’impression de voir une image imprimée sur un écran qui n’émet pas de rayonnement. A l’heure actuelle, les raisons de se procurer un livre électronique sont les suivantes :

  • on peut espérer l’emmener avec soi en vacances sans avoir à recharger l’appareil pendant un mois,
  • la fatigue visuelle est moindre comparée à n’importe quel écran LCD de PDA, iPhone, ordinateur portable,
  • le nombre d’ouvrages à portée de main dépasse la centaine (et bien plus avec une carte mémoire)

Le Kindle présente tous ces avantages et ajoute un système très bien conçu d’accès au magasin en ligne d’Amazon depuis n’importe où et à n’importe quelle heure via une connexion par ondes radio de type 3G. Ainsi, quand on s’achète un e-reader c’est autant pour avoir une bibliothèque portable qu’une librairie ouverte 24h/24. Mais cela suffit-il à l’ère des BlackBerry, des iPhones, des Nintendo DS ou des Mac Books Air ? Ok, vous me direz que cela n’a rien à voir, que l’encre électronique est une avancée significative dans le domaine de la lecture sur écran, que le confort de lecture prime sur le reste et que les PDA, smartphones ou Media Players sont pénalisés par leur autonomie. Et vous aurez raison ! Mais à y regarder de plus près, les e-readers d’aujourd’hui ne font pas si bon effet que ça quand on les prend en main.

Prenons le Kindle par exemple : l’écran n’est pas tactile donc la navigation se fait à l’ancienne avec une molette actionnant un bon vieux menu déroulant, l’entrée d’informations se fait par un clavier de type calculatrice qui est fonctionnel à défaut d’être particulièrement design. A l’heure où l’utilisateur d’électronique se focalise sur les objets intuitifs comme le iPhone ou la Nintendo DS, le Kindle, au même titre que le Cybook Gen 3, propose un retour en arrière de plus de 10 ans. Qui se souvient des Psion series 3 sans écran tactile et dotés de claviers de calculatrice ? Toujours est-il que dans le cas du Cybook Gen 3, la navigation se fait avec un pavé directionnel muni d’un bouton en son centre rappelant la plupart de nos téléphones mobiles. Contrairement au Kindle, on fait dans la sobriété, mais à quel prix ? Si passer d’une page à l’autre se fait naturellement (et n’est-ce pas là le point le plus important quand on lit un livre), la manipulation devient étonnamment absconse quand on souhaite parcourir le livre, aller directement de la page 15 à 37. Pour accéder à une note (présentée comme un lien hypertexte) on doit effectuer une habile suite de clics répartis entre le pavé et le bouton afin de passer de la ligne que l’on lisait au bas de la page où se trouvent… les notes de bas de page. L’avantage sur le papier paraît subitement moins perceptible.

L’écran tactile est-il la solution à une navigation compliquée ? Si oui, l’iLiad de iRex devrait remporter tous les suffrages puisqu’il possède à la fois un écran tactile et un pivot pour passer d’une page à l’autre. On peut annoter son livre sans passer par un clavier matériel, on peut afficher des fonctions depuis des petites icônes en bas de l’écran. En somme, tout ce qu’il manque à notre Kindle et au Cybook Gen 3. Mais tout a un prix : le e-reader de iRex est plus épais que ses concurrents, moins léger et encre électronique oblige, se montre très peu réactif quand on use de sa surface tactile.

Quelle conclusion tirer de tous ces éléments ? Bien sûr, la technologie des e-readers en est à ses débuts et la qualité d’affichage ainsi que l’autonomie théorique qu’elle propose sont des arguments en sa faveur à long terme. A titre de comparaison, le piqué (dpi) d’un iPhone ou d’une DS est tellement faible qu’on peut difficilement les mettre sur le même plan. Néanmoins, technophiles et réfractaires aux technologies s’accordent de plus en plus sur l’esthétique et l’intuitivité des gadgets pour se décider à casser leur tirelire. L’exemple du iPhone est patent : malgré le manque de fonctionnalités réellement novatrices ou de 3G (après tout la plupart des téléphones multimédia se connectent aux services d’Internet, lisent des vidéos, prennent des photos et permettent d’écouter des MP3), son form-factor se montre irrésistible, son interface d’une simplicité propre à séduire le plus récalcitrant des utilisateurs. Dans ce cas, le facteur déclencheur pour un succès de masse passera-t-il par un perfectionnement du form-factor des e-readers ou bien est-ce la simple évolution d’une demande de plus en plus grande pour des contenus dématérialisés qui sera porteuse ?

Pour atteindre la lisibilité des e-readers, l'iPhone devrait changer totalement de form-factor

L’exemple du format MP3 et du iPod suggère quelques pistes intéressantes mais il pose surtout une véritable problématique pour les éditeurs : faut-il attendre qu’un constructeur sorte l’équivalent du iPod en livre numérique pour se lancer dans la dématérialisation du contenu ou bien faut-il commencer à répondre à la demande de contenus numériques (voir post précédent) car l’iPod des e-readers s’imposera de lui-même quand la technologie d’encre électronique et le design seront mûrs pour un véritable confort de lecture. Et un format unique peut-il s’imposer comme pour le MP3 ?

Pour l’instant il existe bien le PDF, souple quant aux fonctionnalités, largement répandu sur toutes les plates-formes informatiques mais étrangement boudé par les e-readers. Le Kindle s’appuie comme le iRex et le Cybook sur le format de Mobipocket, réminiscence du ebook de l’an 2000, probablement le plus facile à mettre en œuvre pour les constructeurs mais qu’en est-il pour les éditeurs et les lecteurs ?

Pour les éditeurs, l’actuelle offre des e-readers est un casse-tête propre à dissuader les moins tièdes d’entre eux vis-à-vis de ce « Far West » qu’est Internet. En effet, chaque e-reader impose ses conditions pour le format de fichier et de mise en page. Si un Cybook Gen 3 se montre séduisant comme livre électronique de poche avec ses 6 pouces de diagonale, la lecture des Echos est moins agréable que sur l’iLiad et son écran de 8 pouces plus adapté. De son côté, l’éditeur doit penser en terme de débouchés : doit-il investir dans la transformation de ses fichiers pour tel ou tel e-reader en particulier, doit-il se doter d’un service dédié dans sa chaîne éditoriale ou faire appel à une société prestataire spécialisée dans tel ou tel e-reader comme c’est le cas à l’heure actuelle ? Enfin, doit-il se préoccuper dans son budget prévisionnel du nombre de Kindle, de PRS-505 ou de Cybook sur le marché pour évaluer où se trouve son lectorat ? Comme pour le MP3, s’il faut attendre patiemment qu’un e-reader remporte l’adhésion du public le plus large (garantissant la possibilité de diffuser les ouvrages auprès d’un maximum de lecteurs) pour vendre du contenu numérique, il paraît difficilement envisageable qu’un tel appareil existe un jour ! Par ailleurs, les chiffres de vente des e-readers est l’un des secrets les mieux gardés. On parle d’épuisement des stocks, de difficultés à fournir la demande, mais de chiffre, aucune trace ! Bien informé qui peut dire si le Kindle s’est vendu à 500, 1000, 5000 ou 100 000 exemplaires, idem pour le Cybook Gen 3 dont le succès claironné entre étrangement en résonance avec son invisibilité dans les commerces.

Pour les lecteurs, l’hétérogénéité des formats de e-readers, des canaux de diffusion et de l’offre de contenu numérique est peu engageante. Le Kindle demeure le plus attractif (malgré son look trop fonctionnel) de par sa promesse d’accès à un important catalogue sur Amazon 24h/24, mais son côté boîte noire et fermée empêche un certain nombre de pratiques élémentaires : changer de support, prêter un livre qu’on aime à un ami… Quoi qu’il en soit, le lecteur prêt à sauter le pas de l’achat d’un e-reader devra s’engager à n’accéder qu’à certains contenus et donc ne pas se tromper dans son choix sous peine de perdre la bibliothèque acquise en passant à un autre format ou à un autre libraire.

A l’image de la récente guerre des formats HD-DVD/Blu-Ray faisant écho à bien d’autres (DVD Audio/Super Audio CD, DCC/Mini-Disc, VHS/Betacam…), la question pour les éditeurs d’attendre la boîte noire qui leur garantira 0% de piratage semble une utopie irréaliste.

Pourquoi ne pas prendre le train en marche et dès à présent se pencher sur la diffusion sans DRM (une contrainte inutile pour établir un lien de confiance entre l’éditeur et le lecteur) de contenus pour l’ensemble des terminaux disponibles. Pour rappel (et comparaison avec l’expérience de l’industrie de la musique), le format MP3 est apparu en 1995, en 1999 Napster entrait dans la vie des internautes et leur faisait découvrir les échanges Peer-2-Peer, en 2001 Apple lance l’iPod et connaît un succès surprenant, en 2003 iTunes propose à un large public d’acheter de la musique au format numérique. Ces quelques dates peuvent nous servir de repère : la technologie du format numérique sert de support au contenu, le P2P devient un moyen de diffusion par défaut alimenté par les millions d’internautes, et le iPod capitalise sur cet état de fait en proposant un audacieux remplaçant des traditionnels walkman, discman, ou MD. Aujourd’hui Apple est numéro 1 des baladeurs numériques et des magasins de MP3 aux Etats-Unis.

Enfin, le numérique peut prendre de nombreuses formes pour s’incarner : il peut être un livre audio, un chapelet de chapitres courts qu’on lit sur un téléphone, une documentation avec beaucoup de liens hypertextes reliés à des sites de contenus externes et permettre l’annotation.

Le futur e-reader sera peut-être à même d’avoir accès à tous ces registres avec un form-factor séduisant, une interface intuitive et emportable partout, mais en attendant, dem@in n’est pas encore aujourd’hui !

samuel@immateriel.fr

Éditeurs, n’ayez plus peur !

En 2008, l’industrie de l’édition ne sait toujours pas quelle attitude adopter vis-à-vis du livre numérique. Au lieu de voir la démocratisation des accès à l’Internet comme une occasion inespérée de se réinventer, elle continue à espérer que les nouvelles technologies serviront son ancien business model, où l’information ne pouvait circuler que sous forme matérielle.

La 4e journée sur le livre numérique organisée lundi 31 mars 2008 par le Consortium Couperin et l’Université de Bordeaux 1, passionnante à nombreux égards, a mis en lumière le hiatus croissant entre l’offre des éditeurs et les besoins des usagers.

Cette journée nous a donné l’occasion de mettre en forme quelques réflexions sur les raisons de ce décalage, et ce qui pourrait débloquer la situation. En voici une sorte de résumé augmenté (la plupart des présentations devraient se retrouver bientôt sur le site de Couperin et sur ArchiveSIC).

Avant de nous pencher sur ce qui terrorise les éditeurs, commençons par rappeler les coûts respectifs d’un ouvrage papier et d’un ouvrage PDF, puisqu’il s’agit des deux formats que nous connaissons le mieux.

Le livre papier, combien ça coûte ?

Sauf exception, le bénéfice qu’un éditeur peut espérer tirer d’un livre papier est très faible, une fois défalqués les coûts liés à chaque vente et les coûts fixes liés à l’édition, la production et la diffusion. Sur la première figure, nous voyons que le coût lié à chaque vente correspond peu ou prou à 85% du prix du livre, et qu’il reste environ 15% pour amortir les frais fixes et envisager un bénéfice.

Structure de coûts d’un livre papier

Autrement dit, il arrive souvent qu’une fois payés le loyer, les salaires, le marketing et l’équipe de vente, il ne reste plus rien, voire que le livre soit déficitaire ; avec une marge si faible, le seul moyen de rester dans le vert consiste à augmenter les quantités vendues.

Pour cela, les éditeurs prennent des risques : baisse des prix, augmentation du budget publicitaire, augmentation du nombre de titres, augmentation des mises en place chez les libraires, voire augmentation de la qualité, font partie de l’arsenal traditionnel. Mais ces risques payent de moins en moins, car les libraires sont aujourd’hui saturés de papier (60000 nouveautés par an en France), et ne savent plus comment gérer des livres qui tournent lentement. Résultat, au bout de quelques mois, le livre n’est plus disponible que chez quelques libraires en ligne, ou sur commande.

Ca vous donne envie, un business pareil ? Une maison d’édition canadienne pour qui j’ai travaillé il y a longtemps, après évaluation de ce que pouvait rapporter annuellement leur nouvelle filiale en France, se demandait si elle ne ferait pas mieux de placer son argent à la Caisse d’Épargne. Ils auraient dû en effet, car ils ont finalement jeté l’éponge au bout de 5 ans.

Le livre numérique, combien ça coûte ?

Vu de loin, les économies engendrées par le support numérique semblent faramineuses : pas de coût d’impression, pas de coût de distribution, pas de remise libraire, etc. Les auteurs sont nombreux à utiliser cet argument ; ils y voient une excellente raison d’augmenter le pourcentage des royautés :-) À y regarder de plus près, on s’aperçoit que le coût lié à chaque vente est en réalité assez important :

Structure de coûts d’un livre PDF

Cette structure de coûts, qui correspond à celle que nous avons expérimenté sur oreilly.fr, comprend, outre une TVA à 19,6%, un coût de diffusion non négligeable, évalué à 40% : ce n’est pas le travail des serveurs qu’il faut prendre en compte ici, mais celui des humains qui développent les plates-formes, administrent les services, et surtout ceux qui diffusent les ouvrages auprès des futurs clients : comme nous l’avons montré dans notre précédent article, il est illusoire de penser que vendre ses ouvrages sur un seul site permettra de toucher suffisamment de clients.

Les coûts fixes n’ont quant à eux pas de raison de changer : produire un livre papier, pour l’instant du moins, coûte sensiblement la même chose que produire un livre numérique. Je n’ai pas pris en compte le coût de la numérisation, car je considère qu’il est aujourd’hui quasi-nul pour les ouvrages produits après 2005 (environ 50€ par ouvrage pour une remise en forme simple à partir du PDF imprimeur). Numériser son fonds relève d’une autre démarche, plus stratégique, visant les lecteurs de la Longue Traîne : il s’agit de se préparer à réutiliser un contenu quand le besoin s’en fera sentir (moteurs de recherche, impression à la demande, etc.). À ce titre, on peut d’ailleurs regretter que les éditeurs se soient majoritairement dressés contre Google Book Search, au lieu de négocier la non-exclusivité des droits d’utilisation des fichiers numérisés par Google.

Restent donc environ 20%, qui représentent non pas une marge bénéficiaire, mais plutôt une marge de manœuvre, qui doit permettre aux maisons d’édition d’explorer de nouvelles pistes :

  1. Primo, ces 20% ne rapportent rien tant que les quantités ne sont pas au rendez-vous. Une partie de cette marge de manœuvre doit impérativement être consacrée à l’augmentation du nombre de canaux de diffusion.
  2. La demande pour des ouvrages multimédia et de nouveaux formats, type e-readers, ne peut que croître. Produire de tels ouvrages qui mêlent l’écrit, l’image, le son et l’interactivité coûte plus cher, mais doit faire partie des investissements nécessaires. Dans ce cas, les 50€ de remise en forme sont facilement multipliés par 10, voire 100.
  3. Augmenter les taux des droits d’auteurs paraît logique, d’autant que la montée en puissance du multimédia incitera les éditeurs à plus les solliciter.
  4. Augmenter les salaires aussi : un employé bien traité fera toujours du meilleur boulot :-)

Comment se fait-il qu’au lieu de considérer cette marge de manœuvre comme une bouffée d’air frais, le monde de l’édition continue à s’en méfier comme de la peste ?

Tous aux abris !

Problème : le numérique, pour rester attrayant, ne peut pas être bridé ou limité dans ses usages. Comme nous l’ont décrit avec brio deux étudiants de Paris 5 lors de cette 4e journée Couperin du livre électronique, les futurs utilisateurs de ce type d’ouvrage souhaitent pouvoir y accéder de n’importe où et à tout moment, en extraire certaines parties, en imprimer d’autres, y superposer leurs commentaires ou y ajouter d’autres sources, bref se l’approprier.

Pour une maison d’édition qui a grandi avec un modèle papier très encadré, offrir ces fonctionnalités indispensables revient à céder à ses lecteurs une partie du contrôle qu’elle possédait sur le contenu, grâce à son support matériel. C’est dur à avaler. On sait ce qu’on perd, mais on ne sait pas ce qu’on gagne. Et on croit que l’Internet, c’est différent du monde réel, parce qu’on n’en n’a pas encore fait l’expérience.

« L’Internet, c’est le Far West »

Pourtant, le vol à l’étalage, les retours et le pilon ont toujours représenté non seulement une perte de contrôle, mais un véritable coût, voire un manque à gagner, qui fait toujours un peu râler les éditeurs certes, mais qui est largement considéré comme un mal nécessaire.

Comment, dès lors, expliquer la panique qui s’empare des éditeurs lorsqu’on leur parle de proposer à leurs clients ce qu’ils demandent ? Tout simplement, ils ne savent pas encore déchiffrer le fonctionnement de l’Internet et pensent que le besoin d’appropriation y conduit nécessairement au vol.

« Le nombre de fichiers piratés est énorme »

On lit régulièrement des chiffres contradictoires concernant le nombre de fichiers piratés. Un récent jugement concernant le piratage de BD sur des newsgroups relayés par Free indique dans ses attendus que le tribunal n’a pas été en mesure de vérifier quels étaient les ouvrages piratés et en quelle quantité. Les éditeurs évaluaient leur préjudice à environ 1 € par fichier ayant circulé sur ce newsgroup, en se basant sur une estimation réalisée par Microsoft ! Bien entendu, si le tribunal n’a pas pu vérifier l’ampleur du piratage, on sait encore moins ce que cela représente en pourcentage des ventes réelles. Depuis 8 mois que nous vendons des fichiers PDF sans entraves particulières sur le site oreilly.fr (3500 exemplaires à ce jour), aucun n’a encore atterri sur les sites d’échanges. Cela viendra probablement, mais en attendant, aucun de nos clients n’a trouvé normal de déposer son achat sur un site public. Beaucoup l’ont certainement prêté à des amis ou des collègues, comme ils le font avec leurs livres papier. Grâce leur soit rendue d’assurer notre pub !

D’un autre côté il faut reconnaître que la quasi-totalité des titres de notre maison-mère se retrouvent sous une forme ou sous une autre, sur des réseaux d’échanges de fichiers. Faut-il s’en alarmer ?

« Le manque à gagner est énorme »

Premièrement, pour la plupart des ouvrages disponibles sur ces sites, le nombre de serveurs susceptibles de répondre à une requête de téléchargement est faible (entre 0 et 2 selon l’heure de la journée), ce qui indique que peu de personnes y ont recours. Par ailleurs, la qualité de ces archives est très mauvaise : elle provient le plus souvent de pages HTML aspirées sur Safari, ou d’ouvrages papier scannés.

En tout cas, cela n’empêche pas O’Reilly de continuer à vendre dans les mêmes quantités du papier, du PDF, ou des abonnements Safari pour tous ces titres. Ces deux derniers vecteurs sont même en hausse constante.

La vérité est que personne ne peut certifier que le piratage engendre un manque à gagner. Comme pour la musique, il n’est pas du tout sûr que le pirate aurait acheté ce qu’il a pu récupérer gratuitement : il est fort possible qu’il ou elle n’ait pas les moyens de se payer le livre au prix fort, ou qu’il n’existe tout simplement pas de version numérique payante et facilement accessible. Enfin, personne ne sait quantifier l’effet bénéfique d’une mise en avant supplémentaire, a fortiori si elle est underground. Les retombées des campagnes marketing classiques ont toujours été difficiles à quantifier, elles aussi.

Halte aux fantasmes !

Il semble donc qu’aucune maison d’édition n’ait cru à l’analyse que Tim O’Reilly faisait de la chose fin 2002 (!), lorsqu’il comparait le piratage à un simple impôt progressif. Il va sans dire que cette réflexion reste parfaitement d’actualité. Quand piratage il y a, ce qui est sûr, c’est qu’il est très loin d’amputer les ventes des 20% de marge de manœuvre discutés plus haut.

Quant aux auteurs, ils craignent généralement deux choses : ne pas être lus et se faire avoir par leurs éditeurs. Si les éditeurs continuent à les rémunérer correctement au prorata des ventes, pourquoi les auteurs verraient-ils d’un mauvais œil que des lecteurs moins fortunés puissent aussi apprécier leur travail, comme c’est le cas grâce aux bibliothèques ?

Toutes ces peurs, qui ne reposent sur aucune réalité concrète, conduisent malheureusement les maisons d’édition à fermer les accès quand leurs clients leur demandent de les ouvrir (et sont prêts à payer pour ça, voir notre article précédent). Les fameux DRM sont le symptôme le plus criant de cette incompréhension des besoins du public. Pas plus tard qu’hier, je comptais acquérir la version PDF de l’ouvrage de Marc Autret pour vérifier quelques chiffres. 9€, c’est plus qu’honnête pour un livre aussi bien documenté. Eh bien, au moment de l’achat, on m’avertit que non seulement le copier-collé est interdit, mais on ne peut pas copier le fichier hors de la machine qui a servi à le télécharger (cerise sur le gâteau, ça ne se lit pas sous Linux). Du coup, j’ai cliqué sur Annuler, et j’ai préféré prendre plus de temps à fouiller ma bibliothèque et à interroger mes collègues. Et j’ai peut-être conforté du même coup éditeur (et auteur ?) dans leur intuition qu’il n’y a pas de marché pour le numérique payant…

Au lieu de dépenser notre énergie à freiner la diffusion d’un contenu que nous avons eu tant de mal à produire, proposons plutôt à nos lecteurs ce qu’ils demandent : des formats compatibles avec les outils les plus courants et des modes d’accès multiples. Nous pourrons alors commencer à exploiter toute la souplesse de l’écrit dématérialisé, proposer à chacun des ouvrages adaptés à ses besoins et à ses lieux de passage, et inventer de nouvelles formes d’accès au savoir.

xavier@immateriel.fr


avril 2008
L Ma Me J V S D
« mar   mai »
 123456
78910111213
14151617181920
21222324252627
282930  

Suivre

Recevez les nouvelles publications par mail.

Rejoignez 27 autres abonnés