ère numérique: migrant ou natif?

11 janvier 2007

Invité aux rencontres de l’Internet à Autrans cette année, on me demande de participer à une table ronde: entreprises et générations internet. L’idée est d’explorer les zones d’échanges et de confrontations qui existent entre le monde du travail, les TIC, et les générations internet, thème de l’édition 2007 des rencontres.

Mais que recouvre le terme générations internet? Est-on en train de parler de l’opposition entre digital native et digital migrant, pour reprendre les termes anglais? Oui, mais pas seulement: le concept de natif de l’ère numérique fait surtout référence aux technologies électroniques et numériques, et donc aux réseaux et à l’internet par extension, mais pas de façon spécifique. Ainsi, en étant né en 1979, je suis à la limite un digital native, et j’ai effectivement découvert l’informatique très tôt. Néanmoins, je n’ai découvert l’internet que vers mes 18 ans, et n’ai donc pas acquis les comportements afférents à des activités en ligne (sociales, culturelles, éducatives, etc.) durant mon adolescence.

D’ailleurs, quand j’étais adolescent, les activités étaient proches de celles des générations précédentes, fortement ancrées dans le monde physique, et intimement liées aux cercles de proximité classiques: école, voisins, famille. Aujourd’hui, les amitiés et échanges adolescents se font sur Messenger, MySpace, ou Dailymotion, via téléphone mobile, baladeurs MP3, e-mail, et entre adolescents plus ou moins éloignés. En une dizaine d’années, les changements culturels ont été très importants, le premier d’entre eux étant que les adolescents des années 2000 ont un rapport à la technologie extrêmement positif, alors que dans les décennies précédentes, parler d’informatique était le meilleur moyen de se voir reléguer au fond des cours de récréation.

Ainsi, avant de voir les impacts de ces premiers natifs du web dans les entreprises, il faut encore attendre 5/6 ans. D’ici là, les adolescents qui regardaient la première Star Academy en 2001 auront dépassé la vingtaine et attaqueront le marché du travail. Ces adolescents français qui ont profité de l’explosion du haut débit, des forfaits mobiles accessibles, et du MP3. Et d’ici 5 ans, les entreprises auront encore évolué et continué à intégrer les TIC. Pour celles qui le peuvent.

Je suis donc impatient et curieux de voir comment va se passer l’intégration de ces générations internet au monde de l’entreprise, qui commencera d’ici ~5 ans. En attendant, je vous conseille de lire cet interview de danah boyd et Henri Jenkins: « Discussion: MySpace and Deleting Online Predators Act (DOPA)« , dont les passages les plus intéressants ont été retranscrits en Français par Stephanie Booth.

Pour ma part, je ne sais pas si je suis dans le wagon de queue des migrants ou dans le wagon de tête des natifs de l’ère numérique. Un pied dans les deux, certainement. Les discussions à Autrans promettent d’être intéressantes. :)

La publicité en ligne: limites et incompréhension

31 décembre 2006

Pour une grande majorité de sites web, la publicité est incontournable. Afficher de la publicité permet de générer du revenu, voire des profits. Et pour accroître ce revenu publicitaire, quoi de mieux que de développer le trafic?

En effet, accroître le trafic, et donc le sacro-saint volume de PAP, est considéré comme la façon la plus naturelle d’augmenter le revenu du site… Pourtant, il s’agit là d’une mauvaise façon de raisonner: les pages vues ne sont pas un indicateur fiable, et il ne faut pas se tromper de combat entre trafic et audience.

Les limites des indicateurs classiques

Nombreux sont les modèles économiques à être encore articulés sur l’augmentation des indicateurs publicitaires classiques, avec d’un côté l’augmentation du trafic, c’est-à-dire l’augmentation du nombre de pages vues (et donc des impressions publicitaires), et de l’autre côté, une hypothèse de stabilité (voire d’augmentation) du CPM. Cette logique amène de grands groupes soi-disant sérieux comme Yahoo! et Facebook à projeter une augmentation incroyable de l’usage, des pages vues, et des revenus:

En clair comment établir un plan de ROI à partir des revenus publicitaires sur une plateforme communautaire à la Myspace quand l’étiquette qui pendouille affiche 1,6 milliards? C’est finalement assez simple: on projette d’enregistrer 60% de la population estudiantine (Facebook, comme Myspace cible les étudiants et les jeunes adultes) d’ici 2010 à 2015, on affirme que 92% de ces nouveaux utilisateurs seront “actifs” et cracheront près de 1000 pages vues. On triture et on obtient plus de 270 milliards de pages vues (oui!) et on fait passer le CPM moyen de 0,25 $ en 2005 à plus de 5 $ en 2015.

L’exemple de Yahoo! et Facebook est choquant, mais il a le mérite de pousser la logique à l’extrême, et de faire réfléchir sur un modèle que la plupart des acteurs s’efforcent toujours de suivre: toujours plus de trafic, de pages vues, d’impressions publicitaires.

L’effet va certainement se poursuivre en s’accélérant, les sites 2.0 étant capables de générer des pages vues (et donc de l’inventaire publicitaire) à une vitesse incroyable, entraînant le CPM dans un abîme sans fin: 0,1$ pour MySpace, contre 2$ pour un grand portail généraliste comme Yahoo!, et 10 à 30$ pour les sites media; cf. les estimations compilées par Freddy Mini et Emmanuel Parody au mois d’avril dernier.

Les limites du marché publicitaire

A côté de cette spirale inflationniste des pages vues, il ne faut pas oublier certaines limites structurelles du marché publicitaire.

Tout d’abord, le fait que le nombre d’annonceurs est fini. Les budgets consacrés au web ont beau croître, l’explosion du nombre d’espaces publicitaires disponibles en ligne oblige les annonceurs à choisir les supports sur lesquels se placer. Mais cette explosion du nombre d’emplacement publicitaire ne doit pas faire croire que tous ces emplacements sont égaux. En effet, le volume a beau être très élevé, on assiste à une pénurie d’inventaire publicitaire… de qualité.

Et bien sûr, il faut prendre en compte la fragilité du marché publicitaire, première victime en cas de retournement de la conjoncture économique. Ce paramètre peut (doit!) refroidir bon nombre d’investisseurs quand la part du revenu assujettie à la publicité est trop grande.

Incompréhension trafic / audience

On comprend donc facilement que la problématique des annonceurs est de savoir quelle audience toucher pour que leur campagne ait le meilleur ROI, plutôt que de faire la course au volume d’impressions publicitaires. La télévision ne poursuit plus que marginalement le développement du nombre de spots ou d’emplacements publicitaires (tendance du moment: les séries, plus propices en insertion pub que les films). Les chaînes de TV s’efforcent plus d’attirer et de conserver des téléspectateurs, susceptibles d’attirer les budgets des annonceurs.

Sur le web raisonner sur le trafic plutôt que sur l’audience revient donc à prendre le problème à l’envers. Exemple avec le contenu généré par les utilisateurs (user-generated content): la plupart des sites essayent de l’incorporer car cela permet d’accroître de façon incroyable le nombre de pages vues. En effet, quoi de mieux que de laisser l’internaute s’exprimer pour qu’il affiche plus de pages? Pourtant, l’intérêt de l’UGC réside ailleurs: créer la différence, enrichir l’offre, et fidéliser les utilisateurs. Une audience qualifiée attirera les annonceurs; la génération de pages vues n’est qu’une conséquence annexe, et non le but à viser… cf. l’effondrement du CPM évoqué plus haut, avec un CPM moyen de 0,1$ pour MySpace, chantre du contenu généré par les utilisateurs.

La question n’est donc pas de multiplier les pages vues comme des petits pains, mais bien d’acquérir une audience fidèle et large, tout en essayant d’optimiser au maximum l’insertion publicitaire, afin de ne pas pénaliser l’usage.

Quant aux indicateurs, les taux de clics et l’usage réel sont bien plus honnêtes que le volume de pages vues et le trafic artificiellement généré par certaines formes de parcours client. Après tout, même Yahoo! commence à réfléchir à abandonner l’indicateur de pages vues, qui n’a plus grand sens à l’heure de nouvelles technologies comme l’AJAX.

Les classes moyennes à la dérive – Louis Chauvel

25 novembre 2006

Les classes moyennes à la dérive - Louis ChauvelDans Les classes moyennes à la dérive, Louis Chauvel analyse la situation des classes moyennes en France, sous l’angle économique, social et historique. Un éclairage douloureux mais nécessaire.

La première partie du livre est consacrée à une question évidente: que recouvre le terme classe moyenne? En effet, selon les pays, les époques, les indicateurs considérés et surtout la perspective dans laquelle on se trouve, on peut regrouper de 15% à 80% de la population sous l’appellation « classe(s) moyenne(s) ». On se rend par ailleurs très vite compte qu’il est impossible de définir précisément le périmètre des classes moyennes. Par exemple, la différence de coût de la vie entre Paris et la Province rend les comparaisons sur les revenus sans grand intérêt. De plus, est-il satisfaisant que la plupart des indicateurs utilisés ne s’intéressent qu’aux revenus? Depuis des années, l’augmentation du prix de l’immobilier d’une part et le tassement de la croissance ET de l’inflation d’autre part confèrent un poids croissant au patrimoine dans la situation économique d’un ménage.

Ainsi, Louis Chauvel se propose de définir quatre grandes catégories de classes moyennes, réparties selon 2 axes permettant une distinction historique (anciennes et nouvelles) et selon le type de capital dominant (culturel et économique). Une image valant parfois mieux qu’une longue explication, je me permets de reproduire le graphique ci-dessous (page 40):

L'espace social schmollerien des classes moyennes - Louis Chauvel

Globalement, l’auteur explique surtout que les classes moyennes n’existent que dans le devenir, dans la promesse d’une amélioration de la situation de l’ensemble de ses membres; ce qui suppose une croissance économique et sociale soutenue. Dès lors que le mouvement de croissance cesse ou ralentit, l’ensemble se désagrège.

Cela n’aura échappé à personne, depuis quelques dizaines d’années, ce mouvement de croissance est en panne; ou tout de moins bien inférieur aux taux records auxquels la société s’était habituée durant les Trente Glorieuses (même si cette période est une exception historique et non la règle). Il n’en demeure pas moins que le développement des classes moyennes s’est fait durant cette période, porteuse de progrès économique, sociale et culturelle. La génération des baby-boomers a connu une amélioration de ses conditions de vie sans précédent, permettant à chacun de prendre l’ascenseur social et de monter d’un ou plusieurs niveaux dans la société.

Le paradoxe français est que la société française évolue par glissement: la génération des baby-boomers continue d’être la plus favorisée, au détriment des jeunes générations; il n’y a pas eu passage de relais, au contraire. Même si les écarts inter-déciles ont été spectaculairement stables en France, une analyse par tranches d’âge révèle une surprise de taille: il y a 20 ou 30 ans, la pauvreté touchait essentiellement des personnes âgées, souvent laissées de côté par l’industrialisation et l’exode rural; de façon cynique, on pouvait se dire que le problème se résoudrait (et s’est résolu) de façon naturelle. Or, ces dernières années, la pauvreté a sauté une génération: les pauvres d’aujourd’hui sont des jeunes, plein d’avenir dans la pauvreté!

Les jeunes actuels ont en effet été sacrifiés par l’état et l’ensemble de la génération 68, au contraire de la génération précédente qui, après avoir traversé la deuxième guerre mondiale, avait mis en place les conditions dont a profité la génération 68. Il ne fait pas bon avoir moins de 30 ans aujourd’hui, et les mouvements sociaux des derniers mois le soulignent avec force sur des fronts très différents: chercheurs, lycéens, banlieues… Face à la situation actuelle de ralentissement économique, de déclassement social et d’inflation scolaire, l’ascenseur social et la méritocratie sont en panne, ne laissant une chance qu’aux meilleurs… et à ceux qui peuvent bénéficier d’un soutien familial.

Dans une telle situation de ralentissement, la réaction logique serait d’adapter ses besoins et ses aspirations au nouveau contexte; mais qui en aurait envie? C’est contraire aux réflexes acquis et à la pression sociale: quand bien même la situation économique n’est pas glorieuse, on a toujours l’habitude de consommer autant voire plus que les années précédentes, et la publicité et les marques poussent à toujours plus de consommation (note personnelle: notez l’écart de prix entre un Walkman (Sony) dans les années 1980 et un iPod (Apple) aujourd’hui; même à parité de pouvoir d’achat, l’écart est saisissant).

En conséquence, on peut se demander quand est-ce que le point de rupture sera atteint. Selon l’auteur, la déstabilisation politique viendra des générations dorées, et non des jeunes actuels, ces derniers étant pour la plupart dans un état de détachement politique total (incompréhension réciproque des uns et des autres) et de recherche de solution individualiste (stratégie égoïste pour ceux qui le peuvent, résignation silencieuse pour les autres). Au contraire, la génération 68, bien plus politisée, constate de plus en plus amèrement que sa progéniture est en situation d’échec, et risque donc de déstabiliser durablement les représentations politiques.

Les politiques et les élites n’ont pas jugé bon de s’adapter, et ne comprennent toujours pas le désintérêt massif pour la politique. Il est pourtant clair que ce décrochage du sentiment politique est lié à la prise de conscience du problème par l’ensemble de la population, de façon claire ou implicitement ressentie: la situation économique ne s’améliorera pas pour tout le monde, seuls les meilleurs peuvent espérer s’en sortir, et on voit réapparaître une aristocratie patrimoniale, en parallèle de l’affaiblissement économique des différentes strates du salariat.

Face à une situation aussi difficile et à la rigidité du discours politique, l’attrait du populisme devient supérieur à celui des (anciennes?) promesses des élites des « classes moyennes ». En effet, difficile de se satisfaire de la solution: « Up or Out« …

Arrivé aux dernières pages du livre, on réalise que Louis Chauvel ne raconte pas une belle histoire, mais fait tout pour montrer la réalité actuelle, sans arrondir les angles, pour susciter la prise de conscience. La conclusion est sans appel: soit politiques et décideurs se réveillent et amorcent un lourd processus d’adaptation de la société française aux nouvelles conditions économiques mondiales, soit ils préfèrent ne pas soulever de questions embarrassantes en pleine année électorale… Malheureusement, à force de laisser passer le temps, il est parfois trop tard…

Les classes moyennes à la dérive, par Louis Chauvel: un électrochoc salutaire publié à La République des Idées, chez Seuil.

Pour acheter ce livre sur amazon.fr, cliquez ici: Les classes moyennes à la dérive.

Pour aller plus loin:

La fin du consommateur, le règne de l’utilisateur

22 octobre 2006

Pourquoi n’utilise-t-on pas le terme consommateur en ligne?

Pourquoi parle-t-on d’utilisateur plutôt que de consommateur pour désigner l’internaute qui achète un produit, une musique, ou un service dématérialisé sur le net? Après tout, il s’agit du même type d’acte qu’aller acheter un disque dans un grand magasin…

sémantique et valorisation de l’individu

Le terme consommateur a une connotation négative: il désigne une personne passive, qui subit sa condition de consommateur. L’entreprise reine et le consommateur esclave (pourtant, le client est roi…).

Au contraire, le terme utilisateur est positif: il désigne quelqu’un qui utilise, interagit et participe pleinement à l’acte. Dans ce contexte, l’utilisateur est partie prenante de l’acte de consommation, et transcende ainsi son statut de simple consommateur.

logique marchande et idéal communautaire

De plus, dans l’opinion publique, la consommation implique une logique monétaire, au détriment du consommateur; ce dernier doit se délester d’une somme pour consommer.

L’utilisation, elle, est plus proche des concepts de gratuité, de service accessible et partagé; l’utopie originelle du net. On pourrait même pousser la logique jusqu’à parler des services publics, qui s’adressent à leurs utilisateurs, leurs usagers, et non à leurs consommateurs. En effet, l’utilisateur du service (publique) participe indirectement et partiellement au financement du service, ce qui donne souvent l’impression que le service est gratuit.

Pourtant, rien n’est jamais gratuit; que ça soit via un prix, une taxe, ou une publicité, tout se paie. Du côté des travailleurs, tout travail mérite salaire. Du côté des entreprises, éditrices de services en ligne comme vendeurs de voiture, tout projet vise à faire des bénéfices, ou au moins à ne pas perdre d’argent, ce qui suppose qu’il y ait des revenus permettant de supporter les coûts.

Changer de vocabulaire pour mieux vendre

Ainsi, les logiques qui sous-tendent l’activité économique ne changent pas, et l’objectif reste le même: générer des profits. Que ça soit Google, eBay, MSN ou Netvibes, toutes les entreprises cherchent à générer des profits, d’une façon ou d’une autre. Ce qui change, c’est le vocabulaire marketing et l’approche de communication.

D’ailleurs, ces changements de vocabulaire et d’attitude ne sont pas apparus avec le net: le Club Med, avec le concept de GO et GM, avait compris l’importance de la valorisation du consommateur dès le début des années 1950. Les clients sont valorisés, on leur donne l’impression d’être partie prenante de l’activité, et d’être, en quelque sorte, co-producteurs. Par ailleurs, cette valorisation se fait surtout en dévalorisant l’ancienne approche; celle de la consommation, de l’entreprise et de la transaction monétaire clairement identifiée. Ainsi, pour reprendre l’exemple du Club Med, ce dernier a toujours utilisé un moyen ou un autre pour masquer au maximum l’échange monétaire au sein des villages de vacances.

Sur le web, l’utilisateur est également valorisé; tant mieux pour lui (plutôt que de se faire prendre pour un con…), et tant mieux si l’utilisation de services peut être gratuite, en étant financée au maximum par la publicité, le sponsoring ou un co-branding quelconque.

La valorisation du consommateur permet également une amélioration de sa perception du service, du produit et/ou de l’entreprise, ce qui, ajouté à l’attrait de la nouveauté technologique, permet aux entreprises du net de truster les esprits et les espaces de communication (voire les porte-monnaie).

Tant mieux pour ce glissement de vocabulaire s’il améliore la perception et l’usage des services en ligne. Après 60 Millions de consommateurs, 60 Millions de gentils utilisateurs?

La fin de la télévision – Jean-Louis Missika

8 octobre 2006

La fin de la télévision - Jean-Louis MissikaDans La fin de la télévision, Jean-Louis Missika décrypte les évolutions du monde de la télévision de son invention à nos jours, et explique comment la télévision va disparaître, à l’heure où les écrans et les images sont omniprésents.

Une présentation chronologique des évolutions de la télévision permet à l’auteur de montrer le déclin de la dimension éditoriale de la télévision et la perte d’influence de ceux qui véhiculent ces messages: chaînes, présentateurs et animateurs en tous genres. En effet, selon Jean-Louis Missika, des années 1950 aux années 1980/90, on est passé d’un univers dans lequel la télévision était une institution de transfert de savoirs et de connaissances, fortement contrôlée par les pouvoirs en place (la paléo-télévision), à une télévision de plus en plus proche du téléspectateur, dans laquelle ce dernier s’invite à l’écran (la néo-télévision). L’évolution s’est poursuivie avec l’apparition d’une télévision encore plus proche du téléspectateur, fusionnelle, dans laquelle seul compte le fait d’être à la télévision (la post-télévision). En conséquence, il est maintenant plus important de coller aux attentes et émotions du public que de faire passer des messages.

Comment en est-on arrivé là? Ces changements ont-ils été imposés par les chaînes de télévision, ou bien la télévision a-t-elle accompagné un ensemble de mutations inévitables?

Selon Jean-Louis Missika, trois fais expliquent ces glissements: la démédiation, la dépendance, et la déprofessionnalisation.

La démédiation est pour la télévision la perte progressive de son statut d’acteur économique incontournable. Quand des centaines de chaînes sont accessibles par ondes hertziennes, par câble, ou par satellite, l’offre devient hyper-segmentée, et en conséquence, l’audience se fractionne. Ce fractionnement pénalise les grandes chaînes (sans pour autant conforter la situation des petites) dans la course à l’audience, nécessaire pour négocier aussi bien avec les producteurs de contenus que les annonceurs.

Dans le même temps, les producteurs de contenus ont revu leurs positions en capitalisant sur leurs compétences-clés et sont dorénavant dans une situation de force par rapport aux chaînes, créant pour la télévision une situation de dépendance. Un exemple? La Champion’s League, événement international, a noué un partenariat avec Playstation, partenariat que les (nombreuses) chaînes de télévision doivent accepter afin d’obtenir les droits de retransmission de l’événement.

Ce phénomène de dépendance est renforcé par l’apparition de supports concurrents de la télévision: des acteurs comme les FAI ou les portails web sont en mesure de concurrencer les chaînes de télévision dans les négociations avec les producteurs de contenus: les FAI disposent d’une audience captive (leurs bases d’abonnés), et les portails web disposent d’une audience massive, couvrant souvent plusieurs pays.

Au passage, le contexte de convergence numérique accentue également l’hyper-segmentation de l’offre en permettant aux producteurs d’événements de diffuser directement leurs contenus, grâce à de nouveaux moyens de diffusions comme la TV IP ou le podcasting, qui s’ajoutent aux diffusions par câble, satellite, TNT, etc. Certains clubs de football gèrent ainsi la diffusion de leurs matchs au travers de chaînes spécifiques sur la câble ou le satellite (Barça TV ou OM TV), voire en ligne (OM TV online).

De l’autre côté du téléviseur, la prise de participation croissante des téléspectateurs dans les activités médias crée un phénomène de déprofessionnalisation de la télévision. Le phénomène de création personnelle de vidéos n’est certes pas nouveau; ce qui est nouveau, c’est la capacité de diffusion qui s’offre à tous ces vidéastes amateurs. YouTube ou DailyMotion sont les premiers vecteurs de la conquête de l’espace audiovisuel par les téléspectateurs. Bien entendu, seule une minorité d’individus va diffuser activement des contenus vidéo en ligne. Néanmoins, cela suffira pour accentuer les phénomènes déjà à l’oeuvre: diminuer l’importance des chaînes de télévision du fait d’une fragmentation extrême de l’audience, et renforcer l’idée que se font les personnes de l’accès à l’antenne: un droit en soi.

Dans la troisième et dernière partie de son ouvrage, Jean-Louis Missika explique en quoi la disparition progressive de la télévision est négative sur le plan social: la fin de la télévision entraîne la disparition du principal espace de débat. La télévision est (était?) le meilleur forum des sociétés démocratiques modernes: elle favorise l’échange d’idées, et permet à chacun d’affiner ses propres idées, en se confrontant à l’ensemble des opinons.

En effet, la télévision, encore mieux que la radio ou la presse, permet de matérialiser la confrontation, par exemple à l’occasion d’un débat politique entre deux candidats à l’investiture présidentielle, et de rassembler une audience massive devant ce débat.
Le passage de la paléo-télévision à la néo-télévision a diminué l’importance accordée à ces événements, en décrédibilisant les porteurs de messages à l’écran et en offrant la possibilité aux téléspectateurs de se tourner vers des programmes plus consensuels ou plus en accord avec leurs goûts. Le passage à la post-télévision a quant à lui fini d’enfoncer le clou, avec la perte totale d’intérêt accordé aux messages diffusés.

L’auteur prend la campagne présidentielle française de 2002 comme exemple, durant laquelle l’ensemble de l’électorat s’est désintéressé de l’événement. Le choc du 21 avril a ainsi abouti à une situation absurde: la campagne a duré à peine quelques minutes, entre l’annonce des résultats du premier tour à 20 heures et les réactions qui ont suivi. Au final, il n’y aura eu quasiment aucun échange ou débat politique réel pour cette élection présidentielle, et les transformations de la télévision y sont pour beaucoup: décrédibilisation des porteurs de messages, simplification extrême des messages en eux-mêmes, et focalisation sur l’humain et ses bassesses plutôt que ce qui est dit.

Comme l’indique le quatrième de couverture: Nous entrons dans un monde d’images omniprésentes et de média absent. Toujours plus d’images et toujours moins de télévision. Nous allons connaître une société sans télévision. Le point clé de la disparition de la télévision étant, selon l’auteur, la perte d’un espace d’échange d’idées, politiques, sociales ou autres. La fin de la télévision intervient sans que rien n’émerge en remplacement. Il reste donc à inventer un nouveau forum de discussion public, ouvert, et massif. Rapidement, si possible.

La fin de la télévision, par Jean-Louis Missika: un essai convaincant sur les mutations des médias audio-visuels et la disparition programmée de la télévision en tant que média éditorial incontournable, publié à La République des Idées, chez Seuil.

Pour acheter ce livre sur amazon.fr, cliquez ici: La fin de la télévision.

Pourquoi les services web sont-ils gratuits ?

10 septembre 2006

Depuis plus de 10 ans que le web existe, la gratuité domine sans partage. Les tentatives de services payants se soldent quasiment toutes par des échecs: il suffit de voir que peu de chiffres sont communiqués sur les formules payantes des magazines en ligne ou des sites de téléchargement de musique pour comprendre que la situation n’est pas glorieuse.

Les quelques exceptions que sont les réussites (massives) d’eBay, Google, ou iTunes ne font pas oublier la situation généralement difficile des services web payants. Comment expliquer qu’il est encore aussi difficile de développer un service payant? Les utilisateurs ne peuvent-ils pas devenir des clients?

Les coûts de ces services ne sont pas nuls, et le gain retiré par l’utilisateur est lui aussi positif. Lorsqu’un utilisateur utilise un moteur de recherche, il en retire un gain, car il a gagné du temps et a obtenu l’accès à une information autrement difficile (voire impossible) à obtenir autrement. Pourtant, l’expérience a beau être positive, je doute que nombre d’internautes soient prêts à payer pour lancer une recherche, quel que soit le moteur.

Est-on dans une situation où le coût, le prix et le bénéfice utilisateur sont dissociés? En raison de l’immatérialité des services, renforcée par l’aspect impersonnel de l’informatique et l’aspect lointain de ces services web? L’internaute a-t-il l’impression que le service qu’il utilise est si facile d’accès et d’usage qu’il a du mal à en percevoir le coût et la valeur?

Pas nécessairement. Les utilisateurs ne paient pas… simplement parce que personne ne le leur demande. En effet, les modèles économiques se basent de moins en moins sur la collecte de revenus auprès des utilisateurs finaux, et glissent vers la publicité, le sponsoring, ou la revente de données plus ou moins personnelles.

Il s’agit d’une tendance de fond qui se développe dans l’économie en général: qui aurait cru il y a une dizaine d’années que l’on distribuerait gratuitement des quotidiens ou des magazines? La télévision fonctionne sur ce modèle depuis ses premiers jours, il est donc logique que les autres supports de contenus ou d’audience s’intéressent au tout gratuit. De plus, le web a pour lui des avantages non négligeables pour séduire annonceurs er partenaires commerciaux: mesures d’audience et de performance précises, récolte de données de profiling faciles, etc.

Voilà une des clés du succès sur le web: développer l’audience pour atteindre une masse critique, et pouvoir ensuite la monétiser sous une forme ou une autre (profiling, partenariats, publicité par affichage de bannières, AdSense, etc.). Google, MySpace, YouTube ou Flickr, sans oublier les portails et sites d’information; tous les ténors font dans le gratuit avec publicité.

Les services web sont gratuits parce que les rendre payants n’a pas de sens dans le modèle économique majoritairement adopté en ce moment. Les quelques formules payantes, « premium », ne génèrent pas de revenus substantiels, et font office de cerise sur le gâteau.

user-generated content: de la participation à l’implication

13 août 2006

Depuis bientôt deux ans, on note un engouement sans précédent pour les user-generated content (UGC); ces contenus générés par les utilisateurs qui, il y a seulement quelques années, n’intéressaient personne et étaient confinés dans les abysses du web – les pages persos.

Il est dorénavant impossible de lire un article ou d’ouvrir son navigateur sans tomber sur des lancements de services qui permettent aux internautes de publier leurs contenus en ligne. Certains annoncent mettre l’utilisateur au centre, agréger le meilleur des internautes, voire développer l’intelligence collective [1].

Au-delà des effets d’annonce et du buzz qui entourent ces sites, cette évolution a-t-elle un sens? Comment est-on arrivé à une situation où il est plus important de détenir des contenus générés par les utilisateurs que d’avoir un modèle économique? (cf. MySpace)

Le glissement s’est fait progressivement: d’une logique de la participation, purement volontaire, on est arrivé aujourd’hui à une logique de l’implication, véritablement nécessaire.

1/ participation distante : réagir, commenter

Sur 01net, par exemple, les lecteurs peuvent laisser des commentaires depuis aussi loin que je me souvienne, mais ces commentaires sont peu mis en valeur, et ne sont pas du tout nécessaires au service offert: les contenus générés par les utilisateurs n’entrent pas dans la proposition de valeur de 01net. Les articles sont écrits par des professionnels, journalistes ou pigistes, et les commentaires sont un bonus, permettant éventuellement de fidéliser l’audience en lui donnant la possibilité de commenter les articles.

2/ participation active : proposer, compléter

Voyant que ces commentaires sont parfois de grande qualité, certains services ont fait le pari de mettre les contenus produits par les internautes plus au coeur de leurs pages, tout en conservant une grande part de contenus produits ou acquis.

Ainsi, la chaîne de voyage de Yahoo!, dont la nouvelle mouture a été lancée il y a un an, comporte un guide de voyage qui permet aux utilisateurs de rédiger des revues de destination, en plus des contenus achetés par Yahoo! auprès de prestataires spécialisés. Concentrer les coûts sur les destinations les plus génératrices de trafic (Paris), sans pour autant dépenser d’argent sur les destinations peu courues (Kolonia, Micronésie); un avantage financier indéniable. La longue traîne du guide est ainsi remplie par les internautes eux-mêmes.

3/ implication active: rédiger, créer

Evolution logique et aboutissement de l’exercice: laisser les utilisateurs créer l’ensemble des contenus, en mettant une architecture de publication à leur disposition; charge à eux de remplir la coquille. On se retrouve dans une situation inédite: le support a nécessairement besoin des contenus de ses utilisateurs; sans quoi, il n’existe pas.

Pourtant, ce qui fonctionne bien pour les services communautaires ne fonctionne pas nécessairement pour des sites de contenu. Ainsi, Benoit, ne trouvant pas la fiche de son jeu fétiche sur un site/réseau social ciblant les gamers, a préféré quitter le service plutôt que de consacrer trop de temps à créer lui-même la fiche du jeu (son expérience).

Vouloir que les utilisateurs s’impliquent, c’est donc prendre le risque de voir leurs attentes augmenter et leur patience s’éroder. En effet, s’ils acceptent de jouer le jeu, il faut que le service soit réactif et évolue dans le même temps.

La participation active à un service développe l’usage et la fidélité, mais dans le même temps, les attentes des utilisateurs augmentent, ainsi que les risques de frustration.

user-generated content: de la participation à l'implication - renforcement des attentes et de l'exigence

Ces phénomènes ne sont pas sans rappeler ceux constatés sur d’autres services, notamment les forums de discussion. Les utilisateurs attendent plus de ces services participatifs que d’un simple site sur lequel ils consultent de l’information: dialogue entre utilisateurs, avec les responsables du service, envie de prendre part au développement du service, avoir voix au chapitre, etc. C’est le deuxième effet kiss-cool de l’appropriation du service et de la participation. ;-)


[1] A propos de l’intelligence collective, voir l’article d’InternetActu.net: ‘Sagesse des foules’ ou lynchage en ligne ?.

Synthetic Worlds – Edward Castronova (2)

23 juillet 2006

Synthetic Worlds: The Business And Culture Of Online GamesDans Synthetic Worlds: The Business And Culture Of Online Games, Edward Castronova montre que les utilisateurs des univers synthétiques partagent un ensemble de concepts, valeurs, croyances et systèmes de pensées, ce qui renforce d’autant leur adhésion et l’intérêt qu’ils portent aux univers auxquels ils participent (voir post précédent).

Cette adhésion est fortement renforcée par la perméabilité entre le monde physique et les univers synthétiques. De prime abord, on a tendance à opposer le monde “réel” aux mondes “virtuels”; or, les univers synthétiques ne sont pas moins “réels” que le monde physique: dans les deux cas, ce sont des êtres humains qui interagissent, et il s’agit des mêmes êtres humains dans de nombreux cas.

En conséquence, les utilisateurs partagent leur temps entre ces deux types de territoires, et s’organisent en conséquence: quand on est occupé à une tâche dans un univers synthétique, on ne peut pas être occupé à une tâche du monde physique. De plus, il faut s’organiser avec les autres personnes qui évoluent au sein du même univers synthétique, sur le même modèle que dans l’univers physique.

Ainsi, on comprend que les utilisateurs ne fassent pas de séparation franche entre les univers synthétiques et le monde physique, et passent de l’un à l’autre comme on passe de n’importe quelle activité à une autre. L’auteur montre également qu’il n’y a pas que les personnes qui passent d’un type d’univers à l’autre, mais également des biens, des services, des formes d’organisations, et l’ensemble des concepts et des représentations de la vie (il utilise le terme de membrane poreuse pour désigner la frontière symbolique que franchissent utilisateurs et concepts).

Concernant l’image qu’on se fait de la vie, Edward Castronova explique que la vie moderne peut s’avérer décevante pour beaucoup, surtout par rapport aux promesses de l’éducation, de la société et des média. L’intérêt perçu de ces mondes synthétiques est alors plus fort, renforçant encore l’adhésion des utilisateurs à ces univers.

Pour illustrer cette comparaison, l’auteur reprend le mythe de Sisyphe:

si la vie moderne peut se résumer à pousser sans cesse le rocher en haut de la colline pour le voir redescendre et recommencer à nouveau, les univers synthétiques permettent de mettre en place de nouvelles collines, toujours plus hautes; ainsi, même s’il faut continuer à pousser le rocher, au moins il est possible de le pousser toujours plus haut, toujours plus loin. De plus, ce n’est pas exactement le même rocher et la même colline: les concepts empruntés aux jeux de rôle tels que la notion de fantasy, la quête, le sens de la progression et de l’accomplissement, permettent de dépasser le côté routinier des activités régulières, et ce de façon bien plus efficace que dans le monde réel.

Enfin, miracle de l’informatique et des univers synthétiques, tout le monde peut être un être à part, un héros, car en plus des utilisateurs humains, ces mondes sont peuplés d’utilisateurs contrôlés par IA, et qui permettent de représenter le “peuple”, à l’aulne duquel l’utilisateur peut se mesurer. Difficile à reproduire dans la vie de tous les jours.Les concepts sociaux attachés aux univers synthétiques et leurs impacts sur la vie d’un nombre de personnes toujours plus grand permet de mieux comprendre la fascination croissante pour ces univers, et la nécessité d’analyser plus profondément ces sociétés naissantes, mais aussi les économies et marchés qui leurs sont attachés.

Pour aller plus loin dans la réflexion:

Synthetic Worlds: The Business And Culture Of Online Games, par Edward Castronova: un livre fascinant qui aborde les univers synthétiques sous les angles économiques et sociaux et montre à quel point ces univers prennent (et prendront) une importance croissante dans la vie de toujours plus de personnes.

Pour acheter ce livre sur amazon.fr, cliquez ici: Synthetic Worlds: The Business And Culture Of Online Games.

Synthetic Worlds – Edward Castronova (1)

23 juillet 2006

Synthetic Worlds: The Business And Culture Of Online GamesDans Synthetic Worlds: The Business And Culture Of Online Games, Edward Castronova, présente la réalité de ce marché encore peu analysé: les jeux en ligne massivement multi-joueurs, et en particulier les jeux de rôles en ligne massivement multi-joueurs (MMORPG – Massively Multiplayer Online Role Playing Games).

La première partie du livre est consacrée à la présentation de ces univers synthétiques et de la vie quotidienne en leur sein, mais aussi (et surtout) à convaincre le lecteur de l’ampleur et de l’intérêt du phénomène.

En effet, pourquoi s’intéresser aux jeux en ligne, surtout quand on est économiste? Tout simplement parce qu’il s’agit d’un marché important, en forte croissance, et auxquelles de nombreuses personnes consacrent une part conséquente de leurs ressources, en particulier du temps et de l’argent: même avec les estimations les plus conservatrices, le marché a dépassé les 10 millions d’utilisateurs, et au moins 30 millions de dollars sont générés en échanges sur les places de marché en ligne (eBay, IGE, etc.) au moment du bouclage du livre, au deuxième semestre 2005. Un marché non négligeable et tout ce qu’il y a de plus réel. En effet, un nombre aussi conséquent de personnes permet de donner de la valeur aux objets issus de ces mondes, de la même façon que l’ensemble des personnes d’un ou plusieurs pays donnent leurs valeurs aux monnaies, selon les règles basiques de l’économie, notamment l’offre et la demande.

La première partie du livre se poursuit sur les descriptions de tout ce qui assure l’existence et le développement de ces univers: techniques informatiques à l’œuvre, sociétés et organisations générées par les utilisateurs, entreprises et marchés développant ces univers.

Après cette phase de présentations, Edward Castronova poursuit son exploration des univers synthétiques en s’attachant aux utilisateurs eux-mêmes et à leurs activités, ce qui lui permet au passage d’expliquer pourquoi il utilise le terme d’univers synthétiques à la place de jeux en ligne: d’une part, il y a d’autres univers synthétiques qui ne sont pas des jeux (Second Life, ou Habbo Hotel), et d’autre part, parce que le jeu n’est qu’une des composantes de ces univers, composante parfois minoritaire en comparaison des relations sociales tissées entre les utilisateurs.

En effet, en plus d’y consacrer du temps et de l’argent, les utilisateurs des univers synthétiques partagent un ensemble de concepts, valeurs, croyances et systèmes de pensées, ce qui renforce d’autant leur adhésion et l’intérêt qu’ils portent aux univers auxquels ils participent.

On a donc beaucoup de personnes présentes dans un même endroit au même moment, interagissant et participant à des activités communes: or, là où il y a des personnes, il y a société (interactions interpersonnelles, organisations de groupes, etc.), et économie (échanges de biens et services entre personnes au sein du même groupe, ou avec des groupes externes). On voit donc que les activités économiques et sociales sont profondément ancrées dans les univers synthétiques.

Dans la troisième et dernière partie du livre, Edward Castronova soulève des questions de prospectives intéressantes sur:

  • les utilisateurs: Jusqu’à combien de personnes le marché juteux des univers synthétiques peut-il attirer? Combien de temps sera consacré aux activités dans les univers synthétiques?
  • l’impact économique: Quelles activités, quelles valeurs générées, puis échangées dans l’économie classique? A terme, il est probable que les activités menées au sein de ces univers aient un impact négatif sur celles du monde physique: numériquement parlant, si les activités économiques continuent à se développer en intensité, en volume, et en nombre de personnes impliquées, alors il y aura de fait une baisse des activités économiques dans le monde physique (moins de temps/énergie/personnes y seront consacrées).
  • le contrôle et le pouvoir: Qui contrôlera ces univers? Leurs créateurs? Les intermédiaires d’échange de biens/services synthétiques contre des monnaies physiques? Les gouvernements s’impliqueront certainement, ne serait-ce que pour capter une partie de la valeur créée sous une forme ou une autre de taxation, et pour s’assurer qu’ils ont toujours la mainmise sur leurs administrés.

Synthetic Worlds: The Business And Culture Of Online Games, par Edward Castronova: un livre fascinant qui aborde les univers synthétiques sous les angles économiques et sociaux et montre à quel point ces univers prennent (et prendront) une importance croissante dans la vie de toujours plus de personnes.

Pour acheter ce livre sur amazon.fr, cliquez ici: Synthetic Worlds: The Business And Culture Of Online Games.

Les contenus générés par les utilisateurs comme relais de croissance

3 juin 2006

On l’a vu précédemment, le nombre de producteurs de contenus de qualité est à la fois fini et faible: il y a donc duplication et répétition (qui n’a jamais lu les mêmes dépêches de l’AFP sur plusieurs sites web et journaux?), et les consommateurs ont tendance à aller à la source s’ils n’ont pas d’intérêt particulier à consommer ces contenus sur un support d’audience pure.

Dès lors, comment maintenir une stratégie d’audience sur la base de contenus limités, face à une concurrence de supports pléthoriques?

Les contenus produits par les utilisateurs au secours de l’audience.

Face à ces problèmes d’offre identique, les supports d’audience s’adaptent pour contourner cette limite de l’agrégation de contenus, notamment en créant des services annexes à fort pouvoir de fidélisation. Pour cela, ils ouvrent la possibilité aux utilisateurs de se créer des comptes personnels, de façon à ce que ces derniers puissent commenter les articles, noter les restaurants, publier leurs photos ou leurs vidéos, bref, tout ce qui peut leur permettre de compléter le support et d’y laisser leur empreinte. Quoi de mieux pour s’approprier le media si ce n’est d’en être partie prenante?

Ainsi, un media qui ne dispose pas de contenus propres (ou peu) mais les achète peut obtenir le succès en ajoutant une galaxie de services participatifs permettant aux utilisateurs de publier leur contenus personnels; charge à l’entreprise de les diffuser (tout en les monétisant au passage) et de les intégrer correctement aux différents supports.
Le meilleur exemple? Yahoo! Cette stratégie n’est cependant pas réservée qu’aux entreprises web: TF1 s’associe avec Daily Motion pour créer une chaîne TV amateur, Libération permet à n’importe qui d’envoyer des photos par MMS, etc.Le support d’audience dispose ainsi d’un service qui lui est propre, et qui permet de fidéliser les utilisateurs. En effet, il est très coûteux en temps et en énergie de “participer” à plusieurs media; les consommateurs préféreront rester là où ils publient leurs contenus, quitte à consommer un peu moins de contenus “éditoriaux” qu’ils ne le pourraient en se concentrant sur la recherche et la consommation de tels contenus.

Autre effet intéressant: ces nombreux contenus générés par les utilisateurs, en plus d’augmenter la fidélisation, permettent aux supports qui les hébergent de disposer d’un surcroît de contenus. Certes, ces contenus sont peut-être de moins bonne qualité que ceux produits par des professionnels spécialisés. Ils ne sont toutefois pas dénués de valeur, et ils permettent de compléter l’offre de base et de donner une touche particulière au service.

Ainsi, les chaînes voyage des différents pays de Yahoo disposent de contenus très riches sur un nombre incroyable de destinations, sans pour autant payer pour l’ensemble de ces contenus. Yahoo dispose d’une structure très détaillée des destinations possibles, et ne va acheter des contenus que pour les pages les plus importantes (grandes métropoles, musées, lieux et monuments incontournables), laissant le soin aux internautes de compléter les fiches des destinations moins recherchées. Ceci permet au passage une exploitation intéressante de la Long Tail.

Les contenus des utilisateurs peuvent-ils se suffire à eux-mêmes?

En poussant cette logique jusqu’au bout, peut-on se passer de contenus “éditoriaux”, produits par d’autres entreprises? En effet, pourquoi supporter ces coûts s’il est possible de laisser les utilisateurs générer les contenus sur un support adéquat offert gratuitement? Pourquoi ne pas créer un service qui reposerait uniquement sur la diffusion de contenus créés par les utilisateurs?

L’idée est séduisante, et de plus en plus d’entreprises tentent ce genre d’expérience: Live1, une chaîne de TV orientée rencontres; les journaux participatifs en ligne; le supplément spécial Saint-Valentin du journal 20Minutes uniquement composé de déclarations d’amour envoyées par SMS, etc.
Reste à démontrer l’intérêt et la viabilité de supports construits entièrement sur la base de contenus utilisateurs et non offerts comme extension d’une gamme de produits classiques.Les journaux participatifs sont une tentative de supports générés entièrement sur la base du bénévolat de la quasi-totalité des utilisateurs. Ils se veulent indépendants de structures classiques, et ont donc un modèle entièrement basé sur ces contenus utilisateurs. Cependant, si le succès phénoménal du site coréen OhMyNews a galvanisé les partisans de ce modèle, il ne faut pas oublier l’échec du site Bayosphere créé sous l’impulsion de Dan Gillmor (auteur de We The Media), et la nécessité pour le site français Agoravox de trouver un modèle économique.

Ainsi, pour le moment, la meilleure stratégie semble être un mix entre contenus produits en propre (pour les contenus-clés), contenus achetés (pour les contenus incontournables mais éloignés du coeur de métier), et contenus générés par les utilisateurs (pour créer la différence, enrichir l’offre, et fidéliser les consommateurs).

Même si j’ai l’impression d’enfoncer des portes ouvertes, je suis sûr que certains acteurs n’ont pas encore compris l’importance de ce mix…