Archives pour la catégorie 'web'

Vous parcourez en ce moment les archives du weblog kobaye.net pour la catégorie web.

Google: nouvelles fonctionnalités pour nouveaux services?

Lundi 20 avril 2009

En regardant les nouvelles fonctionnalités lancées par Google, on peut se demander à quels objectifs elles répondent: enrichir les services existants, ou préparer le terrain au lancement de nouveaux services, voire à de nouveaux usages de consommation ou à de nouvelles méthodes de distribution?

Analyse de récents changements:

Nouvelles URL de referrers et AJAX

Prenons la nouvelle structure des URL de referrers des pages de résultats du moteur de recherche, décrite au détour d’un article expliquant que cela n’aura pas d’impact sur Google Analytics (si vous utilisez un autre service de tracking, pensez à demander). Les referrrers vont donc devenir plus complexes; plus riches en données exploitables, certes (avec le classement du lien cliqué par exemple), mais surtout plus complexes.

Quel intérêt de passer d’une structure très simple à quelque chose d’aussi compliqué? Tout simplement supporter le passage à une interface en AJAX, plus rapide et plus riche, qui déporte une partie des actions du serveur vers la machine de l’utilisateur.

L’intégration progressive d’AJAX permet à Google d’intégrer de plus en plus d’éléments riches dans les pages de résultats (tendance de fond depuis 2 ans: l’Universal Search). Par exemple, les tests de mars dernier sur un panel restreint d’utilisateurs ont montré de nouvelles fonctionnalités pour affiner les résultats, et ont révélé au passage la nouvelle structure d’URL de referrers. Passer à l’AJAX permet à Google de se renouveler, de continuer à innover, de lutter contre les velléités de la concurrence, et tout ça sans avoir à subir une hausse des coûts.

En effet, l’AJAX a comme avantage secondaire et non négligeable de réduire la charge serveur, ce qui permet d’obtenir une baisse des coûts serveurs, ou une capacité à lancer de nouvelles fonctionnalités à périmètre serveurs constant. L’AJAX est d’ailleurs une technologie mature chez Google, notamment via Gmail, pour lequel ils ont plusieurs fois réécrits des portions importantes de javascript.

Gears et gestion asynchrone

Incorporer des technologies AJAX va pourtant à l’encontre de la simplicité traditionnellement promue par Google: en effet, quoi de plus rapide que la version HTML basique de leurs pages de résultats? Les résultats riches et les fonctionnalités AJAX nécessitent de télécharger bien plus d’éléments, et la charge serveurs s’en trouve alourdie… au premier téléchargement. Ensuite, le cache du navigateur et le processeur de la machine de l’utilisateur tâchent d’en faire le plus possible sans recourir au serveur. Dans un second temps, les performances peuvent encore êtres améliorées grâce à Gears, une extension pour navigateurs qui améliore l’interaction web/local en stockant et exécutant une partie du code et des informations habituellement gérées par le serveur; un mini-serveur local, en somme.
Gears permet par exemple d’accélérer la rédaction des articles sur ce blog dans WordPress, ou de gérer ses mails Gmail en mode offline.

Quelle application de Gears peut-on imaginer pour les pages de résultats de recherche? Le maintien de la rapidité d’affichage, composante importante de la qualité et de la pertinence perçue par les utilisateurs, tout en augmentant les fonctionnalités offertes au sein des pages de résultats. (Ce qui se renforce d’encore un cran au sein de Chrome, le navigateur de Google dont le moteur javascript a été fortement optimisé pour accélérer les applications web comme… Gmail, et probablement l’ensemble des services Google.)

Une fois l’ensemble de ces techniques maîtrisé, n’importe quel service peut être adapté à cette logique web/local asynchrone, fluide et légère, et les nouveaux services ou produits Google ne devraient pas manquer d’apparaître.

Néanmoins, ces nouvelles fonctionnalités n’ont pas que l’enrichissement de l’offre comme objectif, mais aussi l’accès à cette offre au travers de nouveaux appareils et de nouveaux modes de consommation.

Une chaîne plus fluide: pour les appareils légers

L’AJAX et Gears facilitent l’accès à l’ensemble des services Google « in the cloud » depuis n’importe quel appareil, mais surtout depuis les appareils « SCF« : téléphones mobiles, netbooks, etc. Vous pouvez de plus en plus utiliser les services sans être nécessairement connecté, et sans en avoir à vous en soucier: le mail partira lorsque votre téléphone aura récupéré une connexion au sortir de l’immeuble, ou bien l’article sera publié lorsque votre train sera sorti du tunnel. L’expérience est fluide et transparente.

D’ailleurs, plus besoin d’utiliser une machine puissante dotée d’un système d’exploitation ou d’un navigateur classique, un appareil basique suffit, dont la puissance, le système d’exploitation et le navigateur sont allégés et mélangés, à l’exemple de l’iPhone, ou des terminaux Android, téléphones ou netbooks.

En somme, les nouvelles fonctionnalités de Google leur permettent de capitaliser sur et de continuer à développer la puissante capacité technique à leur disposition, que ce soit en termes de capacité serveurs ou en bande passante, et le lancement de nouveaux services peut se faire de façon de plus en plus transparente, voire anodine, sans investissements conséquents (le rêve de l’actionnaire).

N.B. Pour ceux qui n’auraient pas suivi, Google est principalement une architecture réseau et technique d’une dimension sous-estimée, capable, entre autres choses, de gérer un moteur de recherche rentable.

services sociaux en ligne, « social graph » et expérience utilisateur

Samedi 3 novembre 2007

En pleine déferlente d’invitations sur Facebook, beaucoup de mes contacts me demandent pourquoi je ne suis pas encore inscrit, alors que « c’est trop cool, tout le monde est dessus », c’est the place to be… Pourtant, c’est toujours la même rengaine, seul le service change: Copains d’Avant, LinkedIn, Friendster, Flickr, Typepad, MySpace, etc. A chaque fois, c’est reparti pour des journées de galère à essayer de synchroniser son profil et ses relations sur le nouveau réseau, chercher tous ses amis, envoyer/répondre des mails d’invitations, tout ça pour finir quelques semaines plus tard avec quelques centaines de contats (toujours les mêmes), dupliqués sans cesse.

réseau social - représentation graphique (2)

Comme le synthétise Brad Fitzpatrick, nouveau responsable du développement social de Google: « People are getting sick of registering and re-declaring their friends on every site. »

En effet, il n’est pas tant question d’identité numérique (bien qu’il soit pénible de chaque fois redéclarer son identité), mais surtout de réseau social: qui est lié à qui et comment? Comment retrouver sur un réseau social en ligne les contacts qu’on a déjà au sein d’un autre réseau social, en ligne ou dans la vie?

réseau social - représentation graphique (1)

Arrive la notion de graphe social, proposée par le fondateur de Facebook, Mark Zuckerberg, et qui selon lui désigne:

« le réseau de connexions et de relations entre les gens sur Facebook, qui permet la diffusion et le filtrage efficaces de l’information »

source / traduction: Francis Pisani (via InternetActu)

Cette première description, trop restrictive car ne servant qu’à donner un nouveau nom au concept de réseau social (voir les réactions de Dave Winer ou de Nick Carr à ce nouveau buzz word), a vite été élargie, et désigne depuis la conférence Techcrunch40:

« l’ensemble des relations de toutes les personnes dans le monde. Le graphe social : il y en a un seul et il comprend tout le monde. Personne ne le possède« 

source / traduction: Francis Pisani (via InternetActu)

Dès lors, on perçoit mieux la différence entre les concepts de graphe social et de réseau social, et comment le dernier essaye de donner une représentation numérique du premier. Un réseau social en ligne essaye de reconstruire une partie (voire l’intégralité) du graphe social, avec l’aide de ses utilisateurs, de façon à récupérer des informations sur les personnes, leurs actions et surtout leurs interactions, en échange d’une mise en relation facilité pour les utilisateurs qui y participent.

Car il s’agit bien d’un échange de bons procédés: le réseau social, souvent créé par une entreprise, met à disposition une plate-forme et des outils, et les utilisateurs fournissent des informations sur eux et leurs proches, ce qui, in fine, permet au réseau social de dégager un certain revenu via la vente d’informations personnelles qualifiées et/ou la publicité (modèle économique restant encore à prouver).

Conséquence: les réseaux sociaux en ligne sont naturellement fermés, chaque entreprise cherchant à protéger sa base de données et la valeur qu’elle représente. Ainsi, de Friendster à Facebook en passant par MySpace et consorts, de réseau social en réseau social, l’utilisateur avance, évolue, mais il répète surtout certaines actions ad nauseam: créer login – créer mot de passe – remplir fiche de profil – chercher amis – ajouter amis… Certes, ces actions répétitives ne datent pas d’hier, et font partie intégrante du net depuis les comptes e-mails jusqu’aux blogs et plateformes sociales en passant par les messageries instantanées.

Alors pourquoi maintenant toutes ces réflexions autour de l’identité numérique, ouverte, et unifiée? Et pourquoi l’irruption d’un nouveau mème: le graphe social? Double réponse: le timing et la concurrence.

Le timing car on est maintenant à un moment où une grande partie d’internautes a déjà répété trop souvent les mêmes séquences de création de profil pour se rendre compte qu’ils sont à 2 doigts de transformer ces actions en réflexes pavloviens (et personne n’aime aboyer).
La concurrence car un grand nombre d’acteurs de bonne taille cherchent maintenant à obtenir ou sécuriser une masse critique d’utilisateurs, nécessaire au développement de l’usage de leurs services, ce qui devrait permettre ensuite d’amorcer la pompe à revenus.

Ainsi, au fil d’habiles recrutements, déclarations d’intentions et conférences, on entraperçoit les mouvements des principaux acteurs:

  1. Facebook a ouvert sa plateforme au développment d’applications par des tiers afin d’entretenir la dynamique et la fraicheur de son réseau, avec un certain succès (la moitié des applications ont tout de même plus de 100 000 utilisateurs).
  2. Google, au travers de son nouveau responsable du développement social Brad Fitzpatrick, appelle à l’ouverture des réseaux sociaux, ce qui permettra aux utilisateurs de passer plus facilement d’un réseau à un autre, et, au passage, à Google d’amorcer un réseau social, dont il manque profondément dans ses marchés clés (Orkut n’a pas d’usage réel hors du Brésil). Ce qui fait réagir Danny Sullivan (SearchEngineLand) de façon délicieusement logique et acide:

    « Heck, if I were Facebook, I’d be sitting over there saying we’ll open up our social graph as soon as you open up your web graph/index. Then you’ll see how open Google is. »

  3. Microsoft a acheté l’exclusivité de la fourniture de publicité (et certainement d’autres services) sur Facebook pour une bagatelle de 240 millions de dollars, valorisant ainsi Facebook à 15 milliards de dollars, alors qu’on ne sait toujours pas s’il y a un espoir de voir le service atteindre la rentabilité (comme quoi, la valeur est décidément une notion relative et liée au bon vouloir (à l’espoir?) des personnes).
  4. Les nombreux concurrents de Facebook, anciens et nouveaux (SixApart avec Typepad/LiveJournal/Vox, MySpace, etc.), qui cherchent à (re)dynamiser leurs propres réseaux pour ne pas voir fuire une partie de leurs utilisateurs vers le nouveau réseau « où il faut être ». Vous noterez que Facebook occupe cette place depuis quelques mois avec un certain talent pour assurer sa première position, dans la tête des médias et des acteurs de ce marché, mais aussi dans la tête d’un nombre croissant d’utilisateurs.

On voit que l’heure n’est toujours pas à la trêve entre les entreprises qui financent et développent les services et réseaux sociaux qu’utilisent un nombre toujours croissant d’utilisateurs, ce qui est d’autant plus regrettable que ce sont les utilisateurs qui pâtissent de cette bataille de territoires fermés: impossibilité d’échanger avec des personnes qui ne font pas partie du même réseau social que soi, nécessité de s’inscrire à un réseau pour en consulter les informations (certains offrent une ouverture limitée avec un accès aux profils publiques des utilisateurs, comme LinkedIn ou Facebook), et bien sûr la nécessité de passer d’un réseau à l’autre en continuant à recréer des logins, mots de passe, profils, relations… Sans compter que la propriété des données personnelles est dans la plupart des cas l’exclusivité des entreprises qui contrôlent les réseaux auxquels vous participez.

Les réactions militant pour une ouverture des réseaux et une construction ouverte du graphe social ne manquent donc pas d’ambition et de justification:

Wired propose de dynamiter tous les réseaux fermés comme ont été progressivement abandonnées les premières enclaves type AOL ou Compuserve, en rendant l’intégralité des informations libres et publiques sur le net; reste à savoir comment déclarer les relations entre personnes, seule brique actuellement indisponible dans une version « web » et « libre/publique/ouverte ».

Brad Fitzpartick de Google propose de développer une couche technique (une API) ouverte et indépendante, sur laquelle les différents réseaux existants ou futurs pourraient importer/exporter les données des utilisateurs, évitant ainsi à chacun de développer et maintenir une coûteuse base indépendante (mais pourtant potentiellement très rémunératrice…).

Alex Iskold de Read/Write Web, en réaction au billet de Brad Fitzpartick, propose le regroupement des utilisateurs au sein d’une organisation, avec comme double objectif d’assurer une prise de parole solide face aux entreprises, et de permettre de s’entendre sur des standards ouverts, afin de ne pas perdre de vue et d’obtenir ce que tout individu cherche: une expérience fluide, simple, et qui laisse l’utilisateur maître de ses données personnelles.


Tout ça pour dire qu’il faut que je crée mon profil sur Facebook: un profil fermé de plus et des heures de redéclaration de contacts…

bande passante: enjeux et gestion de la pénurie

Dimanche 28 janvier 2007

Après l’explosion de la bulle internet, la bande passante a été une des valeurs qui a le plus perdu. Finies les autoroutes de l’information; le haut débit pour tous (réseaux & usages), ça sera pour plus tard. Aucun intérêt pour les liaisons Gigabits envisagées un temps, si ce n’est dans une optique de prouesse technologique ou de recherche scientifique.

Pourtant, depuis plusieurs mois, on voit déferler des usages réellement haut débit, qu’embrassent des millions d’internautes: explosion de la vidéo sur le web (YouTube ou Dailymotion), démarrage commercial pour la VoD, banalisation de la VoIP, et gonflement continu des échanges P2P (BitTorrent notamment). Tout ceci entraîne une augmentation et une densification de l’usage de bande passante par utilisateur. Augmentation car les débits réellement consommés lors de ces nouveaux usages sont plus élevés, et densification car les internautes (ou plutôt leurs machines) restent connectés de plus en plus longtemps.

Consommation de bande passante accrue: adaptation des opérateurs

Dès lors que le trafic mondial augmente, les capacités réseaux de tous les opérateurs sont sollicitées de façon croissante. La consommation de données de chaque internaute se rapproche de la bande passante théorique qui lui est accordée. Toutes choses égales par ailleurs, c’est-à-dire à capacités réseaux constantes, on tend donc vers une situation de congestion, vers une pénurie de bande passante.

Certes, les capacités réseaux continuent d’être améliorées, grâce à de nouvelles technologies (merci l’ADSL), ou grâce aux investissements des opérateurs de réseaux (poses de nouvelles fibres optiques sur et entre les différents backbones). Pourtant, les technologies comme l’ADSL ne font qu’améliorer la situation des consommateurs finaux, ce qui au passage dégrade la situation des opérateurs (si chaque consommateur a un tuyau plus gros, il faut donc que les opérateurs accroissent leurs capacités en conséquence). On voit ainsi que la seule situation pour éviter une congestion des réseaux et une pénurie de bande passante est l’augmentation des capacités réseaux par les opérateurs

…ou la limitation de la consommation des utilisateurs finaux. En effet, poser de nouvelles fibres optiques, tirer de nouveaux câbles sous-marins, tout cela a un coût élevé. Avant d’en arriver à de tels investissements, n’importe quel opérateur cherchera en premier lieu à optimiser le trafic sur son réseau, de façon à ce que la bande passante réellement consommée ne l’oblige pas à de nouveaux investissements.

Contrôler et limiter le trafic avant d’investir dans de nouveaux réseaux

Cas pratique: entre le milieu et la fin des années 1990, la société Cybercâble, filiale de la Lyonnaise des eaux (devenue Noos entre temps, fusionné avec Numéricable il y a peu) a posé ce qu’elle considérait comme « beaucoup » de câbles. Une fois les travaux finis, l’entreprise ouvre une des premières offres « haut débit illimité » (entre 1997 et 1998). Cependant, victime de son succès, Cybercâble doit faire face à l’engorgement de son réseau, les utilisateurs utilisent leur connexion et leurs programmes consommateurs de bande passante en continu. Il est impossible de poser de nouveaux câbles, cela coûterait trop cher et prendrait trop de temps. Dans un premier temps, l’entreprise décide de diviser la bande passante (par deux, par 4…). Colère et manifestations (je me souviens d’une amusante manifestation devant les locaux en plein centre de Strasbourg) d’utilisateurs obligent la lyonnaise à trouver une autre solution.

Et quelle solution? Les quotas de bande passante! Votre bande passante reste conforme à la promesse (ex: 512kbits par seconde), mais vous êtes limités dans la consommation totale mensuelle (ex: 3Go de données envoyées et/ou reçues). Attention aux étourdis, qui, ne surveillant pas leur consommation, se sont retrouvés avec des factures allant jusqu’à plusieurs milliers de francs. En effet, une fois le quota atteint, soit l’opérateur coupe… soit il compte le dépassement et vous envoie la facture.

Souvenirs d’une époque qu’on aimerait révolue dans cet article des archives de transfert.net (mai 2001)… mais dont on voit régulièrement des résurgences. Il suffit de regarder les offres de certains opérateurs, comme Noos Numéricable; qui a rétablit ses chers quotas en juin 2005 (voir l’article de 01net). Pour le moment, les quotas de bande passante (ascendante et/ou descendante) ne sont pas très courants en France, à croire que l’épisode de Cybercâble a refroidi bien des esprits. Cependant, dans d’autres pays (USA, Canada), ou dans d’autres contextes, les quotas de bande passante sont considérés très sérieusement.

Autre solution pour contrôler et limiter la consommation des utilisateurs: arrêter de considérer le net comme un réseau neutre, c’est-à-dire privilégier certains acteurs au détriment d’autres. Actuellement, les opérateurs laissent passer (relativement) librement et au même titre les paquets de données en provenance de mails d’utilisateurs, d’échanges P2P, ou d’éditeurs de contenus reconnus. Cependant, rien le les empêcheraient de privilégier les échanges de données offrant le meilleur rapport gain/coût. Une idée qui a déjà fait du chemin aux USA, comme le note jmplanche:

Sous la pression des opérateurs de télécoms américains, la chambre des représentants a voté à la majorité, un texte qui permettra (entre autre et au conditionnel) de facturer un droit de passage sur leurs réseaux, un peu à la tête du client :

En fonction du débit consommé (un peu trop de DailyMotion … paf les doigts)
En fonction des services utilisés (un peu trop de Google … pif la note !)

Nouveaux défis pour les éditeurs de services et de contenus

Dans un tel contexte, l’opérateur de réseaux a l’ascendant sur les éditeurs de contenus. Ces éditeurs de contenus, pour toucher les utilisateurs finaux, devront trouver des accords avec les opérateurs.

A moins de devenir eux-mêmes opérateurs de réseaux, comme… Google. Depuis quelques années, Google achète toutes les capacités réseaux excédentaires disponibles (fibre noire), sans pour autant acheter les réseaux eux-mêmes, car posséder tant de capacité réseaux leur ferait courir un risque de procès! Bon nombre d’analystes se demandent à quoi peuvent (ou pourront) servir toutes ces capacités réseaux, de même que les centres serveurs que Google construit, surtout aux Etats-Unis (le dernier à avoir été annoncé sera implanté en Caroline du Nord). Pour Robert Cringley, l’explication est limpide: Google veut devenir VOTRE internet. Derrière ce titre facile et provocateur se cache une analyse très pertinente, qui permettrait à un éditeur de services reconnu, disposant d’une base d’utilisateurs immense et fidèle, de devenir opérateur de réseaux et point de contact principal entre les consommateurs et le net:

It is becoming very obvious what will happen over the next two to three years. More and more of us will be downloading movies and television shows over the net and with that our usage patterns will change. Instead of using 1-3 gigabytes per month, as most broadband Internet users have in recent years, we’ll go to 1-3 gigabytes per DAY — a 30X increase that will place a huge backbone burden on ISPs. Those ISPs will be faced with the option of increasing their backbone connections by 30X, which would kill all profits, OR they could accept a peering arrangement with the local Google data center.

Au passage, cela cadre très bien avec la mission de Google: « Google a pour mission d’organiser à l’échelle mondiale les informations dans le but de les rendre accessibles et utiles à tous. »

Se rapprocher de la plus précieuse des ressources: les utilisateurs finaux

Un tel plan peut paraître tordu, je le trouve au contraire particulièrement bien vu. Les risques de congestion des réseaux vont croître dans un futur assez proche (à moins que les utilisateurs diminuent drastiquement leurs usages haut débit… rien que de l’écrire, ça me fait sourire). Dès lors, la pression sur les coûts des opérateurs sera critique. Pour maintenir leurs profits, les seules solutions à court terme seront de mettre en place de quotas ou des accords de distribution privilégiés, ce qui placera les éditeurs de services dans une position difficile, car ils ne seront plus en position de faire peser leurs services dans la négociation pour l’accès aux consommateurs.

Pour les éditeurs de services qui ont les moyens, négocier des accords de distribution deviendra une partie intégrante du modèle économique. Les plus gros évolueront comme Google, afin de se rapprocher des consommateurs, en intégrant la distribution à leurs activités; on assistera peut-être à une réelle fusion des contenus et des contenants, si chère à J6M lors de son passage chez Vivendi. Les petits éditeurs, les indépendants, les internautes, quant à eux, risquent d’être les grands perdants de cette « évolution »: trop petits, et trop atomisés, dans un nouvel espace qui imitera malheureusement les autres secteurs économiques plus classiques. On reverra peut-être fleurir les messages « Désolé, cet espace a dépassé son quota de trafic », pour cause de bande passante trop chère…

Alternative nécessaire: continuer à développer des réseaux

Espérons qu’avant d’en arriver là, des investissements conséquents en capacités réseaux soient réalisés, par des acteurs économiques privés et/ou publiques! Certains opérateurs, qui se sont spécialisés dans le négoce de bande passante, ainsi que ceux qui n’ont pas arrêté de poser des câbles avec l’explosion de la bulle auront eu le nez creux. En continuant d’accroître les capacités réseaux, on évitera peut-être le retour des quotas et l’apparition d’autres joyeusetés plus communes dans d’autres secteurs, comme la téléphonie mobile. Cela nous évitera peut-être la situation décrite dans EPIC 2014 (ou la mise à jour 2015), une animation prospective sur la concentration des acteurs du net et du web, réalisée en novembre 2004, qui se fait depuis allègrement dépasser par la réalité.

génération(s) internet – Autrans 2007

Dimanche 21 janvier 2007

Autrans 2007 - Les générations internetLors de la conférence « Comment les entreprises s’organisent pour tirer parti du mode de vie et de travail des générations Internet? » aux rencontres d’Autrans, la discussion s’est faite autour des échanges entre les différentes générations, et bien sûr, comment les « jeunes » s’intègrent en entreprise.

Les jeunes à la rescousse des vieux?

Ce qui est curieux, c’est qu’il y a une volonté plus ou moins consciente de regrouper les personnes dans des catégories pour les opposer: nouveaux contre anciens, technophiles contre technophobes, ou, dans le cas présent, jeunes contre vieux. On voit pourtant facilement qu’il est réducteur de mettre en opposition des groupes d’âge différents, surtout sur les technologies du web. En effet, bien que les jeunes soient majoritairement utilisateurs du net, ils ne sont pas pour autant experts des usages du net en entreprise. Ils sont plus rapides dans l’adoption de nouveaux usages, mais doivent également s’intégrer aux organisations existantes.

Ainsi, intéressons nous aux conséquences qu’a le net sur les activités des entreprises et des acteurs économiques.

Quel impact réel sur les entreprises?

Le net développe de nouveaux usages et de nouveaux comportements. C’est indéniable: dématérialisation de nombreux services, interactions interpersonnelles accélérées (IM, e-mail, espaces de travail collaboratifs), et changement profond du rapport à l’information.

Pour autant, selon les entreprises, le secteur d’activité, et bien sûr les personnes qui les animent, le rapport au net et l’intégration (nécessaire?) de ces technologies n’a pas les mêmes impacts. De façon générale, il s’agit de voir qu’il y a rarement créations de nouveaux métiers, mais principalement intégration de nouvelles compétences et de nouvelles possibilités aux métiers et emplois déjà existants. En effet, les nouveaux métiers se développent dans des périmètres et des périodes très réduits, le temps que les transitions se fassent, et que les différentes personnes aient assimilé les nouvelles compétences.

Réussir l’accompagnement au changement

Le principal défi à relever est donc celui de l’accompagnement au changement. Faire en sorte que les différents acteurs de l’entreprise intègrent la nouvelle technologie du moment à leurs activités et adaptent leurs méthodes de travail en conséquence. Il s’agit aujourd’hui d’intégrer les apports du net, de la même façon que la téléphonie ou le fax ont du être assimilés dans les décennies précédentes (le fax a d’ailleurs été une des innovations les plus disruptives, car pour la première fois, on pouvait quasi-instantanément communiquer de l’écrit à distance).

Et la meilleure façon de réussir un tel changement est de faire communiquer tous les types de personnes au sein de l’entreprise: les jeunes et les vieux, les nouveaux et les anciens, etc. L’informatique et le net ne sont donc qu’une nouvelle composante à intégrer, et c’est un projet de formation et d’accompagnement qui débouche sur le succès. Pour cela, la dynamique doit être embrassée par tous les acteurs de l’entreprise: jeunes, vieux, dirigeants, techniciens, etc.

Formation et échange

Les jeunes ne sont donc ni sauveurs messianiques ni éléments perturbateurs en puissance, mais simplement des humains en action. Leurs apports doivent être intégrés par les entreprises, de la même façon qu’ils doivent intégrer ce que l’entreprise et les autres personnes leur apportent. L’échange, ainsi que la formation, sont donc les piliers de l’intégration des innovations, pour que les entreprises puissent évoluer de façon progressive, en limitant les ruptures.

Ainsi, sans sombrer dans l’adoration technophile béate, à chaque personne d’intégrer ces nouveaux usages au quotidien, en s’adaptant à la structure dans laquelle on évolue. Par symétrie, il faut que les entreprises acceptent de jouer le jeu, car encore beaucoup d’entreprises bloquent la plupart des services web à leurs employés. Pourtant, si ceux-ci ont un poste informatique comme outil de travail principal, restreindre l’usage des services web ne mène à rien, si ce n’est frustrer les collaborateurs et pénaliser les effets bénéfiques du travail en réseau, que ce soit via IM, e-mail, espaces de travail collaboratifs, etc. Il faut savoir jouer avec plutôt que de lutter contre. Avec les apports de tous.

Ressources:

ère numérique: migrant ou natif?

Jeudi 11 janvier 2007

Invité aux rencontres de l’Internet à Autrans cette année, on me demande de participer à une table ronde: entreprises et générations internet. L’idée est d’explorer les zones d’échanges et de confrontations qui existent entre le monde du travail, les TIC, et les générations internet, thème de l’édition 2007 des rencontres.

Mais que recouvre le terme générations internet? Est-on en train de parler de l’opposition entre digital native et digital migrant, pour reprendre les termes anglais? Oui, mais pas seulement: le concept de natif de l’ère numérique fait surtout référence aux technologies électroniques et numériques, et donc aux réseaux et à l’internet par extension, mais pas de façon spécifique. Ainsi, en étant né en 1979, je suis à la limite un digital native, et j’ai effectivement découvert l’informatique très tôt. Néanmoins, je n’ai découvert l’internet que vers mes 18 ans, et n’ai donc pas acquis les comportements afférents à des activités en ligne (sociales, culturelles, éducatives, etc.) durant mon adolescence.

D’ailleurs, quand j’étais adolescent, les activités étaient proches de celles des générations précédentes, fortement ancrées dans le monde physique, et intimement liées aux cercles de proximité classiques: école, voisins, famille. Aujourd’hui, les amitiés et échanges adolescents se font sur Messenger, MySpace, ou Dailymotion, via téléphone mobile, baladeurs MP3, e-mail, et entre adolescents plus ou moins éloignés. En une dizaine d’années, les changements culturels ont été très importants, le premier d’entre eux étant que les adolescents des années 2000 ont un rapport à la technologie extrêmement positif, alors que dans les décennies précédentes, parler d’informatique était le meilleur moyen de se voir reléguer au fond des cours de récréation.

Ainsi, avant de voir les impacts de ces premiers natifs du web dans les entreprises, il faut encore attendre 5/6 ans. D’ici là, les adolescents qui regardaient la première Star Academy en 2001 auront dépassé la vingtaine et attaqueront le marché du travail. Ces adolescents français qui ont profité de l’explosion du haut débit, des forfaits mobiles accessibles, et du MP3. Et d’ici 5 ans, les entreprises auront encore évolué et continué à intégrer les TIC. Pour celles qui le peuvent.

Je suis donc impatient et curieux de voir comment va se passer l’intégration de ces générations internet au monde de l’entreprise, qui commencera d’ici ~5 ans. En attendant, je vous conseille de lire cet interview de danah boyd et Henri Jenkins: « Discussion: MySpace and Deleting Online Predators Act (DOPA)« , dont les passages les plus intéressants ont été retranscrits en Français par Stephanie Booth.

Pour ma part, je ne sais pas si je suis dans le wagon de queue des migrants ou dans le wagon de tête des natifs de l’ère numérique. Un pied dans les deux, certainement. Les discussions à Autrans promettent d’être intéressantes. :)

La publicité en ligne: limites et incompréhension

Dimanche 31 décembre 2006

Pour une grande majorité de sites web, la publicité est incontournable. Afficher de la publicité permet de générer du revenu, voire des profits. Et pour accroître ce revenu publicitaire, quoi de mieux que de développer le trafic?

En effet, accroître le trafic, et donc le sacro-saint volume de PAP, est considéré comme la façon la plus naturelle d’augmenter le revenu du site… Pourtant, il s’agit là d’une mauvaise façon de raisonner: les pages vues ne sont pas un indicateur fiable, et il ne faut pas se tromper de combat entre trafic et audience.

Les limites des indicateurs classiques

Nombreux sont les modèles économiques à être encore articulés sur l’augmentation des indicateurs publicitaires classiques, avec d’un côté l’augmentation du trafic, c’est-à-dire l’augmentation du nombre de pages vues (et donc des impressions publicitaires), et de l’autre côté, une hypothèse de stabilité (voire d’augmentation) du CPM. Cette logique amène de grands groupes soi-disant sérieux comme Yahoo! et Facebook à projeter une augmentation incroyable de l’usage, des pages vues, et des revenus:

En clair comment établir un plan de ROI à partir des revenus publicitaires sur une plateforme communautaire à la Myspace quand l’étiquette qui pendouille affiche 1,6 milliards? C’est finalement assez simple: on projette d’enregistrer 60% de la population estudiantine (Facebook, comme Myspace cible les étudiants et les jeunes adultes) d’ici 2010 à 2015, on affirme que 92% de ces nouveaux utilisateurs seront “actifs” et cracheront près de 1000 pages vues. On triture et on obtient plus de 270 milliards de pages vues (oui!) et on fait passer le CPM moyen de 0,25 $ en 2005 à plus de 5 $ en 2015.

L’exemple de Yahoo! et Facebook est choquant, mais il a le mérite de pousser la logique à l’extrême, et de faire réfléchir sur un modèle que la plupart des acteurs s’efforcent toujours de suivre: toujours plus de trafic, de pages vues, d’impressions publicitaires.

L’effet va certainement se poursuivre en s’accélérant, les sites 2.0 étant capables de générer des pages vues (et donc de l’inventaire publicitaire) à une vitesse incroyable, entraînant le CPM dans un abîme sans fin: 0,1$ pour MySpace, contre 2$ pour un grand portail généraliste comme Yahoo!, et 10 à 30$ pour les sites media; cf. les estimations compilées par Freddy Mini et Emmanuel Parody au mois d’avril dernier.

Les limites du marché publicitaire

A côté de cette spirale inflationniste des pages vues, il ne faut pas oublier certaines limites structurelles du marché publicitaire.

Tout d’abord, le fait que le nombre d’annonceurs est fini. Les budgets consacrés au web ont beau croître, l’explosion du nombre d’espaces publicitaires disponibles en ligne oblige les annonceurs à choisir les supports sur lesquels se placer. Mais cette explosion du nombre d’emplacement publicitaire ne doit pas faire croire que tous ces emplacements sont égaux. En effet, le volume a beau être très élevé, on assiste à une pénurie d’inventaire publicitaire… de qualité.

Et bien sûr, il faut prendre en compte la fragilité du marché publicitaire, première victime en cas de retournement de la conjoncture économique. Ce paramètre peut (doit!) refroidir bon nombre d’investisseurs quand la part du revenu assujettie à la publicité est trop grande.

Incompréhension trafic / audience

On comprend donc facilement que la problématique des annonceurs est de savoir quelle audience toucher pour que leur campagne ait le meilleur ROI, plutôt que de faire la course au volume d’impressions publicitaires. La télévision ne poursuit plus que marginalement le développement du nombre de spots ou d’emplacements publicitaires (tendance du moment: les séries, plus propices en insertion pub que les films). Les chaînes de TV s’efforcent plus d’attirer et de conserver des téléspectateurs, susceptibles d’attirer les budgets des annonceurs.

Sur le web raisonner sur le trafic plutôt que sur l’audience revient donc à prendre le problème à l’envers. Exemple avec le contenu généré par les utilisateurs (user-generated content): la plupart des sites essayent de l’incorporer car cela permet d’accroître de façon incroyable le nombre de pages vues. En effet, quoi de mieux que de laisser l’internaute s’exprimer pour qu’il affiche plus de pages? Pourtant, l’intérêt de l’UGC réside ailleurs: créer la différence, enrichir l’offre, et fidéliser les utilisateurs. Une audience qualifiée attirera les annonceurs; la génération de pages vues n’est qu’une conséquence annexe, et non le but à viser… cf. l’effondrement du CPM évoqué plus haut, avec un CPM moyen de 0,1$ pour MySpace, chantre du contenu généré par les utilisateurs.

La question n’est donc pas de multiplier les pages vues comme des petits pains, mais bien d’acquérir une audience fidèle et large, tout en essayant d’optimiser au maximum l’insertion publicitaire, afin de ne pas pénaliser l’usage.

Quant aux indicateurs, les taux de clics et l’usage réel sont bien plus honnêtes que le volume de pages vues et le trafic artificiellement généré par certaines formes de parcours client. Après tout, même Yahoo! commence à réfléchir à abandonner l’indicateur de pages vues, qui n’a plus grand sens à l’heure de nouvelles technologies comme l’AJAX.

La fin du consommateur, le règne de l’utilisateur

Dimanche 22 octobre 2006

Pourquoi n’utilise-t-on pas le terme consommateur en ligne?

Pourquoi parle-t-on d’utilisateur plutôt que de consommateur pour désigner l’internaute qui achète un produit, une musique, ou un service dématérialisé sur le net? Après tout, il s’agit du même type d’acte qu’aller acheter un disque dans un grand magasin…

sémantique et valorisation de l’individu

Le terme consommateur a une connotation négative: il désigne une personne passive, qui subit sa condition de consommateur. L’entreprise reine et le consommateur esclave (pourtant, le client est roi…).

Au contraire, le terme utilisateur est positif: il désigne quelqu’un qui utilise, interagit et participe pleinement à l’acte. Dans ce contexte, l’utilisateur est partie prenante de l’acte de consommation, et transcende ainsi son statut de simple consommateur.

logique marchande et idéal communautaire

De plus, dans l’opinion publique, la consommation implique une logique monétaire, au détriment du consommateur; ce dernier doit se délester d’une somme pour consommer.

L’utilisation, elle, est plus proche des concepts de gratuité, de service accessible et partagé; l’utopie originelle du net. On pourrait même pousser la logique jusqu’à parler des services publics, qui s’adressent à leurs utilisateurs, leurs usagers, et non à leurs consommateurs. En effet, l’utilisateur du service (publique) participe indirectement et partiellement au financement du service, ce qui donne souvent l’impression que le service est gratuit.

Pourtant, rien n’est jamais gratuit; que ça soit via un prix, une taxe, ou une publicité, tout se paie. Du côté des travailleurs, tout travail mérite salaire. Du côté des entreprises, éditrices de services en ligne comme vendeurs de voiture, tout projet vise à faire des bénéfices, ou au moins à ne pas perdre d’argent, ce qui suppose qu’il y ait des revenus permettant de supporter les coûts.

Changer de vocabulaire pour mieux vendre

Ainsi, les logiques qui sous-tendent l’activité économique ne changent pas, et l’objectif reste le même: générer des profits. Que ça soit Google, eBay, MSN ou Netvibes, toutes les entreprises cherchent à générer des profits, d’une façon ou d’une autre. Ce qui change, c’est le vocabulaire marketing et l’approche de communication.

D’ailleurs, ces changements de vocabulaire et d’attitude ne sont pas apparus avec le net: le Club Med, avec le concept de GO et GM, avait compris l’importance de la valorisation du consommateur dès le début des années 1950. Les clients sont valorisés, on leur donne l’impression d’être partie prenante de l’activité, et d’être, en quelque sorte, co-producteurs. Par ailleurs, cette valorisation se fait surtout en dévalorisant l’ancienne approche; celle de la consommation, de l’entreprise et de la transaction monétaire clairement identifiée. Ainsi, pour reprendre l’exemple du Club Med, ce dernier a toujours utilisé un moyen ou un autre pour masquer au maximum l’échange monétaire au sein des villages de vacances.

Sur le web, l’utilisateur est également valorisé; tant mieux pour lui (plutôt que de se faire prendre pour un con…), et tant mieux si l’utilisation de services peut être gratuite, en étant financée au maximum par la publicité, le sponsoring ou un co-branding quelconque.

La valorisation du consommateur permet également une amélioration de sa perception du service, du produit et/ou de l’entreprise, ce qui, ajouté à l’attrait de la nouveauté technologique, permet aux entreprises du net de truster les esprits et les espaces de communication (voire les porte-monnaie).

Tant mieux pour ce glissement de vocabulaire s’il améliore la perception et l’usage des services en ligne. Après 60 Millions de consommateurs, 60 Millions de gentils utilisateurs?

Pourquoi les services web sont-ils gratuits ?

Dimanche 10 septembre 2006

Depuis plus de 10 ans que le web existe, la gratuité domine sans partage. Les tentatives de services payants se soldent quasiment toutes par des échecs: il suffit de voir que peu de chiffres sont communiqués sur les formules payantes des magazines en ligne ou des sites de téléchargement de musique pour comprendre que la situation n’est pas glorieuse.

Les quelques exceptions que sont les réussites (massives) d’eBay, Google, ou iTunes ne font pas oublier la situation généralement difficile des services web payants. Comment expliquer qu’il est encore aussi difficile de développer un service payant? Les utilisateurs ne peuvent-ils pas devenir des clients?

Les coûts de ces services ne sont pas nuls, et le gain retiré par l’utilisateur est lui aussi positif. Lorsqu’un utilisateur utilise un moteur de recherche, il en retire un gain, car il a gagné du temps et a obtenu l’accès à une information autrement difficile (voire impossible) à obtenir autrement. Pourtant, l’expérience a beau être positive, je doute que nombre d’internautes soient prêts à payer pour lancer une recherche, quel que soit le moteur.

Est-on dans une situation où le coût, le prix et le bénéfice utilisateur sont dissociés? En raison de l’immatérialité des services, renforcée par l’aspect impersonnel de l’informatique et l’aspect lointain de ces services web? L’internaute a-t-il l’impression que le service qu’il utilise est si facile d’accès et d’usage qu’il a du mal à en percevoir le coût et la valeur?

Pas nécessairement. Les utilisateurs ne paient pas… simplement parce que personne ne le leur demande. En effet, les modèles économiques se basent de moins en moins sur la collecte de revenus auprès des utilisateurs finaux, et glissent vers la publicité, le sponsoring, ou la revente de données plus ou moins personnelles.

Il s’agit d’une tendance de fond qui se développe dans l’économie en général: qui aurait cru il y a une dizaine d’années que l’on distribuerait gratuitement des quotidiens ou des magazines? La télévision fonctionne sur ce modèle depuis ses premiers jours, il est donc logique que les autres supports de contenus ou d’audience s’intéressent au tout gratuit. De plus, le web a pour lui des avantages non négligeables pour séduire annonceurs er partenaires commerciaux: mesures d’audience et de performance précises, récolte de données de profiling faciles, etc.

Voilà une des clés du succès sur le web: développer l’audience pour atteindre une masse critique, et pouvoir ensuite la monétiser sous une forme ou une autre (profiling, partenariats, publicité par affichage de bannières, AdSense, etc.). Google, MySpace, YouTube ou Flickr, sans oublier les portails et sites d’information; tous les ténors font dans le gratuit avec publicité.

Les services web sont gratuits parce que les rendre payants n’a pas de sens dans le modèle économique majoritairement adopté en ce moment. Les quelques formules payantes, « premium », ne génèrent pas de revenus substantiels, et font office de cerise sur le gâteau.

user-generated content: de la participation à l’implication

Dimanche 13 août 2006

Depuis bientôt deux ans, on note un engouement sans précédent pour les user-generated content (UGC); ces contenus générés par les utilisateurs qui, il y a seulement quelques années, n’intéressaient personne et étaient confinés dans les abysses du web – les pages persos.

Il est dorénavant impossible de lire un article ou d’ouvrir son navigateur sans tomber sur des lancements de services qui permettent aux internautes de publier leurs contenus en ligne. Certains annoncent mettre l’utilisateur au centre, agréger le meilleur des internautes, voire développer l’intelligence collective [1].

Au-delà des effets d’annonce et du buzz qui entourent ces sites, cette évolution a-t-elle un sens? Comment est-on arrivé à une situation où il est plus important de détenir des contenus générés par les utilisateurs que d’avoir un modèle économique? (cf. MySpace)

Le glissement s’est fait progressivement: d’une logique de la participation, purement volontaire, on est arrivé aujourd’hui à une logique de l’implication, véritablement nécessaire.

1/ participation distante : réagir, commenter

Sur 01net, par exemple, les lecteurs peuvent laisser des commentaires depuis aussi loin que je me souvienne, mais ces commentaires sont peu mis en valeur, et ne sont pas du tout nécessaires au service offert: les contenus générés par les utilisateurs n’entrent pas dans la proposition de valeur de 01net. Les articles sont écrits par des professionnels, journalistes ou pigistes, et les commentaires sont un bonus, permettant éventuellement de fidéliser l’audience en lui donnant la possibilité de commenter les articles.

2/ participation active : proposer, compléter

Voyant que ces commentaires sont parfois de grande qualité, certains services ont fait le pari de mettre les contenus produits par les internautes plus au coeur de leurs pages, tout en conservant une grande part de contenus produits ou acquis.

Ainsi, la chaîne de voyage de Yahoo!, dont la nouvelle mouture a été lancée il y a un an, comporte un guide de voyage qui permet aux utilisateurs de rédiger des revues de destination, en plus des contenus achetés par Yahoo! auprès de prestataires spécialisés. Concentrer les coûts sur les destinations les plus génératrices de trafic (Paris), sans pour autant dépenser d’argent sur les destinations peu courues (Kolonia, Micronésie); un avantage financier indéniable. La longue traîne du guide est ainsi remplie par les internautes eux-mêmes.

3/ implication active: rédiger, créer

Evolution logique et aboutissement de l’exercice: laisser les utilisateurs créer l’ensemble des contenus, en mettant une architecture de publication à leur disposition; charge à eux de remplir la coquille. On se retrouve dans une situation inédite: le support a nécessairement besoin des contenus de ses utilisateurs; sans quoi, il n’existe pas.

Pourtant, ce qui fonctionne bien pour les services communautaires ne fonctionne pas nécessairement pour des sites de contenu. Ainsi, Benoit, ne trouvant pas la fiche de son jeu fétiche sur un site/réseau social ciblant les gamers, a préféré quitter le service plutôt que de consacrer trop de temps à créer lui-même la fiche du jeu (son expérience).

Vouloir que les utilisateurs s’impliquent, c’est donc prendre le risque de voir leurs attentes augmenter et leur patience s’éroder. En effet, s’ils acceptent de jouer le jeu, il faut que le service soit réactif et évolue dans le même temps.

La participation active à un service développe l’usage et la fidélité, mais dans le même temps, les attentes des utilisateurs augmentent, ainsi que les risques de frustration.

user-generated content: de la participation à l'implication - renforcement des attentes et de l'exigence

Ces phénomènes ne sont pas sans rappeler ceux constatés sur d’autres services, notamment les forums de discussion. Les utilisateurs attendent plus de ces services participatifs que d’un simple site sur lequel ils consultent de l’information: dialogue entre utilisateurs, avec les responsables du service, envie de prendre part au développement du service, avoir voix au chapitre, etc. C’est le deuxième effet kiss-cool de l’appropriation du service et de la participation. ;-)


[1] A propos de l’intelligence collective, voir l’article d’InternetActu.net: ‘Sagesse des foules’ ou lynchage en ligne ?.

Synthetic Worlds – Edward Castronova (2)

Dimanche 23 juillet 2006

Synthetic Worlds: The Business And Culture Of Online GamesDans Synthetic Worlds: The Business And Culture Of Online Games, Edward Castronova montre que les utilisateurs des univers synthétiques partagent un ensemble de concepts, valeurs, croyances et systèmes de pensées, ce qui renforce d’autant leur adhésion et l’intérêt qu’ils portent aux univers auxquels ils participent (voir post précédent).

Cette adhésion est fortement renforcée par la perméabilité entre le monde physique et les univers synthétiques. De prime abord, on a tendance à opposer le monde “réel” aux mondes “virtuels”; or, les univers synthétiques ne sont pas moins “réels” que le monde physique: dans les deux cas, ce sont des êtres humains qui interagissent, et il s’agit des mêmes êtres humains dans de nombreux cas.

En conséquence, les utilisateurs partagent leur temps entre ces deux types de territoires, et s’organisent en conséquence: quand on est occupé à une tâche dans un univers synthétique, on ne peut pas être occupé à une tâche du monde physique. De plus, il faut s’organiser avec les autres personnes qui évoluent au sein du même univers synthétique, sur le même modèle que dans l’univers physique.

Ainsi, on comprend que les utilisateurs ne fassent pas de séparation franche entre les univers synthétiques et le monde physique, et passent de l’un à l’autre comme on passe de n’importe quelle activité à une autre. L’auteur montre également qu’il n’y a pas que les personnes qui passent d’un type d’univers à l’autre, mais également des biens, des services, des formes d’organisations, et l’ensemble des concepts et des représentations de la vie (il utilise le terme de membrane poreuse pour désigner la frontière symbolique que franchissent utilisateurs et concepts).

Concernant l’image qu’on se fait de la vie, Edward Castronova explique que la vie moderne peut s’avérer décevante pour beaucoup, surtout par rapport aux promesses de l’éducation, de la société et des média. L’intérêt perçu de ces mondes synthétiques est alors plus fort, renforçant encore l’adhésion des utilisateurs à ces univers.

Pour illustrer cette comparaison, l’auteur reprend le mythe de Sisyphe:

si la vie moderne peut se résumer à pousser sans cesse le rocher en haut de la colline pour le voir redescendre et recommencer à nouveau, les univers synthétiques permettent de mettre en place de nouvelles collines, toujours plus hautes; ainsi, même s’il faut continuer à pousser le rocher, au moins il est possible de le pousser toujours plus haut, toujours plus loin. De plus, ce n’est pas exactement le même rocher et la même colline: les concepts empruntés aux jeux de rôle tels que la notion de fantasy, la quête, le sens de la progression et de l’accomplissement, permettent de dépasser le côté routinier des activités régulières, et ce de façon bien plus efficace que dans le monde réel.

Enfin, miracle de l’informatique et des univers synthétiques, tout le monde peut être un être à part, un héros, car en plus des utilisateurs humains, ces mondes sont peuplés d’utilisateurs contrôlés par IA, et qui permettent de représenter le “peuple”, à l’aulne duquel l’utilisateur peut se mesurer. Difficile à reproduire dans la vie de tous les jours.Les concepts sociaux attachés aux univers synthétiques et leurs impacts sur la vie d’un nombre de personnes toujours plus grand permet de mieux comprendre la fascination croissante pour ces univers, et la nécessité d’analyser plus profondément ces sociétés naissantes, mais aussi les économies et marchés qui leurs sont attachés.

Pour aller plus loin dans la réflexion:

Synthetic Worlds: The Business And Culture Of Online Games, par Edward Castronova: un livre fascinant qui aborde les univers synthétiques sous les angles économiques et sociaux et montre à quel point ces univers prennent (et prendront) une importance croissante dans la vie de toujours plus de personnes.

Pour acheter ce livre sur amazon.fr, cliquez ici: Synthetic Worlds: The Business And Culture Of Online Games.