Stratégie d’audience et stratégie de contenus

juin 2nd, 2006

Dans le long article de l’American Journalism Review Adapt or Die (trouvé via ecosphere), on peut lire, à propos des journaux quotidiens:

Esther Dyson, editor of Release 1.0, a technology newsletter at CNET Networks, says newspaper companies need to be clear about what they’re trying to accomplish, and they need to do it well. « Are you a media company, tailoring content to reach an audience and sell ads? Or are you a journalistic enterprise, focused on finding out and publicizing important truths? If you don’t really know what you’re trying to do, then you keep disappointing people who think they understand, » she says.

Qu’essayent de faire les journaux quotidiens, dans leur logique de diversification? Comment essayent-ils de s’adapter aux nouvelles contraintes? Face à la déferlante de nouvelles technologies de production mais surtout de diffusion d’information, les journaux papier sont menacés de tous les côtés: mise à disposition croissante de contenus gratuits en ligne et hors ligne (Metro, 20Minutes); très nombreux supports d’audience; technologies numériques de diffusion d’information qui remettent en question les schémas traditionnels.

Dès lors, on sent les journaux coincés entre leur logique traditionnelle de production de contenus de qualité, toujours rémunératrice mais de moins en moins porteuse, et la logique moderne d’audience, qui consiste à offrir du contenu afin d’attirer des utilisateurs et de monétiser cette audience.

Les journaux sont confrontés aux problématiques communes à tous les supports de contenus: comment acquérir des contenus de qualité à coût raisonnable, comment donner de la valeur au produit final, et comment le monétiser?

La production de contenus: coûteuse et incompressible.

Qu’il s’agisse d’articles de presse, d’émissions de radio, de show vidéo, ou de “news”, il est toujours coûteux de produire des contenus. Conséquence: la plupart des producteurs se limitent à la production de contenus qui sont dans le cadre de leur ligne éditoriale ou en lien direct avec leurs compétences-clés. En effet, maintenir une équipe dédiée à la production de contenus représente une forte charge en coût humain, sur laquelle il est très difficile de faire des gains de productivité importants sans sacrifier la qualité.

S’affranchir de la production de contenus: stratégie payante ?

Les media, quant à eux, sont à l’opposé de cette stratégie de production de contenus, et sont dans une logique de diffusion et d’audience : acquérir des contenus, les agréger au sein de supports d’audience, et monétiser cette audience, essentiellement au travers de la publicité, et dans une moindre mesure au travers de services payants (téléshopping, services premium, contenus à la carte).

Les principaux avantages de cette stratégie sont la rapidité de mise en place et la facilité d’adaptation face au changement. Beaucoup d’entreprises ont bien compris que générer une audience forte en peu de temps permet d’obtenir un retour sur investissement rapide, et depuis quelques années, on voit apparaître de plus en plus d’entreprises qui cherchent à développer une stratégie d’audience très agressive: quotidiens ou magazines gratuits, chaînes TNT / câble / satellite, plates-formes en ligne de vidéo, photos, ou contenus.

Valeur et revenus.

Mais au final, quelle est la valeur ajoutée créée par l’entreprise? Et surtout, quelle est la valeur ajoutée perçue par l’utilisateur? C’est pourtant cette valeur perçue qui permettra de générer de la fidélisation, de la revisite, et de l’adhésion à la marque.

Comme le notait Esther Dyson, si le positionnement n’est pas clair pour les entreprises, les consommateurs n’arriveront pas à percevoir correctement l’intérêt des produits et de la marque, et seront difficilement fidélisés, voire déçus. Les utilisateurs n’étant plus fidélisés, ils risquent de se détourner vers une des nombreuses alternatives pour consommer les contenus.

C’est d’ailleurs un des principaux problèmes rencontrés par les portails des fournisseurs d’accès à internet: à mesure que leurs abonnés gagnent en maturité et sont capables d’aller chercher contenus et services directement là où ils se trouvent sur le web, ces portails n’ont pas de véritable valeur ajoutée à offrir aux utilisateurs.

De façon générale, on voit qu’il est délicat de trouver un équilibre entre les coûts des contenus et l’audience qui est peut être réalisée et monétisée grâce à ces contenus. De plus, face à l’offre croissante de supports de contenus, les consommateurs se dispersent et sont de plus en plus durs à fidéliser.

Dès lors, comment maintenir une stratégie d’audience sur la base de contenus limités, face à une concurrence de supports pléthoriques?
Il apparaît indispensable aujourd’hui d’offrir des services additionnels en plus des contenus, sous peine de voire s’effondrer l’audience. Une des possibilités : utiliser les contenus générés par les utilisateurs comme relais de croissance.

web 2.0: engouement vs. réalité économique

mai 26th, 2006

Dans son post « Is Web 2.0 bullshit? ou utilisez-vous vraiment les services web 2.0 ?« , Benoit Dausse montre la surconsommation de services en ligne de nouvelle génération (web 2.0), et (se) demande qui utilise réellement ces services, de façon régulière et assidue.

J’avais laissé quelques idées en commentaires à son post, que je reproduis et complète ci-dessous.

Au travers de son post, Benoit soulève plusieurs questions: quelle est l’utilisation réelle de ces services? Quelle est la base d’utilisateurs actifs? Quelle peut être la monétisation de ces services grâce à ces utilisateurs actifs?

Utilisation réelle de ces services:

Comme l’a dit Benoit, il y a un phénomène d’hyperconsommation étrange: “vite, un nouveau service vient d’être mis en ligne, il faut absolument que j’ouvre un compte dessus et que je le teste!”. Résultat des courses: on crée son portefeuille de valeurs sur Google Finance avec son fidèle compte Gmail, on commence à uploader des photos dans Riya après avoir attendu fébrilement l’ouverture de la version beta, mais une semaine après, on est retourné gérer son portefeuille chez son broker en ligne traditionnel, et on continue d’uploader ses photos sur Flickr.

Base d’utilisateurs actifs:

Du coup, comment faire face à ces comportements d’extrême volatilité des utilisateurs, entre l’effet de mode et le “hit & run”? Il s’agit là d’un des problèmes les plus difficiles pour ces nouvelles entreprises: s’assurer que les nouveaux utilisateurs soient fidélisés, et qu’ils reviennent fréquemment utiliser leurs services. Car sans utilisateurs actifs, point de notoriété, de trafic, et donc aucune perspective de revenus.

Les comptes gratuits, les possibilités de personnalisation et d’importation de données personnelles, les nouveaux gadgets techniques, est-ce que tout cela permettra d’éviter que les utilisateurs s’échappent dès que le service 2.0 suivant sera “ouvert” (en beta, bien entendu) ?
A ce sujet, je vous encourage à lire cette étude de Nieslen//NetRatings publiée le 11 mai 2006, à propos des sites de réseaux sociaux (MySpace & Cie):
Social Networking Sites Grow 47 Percent, Year Over Year, Reaching 45 Percent of Web Users

« However, while these sites have seen explosive growth over the past 12 months, this is a fickle youth audience, and the masses that have rushed to these sites, could turn their attention elsewhere. The question that remains is ‘how strong are the social networks that consumers are building on these sites?' »

Monétisation de ces services:

On a donc des services qui sont très visités mais potentiellement très peu consommés, et dont les utilisateurs peuvent s’échapper vers la dernière nouveauté à tout instant. Dès lors, comment monétiser ces services? Comment les entreprises à l’origine de ces services peuvent-elles générer du chiffre d’affaire et faire gagner leur vie à leurs salariés / actionnaires?

En effet, ces services sont la plupart du temps issus d’entreprises “mono produit”, dont la survie dépend de l’utilisation continue du service par une basse d’utilisateurs croissante et fidèle, afin de croître, et de développer un modèle d’abonnement premium/payant… ce sur quoi j’ai de plus en plus de doutes. Le principal modèle économique de ces entreprises repose-t-il sur l’effet de démonstration / tour de force technologique, afin de valoriser la société et la revendre ensuite, charge au repreneur de trouver un modèle économique rentable pour le(s) service(s)?

Flickr est en ce sens un bon exemple, car je ne suis pas convaincu que la base d’abonnés “pro” (payants) suffise à dégager un bénéfice sur ce produit. Yahoo! a en partie acheté Flickr pour l’insérer à son portail et à ses différents services; exemple: possibilité de poster ses albums de voyage dans la chaîne Yahoo! Travel. Au delà de la valeur intrinsèque du produit, ce sont les possibilités de synergie avec les autres services Yahoo! qui ont permis à ce rachat de se concrétiser. Yahoo! accepte que le service Flickr provoque une augmentation de ses coûts, notamment en terme de stockage et de bande passante, car, dans une perspective globale, la valeur apportée aux autres services Yahoo! est suffisante pour développer les usages et la fidélisation.

De plus, Yahoo est une entreprise cotée, qui doit rendre des comptes et promettre de l’innovation et des perspectives de croissance: elle est en permanence à la recherche de possibilité de croissance, interne comme externe. Intégrer une société ou un service qui a le vent en poupe ne peut que faire du bien au cours de l’action (remember del.icio.us, ou Skype avalé par eBay); il ne reste plus qu’à espérer que le service puisse bien s’intégrer à l’écosystème de la maison mère (vrai pour Flickr et Yahoo, pas évident pour Skype et eBay).

Tout ça pour dire qu’à l’arrivée, peu de ces services survivront, et donc peu d’entreprises, faute de modèle économique rentable (si ce n’est la perspective de revente). Dans tous les cas, le succès dépendra de la capacité du produit/service à être innovant et à générer de la valeur perçue par ses utilisateurs, et non d’un sticker “beta web 2.0 – venez chez moi tout est gratuit c’est trop génial”.
Comme l’a bien dit Joël Ronez: seuil de saturation 2.0 atteint.

L’inflation scolaire – Marie Duru-Bellat

avril 15th, 2006

L'inflation scolaire : Les désillusions de la méritocratieDans L’inflation Scolaire, Marie Duru-Bellat montre habilement à quel point la volonté française d’élévation du niveau d’études “à tout prix” est dommageable aussi bien pour les élèves que pour les entreprises, car la conséquence principale est de provoquer une baisse de la valeur des diplômes – d’où le titre.

Depuis l’après-guerre, on n’a cessé d’augmenter le niveau d’éducation et d’enseignement, avec des résultats plus que positifs, notamment une main-d’oeuvre toujours plus qualifiée. Néanmoins, vu le niveau moyen d’enseignement obtenu ces dernières années, est-ce que le pousser encore plus loin a un sens? 80% d’une classe d’âge au baccalauréat; 50% d’une classe d’âge diplômée de l’enseignement supérieur; toujours plus, mais pour répondre à quels besoins? Non seulement il n’est pas prouvé que les entreprises auront massivement besoin de personnel à un niveau toujours plus élevé, mais en plus, on voit déjà que le chômage chez les diplômés de l’enseignement supérieur est élevé. Le seul but de cette élévation sans fin du niveau d’études est-il de gagner une paix sociale (temporaire), en limitant les entrées sur le marché du travail? Au risque de provoquer une augmentation du chômage ou des tension sur les salaires?

Pour répondre à ces questions, Marie Duru-Bellat donne de nombreuses idées tout au long du livre, toujours précises et bien documentées.

Un second axe du livre porte sur la schizophrénie de l’enseignement supérieur (et de l’enseignement en général) en France: pousser un maximum d’élèves aussi loin que possible dans les études, peu importe lesquelles, et dans le même temps, afficher un penchant pour la logique de la sélection, penchant particulièrement marqué avec les grandes écoles.

On a ainsi une grande partie des élèves qui s’engage dans des études supérieures parce que cela doit leur permettre d’obtenir une meilleure situation professionnelle (on le leur a garanti durant toutes leurs études précédentes), alors qu’en bout de course, le marché de l’emploi n’absorbera que les personnes adaptées à l’offre de travail, en fonction de l’adéquation de leurs diplômes avec les postes ouverts.

Un chiffre m’a particulièrement impressionné à la lecture du livre: les effectifs en STAPS sont passés de 11 600 étudiants en 1990 à 47 700 en 2003. Je ne vois pas à quelle demande future tous ces diplômés vont pouvoir répondre, surtout en considérant que le nombre d’enfants et de jeunes ne va pas augmenter, alors que ce sont eux qui ont le plus besoin de ces diplômés en STAPS.

Cette dualité entre toujours plus d’études pour tout le monde et toujours plus de sélectivité fait froid dans le dos, compte tenu des déceptions croissantes qu’elle génère auprès des jeunes. On comprend mieux le décrochage entre le monde du travail et le monde de l’enseignement; cf. les manifestations anti-CPE, pendant lesquelles de nombreux jeunes affichaient leur peur du monde du travail, et leur envie d’être fonctionnaire (75% d’entre eux souhaitent acquérir ce statut, car il assure la protection sociale la plus évidente).

Enfin, Marie Duru-Bellat monte à quel point il est critique de ne pas penser l’enseignement comme unique moyen d’insertion dans la société et la vie adulte, mais bien comme un vecteur de savoirs: il faut dissocier l’aspect “enseignement / transmission des savoirs” de l’aspect “orientation / insertion dans la vie active”.

Après tout, est-ce bien raisonnable qu’en France, le diplôme obtenu à 20-24 ans détermine autant la situation économique et sociale d’une personne? L’enseignement initial est une condition nécessaire, mais pas suffisante. Les pays anglo-saxons, notamment (mais pas seulement), accordent de l’importance au diplôme surtout en début de carrière. Arrivé à 40-50 ans, quel est l’intérêt de savoir que la personne a fait telle école ou telle faculté, alors qu’elle a passé quasiment cinq fois plus de temps en entreprise? Le mérite professionnel acquis au fil du temps n’a-t-il pas assez de valeur? Il devient important de recadrer le rôle de l’enseignement et de réaffirmer les autres acteurs du développement social des enfants que sont la famille, les associations, la vie publique, etc.
—L’inflation scolaire, les désillusions de la méritocratie, par Marie Duru-Bellat: un très bon livre, documenté et instructif, publié à La République des Idées, chez Seuil.

Pour acheter ce livre sur amazon.fr, cliquez ici: L’inflation scolaire : Les désillusions de la méritocratie.

The Search – John Battelle

janvier 8th, 2006

The Search: How Google and Its Rivals Rewrote the Rules of Business and Transformed Our CultureJohn Battelle, co-fondateur de Wired, présente l’univers du search, des moteurs de recherche et des liens sponsorisés dans son livre: The Search: How Google and Its Rivals Rewrote the Rules of Business and Transformed Our Culture.

Qu’est-ce que le search? Comment fonctionnent les moteurs de recherche? Quels en sont les enjeux, les grandes découvertes, et les nouvelles perspectives? Une grande part du livre est consacrée à l’histoire déjà riche des moteurs de recherche et permet d’avoir une perspective historique globale, à la fois sur les moteurs de recherche et sur leur monétisation.

Sur les moteurs de recherche: de Gopher à Google, en passant par Altavista, John Battelle explique le fonctionnement général des moteurs de recherche, les différents concepts permettant de trouver les pages sur le net, les indexer, et les trier de façon pertinente. Sont également évoquées les problématiques techniques, notamment les (immenses) ressources nécessaires à un moteur de recherche de qualité, capable d’indexer et de trier une gigantesque quantité de documents, tout en assurant une fraîcheur de l’information suffisante aux nombreux internautes effectuant leurs recherches en ligne.

L’auteur montre également que malgré les progrès accomplis, les moteurs de recherche restent encore très limités: une grande majorité des utilisateurs trouvent que les moteurs répondent mal à leurs requêtes, et les contenus indexés se limitent essentiellement au texte (un peu d’images, et à peine de la vidéo et de l’audio). Il y a donc encore énormément de potentiel de développement pour les acteurs existants et pour de nouveaux entrants.

Sur la monétisation: John Battelle présente un aspect moins connu du monde des moteurs de recherche: leur monétisation et la génération de revenus, afin de supporter les coûts faramineux, et bien sûr d’en faire des entreprises profitables. Ainsi, après avoir évoqué les modèles traditionnels de publicité et de référencement payant, l’auteur présente la genèse et le développement du modèle du CPC avec les liens sponsorisés. De GoTo à Google, il présente les différentes stratégies qui ont permis d’affiner et d’imposer ce modèle comme le facteur de succès incontournable des moteurs de recherche (>99% des revenus de Google proviennent de ces liens sponsorisés).

Le succès et l’excellente performance des liens sponsorisés s’expliquent par le fait que la publicité est ciblée en fonction de l’intention de l’utilisateur. L’utilisateur fournit un ensemble de mots-clés qui décrivent plus ou moins bien ce qu’il cherche, et donc ce qu’il a envie d’obtenir; charge au moteur de comprendre cette intention et d’afficher des publicités correspondant à ce contexte. Par exemple, si une personne tape “billet avion paris madrid”, le moteur proposera non seulement des publicités pour des voyagistes (moyennement intéressantes), mais surtout des publicités ciblées pour des offres de billets d’avion de Paris à Madrid (très intéressantes et pertinentes). Cette offre publicitaire est légitime et normale dans le contexte décrit par la requête de l’utilisateur, elle répond parfaitement à son attente: il cliquera dessus.

Ce concept de publicité contextualisée et de publicité à la performance a été inventé par Bill Gross, fondateur d’IdeaLabs, dont a été issu GoTo, qui devint Overture, avant d’être racheté en 2003 par Yahoo! pour 1,63 milliard de dollars et renommé en Yahoo! Search Marketing. Google n’a donc pas inventé ce concept, bien qu’il l’ait incroyablement développé, et a préféré s’entendre avec Yahoo! en lui cédant 2,7 millions d’actions avant son introduction en bourse afin de clore les poursuites et de continuer à utiliser la juteuse technologie des liens sponsorisés (l’introduction en bourse de Google s’est faite à environ 106$ l’action).

John Battelle aborde également l’aventure Google en détail, mais sans se restreindre à une simple énumération des succès de l’entreprise: il explique en détail le contexte dans lequel Google est né, comment Larry Page et Sergey Brin ont fait naître puis développé le moteur de recherche, avant de passer à une stratégie plus “big company” en accueillant Eric Schmidt, afin de transformer ce projet de moteur de recherche en entreprise à succès qui gagne des milliards, tout en affinant sans cesse le moteur et en développant de nouveaux services.

Enfin, John Battelle fait quelques projections afin d’imaginer comment le search peut se développer sur d’autres supports. Le concept de recherche (et de publicité contextualisée…) peut se déployer partout, car il s’agit avant tout d’une fonctionnalité permettant d’atteindre de l’information, à l’image du sommaire d’un livre, et non d’un service en soi.

Pour illustrer les possibilités futures, l’auteur prend l’exemple de la télévision: un jeune père de famille est en train de consulter l’EPG de son fournisseur de télévision afin de trouver les émissions qui peuvent l’intéresser et l’aider dans ses nouvelles responsabilités. Pour ce faire, il saisit les mots-clés “poussette” ou “couche” dans le moteur de recherche intégré. L’affichage de publicités pour ces produits (ou pour des programmes présentant ces produits) est à la fois logique, utile pour l’utilisateur, et efficace pour l’annonceur, le support, et le fournisseur de technologie de publicité.

Ces évolutions technologiques et les changements d’usage qu’elles provoquent sur les consommateurs représentent de belles perspectives pour moteurs de recherche, et un grand défi pour l’industrie de la publicité, qui doit se réinventer afin d’intégrer cette nouvelle donne.

The Search: How Google and Its Rivals Rewrote the Rules of Business and Transformed Our Culture, par John Battelle: un livre captivant sur un univers que tout internaute côtoie au quotidien sans forcément en comprendre toutes les problématiques ni tous les enjeux.

Pour acheter ce livre sur amazon.fr, cliquez ici: The Search: How Google and Its Rivals Rewrote the Rules of Business and Transformed Our Culture.

web 2.0 et beta-services: vers la disparition des services finalises?

novembre 17th, 2005

Le web 2.0 est-il incapable de sortir un service en version 1.0?
Y a-t-il un paradoxe du web 2.0, celui de sortir tous les services en “beta”?

Ce courant existe-t-il uniquement pour profiter de l’engouement des acteurs majeurs pour les services “beta” (Google, Yahoo, MSN, Flickr, etc.), les services “beta” étant les fils naturels du concept des Google Labs?

L’idée est-elle de profiter ainsi de l’attrait des journalistes et newsers de tous bords pour ce terme, et ainsi de s’assurer une couverture médiatique rapide et à peu de frais? Est-ce une tentative de rentabiliser les investissements le plus tôt possible, en ouvrant et en assurant la promotion de services non finalisés, mais globalement fonctionnels à au moins 80%? Une conséquence de la complexité croissante des projets informatiques, toujours plus longs à réaliser, débugger et finaliser?

Le web, c’est la solution miracle pour ne jamais “finir” un produit ou un service, en perpétuelle ‘amélioration’.

Concept attrayant, mais au final, le ressenti de l’utilisateur est le suivant: le produit ou service n’est jamais finalisé. Cela n’est pas propre aux services web purs: les mêmes phénomènes sont apparus dans l’industrie du jeu vidéo, avec le concept de v1.0 bugguée nécessitant dorénavant le téléchargement systématique de patch(s) correcteur(s) -quand il ne s’agit pas de passages entiers du jeu qui n’ont pu être bouclés pour la sortie du jeu-.

L’utilisateur n’a plus de produit fini et final, mais un service en constante évolution, toujours possible à marketer et à vendre par petits bouts successifs, permettant d’obtenir une flux de revenus continu, même de faible niveau unitaire.

Ce phénomène s’étend dans des domaines toujours plus nombreux: jeux vidéos loués à la durée, jeux vidéos vendus par épisodes, et, en sortant de l’univers informatique, on peut faire le parallèle avec l’automobile, qui n’est plus le secteur de la vente de véhicules, mais bien celui de la vente de prestations de mobilité. Après tout, quand on peut ‘louer’ une voiture en leasing, pourquoi l’acheter et subir les conséquences directes de l’obsolescence?

La visibilité conditionne l’existence

octobre 30th, 2005

Lu sur InternetActu: « Le web : hégémonie de l’amateurisme »

L’article et les commentaires associés sont très intéressants de par la reflexion qu’ils imposent, à savoir la nécessité de prendre du recul sur les engouements actuels pour les « nouveaux » services en ligne de publication et d’accès aux informations, collaboratifs et gratuits. En effet, la priorité va assez naturellement à la simplicité d’accès et à l’opinion prédominante; il faut donc garder à l’esprit les biais que cela peut avoir (imprécisions, lieux communs, ethno-centrisme, nivellement, etc.).

Plutôt que de refaire ici la discussion qui a lieu sur la page d’InternetActu, voici une réflexion du même type que je m’étais faite vis-à-vis des services en ligne diffusant ou permettant l’accès à l’information: la masse l’emporte toujours.

Exemple: depuis maintenant quelques années, tout le monde dit « Google, c’est SUPER!« . Comme moteur de recherche web, c’est incontestable. Cependant, personne ne se demande où Google va en tant qu’entreprise, quels sont les objectifs technologiques et financiers, quel impact cette entreprise et sa vision peut avoir, etc.

Un article lu en décembre 2003 (impossible de remettre la main dessus) m’a fait prendre conscience d’un point important à propos de Google: un chercheur américain expliquait qu’il s’était fait prendre à parti dans une émission de radio, l’animateur lui assénant: « De toute façon, l’article dont vous parlez n’existe pas, je n’ai pas réussi à le trouver sur Google. »

L’animateur considérait que ce qui n’est pas accessible via Google n’existe pas. Sans même parler des différences de fonctionnement entre les nombreux moteurs de recherche et le fait que Google n’indexe pas (encore) tout ce qui existe en ligne, il apparaît de moins en moins aux utilisateurs qu’un document puisse ne pas être sur un espace public en ligne, ou n’existe que sous forme papier…

Concept simple à appréhender mais difficile à accepter: la visibilité conditionne l’existence.

Sans visibilité dans un media de masse, ou sans accessibilité ultra simple sur le net, on n’existe pas. L’importance de la qualité est marginale pour atteindre un niveau élévé de visibilité.

N.B. Certes, la Wikipedia est de bonne qualité, et a un niveau de notoriété important pour les utilisateurs en ligne. On est cependant toujours très loin du niveau de notoriété de la télé-réalité…

services en ligne: prix, coûts et valeur perçue

septembre 11th, 2005

Tous les ans, quand il s’agit de renouveler mes noms de domaines et hébergements en ligne, je me fais les mêmes réflexions : pourquoi est-ce que je paie? Et surtout, pourquoi est-ce que je paie ces montants?

Les noms de domaine étant purement dématérialisés, et les coûts techniques limités (environ $0,30 en 1999), comment expliquer qu’on paie entre 6 et 14 euros par an? Laurent Chemla, un des fondateurs de Gandi, attaquait de façon encore plus directe dans son texte « Confessions d’un voleur » :

« Je suis un voleur. Je vends des noms de domaine. Je gagne beaucoup d’argent en vendant à un public qui n’y comprend rien une simple manipulation informatique qui consiste à ajouter une ligne dans une base de données. Et je vais gagner bien davantage encore quand, la pénurie artificielle ayant atteint son but, le commerce mondial décidera d’ouvrir quelques nouveaux TLD qui attireront tous ceux qui ont raté le virage du.com et qui ne voudront pas rater le virage suivant. »

Cependant, dans son analyse, il ne se place que du côté de la valeur technique des noms de domaine et des coûts associés. On peut au passage voir un parallèle avec le paradoxe de l’eau et du diamant :

Au sujet de la distinction entre valeur d’échange et valeur d’usage, [Adam] Smith constate : « Il n’y a rien de plus utile que l’eau, mais elle ne peut presque rien acheter; à peine y a-t-il moyen de rien avoir en échange. Un diamant, au contraire, n’a presque aucune valeur quant à l’usage, mais on trouvera fréquemment à l’échanger contre une très grande quantité d’autres marchandises. »

La réponse tient à l’abondance relative de l’eau par rapport au diamant, et à la difficulté d’extraction du diamant bien plus grande que celle de l’eau : un désir d’eau pourra être satisfait avec peu d’argent, un désir de diamant coûtera très cher.

Le prix de vente d’un objet dépend du désir de son acheteur et de la difficulté qu’il a à se le procurer. Peu importe le travail qu’il a fallu au vendeur d’un produit ou service pour le fabriquer ou l’acheter.

Les utilisateurs des noms de domaines voient donc essentiellement le côté utile : un nom de domaine leur donne de la visibilité en ligne, leur permet de créer un site web et de lui donner une adresse, etc. Ils jugent la valeur d’utilité que leur apporte ce service, et sont donc prêts à payer une somme en conséquence, même si cette somme dépasse de beaucoup les coûts.

services en ligne et marges générées

On se retrouve dans une situation où les marges peuvent être particulièrement importantes, notamment dans les noms de domaine, mais aussi dans un grand nombre de services en ligne, produits essentiellement dématérialisés. On peut donc légitimement penser qu’il s’agit là d’un vivier de bonnes opportunités!

Bien entendu, il est évident que la situation n’est pas aussi simple, surtout après l’explosion de la bulle: les entreprises ont bien compris qu’il ne suffit pas de développer un service un minimum utile, puis de facturer aux consommateurs… Le marché évolue, et tant qu’il y a de fortes opportunités, il y a de nouveaux acteurs qui entrent sur ce marché. De plus, les acteurs, nouveaux comme anciens, ne se contentent pas de dupliquer ce qui existe déjà, mais proposent des produits ou services toujours plus évolués.

Illustration avec les FAI en France: Jusqu’à l’ouverture de l’ADSL à la concurrence (2002), on avait un marché de l’accès à internet relativement structuré, avec des marges élevées, même si les entreprises n’étaient pas forcément rentables. Or, un des acteurs (Free) a pu déstabiliser le marché en décidant de baisser ses prix au plus près de ses coûts, diminuant ainsi sa marge, mais cela lui a permis de conquérir des abonnés en masse. En parallèle, il a également développer la valeur de ses produits, en innovant à coup de freebox, d’hébergement de pages persos plus large et plus complet, de VoIP, etc.

Cette double évolution -baisse des prix et amélioration technologique- a obligé tous les acteurs du marché à se remettre en question : soit en innovant et en offrant des services avec une valeur perçue plus élevée : VoIP, stockage en ligne, TV par ADSL, etc. (Neuf a été un des plus réactifs et le seul qui semble actuellement capable de rivaliser avec la surenchère technologique de Free), soit en baissant les prix pour s’aligner (la grande majorité des autres acteurs).

Dans les noms de domaine, on a également traversé ces différentes phases : Gandi était le moins cher, à l’époque où il y avait peu d’acteurs, surtout français, et où le marché mondial était encore fortement contrôlé par le couple Verisign / Networks Solutions; aujourd’hui, des concurrents comme OVH ou 1and1 ont à leur tour grandement bousculé le marché en baissant leurs prix et en augmentant les services offerts; résultat : Gandi est maintenant à son tour dépositionné.

Certes, les blocages au sein de l’équipe dirigeante historique peuvent expliquer en grande partie cette non-évolution de l’offre. Le rachat de Gandi par Stephan Ramoin et son équipe débouchera-t-il sur une baisse des prix, une évolution de l’offre de services, ou bien les deux?

Quoi qu’il en soit, je continue de payer pour le renouvellement de mes nom de domaines, et je suis toujours chez Gandi, car le service qui m’est rendu me satisfait pleinement, et je trouve que son utilité vaut largement les 14,35 € TTC / an! 🙂

We The Media – Dan Gillmor

mai 22nd, 2005

We the Media: Grassroots Journalism By The People, For the PeopleDans We the Media: Grassroots Journalism By The People, For the People, Dan Gillmor, éditorialiste au San Jose Mercury News et fondateur de Bayosphere, décrit les évolutions structurantes que le web imposent aux médias traditionnels et aux institutions, notamment par la prise de parole publique que tout un chacun obtient grâce aux outils de blogging. Le « public » devient partie prenante de la conversation.

Après une présentation de l’évolution historique des médias et de la liberté de la presse, Dan Gillmor s’attache à démontrer en quoi l’arrivée du web est une innovation disruptive dans le monde des médias. En effet, pour la première fois, on a un média qui est par essence ouvert à tout un chacun, pour peu que l’on soit connecté. On a donc vu de plus en plus de particuliers, de consommateurs, d’utilisateurs de services, de citoyens, bref, de gens, s’approprier les différents outils pour prendre la parole en ligne. Avec l’arrivée des solutions de blogging, le phénomène s’est amplifié, en permettant aux personnes de s’affranchir des contraintes techniques et en leur donnant la possibilité d’avoir un espace en ligne pour quasiment rien. L’auteur présente les impacts sur les entreprises, les médias, et la vie publique.

Impacts sur les entreprises: les entreprises peuvent utiliser ces outils de communication, à la fois pour présenter leurs produits ou leurs services, mais aussi pour offrir aux consommateurs un espace de discussion et de feedback. Elles peuvent aussi, grâce aux TIC, améliorer leurs produits en collaboration avec des consommateurs experts. Cela les oblige à plus de transparence et d’honnêteté, mais une fois la tour d’ivoire ouverte, l’impact sur l’image de marque et les produits peut se révéler très fort. A l’inverse, ne pas prendre en compte les remontées des utilisateurs d’un produit peut augmenter la grogne de ces consommateurs, dont l’opinion négative sera plus facilement diffusée auprès du public, aussi bien par le net que par les autres médias.

Impacts sur les médias: les grands médias n’ont plus nécessairement le monopole de l’information, à la fois pour l’obtenir et pour la publier. Des individus peuvent non seulement obtenir mais surtout diffuser une information avant que les grands réseaux de radio ou de télévision, sans parler de la presse, dans laquelle Dan Gillmor voit plus un rôle d’organisme de surveillance (watchdog) que de relais d’information chaude (hot news). D’ailleurs, les journalistes professionnels se mettent à utiliser ces nouvelles formes de communication, à la fois pour être informés plus rapidement, mais aussi pour discuter et échanger.

Impacts sur la vie publique: le net, en permettant à chacun de prendre la parole, permet le développement d’échanges forts au sein des différentes communautés. On voit donc apparaître une forme de journalisme collaboratif, citoyen, dans lequel les membres d’un groupe font leur propre media. A l’échelle d’un pays, on peut ainsi voir émerger un organisme collaboratif capable de rivaliser avec les plus grands groupes professionnels: un grand nombre d’observateurs estime qu’en 2002, le site coréen OhMyNews a permis au réformiste Roh Moo Hyun de gagner les élections présidentielles en Corée du Sud. Au contraire des trois principaux quotidiens, qui avaient tous de forts liens avec le gouvernement précédent, OhMyNews est un journal collaboratif écrit essentiellement par ses lecteurs, et dont le ton plus critique a attiré un nombre impressionnant de lecteurs. Sur la même tendance, le candidat à l’élection présidentielle US de fin 2002 Howard Dean a bénéficié d’un incroyable soutien en ligne, a récolté la plupart de ses dons sur le net, et a mené une grande partie de sa campagne en ligne. Même s’il n’a pas gagné l’élection, tous les observateurs sont d’accord pour dire que le net joue un rôle croissant dans les campagnes politiques et sera au coeur des prochaines élections américaines de fin 2006.

Le net en général, et les technologies de publication de type weblog en particulier, remettent en cause un grand nombre de concepts de communication jusque là bien établis: qu’il s’agisse de la façon dont les entreprises communiquent (ou non) avec leurs consommateurs, des méthodes éditoriales et économiques des grands médias, ou de la gestion de vie publique et politique, tout un chacun peut désormais intervenir et faire peser sa voix dans la balance.

Derrière ces concepts de remise en cause et de transparence, on sent la bonne volonté de Dan Gillmor de pousser l’action de chacun en ligne, afin de s’investir dans la vie politique, économique et sociale. On comprend également que ce livre lui permet de présenter les concepts qui l’ont amené à créer Bayosphere, et sa volonté de pousser le journalisme citoyen (ou journalisme collaboratif). Néanmoins, tout le monde n’est pas journaliste, écrire nécessite un minimum de compétences (voire de talent), et s’impliquer coûte du temps et de l’énergie. Je suis donc curieux de voir comment le projet Bayosphere évoluera, de même que les initiatives dans les autres pays.

We the Media: Grassroots Journalism By The People, For the People, par Dan Gillmor: un livre intelligent qui présente les impacts du web sur les médias, les entreprises et la vie publique. Il est néanmoins très centré sur les Etats-Unis, et je suis curieux de voir comment les autres pays vont évoluer.

Pour acheter ce livre sur amazon.fr, cliquez ici: We the Media: Grassroots Journalism By The People, For the People.

Biometrie – science (fiction)

juillet 8th, 2004

Sagem vient d’être retenu à l’issue d’un appel d’offres lancé par le service des douanes australiennes pour être son partenaire stratégique dans le développement de SmartGate, un nouveau système automatique de contrôle des frontières.
Fondé sur la technologie biométrique de reconnaissance faciale (une licence de Cognitec Systems), le système pilote SmartGate sera appliqué dans plusieurs aéroports australiens et procédera au contrôle des voyageurs par la comparaison de leur analyse faciale avec les données biométriques stockées dans leur passeport.
En matière de biométrie, l’analyse faciale a été reconnue par l’OACI (Organisation de l’Aviation Civile Internationale), qui l’instituait en 2003 comme biométrie principale pour le contrôle des frontières.
(source: Atelier groupe BNP Paribas)

L’analyse faciale, retenue comme moyen de contrôle biométrique principale par l’organisme internaional en charge de l’aviation civile. En complément d’autres méthodes, bien entendu. Quand la NFL avait testé un système de reconnaissance faciale dans les stades pendant certains matchs de football américain, on avait entendu un grand nombre de personnes s’offusquer de ces méthodes, etc. De même quand les USA ont commencé à ficher tout le monde à l’entrée dans leur pays (encore maintenant).

Maintenant, contre qui élever la voix? Et pour quoi? Après tout, personne ne va s’arrêter de voyager parce que les empreintes biométriques sont prises et vérifiées; même si ça m’a déjà traversé l’esprit de repousser un voyage aux USA à cause de ça… Avant de me rendre compte ç quel point c’était idiot. On ne s’arrête pas de voyager.

Le problème n’est pas la mesure de contrôle en tant que telle, mais le fait que ces empreintes soient archivées dans une base de données informatisée. Les bases de données informatisées, c’est bien, ça fait gagner du temps, et de l’argent, mais ça a quand même deux inconvénients majeurs:
-> ça se pirate
-> ça permet de faire des recoupements entre des fichiers (très) différents; exemple: croiser ce genre d’informations avec un fichier bancaire et un fichier d’assurance maladie.

Certes, les croisements de fichiers sont interdits (en France en tout cas), mais étant légèrement paranoïaque, àa me gène qu’on puisse ajouter des données très personnelles comme mes empreintes à des fichiers contenant déjà beaucoup d’informations personnelles. Et surtout, ça me gène qu’un petit plaisantin puisse obtenir ces informations et les détourne; après le vol de numéro de CB, le vol d’empreinte biométrique et le vol d’identité..?

Je fais de la science-fiction? De la science (fiction)? Ou tout simplement un peu de prospective sur la base d’innovations techniques récentes? Quoi qu’il en soit, ça n’est pas si évident que ça d’arriver à prouver son identité suite à un détournement d’informations; c’est faisable, mais bonjour le parcours du combattant administratif!

RFID Strikes Back!

mai 6th, 2004

Ca faisait un petit moment que je n’avais rien lu/entendu sur les marqueurs RFID. Et aujourd’hui, un petit article dans le Journal Du Net, qui nous apprend que:
– Wal-Mart, géant de la distribution aux USA(*), se fixe un objectif ambitieux: “d’ici le premier janvier 2005, les cent plus importants partenaires commerciaux de la chaîne de magasins devront fournir des produits équipés de marqueurs RFID“,
– malgré tout, les marqueurs RFID ne sont pas si simples que ça à déployer: “Pour le moment, les résultats sont mitigés et le planning incertain.
A lire!

Petit rappel, pour plus d’explications sur les étiquettes RFID (Radio Frequency IDentification):
Dans un soucis de suivi constant des produits dans les circuits de distribution, les industriels et les spécialistes en gestion de production ont successivement mis en place de nouvelles solutions. Cela permet bien évidemment de gagner du temps et de l’argent. Après les kanbans, près différents systèmes d’échanges de données informatisées clients/fournisseurs, voici venir les étiquettes intelligentes!
Le principe? Permettre une identification des produits (ou des lots de produits parce que c’est encore cher ces petites bêtes là) dans la chaîne de distribution, pour améliorer les processus d’approvisionnements, suivre les produits dans les magasins. Accessoirement, cela doit également permettre de limiter le vol (parmi les premières entreprises impliquées: Gillette; les lames pour rasoirs étant le produit le plus volé dans les super/hypermarchés).
Ca a l’air très prometteur à première vue, sauf qu’on ne sait pas exactement quelle est la portée ou la durée de vie de tels dispositifs. Bien entendu, les industriels assurent que les étiquettes seront désactivées lors du passage en caisse, voire qu’elles ne seront dans un premier temps que sur les caisses et palettes, et pas sur les emballages individuels; quoi que j’en doute, notamment pour les lames de rasoir.
Quoi qu’il en soit, il reste encore un peu de temps avant de voir débarquer ces “étiquettes intelligentes” en masse, tous les problèmes étant loin d’être réglés: conflit avec certains matériaux comme l’aluminium, qui gène les ondes radio; prix des étiquettes, encore proche d’un euro l’”étiquette”; nécessité d’équiper les producteurs, distributeurs et magasins en lecteurs adéquats.

Plus d’informations:
-> dans l’excellent dossier de (feu) transfert.net: Les étiquettes intelligentes
(dossier naturellement plutôt pessimiste)
-> dans un dossier du Journal Du Net consacréà la gestion de la chaîne logistique
(dossier naturellement plutôt optimiste)

* géant qui distribue des cartouches d’armes à feu (et des armes) en vente libre mais qui a retiré certains jeux vidéo de ses rayons car jugés trop violents…