Archives pour la catégorie 'technologie'

Vous parcourez en ce moment les archives du weblog kobaye.net pour la catégorie technologie.

Google: nouvelles fonctionnalités pour nouveaux services?

Lundi 20 avril 2009

En regardant les nouvelles fonctionnalités lancées par Google, on peut se demander à quels objectifs elles répondent: enrichir les services existants, ou préparer le terrain au lancement de nouveaux services, voire à de nouveaux usages de consommation ou à de nouvelles méthodes de distribution?

Analyse de récents changements:

Nouvelles URL de referrers et AJAX

Prenons la nouvelle structure des URL de referrers des pages de résultats du moteur de recherche, décrite au détour d’un article expliquant que cela n’aura pas d’impact sur Google Analytics (si vous utilisez un autre service de tracking, pensez à demander). Les referrrers vont donc devenir plus complexes; plus riches en données exploitables, certes (avec le classement du lien cliqué par exemple), mais surtout plus complexes.

Quel intérêt de passer d’une structure très simple à quelque chose d’aussi compliqué? Tout simplement supporter le passage à une interface en AJAX, plus rapide et plus riche, qui déporte une partie des actions du serveur vers la machine de l’utilisateur.

L’intégration progressive d’AJAX permet à Google d’intégrer de plus en plus d’éléments riches dans les pages de résultats (tendance de fond depuis 2 ans: l’Universal Search). Par exemple, les tests de mars dernier sur un panel restreint d’utilisateurs ont montré de nouvelles fonctionnalités pour affiner les résultats, et ont révélé au passage la nouvelle structure d’URL de referrers. Passer à l’AJAX permet à Google de se renouveler, de continuer à innover, de lutter contre les velléités de la concurrence, et tout ça sans avoir à subir une hausse des coûts.

En effet, l’AJAX a comme avantage secondaire et non négligeable de réduire la charge serveur, ce qui permet d’obtenir une baisse des coûts serveurs, ou une capacité à lancer de nouvelles fonctionnalités à périmètre serveurs constant. L’AJAX est d’ailleurs une technologie mature chez Google, notamment via Gmail, pour lequel ils ont plusieurs fois réécrits des portions importantes de javascript.

Gears et gestion asynchrone

Incorporer des technologies AJAX va pourtant à l’encontre de la simplicité traditionnellement promue par Google: en effet, quoi de plus rapide que la version HTML basique de leurs pages de résultats? Les résultats riches et les fonctionnalités AJAX nécessitent de télécharger bien plus d’éléments, et la charge serveurs s’en trouve alourdie… au premier téléchargement. Ensuite, le cache du navigateur et le processeur de la machine de l’utilisateur tâchent d’en faire le plus possible sans recourir au serveur. Dans un second temps, les performances peuvent encore êtres améliorées grâce à Gears, une extension pour navigateurs qui améliore l’interaction web/local en stockant et exécutant une partie du code et des informations habituellement gérées par le serveur; un mini-serveur local, en somme.
Gears permet par exemple d’accélérer la rédaction des articles sur ce blog dans WordPress, ou de gérer ses mails Gmail en mode offline.

Quelle application de Gears peut-on imaginer pour les pages de résultats de recherche? Le maintien de la rapidité d’affichage, composante importante de la qualité et de la pertinence perçue par les utilisateurs, tout en augmentant les fonctionnalités offertes au sein des pages de résultats. (Ce qui se renforce d’encore un cran au sein de Chrome, le navigateur de Google dont le moteur javascript a été fortement optimisé pour accélérer les applications web comme… Gmail, et probablement l’ensemble des services Google.)

Une fois l’ensemble de ces techniques maîtrisé, n’importe quel service peut être adapté à cette logique web/local asynchrone, fluide et légère, et les nouveaux services ou produits Google ne devraient pas manquer d’apparaître.

Néanmoins, ces nouvelles fonctionnalités n’ont pas que l’enrichissement de l’offre comme objectif, mais aussi l’accès à cette offre au travers de nouveaux appareils et de nouveaux modes de consommation.

Une chaîne plus fluide: pour les appareils légers

L’AJAX et Gears facilitent l’accès à l’ensemble des services Google « in the cloud » depuis n’importe quel appareil, mais surtout depuis les appareils « SCF« : téléphones mobiles, netbooks, etc. Vous pouvez de plus en plus utiliser les services sans être nécessairement connecté, et sans en avoir à vous en soucier: le mail partira lorsque votre téléphone aura récupéré une connexion au sortir de l’immeuble, ou bien l’article sera publié lorsque votre train sera sorti du tunnel. L’expérience est fluide et transparente.

D’ailleurs, plus besoin d’utiliser une machine puissante dotée d’un système d’exploitation ou d’un navigateur classique, un appareil basique suffit, dont la puissance, le système d’exploitation et le navigateur sont allégés et mélangés, à l’exemple de l’iPhone, ou des terminaux Android, téléphones ou netbooks.

En somme, les nouvelles fonctionnalités de Google leur permettent de capitaliser sur et de continuer à développer la puissante capacité technique à leur disposition, que ce soit en termes de capacité serveurs ou en bande passante, et le lancement de nouveaux services peut se faire de façon de plus en plus transparente, voire anodine, sans investissements conséquents (le rêve de l’actionnaire).

N.B. Pour ceux qui n’auraient pas suivi, Google est principalement une architecture réseau et technique d’une dimension sous-estimée, capable, entre autres choses, de gérer un moteur de recherche rentable.

services sociaux en ligne, « social graph » et expérience utilisateur

Samedi 3 novembre 2007

En pleine déferlente d’invitations sur Facebook, beaucoup de mes contacts me demandent pourquoi je ne suis pas encore inscrit, alors que « c’est trop cool, tout le monde est dessus », c’est the place to be… Pourtant, c’est toujours la même rengaine, seul le service change: Copains d’Avant, LinkedIn, Friendster, Flickr, Typepad, MySpace, etc. A chaque fois, c’est reparti pour des journées de galère à essayer de synchroniser son profil et ses relations sur le nouveau réseau, chercher tous ses amis, envoyer/répondre des mails d’invitations, tout ça pour finir quelques semaines plus tard avec quelques centaines de contats (toujours les mêmes), dupliqués sans cesse.

réseau social - représentation graphique (2)

Comme le synthétise Brad Fitzpatrick, nouveau responsable du développement social de Google: « People are getting sick of registering and re-declaring their friends on every site. »

En effet, il n’est pas tant question d’identité numérique (bien qu’il soit pénible de chaque fois redéclarer son identité), mais surtout de réseau social: qui est lié à qui et comment? Comment retrouver sur un réseau social en ligne les contacts qu’on a déjà au sein d’un autre réseau social, en ligne ou dans la vie?

réseau social - représentation graphique (1)

Arrive la notion de graphe social, proposée par le fondateur de Facebook, Mark Zuckerberg, et qui selon lui désigne:

« le réseau de connexions et de relations entre les gens sur Facebook, qui permet la diffusion et le filtrage efficaces de l’information »

source / traduction: Francis Pisani (via InternetActu)

Cette première description, trop restrictive car ne servant qu’à donner un nouveau nom au concept de réseau social (voir les réactions de Dave Winer ou de Nick Carr à ce nouveau buzz word), a vite été élargie, et désigne depuis la conférence Techcrunch40:

« l’ensemble des relations de toutes les personnes dans le monde. Le graphe social : il y en a un seul et il comprend tout le monde. Personne ne le possède« 

source / traduction: Francis Pisani (via InternetActu)

Dès lors, on perçoit mieux la différence entre les concepts de graphe social et de réseau social, et comment le dernier essaye de donner une représentation numérique du premier. Un réseau social en ligne essaye de reconstruire une partie (voire l’intégralité) du graphe social, avec l’aide de ses utilisateurs, de façon à récupérer des informations sur les personnes, leurs actions et surtout leurs interactions, en échange d’une mise en relation facilité pour les utilisateurs qui y participent.

Car il s’agit bien d’un échange de bons procédés: le réseau social, souvent créé par une entreprise, met à disposition une plate-forme et des outils, et les utilisateurs fournissent des informations sur eux et leurs proches, ce qui, in fine, permet au réseau social de dégager un certain revenu via la vente d’informations personnelles qualifiées et/ou la publicité (modèle économique restant encore à prouver).

Conséquence: les réseaux sociaux en ligne sont naturellement fermés, chaque entreprise cherchant à protéger sa base de données et la valeur qu’elle représente. Ainsi, de Friendster à Facebook en passant par MySpace et consorts, de réseau social en réseau social, l’utilisateur avance, évolue, mais il répète surtout certaines actions ad nauseam: créer login – créer mot de passe – remplir fiche de profil – chercher amis – ajouter amis… Certes, ces actions répétitives ne datent pas d’hier, et font partie intégrante du net depuis les comptes e-mails jusqu’aux blogs et plateformes sociales en passant par les messageries instantanées.

Alors pourquoi maintenant toutes ces réflexions autour de l’identité numérique, ouverte, et unifiée? Et pourquoi l’irruption d’un nouveau mème: le graphe social? Double réponse: le timing et la concurrence.

Le timing car on est maintenant à un moment où une grande partie d’internautes a déjà répété trop souvent les mêmes séquences de création de profil pour se rendre compte qu’ils sont à 2 doigts de transformer ces actions en réflexes pavloviens (et personne n’aime aboyer).
La concurrence car un grand nombre d’acteurs de bonne taille cherchent maintenant à obtenir ou sécuriser une masse critique d’utilisateurs, nécessaire au développement de l’usage de leurs services, ce qui devrait permettre ensuite d’amorcer la pompe à revenus.

Ainsi, au fil d’habiles recrutements, déclarations d’intentions et conférences, on entraperçoit les mouvements des principaux acteurs:

  1. Facebook a ouvert sa plateforme au développment d’applications par des tiers afin d’entretenir la dynamique et la fraicheur de son réseau, avec un certain succès (la moitié des applications ont tout de même plus de 100 000 utilisateurs).
  2. Google, au travers de son nouveau responsable du développement social Brad Fitzpatrick, appelle à l’ouverture des réseaux sociaux, ce qui permettra aux utilisateurs de passer plus facilement d’un réseau à un autre, et, au passage, à Google d’amorcer un réseau social, dont il manque profondément dans ses marchés clés (Orkut n’a pas d’usage réel hors du Brésil). Ce qui fait réagir Danny Sullivan (SearchEngineLand) de façon délicieusement logique et acide:

    « Heck, if I were Facebook, I’d be sitting over there saying we’ll open up our social graph as soon as you open up your web graph/index. Then you’ll see how open Google is. »

  3. Microsoft a acheté l’exclusivité de la fourniture de publicité (et certainement d’autres services) sur Facebook pour une bagatelle de 240 millions de dollars, valorisant ainsi Facebook à 15 milliards de dollars, alors qu’on ne sait toujours pas s’il y a un espoir de voir le service atteindre la rentabilité (comme quoi, la valeur est décidément une notion relative et liée au bon vouloir (à l’espoir?) des personnes).
  4. Les nombreux concurrents de Facebook, anciens et nouveaux (SixApart avec Typepad/LiveJournal/Vox, MySpace, etc.), qui cherchent à (re)dynamiser leurs propres réseaux pour ne pas voir fuire une partie de leurs utilisateurs vers le nouveau réseau « où il faut être ». Vous noterez que Facebook occupe cette place depuis quelques mois avec un certain talent pour assurer sa première position, dans la tête des médias et des acteurs de ce marché, mais aussi dans la tête d’un nombre croissant d’utilisateurs.

On voit que l’heure n’est toujours pas à la trêve entre les entreprises qui financent et développent les services et réseaux sociaux qu’utilisent un nombre toujours croissant d’utilisateurs, ce qui est d’autant plus regrettable que ce sont les utilisateurs qui pâtissent de cette bataille de territoires fermés: impossibilité d’échanger avec des personnes qui ne font pas partie du même réseau social que soi, nécessité de s’inscrire à un réseau pour en consulter les informations (certains offrent une ouverture limitée avec un accès aux profils publiques des utilisateurs, comme LinkedIn ou Facebook), et bien sûr la nécessité de passer d’un réseau à l’autre en continuant à recréer des logins, mots de passe, profils, relations… Sans compter que la propriété des données personnelles est dans la plupart des cas l’exclusivité des entreprises qui contrôlent les réseaux auxquels vous participez.

Les réactions militant pour une ouverture des réseaux et une construction ouverte du graphe social ne manquent donc pas d’ambition et de justification:

Wired propose de dynamiter tous les réseaux fermés comme ont été progressivement abandonnées les premières enclaves type AOL ou Compuserve, en rendant l’intégralité des informations libres et publiques sur le net; reste à savoir comment déclarer les relations entre personnes, seule brique actuellement indisponible dans une version « web » et « libre/publique/ouverte ».

Brad Fitzpartick de Google propose de développer une couche technique (une API) ouverte et indépendante, sur laquelle les différents réseaux existants ou futurs pourraient importer/exporter les données des utilisateurs, évitant ainsi à chacun de développer et maintenir une coûteuse base indépendante (mais pourtant potentiellement très rémunératrice…).

Alex Iskold de Read/Write Web, en réaction au billet de Brad Fitzpartick, propose le regroupement des utilisateurs au sein d’une organisation, avec comme double objectif d’assurer une prise de parole solide face aux entreprises, et de permettre de s’entendre sur des standards ouverts, afin de ne pas perdre de vue et d’obtenir ce que tout individu cherche: une expérience fluide, simple, et qui laisse l’utilisateur maître de ses données personnelles.


Tout ça pour dire qu’il faut que je crée mon profil sur Facebook: un profil fermé de plus et des heures de redéclaration de contacts…

nano-usines: transformer la valeur des biens

Dimanche 19 août 2007

Le concept de nano-usines renvoie à la possibilité de construire des objets complexes à partir des briques les plus petites accessibles: les atomes et les molécules. Ainsi, plutôt que d’obtenir un produit fini en assemblant différents composants déjà produits ailleurs, le concept de nano-production consiste à créer le produit fini en partant de « rien » ou presque: des atomes de carbone, de l’énergie, et d’innombrables manipulations invisibles.

Ce concept est en passe de devenir réalité, avec la mise à disposition prochaines de nano-fabriques accessibles aux particuliers, qui fonctionneraient certainement comme le montre ce film repéré par internetactu.net:

Vidéo : comment fonctionne une nano-usine ?

vidéo nano-usine - nano factory movie

vidéo nano-usine - nano factory movie

Ainsi, dans le film, on voit un personnage pousser le bouton d’une boite grise approximativement de la taille d’un micro-onde. Cela déclenche, au niveau moléculaire, la mise en route de la “nano-usine” qui va d’abord recueillir les molécules nécessaires à sa tâche. Puis, à un second niveau, elle assemble ces dernières en blocs de construction, puis connecte à son tour ces blocs ; etc. jusqu’à la fabrication du produit fini. A la fin du film, le personnage récupère dans la boîte un micro-ordinateur portable tout neuf, construit avec une précision moléculaire !

Ce type d’appareils remet en cause la notion de valeur telle qu’on la considère aujourd’hui, tant les modifications du processus de production sont importantes.

dématérialisation de la production

En effet, la nano-production ouvre en grand la possibilité de construire tout et n’importe quoi à partir d’éléments très basiques. Une fois les plans et schémas de conception d’un produit défini, il suffit de programmer l’usine en fonction de ce plan, et de l’alimenter en énergie et en briques élémentaires (qu’on pourrait très facilement obtenir en « démontant » des produits mis au rebut, avec des nano-usines chargées du recyclage).

Pour un exemple à la fois crédible et amusant des changements radicaux qu’offriraient (offriront?) de telles méthodes de production, je vous encourage à lire « Aube d’acier« , de Charles Stross. Dans ce livre, une économie type fin 19e / début 20e siècle est totalement bouleversée par l’arrivée d’une civilisation avancée, cette dernière distribuant des nano-usines à qui en fait la demande.

transformation de la notion de la valeur

On imagine facilement que si tout un chacun peut accéder à de telles nano-usines, les biens et produits finis n’ont donc plus réellement de valeur en eux-mêmes. Ce sont les plans de conception qui représentent la valeur. Le plan vaut plus que le produit fini.

Ainsi, Neal Stephenson, dans « L’Âge de diamant« , construit son intrigue autour de la perte des plans de conception d’un objet très important. Peu importe l’objet en lui-même; ce qui est critique, c’est de contrôler les plans de conception. D’ailleurs, même le diamant n’a plus de valeur, vu qu’il est aussi facile d’en synthétiser que d’imprimer un document (une simple masse de carbone organisée de façon structurée).

contrôle de la propriété intellectuelle & piratage

Toute la valeur résidant dans de l’immatériel (plans et éléments de propriété intellectuelle), le contrôle et le piratage de ces informations aura la plus grande importance. On peut facilement anticiper une accélération du piratage et du partage de telles informations, poussant d’autant plus les différents acteurs économiques à réfléchir à de nouveaux modèles économiques, qu’il s’agisse de coopération ou de coercition. A mon avis, les discussions actuelles autour des produits culturels seront risibles en comparaison.

  • Doit-on accepter la diffusion de nano-usines? Comment la société et l’économie pourra-t-elle se réorganiser?
  • Les anciens clivages disparaîtront certainement en grande partie… mais pour être remplacés par quoi? Est-il plus facile d’asseoir une domination sur des biens matériels ou sur des informations?
  • Comment sera contrôlé (ou libéré) l’accès aux ressources (éléments primaires + énergie)? Ouvertes à tous, sur le modèle de la distribution d’eau et d’électricité actuelle?

Sources:

  • La catégorie Nanotechnologie d’InternetActu.net: articles d’informations, éléments de réflexion et appel au débat citoyen autour des nanotechnologies.
  • Livres: « L’Âge de diamant« , de Neal Stephenson, et « Aube d’acier« , de Charles Stross, pour des visions amusantes et effrayantes des possibilités offertes par l’usage des nanotechnologies à grande échelle (voire grand public).

bande passante: enjeux et gestion de la pénurie

Dimanche 28 janvier 2007

Après l’explosion de la bulle internet, la bande passante a été une des valeurs qui a le plus perdu. Finies les autoroutes de l’information; le haut débit pour tous (réseaux & usages), ça sera pour plus tard. Aucun intérêt pour les liaisons Gigabits envisagées un temps, si ce n’est dans une optique de prouesse technologique ou de recherche scientifique.

Pourtant, depuis plusieurs mois, on voit déferler des usages réellement haut débit, qu’embrassent des millions d’internautes: explosion de la vidéo sur le web (YouTube ou Dailymotion), démarrage commercial pour la VoD, banalisation de la VoIP, et gonflement continu des échanges P2P (BitTorrent notamment). Tout ceci entraîne une augmentation et une densification de l’usage de bande passante par utilisateur. Augmentation car les débits réellement consommés lors de ces nouveaux usages sont plus élevés, et densification car les internautes (ou plutôt leurs machines) restent connectés de plus en plus longtemps.

Consommation de bande passante accrue: adaptation des opérateurs

Dès lors que le trafic mondial augmente, les capacités réseaux de tous les opérateurs sont sollicitées de façon croissante. La consommation de données de chaque internaute se rapproche de la bande passante théorique qui lui est accordée. Toutes choses égales par ailleurs, c’est-à-dire à capacités réseaux constantes, on tend donc vers une situation de congestion, vers une pénurie de bande passante.

Certes, les capacités réseaux continuent d’être améliorées, grâce à de nouvelles technologies (merci l’ADSL), ou grâce aux investissements des opérateurs de réseaux (poses de nouvelles fibres optiques sur et entre les différents backbones). Pourtant, les technologies comme l’ADSL ne font qu’améliorer la situation des consommateurs finaux, ce qui au passage dégrade la situation des opérateurs (si chaque consommateur a un tuyau plus gros, il faut donc que les opérateurs accroissent leurs capacités en conséquence). On voit ainsi que la seule situation pour éviter une congestion des réseaux et une pénurie de bande passante est l’augmentation des capacités réseaux par les opérateurs

…ou la limitation de la consommation des utilisateurs finaux. En effet, poser de nouvelles fibres optiques, tirer de nouveaux câbles sous-marins, tout cela a un coût élevé. Avant d’en arriver à de tels investissements, n’importe quel opérateur cherchera en premier lieu à optimiser le trafic sur son réseau, de façon à ce que la bande passante réellement consommée ne l’oblige pas à de nouveaux investissements.

Contrôler et limiter le trafic avant d’investir dans de nouveaux réseaux

Cas pratique: entre le milieu et la fin des années 1990, la société Cybercâble, filiale de la Lyonnaise des eaux (devenue Noos entre temps, fusionné avec Numéricable il y a peu) a posé ce qu’elle considérait comme « beaucoup » de câbles. Une fois les travaux finis, l’entreprise ouvre une des premières offres « haut débit illimité » (entre 1997 et 1998). Cependant, victime de son succès, Cybercâble doit faire face à l’engorgement de son réseau, les utilisateurs utilisent leur connexion et leurs programmes consommateurs de bande passante en continu. Il est impossible de poser de nouveaux câbles, cela coûterait trop cher et prendrait trop de temps. Dans un premier temps, l’entreprise décide de diviser la bande passante (par deux, par 4…). Colère et manifestations (je me souviens d’une amusante manifestation devant les locaux en plein centre de Strasbourg) d’utilisateurs obligent la lyonnaise à trouver une autre solution.

Et quelle solution? Les quotas de bande passante! Votre bande passante reste conforme à la promesse (ex: 512kbits par seconde), mais vous êtes limités dans la consommation totale mensuelle (ex: 3Go de données envoyées et/ou reçues). Attention aux étourdis, qui, ne surveillant pas leur consommation, se sont retrouvés avec des factures allant jusqu’à plusieurs milliers de francs. En effet, une fois le quota atteint, soit l’opérateur coupe… soit il compte le dépassement et vous envoie la facture.

Souvenirs d’une époque qu’on aimerait révolue dans cet article des archives de transfert.net (mai 2001)… mais dont on voit régulièrement des résurgences. Il suffit de regarder les offres de certains opérateurs, comme Noos Numéricable; qui a rétablit ses chers quotas en juin 2005 (voir l’article de 01net). Pour le moment, les quotas de bande passante (ascendante et/ou descendante) ne sont pas très courants en France, à croire que l’épisode de Cybercâble a refroidi bien des esprits. Cependant, dans d’autres pays (USA, Canada), ou dans d’autres contextes, les quotas de bande passante sont considérés très sérieusement.

Autre solution pour contrôler et limiter la consommation des utilisateurs: arrêter de considérer le net comme un réseau neutre, c’est-à-dire privilégier certains acteurs au détriment d’autres. Actuellement, les opérateurs laissent passer (relativement) librement et au même titre les paquets de données en provenance de mails d’utilisateurs, d’échanges P2P, ou d’éditeurs de contenus reconnus. Cependant, rien le les empêcheraient de privilégier les échanges de données offrant le meilleur rapport gain/coût. Une idée qui a déjà fait du chemin aux USA, comme le note jmplanche:

Sous la pression des opérateurs de télécoms américains, la chambre des représentants a voté à la majorité, un texte qui permettra (entre autre et au conditionnel) de facturer un droit de passage sur leurs réseaux, un peu à la tête du client :

En fonction du débit consommé (un peu trop de DailyMotion … paf les doigts)
En fonction des services utilisés (un peu trop de Google … pif la note !)

Nouveaux défis pour les éditeurs de services et de contenus

Dans un tel contexte, l’opérateur de réseaux a l’ascendant sur les éditeurs de contenus. Ces éditeurs de contenus, pour toucher les utilisateurs finaux, devront trouver des accords avec les opérateurs.

A moins de devenir eux-mêmes opérateurs de réseaux, comme… Google. Depuis quelques années, Google achète toutes les capacités réseaux excédentaires disponibles (fibre noire), sans pour autant acheter les réseaux eux-mêmes, car posséder tant de capacité réseaux leur ferait courir un risque de procès! Bon nombre d’analystes se demandent à quoi peuvent (ou pourront) servir toutes ces capacités réseaux, de même que les centres serveurs que Google construit, surtout aux Etats-Unis (le dernier à avoir été annoncé sera implanté en Caroline du Nord). Pour Robert Cringley, l’explication est limpide: Google veut devenir VOTRE internet. Derrière ce titre facile et provocateur se cache une analyse très pertinente, qui permettrait à un éditeur de services reconnu, disposant d’une base d’utilisateurs immense et fidèle, de devenir opérateur de réseaux et point de contact principal entre les consommateurs et le net:

It is becoming very obvious what will happen over the next two to three years. More and more of us will be downloading movies and television shows over the net and with that our usage patterns will change. Instead of using 1-3 gigabytes per month, as most broadband Internet users have in recent years, we’ll go to 1-3 gigabytes per DAY — a 30X increase that will place a huge backbone burden on ISPs. Those ISPs will be faced with the option of increasing their backbone connections by 30X, which would kill all profits, OR they could accept a peering arrangement with the local Google data center.

Au passage, cela cadre très bien avec la mission de Google: « Google a pour mission d’organiser à l’échelle mondiale les informations dans le but de les rendre accessibles et utiles à tous. »

Se rapprocher de la plus précieuse des ressources: les utilisateurs finaux

Un tel plan peut paraître tordu, je le trouve au contraire particulièrement bien vu. Les risques de congestion des réseaux vont croître dans un futur assez proche (à moins que les utilisateurs diminuent drastiquement leurs usages haut débit… rien que de l’écrire, ça me fait sourire). Dès lors, la pression sur les coûts des opérateurs sera critique. Pour maintenir leurs profits, les seules solutions à court terme seront de mettre en place de quotas ou des accords de distribution privilégiés, ce qui placera les éditeurs de services dans une position difficile, car ils ne seront plus en position de faire peser leurs services dans la négociation pour l’accès aux consommateurs.

Pour les éditeurs de services qui ont les moyens, négocier des accords de distribution deviendra une partie intégrante du modèle économique. Les plus gros évolueront comme Google, afin de se rapprocher des consommateurs, en intégrant la distribution à leurs activités; on assistera peut-être à une réelle fusion des contenus et des contenants, si chère à J6M lors de son passage chez Vivendi. Les petits éditeurs, les indépendants, les internautes, quant à eux, risquent d’être les grands perdants de cette « évolution »: trop petits, et trop atomisés, dans un nouvel espace qui imitera malheureusement les autres secteurs économiques plus classiques. On reverra peut-être fleurir les messages « Désolé, cet espace a dépassé son quota de trafic », pour cause de bande passante trop chère…

Alternative nécessaire: continuer à développer des réseaux

Espérons qu’avant d’en arriver là, des investissements conséquents en capacités réseaux soient réalisés, par des acteurs économiques privés et/ou publiques! Certains opérateurs, qui se sont spécialisés dans le négoce de bande passante, ainsi que ceux qui n’ont pas arrêté de poser des câbles avec l’explosion de la bulle auront eu le nez creux. En continuant d’accroître les capacités réseaux, on évitera peut-être le retour des quotas et l’apparition d’autres joyeusetés plus communes dans d’autres secteurs, comme la téléphonie mobile. Cela nous évitera peut-être la situation décrite dans EPIC 2014 (ou la mise à jour 2015), une animation prospective sur la concentration des acteurs du net et du web, réalisée en novembre 2004, qui se fait depuis allègrement dépasser par la réalité.

The Search – John Battelle

Dimanche 8 janvier 2006

The Search: How Google and Its Rivals Rewrote the Rules of Business and Transformed Our CultureJohn Battelle, co-fondateur de Wired, présente l’univers du search, des moteurs de recherche et des liens sponsorisés dans son livre: The Search: How Google and Its Rivals Rewrote the Rules of Business and Transformed Our Culture.

Qu’est-ce que le search? Comment fonctionnent les moteurs de recherche? Quels en sont les enjeux, les grandes découvertes, et les nouvelles perspectives? Une grande part du livre est consacrée à l’histoire déjà riche des moteurs de recherche et permet d’avoir une perspective historique globale, à la fois sur les moteurs de recherche et sur leur monétisation.

Sur les moteurs de recherche: de Gopher à Google, en passant par Altavista, John Battelle explique le fonctionnement général des moteurs de recherche, les différents concepts permettant de trouver les pages sur le net, les indexer, et les trier de façon pertinente. Sont également évoquées les problématiques techniques, notamment les (immenses) ressources nécessaires à un moteur de recherche de qualité, capable d’indexer et de trier une gigantesque quantité de documents, tout en assurant une fraîcheur de l’information suffisante aux nombreux internautes effectuant leurs recherches en ligne.

L’auteur montre également que malgré les progrès accomplis, les moteurs de recherche restent encore très limités: une grande majorité des utilisateurs trouvent que les moteurs répondent mal à leurs requêtes, et les contenus indexés se limitent essentiellement au texte (un peu d’images, et à peine de la vidéo et de l’audio). Il y a donc encore énormément de potentiel de développement pour les acteurs existants et pour de nouveaux entrants.

Sur la monétisation: John Battelle présente un aspect moins connu du monde des moteurs de recherche: leur monétisation et la génération de revenus, afin de supporter les coûts faramineux, et bien sûr d’en faire des entreprises profitables. Ainsi, après avoir évoqué les modèles traditionnels de publicité et de référencement payant, l’auteur présente la genèse et le développement du modèle du CPC avec les liens sponsorisés. De GoTo à Google, il présente les différentes stratégies qui ont permis d’affiner et d’imposer ce modèle comme le facteur de succès incontournable des moteurs de recherche (>99% des revenus de Google proviennent de ces liens sponsorisés).

Le succès et l’excellente performance des liens sponsorisés s’expliquent par le fait que la publicité est ciblée en fonction de l’intention de l’utilisateur. L’utilisateur fournit un ensemble de mots-clés qui décrivent plus ou moins bien ce qu’il cherche, et donc ce qu’il a envie d’obtenir; charge au moteur de comprendre cette intention et d’afficher des publicités correspondant à ce contexte. Par exemple, si une personne tape “billet avion paris madrid”, le moteur proposera non seulement des publicités pour des voyagistes (moyennement intéressantes), mais surtout des publicités ciblées pour des offres de billets d’avion de Paris à Madrid (très intéressantes et pertinentes). Cette offre publicitaire est légitime et normale dans le contexte décrit par la requête de l’utilisateur, elle répond parfaitement à son attente: il cliquera dessus.

Ce concept de publicité contextualisée et de publicité à la performance a été inventé par Bill Gross, fondateur d’IdeaLabs, dont a été issu GoTo, qui devint Overture, avant d’être racheté en 2003 par Yahoo! pour 1,63 milliard de dollars et renommé en Yahoo! Search Marketing. Google n’a donc pas inventé ce concept, bien qu’il l’ait incroyablement développé, et a préféré s’entendre avec Yahoo! en lui cédant 2,7 millions d’actions avant son introduction en bourse afin de clore les poursuites et de continuer à utiliser la juteuse technologie des liens sponsorisés (l’introduction en bourse de Google s’est faite à environ 106$ l’action).

John Battelle aborde également l’aventure Google en détail, mais sans se restreindre à une simple énumération des succès de l’entreprise: il explique en détail le contexte dans lequel Google est né, comment Larry Page et Sergey Brin ont fait naître puis développé le moteur de recherche, avant de passer à une stratégie plus “big company” en accueillant Eric Schmidt, afin de transformer ce projet de moteur de recherche en entreprise à succès qui gagne des milliards, tout en affinant sans cesse le moteur et en développant de nouveaux services.

Enfin, John Battelle fait quelques projections afin d’imaginer comment le search peut se développer sur d’autres supports. Le concept de recherche (et de publicité contextualisée…) peut se déployer partout, car il s’agit avant tout d’une fonctionnalité permettant d’atteindre de l’information, à l’image du sommaire d’un livre, et non d’un service en soi.

Pour illustrer les possibilités futures, l’auteur prend l’exemple de la télévision: un jeune père de famille est en train de consulter l’EPG de son fournisseur de télévision afin de trouver les émissions qui peuvent l’intéresser et l’aider dans ses nouvelles responsabilités. Pour ce faire, il saisit les mots-clés “poussette” ou “couche” dans le moteur de recherche intégré. L’affichage de publicités pour ces produits (ou pour des programmes présentant ces produits) est à la fois logique, utile pour l’utilisateur, et efficace pour l’annonceur, le support, et le fournisseur de technologie de publicité.

Ces évolutions technologiques et les changements d’usage qu’elles provoquent sur les consommateurs représentent de belles perspectives pour moteurs de recherche, et un grand défi pour l’industrie de la publicité, qui doit se réinventer afin d’intégrer cette nouvelle donne.

The Search: How Google and Its Rivals Rewrote the Rules of Business and Transformed Our Culture, par John Battelle: un livre captivant sur un univers que tout internaute côtoie au quotidien sans forcément en comprendre toutes les problématiques ni tous les enjeux.

Pour acheter ce livre sur amazon.fr, cliquez ici: The Search: How Google and Its Rivals Rewrote the Rules of Business and Transformed Our Culture.

services en ligne: prix, coûts et valeur perçue

Dimanche 11 septembre 2005

Tous les ans, quand il s’agit de renouveler mes noms de domaines et hébergements en ligne, je me fais les mêmes réflexions : pourquoi est-ce que je paie? Et surtout, pourquoi est-ce que je paie ces montants?

Les noms de domaine étant purement dématérialisés, et les coûts techniques limités (environ $0,30 en 1999), comment expliquer qu’on paie entre 6 et 14 euros par an? Laurent Chemla, un des fondateurs de Gandi, attaquait de façon encore plus directe dans son texte « Confessions d’un voleur » :

« Je suis un voleur. Je vends des noms de domaine. Je gagne beaucoup d’argent en vendant à un public qui n’y comprend rien une simple manipulation informatique qui consiste à ajouter une ligne dans une base de données. Et je vais gagner bien davantage encore quand, la pénurie artificielle ayant atteint son but, le commerce mondial décidera d’ouvrir quelques nouveaux TLD qui attireront tous ceux qui ont raté le virage du.com et qui ne voudront pas rater le virage suivant. »

Cependant, dans son analyse, il ne se place que du côté de la valeur technique des noms de domaine et des coûts associés. On peut au passage voir un parallèle avec le paradoxe de l’eau et du diamant :

Au sujet de la distinction entre valeur d’échange et valeur d’usage, [Adam] Smith constate : « Il n’y a rien de plus utile que l’eau, mais elle ne peut presque rien acheter; à peine y a-t-il moyen de rien avoir en échange. Un diamant, au contraire, n’a presque aucune valeur quant à l’usage, mais on trouvera fréquemment à l’échanger contre une très grande quantité d’autres marchandises. »

La réponse tient à l’abondance relative de l’eau par rapport au diamant, et à la difficulté d’extraction du diamant bien plus grande que celle de l’eau : un désir d’eau pourra être satisfait avec peu d’argent, un désir de diamant coûtera très cher.

Le prix de vente d’un objet dépend du désir de son acheteur et de la difficulté qu’il a à se le procurer. Peu importe le travail qu’il a fallu au vendeur d’un produit ou service pour le fabriquer ou l’acheter.

Les utilisateurs des noms de domaines voient donc essentiellement le côté utile : un nom de domaine leur donne de la visibilité en ligne, leur permet de créer un site web et de lui donner une adresse, etc. Ils jugent la valeur d’utilité que leur apporte ce service, et sont donc prêts à payer une somme en conséquence, même si cette somme dépasse de beaucoup les coûts.

services en ligne et marges générées

On se retrouve dans une situation où les marges peuvent être particulièrement importantes, notamment dans les noms de domaine, mais aussi dans un grand nombre de services en ligne, produits essentiellement dématérialisés. On peut donc légitimement penser qu’il s’agit là d’un vivier de bonnes opportunités!

Bien entendu, il est évident que la situation n’est pas aussi simple, surtout après l’explosion de la bulle: les entreprises ont bien compris qu’il ne suffit pas de développer un service un minimum utile, puis de facturer aux consommateurs… Le marché évolue, et tant qu’il y a de fortes opportunités, il y a de nouveaux acteurs qui entrent sur ce marché. De plus, les acteurs, nouveaux comme anciens, ne se contentent pas de dupliquer ce qui existe déjà, mais proposent des produits ou services toujours plus évolués.

Illustration avec les FAI en France: Jusqu’à l’ouverture de l’ADSL à la concurrence (2002), on avait un marché de l’accès à internet relativement structuré, avec des marges élevées, même si les entreprises n’étaient pas forcément rentables. Or, un des acteurs (Free) a pu déstabiliser le marché en décidant de baisser ses prix au plus près de ses coûts, diminuant ainsi sa marge, mais cela lui a permis de conquérir des abonnés en masse. En parallèle, il a également développer la valeur de ses produits, en innovant à coup de freebox, d’hébergement de pages persos plus large et plus complet, de VoIP, etc.

Cette double évolution -baisse des prix et amélioration technologique- a obligé tous les acteurs du marché à se remettre en question : soit en innovant et en offrant des services avec une valeur perçue plus élevée : VoIP, stockage en ligne, TV par ADSL, etc. (Neuf a été un des plus réactifs et le seul qui semble actuellement capable de rivaliser avec la surenchère technologique de Free), soit en baissant les prix pour s’aligner (la grande majorité des autres acteurs).

Dans les noms de domaine, on a également traversé ces différentes phases : Gandi était le moins cher, à l’époque où il y avait peu d’acteurs, surtout français, et où le marché mondial était encore fortement contrôlé par le couple Verisign / Networks Solutions; aujourd’hui, des concurrents comme OVH ou 1and1 ont à leur tour grandement bousculé le marché en baissant leurs prix et en augmentant les services offerts; résultat : Gandi est maintenant à son tour dépositionné.

Certes, les blocages au sein de l’équipe dirigeante historique peuvent expliquer en grande partie cette non-évolution de l’offre. Le rachat de Gandi par Stephan Ramoin et son équipe débouchera-t-il sur une baisse des prix, une évolution de l’offre de services, ou bien les deux?

Quoi qu’il en soit, je continue de payer pour le renouvellement de mes nom de domaines, et je suis toujours chez Gandi, car le service qui m’est rendu me satisfait pleinement, et je trouve que son utilité vaut largement les 14,35 € TTC / an! :-)

Biometrie – science (fiction)

Jeudi 8 juillet 2004

Sagem vient d’être retenu à l’issue d’un appel d’offres lancé par le service des douanes australiennes pour être son partenaire stratégique dans le développement de SmartGate, un nouveau système automatique de contrôle des frontières.
Fondé sur la technologie biométrique de reconnaissance faciale (une licence de Cognitec Systems), le système pilote SmartGate sera appliqué dans plusieurs aéroports australiens et procédera au contrôle des voyageurs par la comparaison de leur analyse faciale avec les données biométriques stockées dans leur passeport.
En matière de biométrie, l’analyse faciale a été reconnue par l’OACI (Organisation de l’Aviation Civile Internationale), qui l’instituait en 2003 comme biométrie principale pour le contrôle des frontières.
(source: Atelier groupe BNP Paribas)

L’analyse faciale, retenue comme moyen de contrôle biométrique principale par l’organisme internaional en charge de l’aviation civile. En complément d’autres méthodes, bien entendu. Quand la NFL avait testé un système de reconnaissance faciale dans les stades pendant certains matchs de football américain, on avait entendu un grand nombre de personnes s’offusquer de ces méthodes, etc. De même quand les USA ont commencé à ficher tout le monde à l’entrée dans leur pays (encore maintenant).

Maintenant, contre qui élever la voix? Et pour quoi? Après tout, personne ne va s’arrêter de voyager parce que les empreintes biométriques sont prises et vérifiées; même si ça m’a déjà traversé l’esprit de repousser un voyage aux USA à cause de ça… Avant de me rendre compte ç quel point c’était idiot. On ne s’arrête pas de voyager.

Le problème n’est pas la mesure de contrôle en tant que telle, mais le fait que ces empreintes soient archivées dans une base de données informatisée. Les bases de données informatisées, c’est bien, ça fait gagner du temps, et de l’argent, mais ça a quand même deux inconvénients majeurs:
-> ça se pirate
-> ça permet de faire des recoupements entre des fichiers (très) différents; exemple: croiser ce genre d’informations avec un fichier bancaire et un fichier d’assurance maladie.

Certes, les croisements de fichiers sont interdits (en France en tout cas), mais étant légèrement paranoïaque, àa me gène qu’on puisse ajouter des données très personnelles comme mes empreintes à des fichiers contenant déjà beaucoup d’informations personnelles. Et surtout, ça me gène qu’un petit plaisantin puisse obtenir ces informations et les détourne; après le vol de numéro de CB, le vol d’empreinte biométrique et le vol d’identité..?

Je fais de la science-fiction? De la science (fiction)? Ou tout simplement un peu de prospective sur la base d’innovations techniques récentes? Quoi qu’il en soit, ça n’est pas si évident que ça d’arriver à prouver son identité suite à un détournement d’informations; c’est faisable, mais bonjour le parcours du combattant administratif!

RFID Strikes Back!

Jeudi 6 mai 2004

Ca faisait un petit moment que je n’avais rien lu/entendu sur les marqueurs RFID. Et aujourd’hui, un petit article dans le Journal Du Net, qui nous apprend que:
– Wal-Mart, géant de la distribution aux USA(*), se fixe un objectif ambitieux: “d’ici le premier janvier 2005, les cent plus importants partenaires commerciaux de la chaîne de magasins devront fournir des produits équipés de marqueurs RFID“,
– malgré tout, les marqueurs RFID ne sont pas si simples que ça à déployer: “Pour le moment, les résultats sont mitigés et le planning incertain.
A lire!

Petit rappel, pour plus d’explications sur les étiquettes RFID (Radio Frequency IDentification):
Dans un soucis de suivi constant des produits dans les circuits de distribution, les industriels et les spécialistes en gestion de production ont successivement mis en place de nouvelles solutions. Cela permet bien évidemment de gagner du temps et de l’argent. Après les kanbans, près différents systèmes d’échanges de données informatisées clients/fournisseurs, voici venir les étiquettes intelligentes!
Le principe? Permettre une identification des produits (ou des lots de produits parce que c’est encore cher ces petites bêtes là) dans la chaîne de distribution, pour améliorer les processus d’approvisionnements, suivre les produits dans les magasins. Accessoirement, cela doit également permettre de limiter le vol (parmi les premières entreprises impliquées: Gillette; les lames pour rasoirs étant le produit le plus volé dans les super/hypermarchés).
Ca a l’air très prometteur à première vue, sauf qu’on ne sait pas exactement quelle est la portée ou la durée de vie de tels dispositifs. Bien entendu, les industriels assurent que les étiquettes seront désactivées lors du passage en caisse, voire qu’elles ne seront dans un premier temps que sur les caisses et palettes, et pas sur les emballages individuels; quoi que j’en doute, notamment pour les lames de rasoir.
Quoi qu’il en soit, il reste encore un peu de temps avant de voir débarquer ces “étiquettes intelligentes” en masse, tous les problèmes étant loin d’être réglés: conflit avec certains matériaux comme l’aluminium, qui gène les ondes radio; prix des étiquettes, encore proche d’un euro l’”étiquette”; nécessité d’équiper les producteurs, distributeurs et magasins en lecteurs adéquats.

Plus d’informations:
-> dans l’excellent dossier de (feu) transfert.net: Les étiquettes intelligentes
(dossier naturellement plutôt pessimiste)
-> dans un dossier du Journal Du Net consacréà la gestion de la chaîne logistique
(dossier naturellement plutôt optimiste)

* géant qui distribue des cartouches d’armes à feu (et des armes) en vente libre mais qui a retiré certains jeux vidéo de ses rayons car jugés trop violents…