Les nouvelles classes moyennes – Dominique Goux et Eric Maurin

16 juin 2012

les nouvelles classes moyennes - Dominique Goux et Eric Maurin Contrepoint du livre « Les classes moyennes à la dérive » de Louis Chauvel, Les nouvelles classes moyennes de Dominique Goux et Eric Maurin présente une situation optimiste, ou tout du moins stable pour les catégories de population situées entre les deux extrêmes de l’échelle sociale. Difficiles à définir, les auteurs tentent une première approche en traçant un périmètre, au travers de trois visages des classes moyennes:

  • acteurs pugnaces de la compétition sociale
  • centre de gravité de la société
  • arbitres politiques

 

Le périmètre défini par ces trois visages permet de mieux comprendre de quels groupes les auteurs parlent, et insiste sur l’importance qu’ils confèrent aux classes moyennes pour l’ensemble de la société.

Ces classes moyennes sont également définies par leur position centrale dans les flux de personnes entre les différentes strates de l’échelle sociale: à la fois lieu de transition, de développement mais aussi de dépérissement, et réservoir pour les extrêmes de l’échelle. Les classes moyennes sont dynamiques, tant en leur sein – entre les classes moyennes inférieures et supérieures, entre les cadres et les employés – que dans leurs rapports avec les classes supérieures et inférieures.

Ainsi, les auteurs mesurent à la fois un accroissement des échanges: « deux fois plus intenses aujourd’hui qu’ils ne l’étaient il y a seulement vingt ans » et de la population concernée: « au cours des dernières décennies, la proportion de Français qui se déclarent appartenir aux classes moyennes a d’ailleurs été multiplié par deux » (page 12). Pour Dominique Goux et Franck Maurin, les classes moyennes se sont développées, quantitativement et qualitativement.

En effet, comme l’indique la définition de l’historien Serge Bertsein citée page 17, les classes moyennes se caractérisent par « une philosophie sociale où le progrès résulterait non d’une dialectique de lutte des classes, mais de possibilités de promotion« . La dynamique – quelle soit réelle ou simple potentialité – est donc clé.

Cette dynamique de promotion a-t-elle été réelle et bénéfique? Les classes moyennes sont-elles encore en progression? Les auteurs répondent positivement, bien que la réalité ne soit pas si positive que cela. Certes, les classes moyennes se sont développées, mais le sentiment de (peur du) déclassement est là. Une explication intéressante avancée par Dominique Goux et Franck Maurin tient au fait de l’évolution quantitative des différentes catégories, aussi bien dans l’ensemble de la société qu’au sein des classes moyennes. Par exemple, le salariat intermédiaire n’a pas reculé dans sa position relative aux classes supérieures. « Simplement, du fait de l’expansion quantitative des cadres au détriment des ouvriers, il se place juste au-dessus de la médiane de la distribution des salaires, plutôt que juste au-dessous du premier quart, occupant bien plus précisément qu’autrefois le point d’équilibre du salariat. Les dernières décennies n’ont pas été celles d’une régression des catégories intermédiaires dans la société, mais celles d’un rééquilibrage général de l’ensemble de la structure sociale autour de ce groupe de plus en plus vaste et central. » (page 46)

Cette massification des classes moyennes pose également des problèmes d’ordre qualitatifs: les situations se durcissent car les investissements consentis par les familles pour progresser, ou tout simplement pour se maintenir, doivent être croissants; tenir le rang dans les compétitions scolaire, géographique (entre quartiers riches/pauvres) et socio-économique en général n’a pu se faire qu’en engloutissant des sommes, efforts et sacrifices toujours plus grands, au travers de stratégies de plus en plus complexes (et épuisantes/incertaines dans la durée).

Pour Dominique Goux et Eric Maurin, la société française n’est pas encore bloquée, et une dynamique sociale positive peut être lancée. Je retiens principalement leur idée d’un « retour à des programmes moins explicitement ciblés sur des publics particuliers, l’action de l’Etat devant créer de la continuité et de la mobilité dans la société plutôt que des effets de seuil, des clivages et des statuts. » En effet, les aides ciblées sur des groupes ou géographies précis, même quand elles ne sont pas inefficaces, marquent leurs bénéficiaires comme « privilégiés » dans les yeux des autres et contribue à « accroître encore le sentiment d’injustice à l’égard des dispositifs de redistribution« . (pages 116 et 117)

Ce constat de la difficulté croissante va plutôt dans le sens de Louis Chauvel: qu’il soit réel ou simplement perçu, le sentiment de déclassement est là, et mine les esprits – la perception étant la réalité.

Pour acheter Les nouvelles classes moyennes de Dominique Goux et Eric Maurin sur amazon.fr, cliquez ici: Les nouvelles classes moyennes.

Pour aller plus loin, il est intéressant de consulter l’article Classes moyennes : peurs infondées ou réelles difficultés? de Louis Chauvel sur le site de l’OFCE, dans lequel il présente sa note Les raisons de la peur : Les classes moyennes sont-elles protégées de la crise ? Il reprend les deux thèses opposées – celle de Dominique Goux et Eric Maurin, positive, et la sienne, pessimiste – et insiste sur une dégradation de la situation relative des classes moyennes, dégradation illustrée par le graphique Rapport entre le salaire annuel à temps plein net des professions intermédiaires et celui des ouvriers/ouvrières. L’appauvrissement relatif de membres des classes moyennes par rapports aux classes inférieures est clair: le rapport entre les salaires de ces deux catégories chute de plus de 2 durant les Trente Glorieuses à ~1,5 depuis les années 2000. Comme Louis Chauvel le précise:

Le niveau de vie relatif des classes moyennes intermédiaires a connu son apogée à la fin des Trente glorieuses: depuis la fin de cet âge d’or, la stagnation des salaires et des revenus, la réduction des écarts salariaux avec les classes populaires en emploi (voir le graphique), le risque inédit de chômage, l’expansion numérique des diplômes située très au-delà des places disponibles dans les professions intermédiaires, le déclassement scolaire qui s’ensuit, etc. ont été autant de dimensions problématiques analysées dans cette note soulignant l’existence d’un malaise bien réel.

Lutter contre la pauvreté (II) La politique de l’autonomie – Esther Duflo

6 mai 2010

Lutter contre la pauvreté (II) La politique de l'autonomie - Esther Duflo Deuxième partie du recueil Lutter contre la pauvreté d’Esther Duflo, La politique de l’autonomie s’attache à l’étude de la microfinance, puis de la gouvernance et de la corruption. En effet, pour lutter contre la pauvreté, développer l’éducation et la santé ne suffit pas, d’autant plus que comme l’auteur l’a montré dans Le développement humain, trouver les bonnes solutions et affecter correctement les moyens nécessite d’étudier l’ensemble du contexte.

Ainsi, la microfinance est généralement vu comme une source de financement pleine de promesse, qui ouvre aux plus pauvres l’accès à des fonds qu’ils ne pourraient pas atteindre autrement, les privant de ressources pour développer leurs activités économiques, mais aussi leur permettrait d’investir dans l’éducation ou la santé de leurs familles.

Une fois dépassé le débat politique et quasi-philosophique sur le bien-fondé de la microfinance dans son ensemble et du micro-crédit en particulier, on voit clairement que la principale vertu de ce mode d’accès au crédit est justement sa disponibilité. Les taux pratiqués ont beau être excessivement élevés (jusqu’à 5% par mois, >80% par an), ce mode de financement permet tout de même aux pauvres d’emprunter de l’argent pour leurs activités économiques, argent qu’ils n’auraient pu obtenir via les banques classiques, le seul autre recours étant les usuriers « classiques ».

Bien que la microfinance ne soit pas la solution universelle à tous les maux – impact très limité sur la consommation et sur les ménages non-entrepreneurs, de même que sur tout autre indicateur social – , il est intéressant de parcourir les différents exemples cités par Duflo. Les exemples en Afrique, en Inde et au Mexique montrent à la fois les particularités de chaque situation, mais aussi le besoin d’accès au financement pour une fraction non négligeable de la population qui ne peut recourir aux emprunts classiques.

Dans son souci méthodologique de mener et d’analyser des expérimentations aléatoires, elle a réussi à identifier les principaux facteurs de succès de la microfinance: prêter aux femmes, plus exactement à des groupes de femmes solidaires (au sens légal du terme), qui doivent se réunir de façon régulière pour discuter avec l’organisme de microfinance et rembourser l’échéance que le groupe doit; toutes les semaines en général. Grâce à ce mode de fonctionnement, et malgré les taux d’intérêt élevés, l’attrait pour les microcrédits ne se dément pas et les taux de remboursement sont très élevés (de 80% à 97%).

L’extension de ces recettes aux autres domaines financiers, notamment l’épargne et l’assurance, ne semble pas fonctionner facilement, pour deux grandes raisons: en premier lieu, cela demande une projection dans le futur délicate: ai-je un intérêt à ne pas dépenser le peu d’argent que j’ai maintenant pour épargner et en dépenser plus plus tard? A quoi bon payer un service d’assurance si je suis en bonne santé ou si mes champs sont productifs en ce moment? On se heurte à à l’incohérence temporelle, également évoquée dans Le développement humain à propos de la vaccination des enfants (p85-86):

Nous savons, depuis Hume et, plus récemment grâce aux travaux de psychologues, que l’être humain pense le présent et le futur de manière très différente. Nous avons tendance à prendre de façon impulsive les décisions qui engagent le présent, alors que nous appréhendons l’avenir sur un mode plus rationnel. [...]

Un coût ou une gêne que l’on doit supporter aujourd’hui nous paraît lourd, alors que le même coût payé demain nous paraît faible par rapport aux bénéfices que nous en tirerons. Quand nous pensons à faire vacciner notre enfant ou à toute autre décision qui pourrait être différée [...], nous avons donc l’illusion que cet investissement est particulièrement élevé aujourd’hui, mais que nous serons beaucoup plus libres de le réaliser le mois prochain. Or, quand demain arrive, le futur devient le présent, et l’effort demandé semble de nouveau important. Ainsi, les décisions peuvent être repoussées en permanence, jusqu’à ce qu’il soit trop tard.

Au passage, c’est une bonne explication à la procrastination dont tout un chacun peut souffrir, et on voit que ce ressort psychologique peut être un frein important à l’épargne ou à l’assurance pour des personnes fortement contraintes.

Une deuxième grande raison explique en partie cet échec de l’épargne et de l’assurance dans les pays pauvres: le manque d’informations prodiguées par le gouvernement, et la faible confiance dans ce dernier quand il est sujet à la corruption. Esther Duflo s’attache à montrer comment identifier et mesurer la corruption, phénomène peu visible en soi, ainsi qu’à montrer des actions possibles pour la combattre, qu’il s’agisse d’actions par le haut (contrôles par les instances étatiques) ou par le bas (contrôles par la population sujette aux problèmes posés par la corruption). Cependant, malgré des initiatives nombreuses et variées, on voit que « la corruption a tendance à apparaître naturellement lorsqu’une société tente de corriger le marché en répartissant différemment les ressources, et le contrôle local n’est pas une solution miracle. » (p104).

La meilleure façon de limiter la corruption reste de permettre aux administrés d’influencer le choix des fonctionnaires, au travers de décisions informées; les pauvres ne sont pas plus idiots que les autres, mais manquent souvent des éléments permettant de juger la performance des actions menées et de la possibilité de changer. Dans les expérimentations compilées par Esther Duflo, on voit qu’un vrai succès, dont la preuve a été faite, influence les votes bien plus que les discours généraux et creux.

Lutter contre la pauvreté est une excellente analyse des problèmes d’éducation, de santé, de finance et de gouvernance dont souffrent les personnes les plus pauvres. Surtout, le recours à de nombreuses expérimentations aléatoires sur le terrain permet de mieux comprendre la réalité de ces problèmes généralement traités de façon macro et floue, et d’identifier les solutions qui marchent, afin de reproduire, enrichir et multiplier les expériences réussies, pour une amélioration concrète en matière de lutte contre la pauvreté.

Pour acheter ce livre sur amazon.fr, cliquez ici: Lutter contre la pauvreté : Tome 2, La politique de l’autonomie.

Pour aller plus loin:

Lutter contre la pauvreté (I) Le développement humain – Esther Duflo

4 mai 2010

Lutter contre la pauvreté (I) Le développement humain - Esther DufloEsther Duflo, professeur en économie du développement au MIT, a été récompensée par la John Bates Clark Medal 2010 fin avril. Ses travaux portent sur l’analyse empirique du développement économique, afin d’identifier les moyens concrètement efficaces dans la lutte contre la pauvreté. Dans Le développement humain et La politique de l’autonomie (issus de leçons données au Collège de France en janvier 2009), Duflo a rassemblé des travaux réalisés ces dernières années dans les parties du monde les plus touchées par la pauvreté, et a tâché d’identifier les ressorts et les spécificités de l’efficacité ou l’inefficacité de chaque type de politique.

Le développement humain se concentre sur l’éducation et la santé. Au-delà de l’impressionnant travail de collecte, d’analyse et de regroupements de nombreuses études réalisées ces dernières années, dont certaines sont encore en cours, l’aspect le plus intéressant de ce livre est de montrer à quel point il est nécessaire de dépasser l’aspect général béni oui oui « il faut que les enfants aillent à l’école » ou « la santé, c’est important » et s’attacher aux raisons des échecs (et des rares succès) des politiques menées.

Ainsi, dans le domaine de l’éducation, l’important n’est pas d’avoir un engagement politique fort des dirigeants nationaux, mais bien d’allouer des moyens, et de les allouer correctement. Par exemple, certains travaux montrent que ce n’est pas en affectant plus de professeurs qu’on obtiendra les meilleurs résultats, mais plutôt en changeant la façon dont les professeurs abordent leur travail: instruire le plus grand nombre plutôt que d’essayer de générer une élite et écarter les autres. Certes, l’exemple présenté ainsi peut paraître réducteur, aussi, je vous encourage à lire ce livre, dont les différents exemples montrent à quel point les études mettant en œuvre des expérimentations aléatoires sont critiques pour mesurer clairement les différents facteurs d’un phénomène (via des échantillons statistiques définis aléatoirement et comportant un groupe témoin et un groupe impacté).

Autre étude intéressante: comment améliorer le taux de présence des professeurs dans les classes? Une expérimentation menée par Seva Mandir, une ONG du Rajasthan, a consisté à distribuer aux enseignants des appareils photos qui horodatent les clichés, et qui leurs permet de toucher une prime quand l’assiduité est élevée. Non seulement l’assiduité a augmenté, mais surtout, et à la surprise de l’ONG, les enseignants se sont révélés satisfaits de ce programme: au-delà de l’incitation financière, l’instauration d’une règle claire et partageable leur a permis de se dégager des autres tâches qu’on leur affectait dans leurs villages, qui les empêchaient d’enseigner plus régulièrement. L’absentéisme des enseignants ne provient donc pas que d’un manque de motivation, mais aussi d’un problème de définition des priorités.

Dans le domaine de la santé, une expérience similaire a été menée pour améliorer le taux de présence des infirmières dans les centres de soin: on a mis en place des appareils de type « pointeuses ». Cette expérience a totalement échouée, car, contrairement à l’expérience avec les enseignants, il s’agissait dans ce cas d’un système plus centralisé et moins contrôlé. L’écart entre ces deux études montrent également à quel point le diable est dans les détails, et qu’il est difficile de tirer de grands enseignements de la part d’expérimentations aléatoires, car tous les éléments doivent être identifiés et pris en compte.

En conclusion, on voit clairement qu’il est possible d’améliorer l’éducation et la santé dans les pays pauvres, mais qu’une grande partie des problèmes sont issus de problèmes de gouvernance: au niveau national / centralisé, les programmes sont trop vagues, peu structurés, et ne peuvent donc pas s’adapter aux spécificités des domaines et des géographies qu’ils sont censés couvrir. Les systèmes centralisés ont tendance à simplement allouer plus de ressources (financières ou humaines) à ce qu’ils font déjà, alors que les ONG sont génératrices d’innovations qui, si elles ne peuvent pas forcément êtres répliquées partout, ont le mérite de fonctionner à petite échelle, et surtout, de montrer ce qui peut fonctionner. Les éléments rassemblés dans ce livre permettent d’éclairer la réflexion sur les objectifs et les moyens à donner aux systèmes éducatif et de santé, intimement mêlés.

La suite dans: Lutter contre la pauvreté (II) La politique de l’autonomie

Pour acheter ce livre sur amazon.fr, cliquez ici: Lutter contre la pauvreté : Tome 1, Le développement humain

La nouvelle critique sociale – la république des idées

3 avril 2010

la nouvelle critique sociale - la république des idées Recueil de textes pour la plupart publiés dans le journal Le Monde entre novembre 2005 et avril 2006, la nouvelle critique sociale (la république des idées) regroupe une dizaine d’auteurs. L’idée est de présenter de nouvelles lectures pour analyser la société (française), car apparemment, les prismes classiques ne parviennent plus à décrire ni les situations actuelles économique, sociale, démographique… ni les évolutions.

En effet, dans l’introduction de Pierre Rosanvallon et Thierry Pech, ou dans le texte d’Eric Maurin sur les nouvelles précarités, on se rend bien compte que les analyses classiques affichent des chiffres et des conclusions en décalage avec la perception qu’ont l’opinion publique ou les analystes des phénomènes sociaux. Par exemple, si l’évolution de la structure socioprofessionnelle des emplois a connu une évolution continue sur la tendance précédente (principalement en suivant la tertiarisation de l’économie), c’est dans la montée des contrats précaires qu’il faut utiliser pour montrer l’accroissement des inégalités de statut. Ce phénomène, ajouté à une évolution à la baisse de la taille des structures économiques, fait qu’il est aujourd’hui plus difficile d’être ouvrier ou employé quand on est en contrat temporaire dans une structure de 20 personnes, par rapport aux postes occupés par la génération précédente dans des environnements plus stables et plus structurés.

Autre analyse éclairante, celle de Laurent Davezies et Pierre Veltz sur les métamorphoses du territoire, qui font apparaître de nouvelles inégalités, principalement entre les habitants des centres villes ou hypercentres d’agglomérations et les habitants de banlieue ou grande banlieue. Le mouvement d’urbanisation qui n’a fait que s’amplifier ces dernières décennies, pose le problème des transports péri/interurbains, de façon plus cruciale que ces problèmes augmentent plus vite que la population. Au passage, on note quelques informations intéressantes, notamment le fait qu’en 2006, un Français sur deux habite dans une commune de moins de 100 000 habitants, mais pour l’essentiel (deux tiers) en milieu urbain et périurbain! (source: INSEE)

Philippe Askenazy s’attaque quant à lui à l’impact des nouvelles formes de pénibilité sur les conditions de travail. Au-delà du constat des conditions de travail qui se dégradent, la comparaison avec les autres pays développés est le point le plus inquiétant: la France est le seul pays à connaître un accroissement des rythmes de travail et des accidents de travail impliquant un handicap permanent. De plus, la baisse des accidents de travail est plus faible qu’en Allemagne, Italie, ou que la moyenne de l’Union européenne (15 pays) (source: Eurostat). Contrairement aux pays nordiques, à l’Allemagne, et à l’ensemble des pays développés, la France n’a pas connu de prise en charge significative de cette problématique; que ce soit dans la tête des élites et dans les régulations à mettre en place, il faut reconnaître qu’il y a un important travail à accomplir.

Le déclassement (« quand l’ascenseur social descend« ) est évidemment traité par Marie Duru-Bellat et François Dubet, spécialistes de la question. La problématique abordée ici est que, logiquement, l’inflation scolaire ne peut se poursuivre sans fin, et qu’elle a déjà des impacts importants sur le déclassement des nouveaux entrants sur le marché du travail, que ce déclassement soit réel ou perçu. A noter que, pour une fois en France, la perception est plus faible que la réalité du déclassement (comparaisons à diplôme équivalent entre personnes diplômées depuis 3 ans en 2001 et 1990). Pour trouver une issue à ce problème, certaines réformes des systèmes de formation sont possibles, mais on peut aller au-delà en s’intéressant à l’ensemble des parcours d’insertion sociaux et professionnels. (voir également la fiche de lecture de L’inflation scolaire de Marie Duru-Bellat)

Louis Chauvel aborde la question de la fracture générationnelle et dresse un diagnostic qui, selon ses mots, ne relève pas de la déclinologie mais d’un pessimisme méthodologique qui doit nous aider à voir nos impasses pour trouver peut-être la force d’en sortir. Qu’il s’agisse des salaires, des niveaux de vie, ou des possibilités de mobilité professionnelle, il est évident que les générations actuelles font face à bien plus de difficultés que celles qui ont grandies pendant les Trente Glorieuses. Sur ce thème aussi, la différence avec d’autres pays développés intrigue: certes, le modèle suédois ou d’autres modèles très intégrés ne sont pas nécessairement et aisément transposables, mais comment se fait-il qu’en France si peu d’actions soit menées pour intégrer les nouveaux entrants dans la vie active et sociale? Est-ce à cause du manque de culture de responsabilité qu’évoque Louis Chauvel? (voir également la fiche de lecture de Les classes moyennes à la dérive de Louis Chauvel)

Sur la possibilité d’une discrimination positive à la française, Thomas Piketty aborde la question de l’intégration de ceux rencontrant le plus de difficultés, principalement via la formation; idéalement via une meilleure répartition des ressources financières et humaine au sein des structures scolaires. En effet, il explique bien qu’en France, il serait illusoire de tenter d’appliquer une discrimination positive sur le modèle américain, fondé sur l’appartenance ethnique, car cela ne correspond en rien à la réalité française, qui, elle, est principalement marquée par la géographie. D’où les efforts qui peuvent être réalisés sur la taille des classes, ou dans les ZEP, par exemple.

Le texte de Martin Hirsch présente les nouvelles formes de la pauvreté, en partie liées aux évolutions économique, démo/géographiques et sociales décrites dans les textes précédents. Après avoir constaté l’évolution de la pauvreté, que ce soit au travers de l’augmentation des allocataires des minima sociaux ou l’apparition des travailleurs pauvres (catégorie nouvelle, car jusqu’à ces 20 dernières années, on considérait impossible qu’un travailleur ne gagne pas de quoi subvenir à ces besoins, d’où l’absence d’aide spécifique), Martin Hirsch conclue en expliquant que pour repenser l’approche de la pauvreté et mettre en place une politique élevant la lutte contre la pauvreté au même rang que les autres grandes politiques sociales ou économiques, il faut réunir 4 conditions:

  • construire une politique autour d’objectifs contraignants, pour les partenaires sociaux comme pour les collectivités territoriales
  • introduire la question de la pauvreté dans le jeu des négociations sociales
  • changer radicalement d’organisation des pouvoir publics, afin de réduire la complexité administrative qui éclate les ressources financières, humaines et sociales
  • concevoir des prestations plus articulées à la rémunération du travail et mieux adaptées aux évolutions de la structure familiale

L’exigence de ces conditions montre la difficulté et l’ampleur de la tâche, ainsi que le besoin d’une mobilisation politique et sociale pour inverser cette tendance. Plus globalement, comme dans l’ensemble des textes du recueil, on voit plus clairement quels sont les points problématiques, et, du coup, quelles types d’actions peuvent être envisagés, à condition d’y mettre la volonté et les moyens.

Bien que les textes soient sur des thématiques différentes, la nouvelle critique sociale offre une remise à jour des grilles de lecture à utiliser pour appréhender la société française de façon plus juste. Même si vous êtes comme moi (long à lire un livre qui stagne sur votre liste de lecture), ce recueil synthétise bien la vue des différents auteurs et offre un panorama à la fois court et complet des analyses regroupées par la république des idées.

Pour acheter ce livre sur amazon.fr, cliquez ici: La Nouvelle Critique sociale

Google: nouvelles fonctionnalités pour nouveaux services?

20 avril 2009

En regardant les nouvelles fonctionnalités lancées par Google, on peut se demander à quels objectifs elles répondent: enrichir les services existants, ou préparer le terrain au lancement de nouveaux services, voire à de nouveaux usages de consommation ou à de nouvelles méthodes de distribution?

Analyse de récents changements:

Nouvelles URL de referrers et AJAX

Prenons la nouvelle structure des URL de referrers des pages de résultats du moteur de recherche, décrite au détour d’un article expliquant que cela n’aura pas d’impact sur Google Analytics (si vous utilisez un autre service de tracking, pensez à demander). Les referrrers vont donc devenir plus complexes; plus riches en données exploitables, certes (avec le classement du lien cliqué par exemple), mais surtout plus complexes.

Quel intérêt de passer d’une structure très simple à quelque chose d’aussi compliqué? Tout simplement supporter le passage à une interface en AJAX, plus rapide et plus riche, qui déporte une partie des actions du serveur vers la machine de l’utilisateur.

L’intégration progressive d’AJAX permet à Google d’intégrer de plus en plus d’éléments riches dans les pages de résultats (tendance de fond depuis 2 ans: l’Universal Search). Par exemple, les tests de mars dernier sur un panel restreint d’utilisateurs ont montré de nouvelles fonctionnalités pour affiner les résultats, et ont révélé au passage la nouvelle structure d’URL de referrers. Passer à l’AJAX permet à Google de se renouveler, de continuer à innover, de lutter contre les velléités de la concurrence, et tout ça sans avoir à subir une hausse des coûts.

En effet, l’AJAX a comme avantage secondaire et non négligeable de réduire la charge serveur, ce qui permet d’obtenir une baisse des coûts serveurs, ou une capacité à lancer de nouvelles fonctionnalités à périmètre serveurs constant. L’AJAX est d’ailleurs une technologie mature chez Google, notamment via Gmail, pour lequel ils ont plusieurs fois réécrits des portions importantes de javascript.

Gears et gestion asynchrone

Incorporer des technologies AJAX va pourtant à l’encontre de la simplicité traditionnellement promue par Google: en effet, quoi de plus rapide que la version HTML basique de leurs pages de résultats? Les résultats riches et les fonctionnalités AJAX nécessitent de télécharger bien plus d’éléments, et la charge serveurs s’en trouve alourdie… au premier téléchargement. Ensuite, le cache du navigateur et le processeur de la machine de l’utilisateur tâchent d’en faire le plus possible sans recourir au serveur. Dans un second temps, les performances peuvent encore êtres améliorées grâce à Gears, une extension pour navigateurs qui améliore l’interaction web/local en stockant et exécutant une partie du code et des informations habituellement gérées par le serveur; un mini-serveur local, en somme.
Gears permet par exemple d’accélérer la rédaction des articles sur ce blog dans WordPress, ou de gérer ses mails Gmail en mode offline.

Quelle application de Gears peut-on imaginer pour les pages de résultats de recherche? Le maintien de la rapidité d’affichage, composante importante de la qualité et de la pertinence perçue par les utilisateurs, tout en augmentant les fonctionnalités offertes au sein des pages de résultats. (Ce qui se renforce d’encore un cran au sein de Chrome, le navigateur de Google dont le moteur javascript a été fortement optimisé pour accélérer les applications web comme… Gmail, et probablement l’ensemble des services Google.)

Une fois l’ensemble de ces techniques maîtrisé, n’importe quel service peut être adapté à cette logique web/local asynchrone, fluide et légère, et les nouveaux services ou produits Google ne devraient pas manquer d’apparaître.

Néanmoins, ces nouvelles fonctionnalités n’ont pas que l’enrichissement de l’offre comme objectif, mais aussi l’accès à cette offre au travers de nouveaux appareils et de nouveaux modes de consommation.

Une chaîne plus fluide: pour les appareils légers

L’AJAX et Gears facilitent l’accès à l’ensemble des services Google « in the cloud » depuis n’importe quel appareil, mais surtout depuis les appareils « SCF« : téléphones mobiles, netbooks, etc. Vous pouvez de plus en plus utiliser les services sans être nécessairement connecté, et sans en avoir à vous en soucier: le mail partira lorsque votre téléphone aura récupéré une connexion au sortir de l’immeuble, ou bien l’article sera publié lorsque votre train sera sorti du tunnel. L’expérience est fluide et transparente.

D’ailleurs, plus besoin d’utiliser une machine puissante dotée d’un système d’exploitation ou d’un navigateur classique, un appareil basique suffit, dont la puissance, le système d’exploitation et le navigateur sont allégés et mélangés, à l’exemple de l’iPhone, ou des terminaux Android, téléphones ou netbooks.

En somme, les nouvelles fonctionnalités de Google leur permettent de capitaliser sur et de continuer à développer la puissante capacité technique à leur disposition, que ce soit en termes de capacité serveurs ou en bande passante, et le lancement de nouveaux services peut se faire de façon de plus en plus transparente, voire anodine, sans investissements conséquents (le rêve de l’actionnaire).

N.B. Pour ceux qui n’auraient pas suivi, Google est principalement une architecture réseau et technique d’une dimension sous-estimée, capable, entre autres choses, de gérer un moteur de recherche rentable.

Le capitalisme est-il moral? – André Comte-Sponville

7 juin 2008

Le capitalisme est-il moral? - André Comte-SponvilleDans Le capitalisme est-il moral?, livre issu d’une série de conférences qu’il a données sur ce thème, André Comte-Sponville propose une grille de lecture permettant de dire si le capitalisme, système économique dominant sans partage depuis la fin du bloc soviétique et l’ouverture de la Chine, est moral.

Le livre est articulé autour de deux parties principales: une version synthétisée et rédigée du texte des conférences, puis un ensemble de questions/réponses échangées durant les conférences, qui viennent éclairer et compléter l’argumentation de la première partie.

Avant de répondre à la question principale sur la moralité du capitalisme, André Comte-Sponville prend le temps de définir des limites entre différents types de concepts, qu’il appelle des ordres, au sens pascalien du terme [1]:

  1. l’ordre technico-scientifique
  2. l’ordre juridico-politique
  3. l’ordre de la morale
  4. l’ordre de l’éthique / de l’amour

Ces quatre ordres recouvrent des domaines et des concepts bien distincts, indépendants. Il faut bien sûr prendre les quatre ordres ensemble en considération, mais il reste indispensable de bien les distinguer, afin de comprendre leur logique propre et les influences qu’ils ont les uns sur les autres.

Par exemple, on ne peut voter une loi obligeant à aimer son prochain: l’amour est par essence dépourvu de logique (ne fait pas partie de l’ordre 1), ne peut être encadré par la loi (ordre 2), et transcende les valeurs morales (ordre 3).

La réponse à la question titre est donc limpide: non. Le capitalisme est un système économique, technique, et par là même, dépourvu de toute considération morale ou éthique. Le capitalisme est amoral, et non moral ou immoral.

Les seules entités capables de faire preuve de moralité sont les personnes qui agissent au sein du système économique, et cela relève même de leur devoir d’essayer de dégager des comportements moraux.

Il s’agit cependant d’un équilibre toujours précaire, car si les hommes aspirent naturellement au haut des valeurs, les groupes et ensembles sont eux naturellement inclinés vers le bas (hiérarchie ascendante des primautés contre enchaînement descendant des primats).

Etant bien en peine de résumer plus en détail ce livre, je ne peux que vous recommander chaudement de le lire, et vous livre la conclusion de l’auteur: il n’y a donc que les hommes qui peuvent (doivent!) toujours lutter pour aller vers le haut, avec amour, lucidité et courage. Que ces trois choses « puissent suffire, c’est ce qui n’est jamais garanti, et qui rend toute suffisance dérisoire. Mais là où ils manquent, comment pourrions-nous réussir? »

Point annexe à l’articulation générale du livre mais particulièrement clair grâce à cette distinction des ordres: les difficultés actuelles causées par la mondialisation/globalisation. En effet, André Comte-Sponville explique que nous sommes actuellement confrontés à une situation de déséquilibre entre l’ordre technico-scientifique (en particulier sa composante économique), fortement globalisé, et l’ordre juridico-politique, toujours limité à l’échelle de chaque état/nation. En effet, sans règle juridique ou politique à l’échelle mondiale, comment encadrer correctement l’activité économique? L’OMC et les Nations-Unies ne sont pas des systèmes juridiques ou politiques achevés, dans le sens où ils n’ont aucune souveraineté réelle; l’Union Européenne, quant à elle, n’est qu’un début, à l’échelle régionale.

Le capitalisme est-il moral, par André Comte-Sponville: une grille de lecture passionnante et éclairante sur l’homme et la société en général, publié au Livre de Poche.

Pour acheter ce livre sur amazon.fr, cliquez ici: Le capitalisme est-il moral?

Pour aller plus loin:


[1] Extrait de la note du livre sur ce concept: Un ordre, chez Pascal, est « un ensemble homogène et autonome, régi par des lois, se rangeant à un certain modèle, d’où dérive son indépendance par rapport à un ou plusieurs autres ordres » Les trois ordres de Pascal sont l’ordre du corps, l’ordre de l’esprit ou de la raison, enfin l’ordre du cœur ou de la charité.

services sociaux en ligne, « social graph » et expérience utilisateur

3 novembre 2007

En pleine déferlente d’invitations sur Facebook, beaucoup de mes contacts me demandent pourquoi je ne suis pas encore inscrit, alors que « c’est trop cool, tout le monde est dessus », c’est the place to be… Pourtant, c’est toujours la même rengaine, seul le service change: Copains d’Avant, LinkedIn, Friendster, Flickr, Typepad, MySpace, etc. A chaque fois, c’est reparti pour des journées de galère à essayer de synchroniser son profil et ses relations sur le nouveau réseau, chercher tous ses amis, envoyer/répondre des mails d’invitations, tout ça pour finir quelques semaines plus tard avec quelques centaines de contats (toujours les mêmes), dupliqués sans cesse.

réseau social - représentation graphique (2)

Comme le synthétise Brad Fitzpatrick, nouveau responsable du développement social de Google: « People are getting sick of registering and re-declaring their friends on every site. »

En effet, il n’est pas tant question d’identité numérique (bien qu’il soit pénible de chaque fois redéclarer son identité), mais surtout de réseau social: qui est lié à qui et comment? Comment retrouver sur un réseau social en ligne les contacts qu’on a déjà au sein d’un autre réseau social, en ligne ou dans la vie?

réseau social - représentation graphique (1)

Arrive la notion de graphe social, proposée par le fondateur de Facebook, Mark Zuckerberg, et qui selon lui désigne:

« le réseau de connexions et de relations entre les gens sur Facebook, qui permet la diffusion et le filtrage efficaces de l’information »

source / traduction: Francis Pisani (via InternetActu)

Cette première description, trop restrictive car ne servant qu’à donner un nouveau nom au concept de réseau social (voir les réactions de Dave Winer ou de Nick Carr à ce nouveau buzz word), a vite été élargie, et désigne depuis la conférence Techcrunch40:

« l’ensemble des relations de toutes les personnes dans le monde. Le graphe social : il y en a un seul et il comprend tout le monde. Personne ne le possède« 

source / traduction: Francis Pisani (via InternetActu)

Dès lors, on perçoit mieux la différence entre les concepts de graphe social et de réseau social, et comment le dernier essaye de donner une représentation numérique du premier. Un réseau social en ligne essaye de reconstruire une partie (voire l’intégralité) du graphe social, avec l’aide de ses utilisateurs, de façon à récupérer des informations sur les personnes, leurs actions et surtout leurs interactions, en échange d’une mise en relation facilité pour les utilisateurs qui y participent.

Car il s’agit bien d’un échange de bons procédés: le réseau social, souvent créé par une entreprise, met à disposition une plate-forme et des outils, et les utilisateurs fournissent des informations sur eux et leurs proches, ce qui, in fine, permet au réseau social de dégager un certain revenu via la vente d’informations personnelles qualifiées et/ou la publicité (modèle économique restant encore à prouver).

Conséquence: les réseaux sociaux en ligne sont naturellement fermés, chaque entreprise cherchant à protéger sa base de données et la valeur qu’elle représente. Ainsi, de Friendster à Facebook en passant par MySpace et consorts, de réseau social en réseau social, l’utilisateur avance, évolue, mais il répète surtout certaines actions ad nauseam: créer login – créer mot de passe – remplir fiche de profil – chercher amis – ajouter amis… Certes, ces actions répétitives ne datent pas d’hier, et font partie intégrante du net depuis les comptes e-mails jusqu’aux blogs et plateformes sociales en passant par les messageries instantanées.

Alors pourquoi maintenant toutes ces réflexions autour de l’identité numérique, ouverte, et unifiée? Et pourquoi l’irruption d’un nouveau mème: le graphe social? Double réponse: le timing et la concurrence.

Le timing car on est maintenant à un moment où une grande partie d’internautes a déjà répété trop souvent les mêmes séquences de création de profil pour se rendre compte qu’ils sont à 2 doigts de transformer ces actions en réflexes pavloviens (et personne n’aime aboyer).
La concurrence car un grand nombre d’acteurs de bonne taille cherchent maintenant à obtenir ou sécuriser une masse critique d’utilisateurs, nécessaire au développement de l’usage de leurs services, ce qui devrait permettre ensuite d’amorcer la pompe à revenus.

Ainsi, au fil d’habiles recrutements, déclarations d’intentions et conférences, on entraperçoit les mouvements des principaux acteurs:

  1. Facebook a ouvert sa plateforme au développment d’applications par des tiers afin d’entretenir la dynamique et la fraicheur de son réseau, avec un certain succès (la moitié des applications ont tout de même plus de 100 000 utilisateurs).
  2. Google, au travers de son nouveau responsable du développement social Brad Fitzpatrick, appelle à l’ouverture des réseaux sociaux, ce qui permettra aux utilisateurs de passer plus facilement d’un réseau à un autre, et, au passage, à Google d’amorcer un réseau social, dont il manque profondément dans ses marchés clés (Orkut n’a pas d’usage réel hors du Brésil). Ce qui fait réagir Danny Sullivan (SearchEngineLand) de façon délicieusement logique et acide:

    « Heck, if I were Facebook, I’d be sitting over there saying we’ll open up our social graph as soon as you open up your web graph/index. Then you’ll see how open Google is. »

  3. Microsoft a acheté l’exclusivité de la fourniture de publicité (et certainement d’autres services) sur Facebook pour une bagatelle de 240 millions de dollars, valorisant ainsi Facebook à 15 milliards de dollars, alors qu’on ne sait toujours pas s’il y a un espoir de voir le service atteindre la rentabilité (comme quoi, la valeur est décidément une notion relative et liée au bon vouloir (à l’espoir?) des personnes).
  4. Les nombreux concurrents de Facebook, anciens et nouveaux (SixApart avec Typepad/LiveJournal/Vox, MySpace, etc.), qui cherchent à (re)dynamiser leurs propres réseaux pour ne pas voir fuire une partie de leurs utilisateurs vers le nouveau réseau « où il faut être ». Vous noterez que Facebook occupe cette place depuis quelques mois avec un certain talent pour assurer sa première position, dans la tête des médias et des acteurs de ce marché, mais aussi dans la tête d’un nombre croissant d’utilisateurs.

On voit que l’heure n’est toujours pas à la trêve entre les entreprises qui financent et développent les services et réseaux sociaux qu’utilisent un nombre toujours croissant d’utilisateurs, ce qui est d’autant plus regrettable que ce sont les utilisateurs qui pâtissent de cette bataille de territoires fermés: impossibilité d’échanger avec des personnes qui ne font pas partie du même réseau social que soi, nécessité de s’inscrire à un réseau pour en consulter les informations (certains offrent une ouverture limitée avec un accès aux profils publiques des utilisateurs, comme LinkedIn ou Facebook), et bien sûr la nécessité de passer d’un réseau à l’autre en continuant à recréer des logins, mots de passe, profils, relations… Sans compter que la propriété des données personnelles est dans la plupart des cas l’exclusivité des entreprises qui contrôlent les réseaux auxquels vous participez.

Les réactions militant pour une ouverture des réseaux et une construction ouverte du graphe social ne manquent donc pas d’ambition et de justification:

Wired propose de dynamiter tous les réseaux fermés comme ont été progressivement abandonnées les premières enclaves type AOL ou Compuserve, en rendant l’intégralité des informations libres et publiques sur le net; reste à savoir comment déclarer les relations entre personnes, seule brique actuellement indisponible dans une version « web » et « libre/publique/ouverte ».

Brad Fitzpartick de Google propose de développer une couche technique (une API) ouverte et indépendante, sur laquelle les différents réseaux existants ou futurs pourraient importer/exporter les données des utilisateurs, évitant ainsi à chacun de développer et maintenir une coûteuse base indépendante (mais pourtant potentiellement très rémunératrice…).

Alex Iskold de Read/Write Web, en réaction au billet de Brad Fitzpartick, propose le regroupement des utilisateurs au sein d’une organisation, avec comme double objectif d’assurer une prise de parole solide face aux entreprises, et de permettre de s’entendre sur des standards ouverts, afin de ne pas perdre de vue et d’obtenir ce que tout individu cherche: une expérience fluide, simple, et qui laisse l’utilisateur maître de ses données personnelles.


Tout ça pour dire qu’il faut que je crée mon profil sur Facebook: un profil fermé de plus et des heures de redéclaration de contacts…

nano-usines: transformer la valeur des biens

19 août 2007

Le concept de nano-usines renvoie à la possibilité de construire des objets complexes à partir des briques les plus petites accessibles: les atomes et les molécules. Ainsi, plutôt que d’obtenir un produit fini en assemblant différents composants déjà produits ailleurs, le concept de nano-production consiste à créer le produit fini en partant de « rien » ou presque: des atomes de carbone, de l’énergie, et d’innombrables manipulations invisibles.

Ce concept est en passe de devenir réalité, avec la mise à disposition prochaines de nano-fabriques accessibles aux particuliers, qui fonctionneraient certainement comme le montre ce film repéré par internetactu.net:

Vidéo : comment fonctionne une nano-usine ?

vidéo nano-usine - nano factory movie

vidéo nano-usine - nano factory movie

Ainsi, dans le film, on voit un personnage pousser le bouton d’une boite grise approximativement de la taille d’un micro-onde. Cela déclenche, au niveau moléculaire, la mise en route de la “nano-usine” qui va d’abord recueillir les molécules nécessaires à sa tâche. Puis, à un second niveau, elle assemble ces dernières en blocs de construction, puis connecte à son tour ces blocs ; etc. jusqu’à la fabrication du produit fini. A la fin du film, le personnage récupère dans la boîte un micro-ordinateur portable tout neuf, construit avec une précision moléculaire !

Ce type d’appareils remet en cause la notion de valeur telle qu’on la considère aujourd’hui, tant les modifications du processus de production sont importantes.

dématérialisation de la production

En effet, la nano-production ouvre en grand la possibilité de construire tout et n’importe quoi à partir d’éléments très basiques. Une fois les plans et schémas de conception d’un produit défini, il suffit de programmer l’usine en fonction de ce plan, et de l’alimenter en énergie et en briques élémentaires (qu’on pourrait très facilement obtenir en « démontant » des produits mis au rebut, avec des nano-usines chargées du recyclage).

Pour un exemple à la fois crédible et amusant des changements radicaux qu’offriraient (offriront?) de telles méthodes de production, je vous encourage à lire « Aube d’acier« , de Charles Stross. Dans ce livre, une économie type fin 19e / début 20e siècle est totalement bouleversée par l’arrivée d’une civilisation avancée, cette dernière distribuant des nano-usines à qui en fait la demande.

transformation de la notion de la valeur

On imagine facilement que si tout un chacun peut accéder à de telles nano-usines, les biens et produits finis n’ont donc plus réellement de valeur en eux-mêmes. Ce sont les plans de conception qui représentent la valeur. Le plan vaut plus que le produit fini.

Ainsi, Neal Stephenson, dans « L’Âge de diamant« , construit son intrigue autour de la perte des plans de conception d’un objet très important. Peu importe l’objet en lui-même; ce qui est critique, c’est de contrôler les plans de conception. D’ailleurs, même le diamant n’a plus de valeur, vu qu’il est aussi facile d’en synthétiser que d’imprimer un document (une simple masse de carbone organisée de façon structurée).

contrôle de la propriété intellectuelle & piratage

Toute la valeur résidant dans de l’immatériel (plans et éléments de propriété intellectuelle), le contrôle et le piratage de ces informations aura la plus grande importance. On peut facilement anticiper une accélération du piratage et du partage de telles informations, poussant d’autant plus les différents acteurs économiques à réfléchir à de nouveaux modèles économiques, qu’il s’agisse de coopération ou de coercition. A mon avis, les discussions actuelles autour des produits culturels seront risibles en comparaison.

  • Doit-on accepter la diffusion de nano-usines? Comment la société et l’économie pourra-t-elle se réorganiser?
  • Les anciens clivages disparaîtront certainement en grande partie… mais pour être remplacés par quoi? Est-il plus facile d’asseoir une domination sur des biens matériels ou sur des informations?
  • Comment sera contrôlé (ou libéré) l’accès aux ressources (éléments primaires + énergie)? Ouvertes à tous, sur le modèle de la distribution d’eau et d’électricité actuelle?

Sources:

  • La catégorie Nanotechnologie d’InternetActu.net: articles d’informations, éléments de réflexion et appel au débat citoyen autour des nanotechnologies.
  • Livres: « L’Âge de diamant« , de Neal Stephenson, et « Aube d’acier« , de Charles Stross, pour des visions amusantes et effrayantes des possibilités offertes par l’usage des nanotechnologies à grande échelle (voire grand public).

bande passante: enjeux et gestion de la pénurie

28 janvier 2007

Après l’explosion de la bulle internet, la bande passante a été une des valeurs qui a le plus perdu. Finies les autoroutes de l’information; le haut débit pour tous (réseaux & usages), ça sera pour plus tard. Aucun intérêt pour les liaisons Gigabits envisagées un temps, si ce n’est dans une optique de prouesse technologique ou de recherche scientifique.

Pourtant, depuis plusieurs mois, on voit déferler des usages réellement haut débit, qu’embrassent des millions d’internautes: explosion de la vidéo sur le web (YouTube ou Dailymotion), démarrage commercial pour la VoD, banalisation de la VoIP, et gonflement continu des échanges P2P (BitTorrent notamment). Tout ceci entraîne une augmentation et une densification de l’usage de bande passante par utilisateur. Augmentation car les débits réellement consommés lors de ces nouveaux usages sont plus élevés, et densification car les internautes (ou plutôt leurs machines) restent connectés de plus en plus longtemps.

Consommation de bande passante accrue: adaptation des opérateurs

Dès lors que le trafic mondial augmente, les capacités réseaux de tous les opérateurs sont sollicitées de façon croissante. La consommation de données de chaque internaute se rapproche de la bande passante théorique qui lui est accordée. Toutes choses égales par ailleurs, c’est-à-dire à capacités réseaux constantes, on tend donc vers une situation de congestion, vers une pénurie de bande passante.

Certes, les capacités réseaux continuent d’être améliorées, grâce à de nouvelles technologies (merci l’ADSL), ou grâce aux investissements des opérateurs de réseaux (poses de nouvelles fibres optiques sur et entre les différents backbones). Pourtant, les technologies comme l’ADSL ne font qu’améliorer la situation des consommateurs finaux, ce qui au passage dégrade la situation des opérateurs (si chaque consommateur a un tuyau plus gros, il faut donc que les opérateurs accroissent leurs capacités en conséquence). On voit ainsi que la seule situation pour éviter une congestion des réseaux et une pénurie de bande passante est l’augmentation des capacités réseaux par les opérateurs

…ou la limitation de la consommation des utilisateurs finaux. En effet, poser de nouvelles fibres optiques, tirer de nouveaux câbles sous-marins, tout cela a un coût élevé. Avant d’en arriver à de tels investissements, n’importe quel opérateur cherchera en premier lieu à optimiser le trafic sur son réseau, de façon à ce que la bande passante réellement consommée ne l’oblige pas à de nouveaux investissements.

Contrôler et limiter le trafic avant d’investir dans de nouveaux réseaux

Cas pratique: entre le milieu et la fin des années 1990, la société Cybercâble, filiale de la Lyonnaise des eaux (devenue Noos entre temps, fusionné avec Numéricable il y a peu) a posé ce qu’elle considérait comme « beaucoup » de câbles. Une fois les travaux finis, l’entreprise ouvre une des premières offres « haut débit illimité » (entre 1997 et 1998). Cependant, victime de son succès, Cybercâble doit faire face à l’engorgement de son réseau, les utilisateurs utilisent leur connexion et leurs programmes consommateurs de bande passante en continu. Il est impossible de poser de nouveaux câbles, cela coûterait trop cher et prendrait trop de temps. Dans un premier temps, l’entreprise décide de diviser la bande passante (par deux, par 4…). Colère et manifestations (je me souviens d’une amusante manifestation devant les locaux en plein centre de Strasbourg) d’utilisateurs obligent la lyonnaise à trouver une autre solution.

Et quelle solution? Les quotas de bande passante! Votre bande passante reste conforme à la promesse (ex: 512kbits par seconde), mais vous êtes limités dans la consommation totale mensuelle (ex: 3Go de données envoyées et/ou reçues). Attention aux étourdis, qui, ne surveillant pas leur consommation, se sont retrouvés avec des factures allant jusqu’à plusieurs milliers de francs. En effet, une fois le quota atteint, soit l’opérateur coupe… soit il compte le dépassement et vous envoie la facture.

Souvenirs d’une époque qu’on aimerait révolue dans cet article des archives de transfert.net (mai 2001)… mais dont on voit régulièrement des résurgences. Il suffit de regarder les offres de certains opérateurs, comme Noos Numéricable; qui a rétablit ses chers quotas en juin 2005 (voir l’article de 01net). Pour le moment, les quotas de bande passante (ascendante et/ou descendante) ne sont pas très courants en France, à croire que l’épisode de Cybercâble a refroidi bien des esprits. Cependant, dans d’autres pays (USA, Canada), ou dans d’autres contextes, les quotas de bande passante sont considérés très sérieusement.

Autre solution pour contrôler et limiter la consommation des utilisateurs: arrêter de considérer le net comme un réseau neutre, c’est-à-dire privilégier certains acteurs au détriment d’autres. Actuellement, les opérateurs laissent passer (relativement) librement et au même titre les paquets de données en provenance de mails d’utilisateurs, d’échanges P2P, ou d’éditeurs de contenus reconnus. Cependant, rien le les empêcheraient de privilégier les échanges de données offrant le meilleur rapport gain/coût. Une idée qui a déjà fait du chemin aux USA, comme le note jmplanche:

Sous la pression des opérateurs de télécoms américains, la chambre des représentants a voté à la majorité, un texte qui permettra (entre autre et au conditionnel) de facturer un droit de passage sur leurs réseaux, un peu à la tête du client :

En fonction du débit consommé (un peu trop de DailyMotion … paf les doigts)
En fonction des services utilisés (un peu trop de Google … pif la note !)

Nouveaux défis pour les éditeurs de services et de contenus

Dans un tel contexte, l’opérateur de réseaux a l’ascendant sur les éditeurs de contenus. Ces éditeurs de contenus, pour toucher les utilisateurs finaux, devront trouver des accords avec les opérateurs.

A moins de devenir eux-mêmes opérateurs de réseaux, comme… Google. Depuis quelques années, Google achète toutes les capacités réseaux excédentaires disponibles (fibre noire), sans pour autant acheter les réseaux eux-mêmes, car posséder tant de capacité réseaux leur ferait courir un risque de procès! Bon nombre d’analystes se demandent à quoi peuvent (ou pourront) servir toutes ces capacités réseaux, de même que les centres serveurs que Google construit, surtout aux Etats-Unis (le dernier à avoir été annoncé sera implanté en Caroline du Nord). Pour Robert Cringley, l’explication est limpide: Google veut devenir VOTRE internet. Derrière ce titre facile et provocateur se cache une analyse très pertinente, qui permettrait à un éditeur de services reconnu, disposant d’une base d’utilisateurs immense et fidèle, de devenir opérateur de réseaux et point de contact principal entre les consommateurs et le net:

It is becoming very obvious what will happen over the next two to three years. More and more of us will be downloading movies and television shows over the net and with that our usage patterns will change. Instead of using 1-3 gigabytes per month, as most broadband Internet users have in recent years, we’ll go to 1-3 gigabytes per DAY — a 30X increase that will place a huge backbone burden on ISPs. Those ISPs will be faced with the option of increasing their backbone connections by 30X, which would kill all profits, OR they could accept a peering arrangement with the local Google data center.

Au passage, cela cadre très bien avec la mission de Google: « Google a pour mission d’organiser à l’échelle mondiale les informations dans le but de les rendre accessibles et utiles à tous. »

Se rapprocher de la plus précieuse des ressources: les utilisateurs finaux

Un tel plan peut paraître tordu, je le trouve au contraire particulièrement bien vu. Les risques de congestion des réseaux vont croître dans un futur assez proche (à moins que les utilisateurs diminuent drastiquement leurs usages haut débit… rien que de l’écrire, ça me fait sourire). Dès lors, la pression sur les coûts des opérateurs sera critique. Pour maintenir leurs profits, les seules solutions à court terme seront de mettre en place de quotas ou des accords de distribution privilégiés, ce qui placera les éditeurs de services dans une position difficile, car ils ne seront plus en position de faire peser leurs services dans la négociation pour l’accès aux consommateurs.

Pour les éditeurs de services qui ont les moyens, négocier des accords de distribution deviendra une partie intégrante du modèle économique. Les plus gros évolueront comme Google, afin de se rapprocher des consommateurs, en intégrant la distribution à leurs activités; on assistera peut-être à une réelle fusion des contenus et des contenants, si chère à J6M lors de son passage chez Vivendi. Les petits éditeurs, les indépendants, les internautes, quant à eux, risquent d’être les grands perdants de cette « évolution »: trop petits, et trop atomisés, dans un nouvel espace qui imitera malheureusement les autres secteurs économiques plus classiques. On reverra peut-être fleurir les messages « Désolé, cet espace a dépassé son quota de trafic », pour cause de bande passante trop chère…

Alternative nécessaire: continuer à développer des réseaux

Espérons qu’avant d’en arriver là, des investissements conséquents en capacités réseaux soient réalisés, par des acteurs économiques privés et/ou publiques! Certains opérateurs, qui se sont spécialisés dans le négoce de bande passante, ainsi que ceux qui n’ont pas arrêté de poser des câbles avec l’explosion de la bulle auront eu le nez creux. En continuant d’accroître les capacités réseaux, on évitera peut-être le retour des quotas et l’apparition d’autres joyeusetés plus communes dans d’autres secteurs, comme la téléphonie mobile. Cela nous évitera peut-être la situation décrite dans EPIC 2014 (ou la mise à jour 2015), une animation prospective sur la concentration des acteurs du net et du web, réalisée en novembre 2004, qui se fait depuis allègrement dépasser par la réalité.

génération(s) internet – Autrans 2007

21 janvier 2007

Autrans 2007 - Les générations internetLors de la conférence « Comment les entreprises s’organisent pour tirer parti du mode de vie et de travail des générations Internet? » aux rencontres d’Autrans, la discussion s’est faite autour des échanges entre les différentes générations, et bien sûr, comment les « jeunes » s’intègrent en entreprise.

Les jeunes à la rescousse des vieux?

Ce qui est curieux, c’est qu’il y a une volonté plus ou moins consciente de regrouper les personnes dans des catégories pour les opposer: nouveaux contre anciens, technophiles contre technophobes, ou, dans le cas présent, jeunes contre vieux. On voit pourtant facilement qu’il est réducteur de mettre en opposition des groupes d’âge différents, surtout sur les technologies du web. En effet, bien que les jeunes soient majoritairement utilisateurs du net, ils ne sont pas pour autant experts des usages du net en entreprise. Ils sont plus rapides dans l’adoption de nouveaux usages, mais doivent également s’intégrer aux organisations existantes.

Ainsi, intéressons nous aux conséquences qu’a le net sur les activités des entreprises et des acteurs économiques.

Quel impact réel sur les entreprises?

Le net développe de nouveaux usages et de nouveaux comportements. C’est indéniable: dématérialisation de nombreux services, interactions interpersonnelles accélérées (IM, e-mail, espaces de travail collaboratifs), et changement profond du rapport à l’information.

Pour autant, selon les entreprises, le secteur d’activité, et bien sûr les personnes qui les animent, le rapport au net et l’intégration (nécessaire?) de ces technologies n’a pas les mêmes impacts. De façon générale, il s’agit de voir qu’il y a rarement créations de nouveaux métiers, mais principalement intégration de nouvelles compétences et de nouvelles possibilités aux métiers et emplois déjà existants. En effet, les nouveaux métiers se développent dans des périmètres et des périodes très réduits, le temps que les transitions se fassent, et que les différentes personnes aient assimilé les nouvelles compétences.

Réussir l’accompagnement au changement

Le principal défi à relever est donc celui de l’accompagnement au changement. Faire en sorte que les différents acteurs de l’entreprise intègrent la nouvelle technologie du moment à leurs activités et adaptent leurs méthodes de travail en conséquence. Il s’agit aujourd’hui d’intégrer les apports du net, de la même façon que la téléphonie ou le fax ont du être assimilés dans les décennies précédentes (le fax a d’ailleurs été une des innovations les plus disruptives, car pour la première fois, on pouvait quasi-instantanément communiquer de l’écrit à distance).

Et la meilleure façon de réussir un tel changement est de faire communiquer tous les types de personnes au sein de l’entreprise: les jeunes et les vieux, les nouveaux et les anciens, etc. L’informatique et le net ne sont donc qu’une nouvelle composante à intégrer, et c’est un projet de formation et d’accompagnement qui débouche sur le succès. Pour cela, la dynamique doit être embrassée par tous les acteurs de l’entreprise: jeunes, vieux, dirigeants, techniciens, etc.

Formation et échange

Les jeunes ne sont donc ni sauveurs messianiques ni éléments perturbateurs en puissance, mais simplement des humains en action. Leurs apports doivent être intégrés par les entreprises, de la même façon qu’ils doivent intégrer ce que l’entreprise et les autres personnes leur apportent. L’échange, ainsi que la formation, sont donc les piliers de l’intégration des innovations, pour que les entreprises puissent évoluer de façon progressive, en limitant les ruptures.

Ainsi, sans sombrer dans l’adoration technophile béate, à chaque personne d’intégrer ces nouveaux usages au quotidien, en s’adaptant à la structure dans laquelle on évolue. Par symétrie, il faut que les entreprises acceptent de jouer le jeu, car encore beaucoup d’entreprises bloquent la plupart des services web à leurs employés. Pourtant, si ceux-ci ont un poste informatique comme outil de travail principal, restreindre l’usage des services web ne mène à rien, si ce n’est frustrer les collaborateurs et pénaliser les effets bénéfiques du travail en réseau, que ce soit via IM, e-mail, espaces de travail collaboratifs, etc. Il faut savoir jouer avec plutôt que de lutter contre. Avec les apports de tous.

Ressources: