Archives pour la catégorie 'economie'

Vous parcourez en ce moment les archives du weblog kobaye.net pour la catégorie economie.

Les nouvelles classes moyennes – Dominique Goux et Eric Maurin

Samedi 16 juin 2012

les nouvelles classes moyennes - Dominique Goux et Eric Maurin Contrepoint du livre « Les classes moyennes à la dérive » de Louis Chauvel, Les nouvelles classes moyennes de Dominique Goux et Eric Maurin présente une situation optimiste, ou tout du moins stable pour les catégories de population situées entre les deux extrêmes de l’échelle sociale. Difficiles à définir, les auteurs tentent une première approche en traçant un périmètre, au travers de trois visages des classes moyennes:

  • acteurs pugnaces de la compétition sociale
  • centre de gravité de la société
  • arbitres politiques

 

Le périmètre défini par ces trois visages permet de mieux comprendre de quels groupes les auteurs parlent, et insiste sur l’importance qu’ils confèrent aux classes moyennes pour l’ensemble de la société.

Ces classes moyennes sont également définies par leur position centrale dans les flux de personnes entre les différentes strates de l’échelle sociale: à la fois lieu de transition, de développement mais aussi de dépérissement, et réservoir pour les extrêmes de l’échelle. Les classes moyennes sont dynamiques, tant en leur sein – entre les classes moyennes inférieures et supérieures, entre les cadres et les employés – que dans leurs rapports avec les classes supérieures et inférieures.

Ainsi, les auteurs mesurent à la fois un accroissement des échanges: « deux fois plus intenses aujourd’hui qu’ils ne l’étaient il y a seulement vingt ans » et de la population concernée: « au cours des dernières décennies, la proportion de Français qui se déclarent appartenir aux classes moyennes a d’ailleurs été multiplié par deux » (page 12). Pour Dominique Goux et Franck Maurin, les classes moyennes se sont développées, quantitativement et qualitativement.

En effet, comme l’indique la définition de l’historien Serge Bertsein citée page 17, les classes moyennes se caractérisent par « une philosophie sociale où le progrès résulterait non d’une dialectique de lutte des classes, mais de possibilités de promotion« . La dynamique – quelle soit réelle ou simple potentialité – est donc clé.

Cette dynamique de promotion a-t-elle été réelle et bénéfique? Les classes moyennes sont-elles encore en progression? Les auteurs répondent positivement, bien que la réalité ne soit pas si positive que cela. Certes, les classes moyennes se sont développées, mais le sentiment de (peur du) déclassement est là. Une explication intéressante avancée par Dominique Goux et Franck Maurin tient au fait de l’évolution quantitative des différentes catégories, aussi bien dans l’ensemble de la société qu’au sein des classes moyennes. Par exemple, le salariat intermédiaire n’a pas reculé dans sa position relative aux classes supérieures. « Simplement, du fait de l’expansion quantitative des cadres au détriment des ouvriers, il se place juste au-dessus de la médiane de la distribution des salaires, plutôt que juste au-dessous du premier quart, occupant bien plus précisément qu’autrefois le point d’équilibre du salariat. Les dernières décennies n’ont pas été celles d’une régression des catégories intermédiaires dans la société, mais celles d’un rééquilibrage général de l’ensemble de la structure sociale autour de ce groupe de plus en plus vaste et central. » (page 46)

Cette massification des classes moyennes pose également des problèmes d’ordre qualitatifs: les situations se durcissent car les investissements consentis par les familles pour progresser, ou tout simplement pour se maintenir, doivent être croissants; tenir le rang dans les compétitions scolaire, géographique (entre quartiers riches/pauvres) et socio-économique en général n’a pu se faire qu’en engloutissant des sommes, efforts et sacrifices toujours plus grands, au travers de stratégies de plus en plus complexes (et épuisantes/incertaines dans la durée).

Pour Dominique Goux et Eric Maurin, la société française n’est pas encore bloquée, et une dynamique sociale positive peut être lancée. Je retiens principalement leur idée d’un « retour à des programmes moins explicitement ciblés sur des publics particuliers, l’action de l’Etat devant créer de la continuité et de la mobilité dans la société plutôt que des effets de seuil, des clivages et des statuts. » En effet, les aides ciblées sur des groupes ou géographies précis, même quand elles ne sont pas inefficaces, marquent leurs bénéficiaires comme « privilégiés » dans les yeux des autres et contribue à « accroître encore le sentiment d’injustice à l’égard des dispositifs de redistribution« . (pages 116 et 117)

Ce constat de la difficulté croissante va plutôt dans le sens de Louis Chauvel: qu’il soit réel ou simplement perçu, le sentiment de déclassement est là, et mine les esprits – la perception étant la réalité.

Pour acheter Les nouvelles classes moyennes de Dominique Goux et Eric Maurin sur amazon.fr, cliquez ici: Les nouvelles classes moyennes.

Pour aller plus loin, il est intéressant de consulter l’article Classes moyennes : peurs infondées ou réelles difficultés? de Louis Chauvel sur le site de l’OFCE, dans lequel il présente sa note Les raisons de la peur : Les classes moyennes sont-elles protégées de la crise ? Il reprend les deux thèses opposées – celle de Dominique Goux et Eric Maurin, positive, et la sienne, pessimiste – et insiste sur une dégradation de la situation relative des classes moyennes, dégradation illustrée par le graphique Rapport entre le salaire annuel à temps plein net des professions intermédiaires et celui des ouvriers/ouvrières. L’appauvrissement relatif de membres des classes moyennes par rapports aux classes inférieures est clair: le rapport entre les salaires de ces deux catégories chute de plus de 2 durant les Trente Glorieuses à ~1,5 depuis les années 2000. Comme Louis Chauvel le précise:

Le niveau de vie relatif des classes moyennes intermédiaires a connu son apogée à la fin des Trente glorieuses: depuis la fin de cet âge d’or, la stagnation des salaires et des revenus, la réduction des écarts salariaux avec les classes populaires en emploi (voir le graphique), le risque inédit de chômage, l’expansion numérique des diplômes située très au-delà des places disponibles dans les professions intermédiaires, le déclassement scolaire qui s’ensuit, etc. ont été autant de dimensions problématiques analysées dans cette note soulignant l’existence d’un malaise bien réel.

Lutter contre la pauvreté (II) La politique de l’autonomie – Esther Duflo

Jeudi 6 mai 2010

Lutter contre la pauvreté (II) La politique de l'autonomie - Esther Duflo Deuxième partie du recueil Lutter contre la pauvreté d’Esther Duflo, La politique de l’autonomie s’attache à l’étude de la microfinance, puis de la gouvernance et de la corruption. En effet, pour lutter contre la pauvreté, développer l’éducation et la santé ne suffit pas, d’autant plus que comme l’auteur l’a montré dans Le développement humain, trouver les bonnes solutions et affecter correctement les moyens nécessite d’étudier l’ensemble du contexte.

Ainsi, la microfinance est généralement vu comme une source de financement pleine de promesse, qui ouvre aux plus pauvres l’accès à des fonds qu’ils ne pourraient pas atteindre autrement, les privant de ressources pour développer leurs activités économiques, mais aussi leur permettrait d’investir dans l’éducation ou la santé de leurs familles.

Une fois dépassé le débat politique et quasi-philosophique sur le bien-fondé de la microfinance dans son ensemble et du micro-crédit en particulier, on voit clairement que la principale vertu de ce mode d’accès au crédit est justement sa disponibilité. Les taux pratiqués ont beau être excessivement élevés (jusqu’à 5% par mois, >80% par an), ce mode de financement permet tout de même aux pauvres d’emprunter de l’argent pour leurs activités économiques, argent qu’ils n’auraient pu obtenir via les banques classiques, le seul autre recours étant les usuriers « classiques ».

Bien que la microfinance ne soit pas la solution universelle à tous les maux – impact très limité sur la consommation et sur les ménages non-entrepreneurs, de même que sur tout autre indicateur social – , il est intéressant de parcourir les différents exemples cités par Duflo. Les exemples en Afrique, en Inde et au Mexique montrent à la fois les particularités de chaque situation, mais aussi le besoin d’accès au financement pour une fraction non négligeable de la population qui ne peut recourir aux emprunts classiques.

Dans son souci méthodologique de mener et d’analyser des expérimentations aléatoires, elle a réussi à identifier les principaux facteurs de succès de la microfinance: prêter aux femmes, plus exactement à des groupes de femmes solidaires (au sens légal du terme), qui doivent se réunir de façon régulière pour discuter avec l’organisme de microfinance et rembourser l’échéance que le groupe doit; toutes les semaines en général. Grâce à ce mode de fonctionnement, et malgré les taux d’intérêt élevés, l’attrait pour les microcrédits ne se dément pas et les taux de remboursement sont très élevés (de 80% à 97%).

L’extension de ces recettes aux autres domaines financiers, notamment l’épargne et l’assurance, ne semble pas fonctionner facilement, pour deux grandes raisons: en premier lieu, cela demande une projection dans le futur délicate: ai-je un intérêt à ne pas dépenser le peu d’argent que j’ai maintenant pour épargner et en dépenser plus plus tard? A quoi bon payer un service d’assurance si je suis en bonne santé ou si mes champs sont productifs en ce moment? On se heurte à à l’incohérence temporelle, également évoquée dans Le développement humain à propos de la vaccination des enfants (p85-86):

Nous savons, depuis Hume et, plus récemment grâce aux travaux de psychologues, que l’être humain pense le présent et le futur de manière très différente. Nous avons tendance à prendre de façon impulsive les décisions qui engagent le présent, alors que nous appréhendons l’avenir sur un mode plus rationnel. […]

Un coût ou une gêne que l’on doit supporter aujourd’hui nous paraît lourd, alors que le même coût payé demain nous paraît faible par rapport aux bénéfices que nous en tirerons. Quand nous pensons à faire vacciner notre enfant ou à toute autre décision qui pourrait être différée […], nous avons donc l’illusion que cet investissement est particulièrement élevé aujourd’hui, mais que nous serons beaucoup plus libres de le réaliser le mois prochain. Or, quand demain arrive, le futur devient le présent, et l’effort demandé semble de nouveau important. Ainsi, les décisions peuvent être repoussées en permanence, jusqu’à ce qu’il soit trop tard.

Au passage, c’est une bonne explication à la procrastination dont tout un chacun peut souffrir, et on voit que ce ressort psychologique peut être un frein important à l’épargne ou à l’assurance pour des personnes fortement contraintes.

Une deuxième grande raison explique en partie cet échec de l’épargne et de l’assurance dans les pays pauvres: le manque d’informations prodiguées par le gouvernement, et la faible confiance dans ce dernier quand il est sujet à la corruption. Esther Duflo s’attache à montrer comment identifier et mesurer la corruption, phénomène peu visible en soi, ainsi qu’à montrer des actions possibles pour la combattre, qu’il s’agisse d’actions par le haut (contrôles par les instances étatiques) ou par le bas (contrôles par la population sujette aux problèmes posés par la corruption). Cependant, malgré des initiatives nombreuses et variées, on voit que « la corruption a tendance à apparaître naturellement lorsqu’une société tente de corriger le marché en répartissant différemment les ressources, et le contrôle local n’est pas une solution miracle. » (p104).

La meilleure façon de limiter la corruption reste de permettre aux administrés d’influencer le choix des fonctionnaires, au travers de décisions informées; les pauvres ne sont pas plus idiots que les autres, mais manquent souvent des éléments permettant de juger la performance des actions menées et de la possibilité de changer. Dans les expérimentations compilées par Esther Duflo, on voit qu’un vrai succès, dont la preuve a été faite, influence les votes bien plus que les discours généraux et creux.

Lutter contre la pauvreté est une excellente analyse des problèmes d’éducation, de santé, de finance et de gouvernance dont souffrent les personnes les plus pauvres. Surtout, le recours à de nombreuses expérimentations aléatoires sur le terrain permet de mieux comprendre la réalité de ces problèmes généralement traités de façon macro et floue, et d’identifier les solutions qui marchent, afin de reproduire, enrichir et multiplier les expériences réussies, pour une amélioration concrète en matière de lutte contre la pauvreté.

Pour acheter ce livre sur amazon.fr, cliquez ici: Lutter contre la pauvreté : Tome 2, La politique de l’autonomie.

Pour aller plus loin:

Lutter contre la pauvreté (I) Le développement humain – Esther Duflo

Mardi 4 mai 2010

Lutter contre la pauvreté (I) Le développement humain - Esther DufloEsther Duflo, professeur en économie du développement au MIT, a été récompensée par la John Bates Clark Medal 2010 fin avril. Ses travaux portent sur l’analyse empirique du développement économique, afin d’identifier les moyens concrètement efficaces dans la lutte contre la pauvreté. Dans Le développement humain et La politique de l’autonomie (issus de leçons données au Collège de France en janvier 2009), Duflo a rassemblé des travaux réalisés ces dernières années dans les parties du monde les plus touchées par la pauvreté, et a tâché d’identifier les ressorts et les spécificités de l’efficacité ou l’inefficacité de chaque type de politique.

Le développement humain se concentre sur l’éducation et la santé. Au-delà de l’impressionnant travail de collecte, d’analyse et de regroupements de nombreuses études réalisées ces dernières années, dont certaines sont encore en cours, l’aspect le plus intéressant de ce livre est de montrer à quel point il est nécessaire de dépasser l’aspect général béni oui oui « il faut que les enfants aillent à l’école » ou « la santé, c’est important » et s’attacher aux raisons des échecs (et des rares succès) des politiques menées.

Ainsi, dans le domaine de l’éducation, l’important n’est pas d’avoir un engagement politique fort des dirigeants nationaux, mais bien d’allouer des moyens, et de les allouer correctement. Par exemple, certains travaux montrent que ce n’est pas en affectant plus de professeurs qu’on obtiendra les meilleurs résultats, mais plutôt en changeant la façon dont les professeurs abordent leur travail: instruire le plus grand nombre plutôt que d’essayer de générer une élite et écarter les autres. Certes, l’exemple présenté ainsi peut paraître réducteur, aussi, je vous encourage à lire ce livre, dont les différents exemples montrent à quel point les études mettant en œuvre des expérimentations aléatoires sont critiques pour mesurer clairement les différents facteurs d’un phénomène (via des échantillons statistiques définis aléatoirement et comportant un groupe témoin et un groupe impacté).

Autre étude intéressante: comment améliorer le taux de présence des professeurs dans les classes? Une expérimentation menée par Seva Mandir, une ONG du Rajasthan, a consisté à distribuer aux enseignants des appareils photos qui horodatent les clichés, et qui leurs permet de toucher une prime quand l’assiduité est élevée. Non seulement l’assiduité a augmenté, mais surtout, et à la surprise de l’ONG, les enseignants se sont révélés satisfaits de ce programme: au-delà de l’incitation financière, l’instauration d’une règle claire et partageable leur a permis de se dégager des autres tâches qu’on leur affectait dans leurs villages, qui les empêchaient d’enseigner plus régulièrement. L’absentéisme des enseignants ne provient donc pas que d’un manque de motivation, mais aussi d’un problème de définition des priorités.

Dans le domaine de la santé, une expérience similaire a été menée pour améliorer le taux de présence des infirmières dans les centres de soin: on a mis en place des appareils de type « pointeuses ». Cette expérience a totalement échouée, car, contrairement à l’expérience avec les enseignants, il s’agissait dans ce cas d’un système plus centralisé et moins contrôlé. L’écart entre ces deux études montrent également à quel point le diable est dans les détails, et qu’il est difficile de tirer de grands enseignements de la part d’expérimentations aléatoires, car tous les éléments doivent être identifiés et pris en compte.

En conclusion, on voit clairement qu’il est possible d’améliorer l’éducation et la santé dans les pays pauvres, mais qu’une grande partie des problèmes sont issus de problèmes de gouvernance: au niveau national / centralisé, les programmes sont trop vagues, peu structurés, et ne peuvent donc pas s’adapter aux spécificités des domaines et des géographies qu’ils sont censés couvrir. Les systèmes centralisés ont tendance à simplement allouer plus de ressources (financières ou humaines) à ce qu’ils font déjà, alors que les ONG sont génératrices d’innovations qui, si elles ne peuvent pas forcément êtres répliquées partout, ont le mérite de fonctionner à petite échelle, et surtout, de montrer ce qui peut fonctionner. Les éléments rassemblés dans ce livre permettent d’éclairer la réflexion sur les objectifs et les moyens à donner aux systèmes éducatif et de santé, intimement mêlés.

La suite dans: Lutter contre la pauvreté (II) La politique de l’autonomie

Pour acheter ce livre sur amazon.fr, cliquez ici: Lutter contre la pauvreté : Tome 1, Le développement humain

Le capitalisme est-il moral? – André Comte-Sponville

Samedi 7 juin 2008

Le capitalisme est-il moral? - André Comte-SponvilleDans Le capitalisme est-il moral?, livre issu d’une série de conférences qu’il a données sur ce thème, André Comte-Sponville propose une grille de lecture permettant de dire si le capitalisme, système économique dominant sans partage depuis la fin du bloc soviétique et l’ouverture de la Chine, est moral.

Le livre est articulé autour de deux parties principales: une version synthétisée et rédigée du texte des conférences, puis un ensemble de questions/réponses échangées durant les conférences, qui viennent éclairer et compléter l’argumentation de la première partie.

Avant de répondre à la question principale sur la moralité du capitalisme, André Comte-Sponville prend le temps de définir des limites entre différents types de concepts, qu’il appelle des ordres, au sens pascalien du terme [1]:

  1. l’ordre technico-scientifique
  2. l’ordre juridico-politique
  3. l’ordre de la morale
  4. l’ordre de l’éthique / de l’amour

Ces quatre ordres recouvrent des domaines et des concepts bien distincts, indépendants. Il faut bien sûr prendre les quatre ordres ensemble en considération, mais il reste indispensable de bien les distinguer, afin de comprendre leur logique propre et les influences qu’ils ont les uns sur les autres.

Par exemple, on ne peut voter une loi obligeant à aimer son prochain: l’amour est par essence dépourvu de logique (ne fait pas partie de l’ordre 1), ne peut être encadré par la loi (ordre 2), et transcende les valeurs morales (ordre 3).

La réponse à la question titre est donc limpide: non. Le capitalisme est un système économique, technique, et par là même, dépourvu de toute considération morale ou éthique. Le capitalisme est amoral, et non moral ou immoral.

Les seules entités capables de faire preuve de moralité sont les personnes qui agissent au sein du système économique, et cela relève même de leur devoir d’essayer de dégager des comportements moraux.

Il s’agit cependant d’un équilibre toujours précaire, car si les hommes aspirent naturellement au haut des valeurs, les groupes et ensembles sont eux naturellement inclinés vers le bas (hiérarchie ascendante des primautés contre enchaînement descendant des primats).

Etant bien en peine de résumer plus en détail ce livre, je ne peux que vous recommander chaudement de le lire, et vous livre la conclusion de l’auteur: il n’y a donc que les hommes qui peuvent (doivent!) toujours lutter pour aller vers le haut, avec amour, lucidité et courage. Que ces trois choses « puissent suffire, c’est ce qui n’est jamais garanti, et qui rend toute suffisance dérisoire. Mais là où ils manquent, comment pourrions-nous réussir? »

Point annexe à l’articulation générale du livre mais particulièrement clair grâce à cette distinction des ordres: les difficultés actuelles causées par la mondialisation/globalisation. En effet, André Comte-Sponville explique que nous sommes actuellement confrontés à une situation de déséquilibre entre l’ordre technico-scientifique (en particulier sa composante économique), fortement globalisé, et l’ordre juridico-politique, toujours limité à l’échelle de chaque état/nation. En effet, sans règle juridique ou politique à l’échelle mondiale, comment encadrer correctement l’activité économique? L’OMC et les Nations-Unies ne sont pas des systèmes juridiques ou politiques achevés, dans le sens où ils n’ont aucune souveraineté réelle; l’Union Européenne, quant à elle, n’est qu’un début, à l’échelle régionale.

Le capitalisme est-il moral, par André Comte-Sponville: une grille de lecture passionnante et éclairante sur l’homme et la société en général, publié au Livre de Poche.

Pour acheter ce livre sur amazon.fr, cliquez ici: Le capitalisme est-il moral?

Pour aller plus loin:


[1] Extrait de la note du livre sur ce concept: Un ordre, chez Pascal, est « un ensemble homogène et autonome, régi par des lois, se rangeant à un certain modèle, d’où dérive son indépendance par rapport à un ou plusieurs autres ordres » Les trois ordres de Pascal sont l’ordre du corps, l’ordre de l’esprit ou de la raison, enfin l’ordre du cœur ou de la charité.

nano-usines: transformer la valeur des biens

Dimanche 19 août 2007

Le concept de nano-usines renvoie à la possibilité de construire des objets complexes à partir des briques les plus petites accessibles: les atomes et les molécules. Ainsi, plutôt que d’obtenir un produit fini en assemblant différents composants déjà produits ailleurs, le concept de nano-production consiste à créer le produit fini en partant de « rien » ou presque: des atomes de carbone, de l’énergie, et d’innombrables manipulations invisibles.

Ce concept est en passe de devenir réalité, avec la mise à disposition prochaines de nano-fabriques accessibles aux particuliers, qui fonctionneraient certainement comme le montre ce film repéré par internetactu.net:

Vidéo : comment fonctionne une nano-usine ?

vidéo nano-usine - nano factory movie

vidéo nano-usine - nano factory movie

Ainsi, dans le film, on voit un personnage pousser le bouton d’une boite grise approximativement de la taille d’un micro-onde. Cela déclenche, au niveau moléculaire, la mise en route de la “nano-usine” qui va d’abord recueillir les molécules nécessaires à sa tâche. Puis, à un second niveau, elle assemble ces dernières en blocs de construction, puis connecte à son tour ces blocs ; etc. jusqu’à la fabrication du produit fini. A la fin du film, le personnage récupère dans la boîte un micro-ordinateur portable tout neuf, construit avec une précision moléculaire !

Ce type d’appareils remet en cause la notion de valeur telle qu’on la considère aujourd’hui, tant les modifications du processus de production sont importantes.

dématérialisation de la production

En effet, la nano-production ouvre en grand la possibilité de construire tout et n’importe quoi à partir d’éléments très basiques. Une fois les plans et schémas de conception d’un produit défini, il suffit de programmer l’usine en fonction de ce plan, et de l’alimenter en énergie et en briques élémentaires (qu’on pourrait très facilement obtenir en « démontant » des produits mis au rebut, avec des nano-usines chargées du recyclage).

Pour un exemple à la fois crédible et amusant des changements radicaux qu’offriraient (offriront?) de telles méthodes de production, je vous encourage à lire « Aube d’acier« , de Charles Stross. Dans ce livre, une économie type fin 19e / début 20e siècle est totalement bouleversée par l’arrivée d’une civilisation avancée, cette dernière distribuant des nano-usines à qui en fait la demande.

transformation de la notion de la valeur

On imagine facilement que si tout un chacun peut accéder à de telles nano-usines, les biens et produits finis n’ont donc plus réellement de valeur en eux-mêmes. Ce sont les plans de conception qui représentent la valeur. Le plan vaut plus que le produit fini.

Ainsi, Neal Stephenson, dans « L’Âge de diamant« , construit son intrigue autour de la perte des plans de conception d’un objet très important. Peu importe l’objet en lui-même; ce qui est critique, c’est de contrôler les plans de conception. D’ailleurs, même le diamant n’a plus de valeur, vu qu’il est aussi facile d’en synthétiser que d’imprimer un document (une simple masse de carbone organisée de façon structurée).

contrôle de la propriété intellectuelle & piratage

Toute la valeur résidant dans de l’immatériel (plans et éléments de propriété intellectuelle), le contrôle et le piratage de ces informations aura la plus grande importance. On peut facilement anticiper une accélération du piratage et du partage de telles informations, poussant d’autant plus les différents acteurs économiques à réfléchir à de nouveaux modèles économiques, qu’il s’agisse de coopération ou de coercition. A mon avis, les discussions actuelles autour des produits culturels seront risibles en comparaison.

  • Doit-on accepter la diffusion de nano-usines? Comment la société et l’économie pourra-t-elle se réorganiser?
  • Les anciens clivages disparaîtront certainement en grande partie… mais pour être remplacés par quoi? Est-il plus facile d’asseoir une domination sur des biens matériels ou sur des informations?
  • Comment sera contrôlé (ou libéré) l’accès aux ressources (éléments primaires + énergie)? Ouvertes à tous, sur le modèle de la distribution d’eau et d’électricité actuelle?

Sources:

  • La catégorie Nanotechnologie d’InternetActu.net: articles d’informations, éléments de réflexion et appel au débat citoyen autour des nanotechnologies.
  • Livres: « L’Âge de diamant« , de Neal Stephenson, et « Aube d’acier« , de Charles Stross, pour des visions amusantes et effrayantes des possibilités offertes par l’usage des nanotechnologies à grande échelle (voire grand public).

bande passante: enjeux et gestion de la pénurie

Dimanche 28 janvier 2007

Après l’explosion de la bulle internet, la bande passante a été une des valeurs qui a le plus perdu. Finies les autoroutes de l’information; le haut débit pour tous (réseaux & usages), ça sera pour plus tard. Aucun intérêt pour les liaisons Gigabits envisagées un temps, si ce n’est dans une optique de prouesse technologique ou de recherche scientifique.

Pourtant, depuis plusieurs mois, on voit déferler des usages réellement haut débit, qu’embrassent des millions d’internautes: explosion de la vidéo sur le web (YouTube ou Dailymotion), démarrage commercial pour la VoD, banalisation de la VoIP, et gonflement continu des échanges P2P (BitTorrent notamment). Tout ceci entraîne une augmentation et une densification de l’usage de bande passante par utilisateur. Augmentation car les débits réellement consommés lors de ces nouveaux usages sont plus élevés, et densification car les internautes (ou plutôt leurs machines) restent connectés de plus en plus longtemps.

Consommation de bande passante accrue: adaptation des opérateurs

Dès lors que le trafic mondial augmente, les capacités réseaux de tous les opérateurs sont sollicitées de façon croissante. La consommation de données de chaque internaute se rapproche de la bande passante théorique qui lui est accordée. Toutes choses égales par ailleurs, c’est-à-dire à capacités réseaux constantes, on tend donc vers une situation de congestion, vers une pénurie de bande passante.

Certes, les capacités réseaux continuent d’être améliorées, grâce à de nouvelles technologies (merci l’ADSL), ou grâce aux investissements des opérateurs de réseaux (poses de nouvelles fibres optiques sur et entre les différents backbones). Pourtant, les technologies comme l’ADSL ne font qu’améliorer la situation des consommateurs finaux, ce qui au passage dégrade la situation des opérateurs (si chaque consommateur a un tuyau plus gros, il faut donc que les opérateurs accroissent leurs capacités en conséquence). On voit ainsi que la seule situation pour éviter une congestion des réseaux et une pénurie de bande passante est l’augmentation des capacités réseaux par les opérateurs

…ou la limitation de la consommation des utilisateurs finaux. En effet, poser de nouvelles fibres optiques, tirer de nouveaux câbles sous-marins, tout cela a un coût élevé. Avant d’en arriver à de tels investissements, n’importe quel opérateur cherchera en premier lieu à optimiser le trafic sur son réseau, de façon à ce que la bande passante réellement consommée ne l’oblige pas à de nouveaux investissements.

Contrôler et limiter le trafic avant d’investir dans de nouveaux réseaux

Cas pratique: entre le milieu et la fin des années 1990, la société Cybercâble, filiale de la Lyonnaise des eaux (devenue Noos entre temps, fusionné avec Numéricable il y a peu) a posé ce qu’elle considérait comme « beaucoup » de câbles. Une fois les travaux finis, l’entreprise ouvre une des premières offres « haut débit illimité » (entre 1997 et 1998). Cependant, victime de son succès, Cybercâble doit faire face à l’engorgement de son réseau, les utilisateurs utilisent leur connexion et leurs programmes consommateurs de bande passante en continu. Il est impossible de poser de nouveaux câbles, cela coûterait trop cher et prendrait trop de temps. Dans un premier temps, l’entreprise décide de diviser la bande passante (par deux, par 4…). Colère et manifestations (je me souviens d’une amusante manifestation devant les locaux en plein centre de Strasbourg) d’utilisateurs obligent la lyonnaise à trouver une autre solution.

Et quelle solution? Les quotas de bande passante! Votre bande passante reste conforme à la promesse (ex: 512kbits par seconde), mais vous êtes limités dans la consommation totale mensuelle (ex: 3Go de données envoyées et/ou reçues). Attention aux étourdis, qui, ne surveillant pas leur consommation, se sont retrouvés avec des factures allant jusqu’à plusieurs milliers de francs. En effet, une fois le quota atteint, soit l’opérateur coupe… soit il compte le dépassement et vous envoie la facture.

Souvenirs d’une époque qu’on aimerait révolue dans cet article des archives de transfert.net (mai 2001)… mais dont on voit régulièrement des résurgences. Il suffit de regarder les offres de certains opérateurs, comme Noos Numéricable; qui a rétablit ses chers quotas en juin 2005 (voir l’article de 01net). Pour le moment, les quotas de bande passante (ascendante et/ou descendante) ne sont pas très courants en France, à croire que l’épisode de Cybercâble a refroidi bien des esprits. Cependant, dans d’autres pays (USA, Canada), ou dans d’autres contextes, les quotas de bande passante sont considérés très sérieusement.

Autre solution pour contrôler et limiter la consommation des utilisateurs: arrêter de considérer le net comme un réseau neutre, c’est-à-dire privilégier certains acteurs au détriment d’autres. Actuellement, les opérateurs laissent passer (relativement) librement et au même titre les paquets de données en provenance de mails d’utilisateurs, d’échanges P2P, ou d’éditeurs de contenus reconnus. Cependant, rien le les empêcheraient de privilégier les échanges de données offrant le meilleur rapport gain/coût. Une idée qui a déjà fait du chemin aux USA, comme le note jmplanche:

Sous la pression des opérateurs de télécoms américains, la chambre des représentants a voté à la majorité, un texte qui permettra (entre autre et au conditionnel) de facturer un droit de passage sur leurs réseaux, un peu à la tête du client :

En fonction du débit consommé (un peu trop de DailyMotion … paf les doigts)
En fonction des services utilisés (un peu trop de Google … pif la note !)

Nouveaux défis pour les éditeurs de services et de contenus

Dans un tel contexte, l’opérateur de réseaux a l’ascendant sur les éditeurs de contenus. Ces éditeurs de contenus, pour toucher les utilisateurs finaux, devront trouver des accords avec les opérateurs.

A moins de devenir eux-mêmes opérateurs de réseaux, comme… Google. Depuis quelques années, Google achète toutes les capacités réseaux excédentaires disponibles (fibre noire), sans pour autant acheter les réseaux eux-mêmes, car posséder tant de capacité réseaux leur ferait courir un risque de procès! Bon nombre d’analystes se demandent à quoi peuvent (ou pourront) servir toutes ces capacités réseaux, de même que les centres serveurs que Google construit, surtout aux Etats-Unis (le dernier à avoir été annoncé sera implanté en Caroline du Nord). Pour Robert Cringley, l’explication est limpide: Google veut devenir VOTRE internet. Derrière ce titre facile et provocateur se cache une analyse très pertinente, qui permettrait à un éditeur de services reconnu, disposant d’une base d’utilisateurs immense et fidèle, de devenir opérateur de réseaux et point de contact principal entre les consommateurs et le net:

It is becoming very obvious what will happen over the next two to three years. More and more of us will be downloading movies and television shows over the net and with that our usage patterns will change. Instead of using 1-3 gigabytes per month, as most broadband Internet users have in recent years, we’ll go to 1-3 gigabytes per DAY — a 30X increase that will place a huge backbone burden on ISPs. Those ISPs will be faced with the option of increasing their backbone connections by 30X, which would kill all profits, OR they could accept a peering arrangement with the local Google data center.

Au passage, cela cadre très bien avec la mission de Google: « Google a pour mission d’organiser à l’échelle mondiale les informations dans le but de les rendre accessibles et utiles à tous. »

Se rapprocher de la plus précieuse des ressources: les utilisateurs finaux

Un tel plan peut paraître tordu, je le trouve au contraire particulièrement bien vu. Les risques de congestion des réseaux vont croître dans un futur assez proche (à moins que les utilisateurs diminuent drastiquement leurs usages haut débit… rien que de l’écrire, ça me fait sourire). Dès lors, la pression sur les coûts des opérateurs sera critique. Pour maintenir leurs profits, les seules solutions à court terme seront de mettre en place de quotas ou des accords de distribution privilégiés, ce qui placera les éditeurs de services dans une position difficile, car ils ne seront plus en position de faire peser leurs services dans la négociation pour l’accès aux consommateurs.

Pour les éditeurs de services qui ont les moyens, négocier des accords de distribution deviendra une partie intégrante du modèle économique. Les plus gros évolueront comme Google, afin de se rapprocher des consommateurs, en intégrant la distribution à leurs activités; on assistera peut-être à une réelle fusion des contenus et des contenants, si chère à J6M lors de son passage chez Vivendi. Les petits éditeurs, les indépendants, les internautes, quant à eux, risquent d’être les grands perdants de cette « évolution »: trop petits, et trop atomisés, dans un nouvel espace qui imitera malheureusement les autres secteurs économiques plus classiques. On reverra peut-être fleurir les messages « Désolé, cet espace a dépassé son quota de trafic », pour cause de bande passante trop chère…

Alternative nécessaire: continuer à développer des réseaux

Espérons qu’avant d’en arriver là, des investissements conséquents en capacités réseaux soient réalisés, par des acteurs économiques privés et/ou publiques! Certains opérateurs, qui se sont spécialisés dans le négoce de bande passante, ainsi que ceux qui n’ont pas arrêté de poser des câbles avec l’explosion de la bulle auront eu le nez creux. En continuant d’accroître les capacités réseaux, on évitera peut-être le retour des quotas et l’apparition d’autres joyeusetés plus communes dans d’autres secteurs, comme la téléphonie mobile. Cela nous évitera peut-être la situation décrite dans EPIC 2014 (ou la mise à jour 2015), une animation prospective sur la concentration des acteurs du net et du web, réalisée en novembre 2004, qui se fait depuis allègrement dépasser par la réalité.

génération(s) internet – Autrans 2007

Dimanche 21 janvier 2007

Autrans 2007 - Les générations internetLors de la conférence « Comment les entreprises s’organisent pour tirer parti du mode de vie et de travail des générations Internet? » aux rencontres d’Autrans, la discussion s’est faite autour des échanges entre les différentes générations, et bien sûr, comment les « jeunes » s’intègrent en entreprise.

Les jeunes à la rescousse des vieux?

Ce qui est curieux, c’est qu’il y a une volonté plus ou moins consciente de regrouper les personnes dans des catégories pour les opposer: nouveaux contre anciens, technophiles contre technophobes, ou, dans le cas présent, jeunes contre vieux. On voit pourtant facilement qu’il est réducteur de mettre en opposition des groupes d’âge différents, surtout sur les technologies du web. En effet, bien que les jeunes soient majoritairement utilisateurs du net, ils ne sont pas pour autant experts des usages du net en entreprise. Ils sont plus rapides dans l’adoption de nouveaux usages, mais doivent également s’intégrer aux organisations existantes.

Ainsi, intéressons nous aux conséquences qu’a le net sur les activités des entreprises et des acteurs économiques.

Quel impact réel sur les entreprises?

Le net développe de nouveaux usages et de nouveaux comportements. C’est indéniable: dématérialisation de nombreux services, interactions interpersonnelles accélérées (IM, e-mail, espaces de travail collaboratifs), et changement profond du rapport à l’information.

Pour autant, selon les entreprises, le secteur d’activité, et bien sûr les personnes qui les animent, le rapport au net et l’intégration (nécessaire?) de ces technologies n’a pas les mêmes impacts. De façon générale, il s’agit de voir qu’il y a rarement créations de nouveaux métiers, mais principalement intégration de nouvelles compétences et de nouvelles possibilités aux métiers et emplois déjà existants. En effet, les nouveaux métiers se développent dans des périmètres et des périodes très réduits, le temps que les transitions se fassent, et que les différentes personnes aient assimilé les nouvelles compétences.

Réussir l’accompagnement au changement

Le principal défi à relever est donc celui de l’accompagnement au changement. Faire en sorte que les différents acteurs de l’entreprise intègrent la nouvelle technologie du moment à leurs activités et adaptent leurs méthodes de travail en conséquence. Il s’agit aujourd’hui d’intégrer les apports du net, de la même façon que la téléphonie ou le fax ont du être assimilés dans les décennies précédentes (le fax a d’ailleurs été une des innovations les plus disruptives, car pour la première fois, on pouvait quasi-instantanément communiquer de l’écrit à distance).

Et la meilleure façon de réussir un tel changement est de faire communiquer tous les types de personnes au sein de l’entreprise: les jeunes et les vieux, les nouveaux et les anciens, etc. L’informatique et le net ne sont donc qu’une nouvelle composante à intégrer, et c’est un projet de formation et d’accompagnement qui débouche sur le succès. Pour cela, la dynamique doit être embrassée par tous les acteurs de l’entreprise: jeunes, vieux, dirigeants, techniciens, etc.

Formation et échange

Les jeunes ne sont donc ni sauveurs messianiques ni éléments perturbateurs en puissance, mais simplement des humains en action. Leurs apports doivent être intégrés par les entreprises, de la même façon qu’ils doivent intégrer ce que l’entreprise et les autres personnes leur apportent. L’échange, ainsi que la formation, sont donc les piliers de l’intégration des innovations, pour que les entreprises puissent évoluer de façon progressive, en limitant les ruptures.

Ainsi, sans sombrer dans l’adoration technophile béate, à chaque personne d’intégrer ces nouveaux usages au quotidien, en s’adaptant à la structure dans laquelle on évolue. Par symétrie, il faut que les entreprises acceptent de jouer le jeu, car encore beaucoup d’entreprises bloquent la plupart des services web à leurs employés. Pourtant, si ceux-ci ont un poste informatique comme outil de travail principal, restreindre l’usage des services web ne mène à rien, si ce n’est frustrer les collaborateurs et pénaliser les effets bénéfiques du travail en réseau, que ce soit via IM, e-mail, espaces de travail collaboratifs, etc. Il faut savoir jouer avec plutôt que de lutter contre. Avec les apports de tous.

Ressources:

La publicité en ligne: limites et incompréhension

Dimanche 31 décembre 2006

Pour une grande majorité de sites web, la publicité est incontournable. Afficher de la publicité permet de générer du revenu, voire des profits. Et pour accroître ce revenu publicitaire, quoi de mieux que de développer le trafic?

En effet, accroître le trafic, et donc le sacro-saint volume de PAP, est considéré comme la façon la plus naturelle d’augmenter le revenu du site… Pourtant, il s’agit là d’une mauvaise façon de raisonner: les pages vues ne sont pas un indicateur fiable, et il ne faut pas se tromper de combat entre trafic et audience.

Les limites des indicateurs classiques

Nombreux sont les modèles économiques à être encore articulés sur l’augmentation des indicateurs publicitaires classiques, avec d’un côté l’augmentation du trafic, c’est-à-dire l’augmentation du nombre de pages vues (et donc des impressions publicitaires), et de l’autre côté, une hypothèse de stabilité (voire d’augmentation) du CPM. Cette logique amène de grands groupes soi-disant sérieux comme Yahoo! et Facebook à projeter une augmentation incroyable de l’usage, des pages vues, et des revenus:

En clair comment établir un plan de ROI à partir des revenus publicitaires sur une plateforme communautaire à la Myspace quand l’étiquette qui pendouille affiche 1,6 milliards? C’est finalement assez simple: on projette d’enregistrer 60% de la population estudiantine (Facebook, comme Myspace cible les étudiants et les jeunes adultes) d’ici 2010 à 2015, on affirme que 92% de ces nouveaux utilisateurs seront “actifs” et cracheront près de 1000 pages vues. On triture et on obtient plus de 270 milliards de pages vues (oui!) et on fait passer le CPM moyen de 0,25 $ en 2005 à plus de 5 $ en 2015.

L’exemple de Yahoo! et Facebook est choquant, mais il a le mérite de pousser la logique à l’extrême, et de faire réfléchir sur un modèle que la plupart des acteurs s’efforcent toujours de suivre: toujours plus de trafic, de pages vues, d’impressions publicitaires.

L’effet va certainement se poursuivre en s’accélérant, les sites 2.0 étant capables de générer des pages vues (et donc de l’inventaire publicitaire) à une vitesse incroyable, entraînant le CPM dans un abîme sans fin: 0,1$ pour MySpace, contre 2$ pour un grand portail généraliste comme Yahoo!, et 10 à 30$ pour les sites media; cf. les estimations compilées par Freddy Mini et Emmanuel Parody au mois d’avril dernier.

Les limites du marché publicitaire

A côté de cette spirale inflationniste des pages vues, il ne faut pas oublier certaines limites structurelles du marché publicitaire.

Tout d’abord, le fait que le nombre d’annonceurs est fini. Les budgets consacrés au web ont beau croître, l’explosion du nombre d’espaces publicitaires disponibles en ligne oblige les annonceurs à choisir les supports sur lesquels se placer. Mais cette explosion du nombre d’emplacement publicitaire ne doit pas faire croire que tous ces emplacements sont égaux. En effet, le volume a beau être très élevé, on assiste à une pénurie d’inventaire publicitaire… de qualité.

Et bien sûr, il faut prendre en compte la fragilité du marché publicitaire, première victime en cas de retournement de la conjoncture économique. Ce paramètre peut (doit!) refroidir bon nombre d’investisseurs quand la part du revenu assujettie à la publicité est trop grande.

Incompréhension trafic / audience

On comprend donc facilement que la problématique des annonceurs est de savoir quelle audience toucher pour que leur campagne ait le meilleur ROI, plutôt que de faire la course au volume d’impressions publicitaires. La télévision ne poursuit plus que marginalement le développement du nombre de spots ou d’emplacements publicitaires (tendance du moment: les séries, plus propices en insertion pub que les films). Les chaînes de TV s’efforcent plus d’attirer et de conserver des téléspectateurs, susceptibles d’attirer les budgets des annonceurs.

Sur le web raisonner sur le trafic plutôt que sur l’audience revient donc à prendre le problème à l’envers. Exemple avec le contenu généré par les utilisateurs (user-generated content): la plupart des sites essayent de l’incorporer car cela permet d’accroître de façon incroyable le nombre de pages vues. En effet, quoi de mieux que de laisser l’internaute s’exprimer pour qu’il affiche plus de pages? Pourtant, l’intérêt de l’UGC réside ailleurs: créer la différence, enrichir l’offre, et fidéliser les utilisateurs. Une audience qualifiée attirera les annonceurs; la génération de pages vues n’est qu’une conséquence annexe, et non le but à viser… cf. l’effondrement du CPM évoqué plus haut, avec un CPM moyen de 0,1$ pour MySpace, chantre du contenu généré par les utilisateurs.

La question n’est donc pas de multiplier les pages vues comme des petits pains, mais bien d’acquérir une audience fidèle et large, tout en essayant d’optimiser au maximum l’insertion publicitaire, afin de ne pas pénaliser l’usage.

Quant aux indicateurs, les taux de clics et l’usage réel sont bien plus honnêtes que le volume de pages vues et le trafic artificiellement généré par certaines formes de parcours client. Après tout, même Yahoo! commence à réfléchir à abandonner l’indicateur de pages vues, qui n’a plus grand sens à l’heure de nouvelles technologies comme l’AJAX.

Les classes moyennes à la dérive – Louis Chauvel

Samedi 25 novembre 2006

Les classes moyennes à la dérive - Louis ChauvelDans Les classes moyennes à la dérive, Louis Chauvel analyse la situation des classes moyennes en France, sous l’angle économique, social et historique. Un éclairage douloureux mais nécessaire.

La première partie du livre est consacrée à une question évidente: que recouvre le terme classe moyenne? En effet, selon les pays, les époques, les indicateurs considérés et surtout la perspective dans laquelle on se trouve, on peut regrouper de 15% à 80% de la population sous l’appellation « classe(s) moyenne(s) ». On se rend par ailleurs très vite compte qu’il est impossible de définir précisément le périmètre des classes moyennes. Par exemple, la différence de coût de la vie entre Paris et la Province rend les comparaisons sur les revenus sans grand intérêt. De plus, est-il satisfaisant que la plupart des indicateurs utilisés ne s’intéressent qu’aux revenus? Depuis des années, l’augmentation du prix de l’immobilier d’une part et le tassement de la croissance ET de l’inflation d’autre part confèrent un poids croissant au patrimoine dans la situation économique d’un ménage.

Ainsi, Louis Chauvel se propose de définir quatre grandes catégories de classes moyennes, réparties selon 2 axes permettant une distinction historique (anciennes et nouvelles) et selon le type de capital dominant (culturel et économique). Une image valant parfois mieux qu’une longue explication, je me permets de reproduire le graphique ci-dessous (page 40):

L'espace social schmollerien des classes moyennes - Louis Chauvel

Globalement, l’auteur explique surtout que les classes moyennes n’existent que dans le devenir, dans la promesse d’une amélioration de la situation de l’ensemble de ses membres; ce qui suppose une croissance économique et sociale soutenue. Dès lors que le mouvement de croissance cesse ou ralentit, l’ensemble se désagrège.

Cela n’aura échappé à personne, depuis quelques dizaines d’années, ce mouvement de croissance est en panne; ou tout de moins bien inférieur aux taux records auxquels la société s’était habituée durant les Trente Glorieuses (même si cette période est une exception historique et non la règle). Il n’en demeure pas moins que le développement des classes moyennes s’est fait durant cette période, porteuse de progrès économique, sociale et culturelle. La génération des baby-boomers a connu une amélioration de ses conditions de vie sans précédent, permettant à chacun de prendre l’ascenseur social et de monter d’un ou plusieurs niveaux dans la société.

Le paradoxe français est que la société française évolue par glissement: la génération des baby-boomers continue d’être la plus favorisée, au détriment des jeunes générations; il n’y a pas eu passage de relais, au contraire. Même si les écarts inter-déciles ont été spectaculairement stables en France, une analyse par tranches d’âge révèle une surprise de taille: il y a 20 ou 30 ans, la pauvreté touchait essentiellement des personnes âgées, souvent laissées de côté par l’industrialisation et l’exode rural; de façon cynique, on pouvait se dire que le problème se résoudrait (et s’est résolu) de façon naturelle. Or, ces dernières années, la pauvreté a sauté une génération: les pauvres d’aujourd’hui sont des jeunes, plein d’avenir dans la pauvreté!

Les jeunes actuels ont en effet été sacrifiés par l’état et l’ensemble de la génération 68, au contraire de la génération précédente qui, après avoir traversé la deuxième guerre mondiale, avait mis en place les conditions dont a profité la génération 68. Il ne fait pas bon avoir moins de 30 ans aujourd’hui, et les mouvements sociaux des derniers mois le soulignent avec force sur des fronts très différents: chercheurs, lycéens, banlieues… Face à la situation actuelle de ralentissement économique, de déclassement social et d’inflation scolaire, l’ascenseur social et la méritocratie sont en panne, ne laissant une chance qu’aux meilleurs… et à ceux qui peuvent bénéficier d’un soutien familial.

Dans une telle situation de ralentissement, la réaction logique serait d’adapter ses besoins et ses aspirations au nouveau contexte; mais qui en aurait envie? C’est contraire aux réflexes acquis et à la pression sociale: quand bien même la situation économique n’est pas glorieuse, on a toujours l’habitude de consommer autant voire plus que les années précédentes, et la publicité et les marques poussent à toujours plus de consommation (note personnelle: notez l’écart de prix entre un Walkman (Sony) dans les années 1980 et un iPod (Apple) aujourd’hui; même à parité de pouvoir d’achat, l’écart est saisissant).

En conséquence, on peut se demander quand est-ce que le point de rupture sera atteint. Selon l’auteur, la déstabilisation politique viendra des générations dorées, et non des jeunes actuels, ces derniers étant pour la plupart dans un état de détachement politique total (incompréhension réciproque des uns et des autres) et de recherche de solution individualiste (stratégie égoïste pour ceux qui le peuvent, résignation silencieuse pour les autres). Au contraire, la génération 68, bien plus politisée, constate de plus en plus amèrement que sa progéniture est en situation d’échec, et risque donc de déstabiliser durablement les représentations politiques.

Les politiques et les élites n’ont pas jugé bon de s’adapter, et ne comprennent toujours pas le désintérêt massif pour la politique. Il est pourtant clair que ce décrochage du sentiment politique est lié à la prise de conscience du problème par l’ensemble de la population, de façon claire ou implicitement ressentie: la situation économique ne s’améliorera pas pour tout le monde, seuls les meilleurs peuvent espérer s’en sortir, et on voit réapparaître une aristocratie patrimoniale, en parallèle de l’affaiblissement économique des différentes strates du salariat.

Face à une situation aussi difficile et à la rigidité du discours politique, l’attrait du populisme devient supérieur à celui des (anciennes?) promesses des élites des « classes moyennes ». En effet, difficile de se satisfaire de la solution: « Up or Out« …

Arrivé aux dernières pages du livre, on réalise que Louis Chauvel ne raconte pas une belle histoire, mais fait tout pour montrer la réalité actuelle, sans arrondir les angles, pour susciter la prise de conscience. La conclusion est sans appel: soit politiques et décideurs se réveillent et amorcent un lourd processus d’adaptation de la société française aux nouvelles conditions économiques mondiales, soit ils préfèrent ne pas soulever de questions embarrassantes en pleine année électorale… Malheureusement, à force de laisser passer le temps, il est parfois trop tard…

Les classes moyennes à la dérive, par Louis Chauvel: un électrochoc salutaire publié à La République des Idées, chez Seuil.

Pour acheter ce livre sur amazon.fr, cliquez ici: Les classes moyennes à la dérive.

Pour aller plus loin:

La fin de la télévision – Jean-Louis Missika

Dimanche 8 octobre 2006

La fin de la télévision - Jean-Louis MissikaDans La fin de la télévision, Jean-Louis Missika décrypte les évolutions du monde de la télévision de son invention à nos jours, et explique comment la télévision va disparaître, à l’heure où les écrans et les images sont omniprésents.

Une présentation chronologique des évolutions de la télévision permet à l’auteur de montrer le déclin de la dimension éditoriale de la télévision et la perte d’influence de ceux qui véhiculent ces messages: chaînes, présentateurs et animateurs en tous genres. En effet, selon Jean-Louis Missika, des années 1950 aux années 1980/90, on est passé d’un univers dans lequel la télévision était une institution de transfert de savoirs et de connaissances, fortement contrôlée par les pouvoirs en place (la paléo-télévision), à une télévision de plus en plus proche du téléspectateur, dans laquelle ce dernier s’invite à l’écran (la néo-télévision). L’évolution s’est poursuivie avec l’apparition d’une télévision encore plus proche du téléspectateur, fusionnelle, dans laquelle seul compte le fait d’être à la télévision (la post-télévision). En conséquence, il est maintenant plus important de coller aux attentes et émotions du public que de faire passer des messages.

Comment en est-on arrivé là? Ces changements ont-ils été imposés par les chaînes de télévision, ou bien la télévision a-t-elle accompagné un ensemble de mutations inévitables?

Selon Jean-Louis Missika, trois fais expliquent ces glissements: la démédiation, la dépendance, et la déprofessionnalisation.

La démédiation est pour la télévision la perte progressive de son statut d’acteur économique incontournable. Quand des centaines de chaînes sont accessibles par ondes hertziennes, par câble, ou par satellite, l’offre devient hyper-segmentée, et en conséquence, l’audience se fractionne. Ce fractionnement pénalise les grandes chaînes (sans pour autant conforter la situation des petites) dans la course à l’audience, nécessaire pour négocier aussi bien avec les producteurs de contenus que les annonceurs.

Dans le même temps, les producteurs de contenus ont revu leurs positions en capitalisant sur leurs compétences-clés et sont dorénavant dans une situation de force par rapport aux chaînes, créant pour la télévision une situation de dépendance. Un exemple? La Champion’s League, événement international, a noué un partenariat avec Playstation, partenariat que les (nombreuses) chaînes de télévision doivent accepter afin d’obtenir les droits de retransmission de l’événement.

Ce phénomène de dépendance est renforcé par l’apparition de supports concurrents de la télévision: des acteurs comme les FAI ou les portails web sont en mesure de concurrencer les chaînes de télévision dans les négociations avec les producteurs de contenus: les FAI disposent d’une audience captive (leurs bases d’abonnés), et les portails web disposent d’une audience massive, couvrant souvent plusieurs pays.

Au passage, le contexte de convergence numérique accentue également l’hyper-segmentation de l’offre en permettant aux producteurs d’événements de diffuser directement leurs contenus, grâce à de nouveaux moyens de diffusions comme la TV IP ou le podcasting, qui s’ajoutent aux diffusions par câble, satellite, TNT, etc. Certains clubs de football gèrent ainsi la diffusion de leurs matchs au travers de chaînes spécifiques sur la câble ou le satellite (Barça TV ou OM TV), voire en ligne (OM TV online).

De l’autre côté du téléviseur, la prise de participation croissante des téléspectateurs dans les activités médias crée un phénomène de déprofessionnalisation de la télévision. Le phénomène de création personnelle de vidéos n’est certes pas nouveau; ce qui est nouveau, c’est la capacité de diffusion qui s’offre à tous ces vidéastes amateurs. YouTube ou DailyMotion sont les premiers vecteurs de la conquête de l’espace audiovisuel par les téléspectateurs. Bien entendu, seule une minorité d’individus va diffuser activement des contenus vidéo en ligne. Néanmoins, cela suffira pour accentuer les phénomènes déjà à l’oeuvre: diminuer l’importance des chaînes de télévision du fait d’une fragmentation extrême de l’audience, et renforcer l’idée que se font les personnes de l’accès à l’antenne: un droit en soi.

Dans la troisième et dernière partie de son ouvrage, Jean-Louis Missika explique en quoi la disparition progressive de la télévision est négative sur le plan social: la fin de la télévision entraîne la disparition du principal espace de débat. La télévision est (était?) le meilleur forum des sociétés démocratiques modernes: elle favorise l’échange d’idées, et permet à chacun d’affiner ses propres idées, en se confrontant à l’ensemble des opinons.

En effet, la télévision, encore mieux que la radio ou la presse, permet de matérialiser la confrontation, par exemple à l’occasion d’un débat politique entre deux candidats à l’investiture présidentielle, et de rassembler une audience massive devant ce débat.
Le passage de la paléo-télévision à la néo-télévision a diminué l’importance accordée à ces événements, en décrédibilisant les porteurs de messages à l’écran et en offrant la possibilité aux téléspectateurs de se tourner vers des programmes plus consensuels ou plus en accord avec leurs goûts. Le passage à la post-télévision a quant à lui fini d’enfoncer le clou, avec la perte totale d’intérêt accordé aux messages diffusés.

L’auteur prend la campagne présidentielle française de 2002 comme exemple, durant laquelle l’ensemble de l’électorat s’est désintéressé de l’événement. Le choc du 21 avril a ainsi abouti à une situation absurde: la campagne a duré à peine quelques minutes, entre l’annonce des résultats du premier tour à 20 heures et les réactions qui ont suivi. Au final, il n’y aura eu quasiment aucun échange ou débat politique réel pour cette élection présidentielle, et les transformations de la télévision y sont pour beaucoup: décrédibilisation des porteurs de messages, simplification extrême des messages en eux-mêmes, et focalisation sur l’humain et ses bassesses plutôt que ce qui est dit.

Comme l’indique le quatrième de couverture: Nous entrons dans un monde d’images omniprésentes et de média absent. Toujours plus d’images et toujours moins de télévision. Nous allons connaître une société sans télévision. Le point clé de la disparition de la télévision étant, selon l’auteur, la perte d’un espace d’échange d’idées, politiques, sociales ou autres. La fin de la télévision intervient sans que rien n’émerge en remplacement. Il reste donc à inventer un nouveau forum de discussion public, ouvert, et massif. Rapidement, si possible.

La fin de la télévision, par Jean-Louis Missika: un essai convaincant sur les mutations des médias audio-visuels et la disparition programmée de la télévision en tant que média éditorial incontournable, publié à La République des Idées, chez Seuil.

Pour acheter ce livre sur amazon.fr, cliquez ici: La fin de la télévision.