Glossaire:économie de l'utilité

De iconomie
Aller à : navigation, rechercher


L'opposition capital-travail[notes 1] a structuré la pensée économique pendant deux siècles. La transition numérique apporte massivement de nouvelles métriques de l'utilité des produits intermédiaires et finals, ce qui change la nature de l'économie.

Sommaire

Synthèse[1]

La manière dont nous mesurons l'économie a une influence décisive sur sa gestion et sa régulation. Mesurer le temps de travail aboutit au SMIC et à l'âge légal de la retraite. Mesurer la rentabilité aboutit à l'augmentation de l'épargne et à la circulation des capitaux. En creux, nous ignorons ce que nous ne mesurons pas, ou mal : les effets positifs de la responsabilité d'un manager, du dévouement d'une infirmière, de l'agriculture raisonnée[2] ou d'une dynamique collective, les effets négatifs de l'obsolescence programmée, de la bureaucratie ou de l'empreinte carbone d'un produit.

L'utilité de ces effets est fondamentale en économie. Pourtant, bien que la théorie de l'utilité soit antérieure, elle a été supplantée par la théorie ricardo-marxiste de la valeur travail et la théorie néo-classique de la valeur de marché.

Or il s'avère que de nouvelles métriques s'invitent en masse dans l'économie. La qualité des contributions dans Amazon est mesurée grâce à la question: «ce commentaire vous a-t-il été utile?». Des algorithmes calculent l'utilité grâce aux clics des internautes. Ils permettent à Google de définir le prix des publicités, à TripAdvisor ou à BlaBlaCar de classer hôtels et conducteurs.

Industrialisée, la personnalisation de l'offre optimise cette utilité. Netflix constitue une liste de films pour chaque téléspectateur. Vente-privee effectue des recommandations individuelles grâce au big data. Les jeux sur smartphones de King s'adaptent à chaque joueur. L'assureur Aviva baisse la prime d'un jeune conducteur en évaluant sa conduite grâce à une appli de son smartphone[3].

Cette tendance répond d'abord à une consommation plus sensible aux effets utiles d'un produit qu'à sa possession[4]. Le covoiturage se substitue au désir de propriété d'une voiture. La musique portative se développe aux dépens du disque. Un produit inclut une part grandissante de services, comme le label AOC, l'échange gratuit, la commande en ligne, la livraison en magasin, le « made in France », l'image de marque, la traçabilité ou le caractère recyclable. Le rapport qualité/prix devient un rapport utilité/prix, dont la subjectivité est propre à chaque consommateur lorsqu'il achète une smartwatch ou loue un Vélib'.

Cette tendance s'affermit ensuite avec les modes de production. La SNCF met à disposition tous ses horaires dans une application ouverte « à toutes fins utiles »[5], c'est-à-dire à la disposition de sur-traitants qui en inventeront de nouveaux usages. Ce modèle d'« API » est utilisé par des milliers d'applications comme Mappy pour ses cartes ou Twitter pour l'exploitation des billets publiés par ses usagers.

Cette tendance se renforce aussi avec la valorisation grandissante de l'utilité ajoutée[6]. Cette forme de reconnaissance ou d'intéressement est plus fine que le simple bonus, indexé sur la valeur ajoutée comptable. Ainsi les modèles freemium ou au lead (au prospect), dont le prix est proportionnel au service rendu, se sont imposés en ligne. Les patients notent leurs médecins sur doctor.com et les étudiants de HEC notent leurs professeurs[7]. Dans la fonderie Favi, les leaders sont désignés par les ouvriers[8][9]. L'entreprise américaine Morning Star fonctionne sans hiérarchie[10]. Forbes rémunère ses journalistes en fonction de la fidélité de leurs lecteurs. Quirky rétribue des milliers de co-créateurs en analysant les traces de leurs contributions.

Les problèmes théoriques de l'utilité sont résolus par la pratique, en particulier son caractère subjectif : le prix d'un même produit peut varier entre deux clients et entre deux instants, par exemple celui des billets d'avions. Le problème de la répartition équitable des revenus entre les co-producteurs d'une valeur utile est résolu grâce au big data.

Quelques initiatives publiques vont dans le même sens : les associations sont invitées à comptabiliser le bénévolat pour rendre compte de leur utilité sociale. BPI France élargit son périmètre à l'innovation centrée sur l'utilisateur. Suite à la Commission Stiglitz, France Stratégie propose des indicateurs de croissance soutenable[11]. Le Royaume-Uni mesure le bien-être de sujets ou citoyens[12]. L'union européenne développe des critères d'utilité environnementale et sociale, suivie par l'ONU.

Les prismes du travail et du capital ont structuré la politique pendant deux siècles. Celui de l'utilité, en révélant la compétence relationnelle, la dynamique collective ou le rôle grandissant de l'utilisateur face au duo travailleur-capitaliste, réinvente aujourd'hui notre modèle économique pour en dépasser les limites.

La fin d'une ère économique

L'économie, une science inutile ?

Les besoins de prévision

Le laser a attendu 20 ans le CD audio, l’échographie a attendu 40 ans le diagnostic prénatal, le train, le téléphone, le phonographe, la bicyclette ont été longtemps dénigrés. A contrario, on s’est beaucoup enthousiasmé pour des techniques sans lendemain (le théâtrophone, le dirigeable personnel, l’hibernation artificielle, les bijoux électriques). La maturité des techniques est insuffisante pour en pronostiquer l’avenir.

Il vaut mieux identifier des grappes d’innovations dont la pérennité est plus solide (électrification, machinisation, organisation du travail, grande distribution ; robotisation, ubérisation, impression 3D).

Enfin, la fertilisation croisée de ces grappes est de nouveau imprédictible (machine à coudre => Vêtement low cost. Rotative => journaux. Grande distribution + journaux => publicité. Low cost + grande distribution + publicité => secteur de la mode).

Pour autant certaines prévisions, même discutables ou fausses, ont un intérêt pédagogique, organisationnel ou performatif (lois de Moore, Parkinson, Brooks, Metcalfe, bug de l’an 2000, Moon shot,…).

Changer de métriques pour changer de point de vue

La manière dont nous mesurons l'économie a une influence décisive sur sa gestion et sa régulation. Mesurer le temps de travail aboutit au SMIC, au nombre de jours de RTT et à l'âge légal de la retraite. Mesurer la rentabilité aboutit à l'augmentation de l'épargne et à la circulation des capitaux.

En creux, nous ignorons ce que nous ne mesurons pas, ou mal : les effets positifs de la responsabilité d'un manager, du dévouement d'une infirmière, de l'agriculture raisonnée[2] ou d'une dynamique collective, les effets négatifs de l'obsolescence programmée, de la bureaucratie ou de l'empreinte carbone d'un produit.

L'utilité ou la désutilité de ces effets sont fondamentales en économie. Pourtant, bien que la théorie de l'utilité soit antérieure, elle a été supplantée par la théorie ricardo-marxiste de la valeur travail et la théorie néo-classique de la valeur de marché.

Changer de métriques, en changeant la description de l'économie, pourrait-il changer notre manière d'agir ? Oui. En modifiant seulement la traditionnelle mesure de répartition des revenus par décile pour la décomposer en centile, Camille Landais et Thomas Piketty on fait apparaître l'explosion récente des écarts de richesse en faveur du 1 % de la population, qui n'apparaissait pas avec un filtre moins fin. La perspective nouvelle offerte par ce changement de lunette statistique a inspiré le slogan « nous sommes les 99 % » au sein du mouvement des Indignés et Occupy, au début des années 2010. Il ne faut pas grand-chose –choisir d'autres variables, changer l'échelle, calculer autrement- faire du chiffrage la meilleure arme contre d'autres chiffrage[13].

Or il s'avère justement que de nouvelles métriques s'invitent en masse dans l'économie.

Les mesures de l'utilité s'invitent en masse sur internet

Utilité individuelle

"Les damnés de la terre étaient au XIXè siècle les colonisés et les surexploités ; au XXIè siècle ce seront les hommes inutiles[14]

Utilité collective

Utilité des produits

Certains indicateurs mesurent l'utilité d'un produit non pour une personne en particulier mais pour un groupe. Ceci permet d'obtenir des tableaux statistiques, par exemple pour améliorer la conception des produits.

  • Google Analytics mesure l'efficacité de la page d'accueil d'un site web grâce au taux de rebond, les pages vues, le temps passé sur une page et la fréquence des visites.
  • TweetLevel ou TwitterGrade mesurent le nombre de personnes atteintes par un texte posté sur Twitter.
  • Wynd mesure l'ergonomie des tablettes que les serveurs utilisent pour prendre les commandes dans les restaurants.
  • Des indicateurs d'ergonomie de l'interface homme-machine (norme ISO 9241) répondent à la question : « ce tunnel d'achat est-il facile d'utilisation ? »[15] à la place des internautes.

Utilité sociale

  • Robin Hood mesure l'efficacité des dons philantropiques dans leur action pour réduire la pauvreté : vaut-il mieux investir dans une école supérieure qui diplôme 50 étudiants qui avaient décroché, ou plutôt un programme de formation qui donne des emplois de long terme à des chômeurs ? A cette fin, Robin Hood compare ce qui arrive aux bénéficiaires des programmes aidés - les étudiants des écoles subventionnées ou les chômeurs accompagnés - par rapport à ceux qui n'ont pas reçu d'aide. Cette comparaison donne lieu à un ratio coût/bénéfice, basé sur 163 métriques, qui permet d'attribuer à chaque dollar donné un montant de "bien philantrope"[16].


Nocivité collective

A l'inverse l'utilité négative, c'est-à-dire la nocivité d'un produit est souvent dénoncée au titre de la contrefaçon, de l'excès de bureaucratie ou de normes, de la responsabilité sociale et environnementale, ou encore de la prédation économique. Le trading à haute fréquence a été pointé du doigt par la Commission Européenne, mais aussi les errements des banques qui ont provoqué la crise de 2008.

Les dirigeants de Lehman Brothers ont utilisé la technique du repurchase agreement juste avant l’arrêté de leurs comptes trimestriels pour dissimuler aux régulateurs et aux investisseurs leur trop plein d’activité et leur manque de ressources. Aucun juriste américain n’ayant voulu valider leurs pratiques, ils ont réalisé tout cela à partir de leur filiale de Londres où ils ont trouvé des experts bien plus conciliants. Lehman Brothers a fait faillite car elle a pris trop de risques, c’est entendu. Mais cela n’a été possible que par des magouilles comptables, la destruction du contrôle des risques et l’utilisation de paradis fiscaux et réglementaires. Qui sont les trois véritables sources de la panique bancaire mondiale de la fin 2008[17].


Malgré les techniques de dissimulation toujours plus poussées, on commence à voir apparaître des mesures de la nocivité grâce aux traces que laissent les fraudeurs sur internet :

  • Brand Watchdog identifie la contrefaçon sur internet. Pour le luxe, le premier constat était que la photo du produit n’est pas un indicateur fiable, puisque de nombreux sites de contrefaçon affichent la photo issue du site de la vraie marque. Le prix de vente peut être un indice, mais ce n’est pas systématique, alors que l’analyse de la source du site web, son service client, sa licence, etc, est souvent révélateur. En moyenne et pour chaque source identifiée, plus de 300 points de mesures sont analysés, à partir d’une douzaine de médias sociaux les plus fréquentés et de l’ensemble du web. Le résultat est donc relativement exhaustif, en plus de bénéficier de traitements en temps réel[18].

Utilité intermédiaire

La Business intelligence

Dashboard, Dataviz, stratégies data-driven : les pratiques foisonnent pour cartographier et exploiter les données.

Chauffeur-Privé cite facilement plusieurs décisions "data-driven", prises grâce aux données visibles dans Tableau. Les prix, et les éventuelles majorations, ont été optimisés grâce aux indicateurs remontés. Des problèmes d'UX ont aussi pu être identifiées, et donc corrigés dans les processus d'inscriptions. L'analyse des notations des clients après les courses a aussi permis d'améliorer l'expérience clients. "Le marketing profite de certains indicateurs, qui lui permettent, par exemple, de calculer le coût du programme de fidélité et son ROI", ajoute Matthieu Pouget-Abadie, responsable marketing de Chauffeur Privé[19]
Présentée comme une carte topographique avec des courbes de niveaux, le service proposé par l’INPI est de lecture simple : la haute montagne indique que de très nombreux brevets ont été déposés sur le sujet, une île signifie à l’inverse que l’invention est pour l’instant isolée, et donc nouvelle. En effectuant un zoom, l’utilisateur peut voir les brevets déposés récemment, en vert, et ceux qui l’ont été par le passé, en rouge. La recherche publique est également cartographiée, permettant à l’entrepreneur d’imaginer des passerelles avec l’université spécialiste de son domaine[20].
Analyst's Notebook d' IBM aide les enquêtes de police. En pratique, les analystes rentrent dans une base de données « les éléments les plus utiles pour les enquêteurs », explique au Parisien le colonel Didier Berger, chef du Bureau des affaires criminelles (BAC) de la gendarmerie : « Cela peut être la précision d’une conversation, le lieu et l’heure où un témoin déclare avoir été. » Un travail méthodique et titanesque, peu importe l’ampleur de l’enquête. Cité par L’Alsace, le colonel François Després, commandant de la section de recherches de Strasbourg, explique ainsi avoir « brassé trois millions de données » dans une affaire de vol de vélos. Ensuite, le logiciel « d’analyse et de représentation visuelle » met en forme ces informations « sous forme de graphes relationnels ou événementiels », peut-on lire dans une délibération de décembre 2011 de la Commission nationale de l’informatique et des libertés (CNIL), saisie par le ministre de l’intérieur concernant la mise en œuvre de logiciels de rapprochement judiciaire à des fins d’analyse criminelle. « Par ses fonctions de recherche, de tri et de recoupement de données, l’application permet à l’enquêteur de mettre en évidence des corrélations entre les données collectées : il est par exemple possible d’identifier des numéros de téléphone systématiquement utilisés à l’heure et au lieu de la commission des crimes ou délits qui font l’objet de l’enquête. » Le logiciel met ainsi en évidence des incohérences d’emploi du temps dans les témoignages, ou les contradictions qu’ils entraînent. Un faisceau d’irrégularités qui permet « d’avoir une vision globale de la procédure et de distinguer la logique qui se dessine au travers de la commission d’un fait criminel ou délictuel », note le colonel Didier Berger[21].

La démocratisation des tableaux de bords

Tableau Software, spécialiste de la visualisation de données, a annoncé l’acquisition de la start-up ClearGraph. Celle-ci a développé une technologie de requête par langage naturel pour extraire les données d’une base d’une manière simple et performante, pour l’utilisateur. Tableau entend intégrer cette technologie dans ses solutions. « Les requêtes en langage naturel faciliteront l’interaction avec Tableau qui deviendra alors accessible au plus grand nombre, qu’il s’agisse d’un cadre ayant besoin de réponses rapides ou d’un utilisateur en déplacement qui souhaite obtenir une réponse sur son mobile, commente François Ajenstat, Directeur produit chez Tableau. Tableau fournit en effet des tableaux de bord qui simplifient l’analyse des données sous forme graphique (dataviz) mais aussi de les partager, publiquement ou non (...) Pour ce faire, ClearGraph stocke des données sémantiques dans des « Knowledge Graphs », une base de connaissances issues de diverses sources. Une technologie utilisée depuis 2012 par Google dans son moteur de recherche. « [Les Knowledge Graphs] peuvent accumuler des connaissances et acquérir une meilleure compréhension au fil du temps, précise la start-up. Aucune formation technique n’est requise pour accéder aux données et les analyser avec ClearGraph, car le système peut prédire les intentions des utilisateurs grâce au langage naturel. »[22].

Les indicateurs clés de performance

Pratique des KPI

Les mesures de performance de la production ont démarré vers 1880 avec la révolution industrielle. Ces mesures portaient alors sur les performances financières et la productivité. Un siècle plus tard, les dirigeants ont constaté l'inadéquation de ces métriques dans un monde en compétition multidimensionnelle. Depuis les années 1970, de nouveaux indicateurs clés de performance (key performance indicators ou KPI) se sont développés pour rendre compte de performances non financières, comme la qualité, le temps, la flexibilité ou la satisfaction du client[23].

  • Le secteur aérien est extrêmement homogène et concurrentiel. Que les compagnies soient low-cost, classiques ou haut de gamme, qu'elles desservent plutôt les courts ou les moyens courriers, elles doivent toutes maîtriser certains facteurs clés de succès en commun. Dans la mesure où elles opèrent essentiellement à coût fixe, il leur faut impérativement maximiser le rendement de la flotte, c'est-à-dire s'assurer que les avions soient aussi remplis que possible, et qu'ils soient autant en exploitation que possible. De ces deux nécessités découlent deux indicateurs distincts : d'un côté le taux de remplissage moyen par avion, de l'autre le temps moyen passé en vol chaque jour par avion. Ces indicateurs ne mesurent pas la performance financière, bien qu'ils y participent[24].
  • La mise dans le cloud. Les indicateurs de performance d'un système informatique dans le cloud seront la disponibilité, les capacités de traitement et le temps de réponse, qui évalueront l’accès réseau. La rapidité des processeurs, la vitesse de lecture des disques de stockage, leur rapidité de déploiement, le dimensionnement des serveurs (exprimé en Mips), la capacité du type nombre de transactions par minute (TPM) ou la charge transactionnelle (TPC) évalueront les machines. La réactivité, la souplesse de déploiement et l’évolutivité des solutions évalueront le coût total de possession (TCO)[25].
  • Les bibliothèques publiques. Malgré des effets utiles très immatériels, des indicateurs de performance ont été suffisamment codifiés pour faire l'objet de la norme ISO 11620:214 [26]


Changement d'échelle

Les écueils actuels de l'utilisation des KPIs sont liés à la rareté des points de mesure qui les constituent, ce qui en gêne l'interprétation.


Les professeurs Christopher Ittner et David Larcker ont écrit que "peu compagnies ont fait des efforts pour identifier des performances non financières pour faire progresser leur stratégie. Elle n'ont pas démontré non plus de lien de cause à effet entre ces critères non financiers et le cash flow, leur bénéfice ou le prix de leur action"[27].

La masse des nouvelles métriques de l'utilité introduit une rupture dans la pratique des KPIs, car les data sciences révèlent les liens de cause à effet. Il ne s'agit en revanche pas d'un remplacement, puisque la longue expérience des KPIs oriente l'utilisation des big data.

  • Les entreprises de logistique utilisent par exemple les informations massives de positionnement GPS des transporteurs et des traceurs RFID pour suivre la marchandise. Cependant ces informations ne délivrent de la valeur que si elles sont correctement mises en perspectives par des KPIs telles que le délai de livraison ou la baisse des coûts de livraison[28].

Cette création de valeur était déjà mesurable en 2012. On observait alors que la productivité des entreprises était augmentée de 5% et leur rentabilité de 6%[29].

L'apport des métriques de l'utilité aux KPIs constitue ainsi un enrichissement aussi radical que la mesure systématique des données géologiques a changé la pratique de l'exploitation minière pendant le XIXème siècle. De plus, mesurer les effets utiles d'un produit intermédiaire permet en miroir d'en déduire l'utilité ajoutée des agents de production, c'est-à-dire leur performance au regard de ces effets : pertinence d'un processus de sélection, sécurité des vols aériens, répartition correcte des équipes d'intervention, optimisation des stocks ou des déplacements.

Qualité

  • Evolv a observé qu'il n’existe aucune corrélation sérieuse entre la réussite d’un candidat dans le travail qui lui est proposé et l’expérience accumulée par ce même candidat dans les postes qu’il a occupés précédemment. Et inversement, ce n’est pas parce qu’un candidat a été inscrit au chômage pendant une période relativement longue (plus de six mois) qu’il ne sera pas capable de répondre aux attentes de son futur employeur. Les employés entretenant des relations avec au moins trois collègues restent plus longtemps dans leur entreprise que ceux qui n’y ont pas d’amis. Un employé actif sur les réseaux sociaux est plus enclin à rester fidèle à son entreprise et donc à y rester longtemps. La fidélité des employés recrutés via l’analytique augmenterait de 35 % et leur performance grimperait de 30 %[30].

Gestion des risques

  • Safetyline anticipe les problèmes de sécurité des vols aériens. La méthode employée consiste à déterminer le principe des marges et observer comment elles sont absorbées. L’idée est de connaître les valeurs des données pour un vol normal, la marge d’écart acceptée, et la façon dont la compagnie utilise ces marges. Sans a priori, on regarde toutes les données, essentiellement récupérées par les capteurs disposés sur les avions, mais aussi les données météorologiques par exemple. Un avion enregistre environ 1 000 paramètres par seconde, donc sur un vol entier les volumes atteignent des niveaux nécessitant une analyse experte. 60 % de marge sont généralement pris en compte pour englober tous les paramètres. Dans la grande majorité des cas, c’est largement suffisant, mais sur des vols atypiques ou pour certains aéroports par exemple, la marge de sécurité restante est faible. On peut ainsi faire une prédiction, en pourcentage, des risques sur un modèle donné[31].
  • PredPol (predictive policing) prédit où et quand des délits ont le plus de probabilités de se produire. Grâce à une base de données recensant les infractions passées, les forces de police peuvent, comme dans le film de science-fiction de Steven Spielberg Minority Report (2002), se rendre sur les lieux avant même que les actions soient commises. Utilisé également pour prévenir les catastrophes naturelles comme les séismes, ce type d’analyse est une nouvelle façon de hiérarchiser les priorités et d’allouer les ressources humaines et financières[32]

Délais et coûts

  • Passur calcule l'heure exacte d'arrivée des avions en combinant les données publiques sur les conditions météorologiques, les horaires d'avions et des informations provenant des stations radar passives qu'il a installé à proximité des aéroports pour collecter des données sur chaque avion dans le ciel local. De plus, la compagnie stocke toutes les données collectées depuis le début, ce qui lui permet d'affiner son modèle en permanence. Le système cherche à répondre à la question "qu'est-il arrivé les fois précédentes lorsqu'un avion a approché tel aéroport dans telles conditions ? A quel heure a-t-il finalement atterri ?". Ce système permet de réduire l'écart entre l'horaire estimé et l'horaire d'arrivée réel, ce qui permet d'économiser plusieurs millions de dollars par aéroport et par an[33].
  • Lokad aide les distributeurs à optimiser quotidiennement leurs niveaux de stock en analysant les tickets de caisse et en se basant sur l’historique des ventes. Trouver le juste niveau de stock (ni trop, ni trop peu) permet aux clients d’optimiser leur marge. En adoptant les solutions Microsoft telles que la plate-forme Azure, Lokad a démultiplié ses capacités de stockage et de prévision statistique. La précision des corrélations statistiques permet aujourd’hui à Lokad de détecter la saisonnalité d’un produit en vente depuis moins de trois mois[34].
  • Bank of America a équipé 900 de ses employés de badges développés pour étudier leurs mouvements et interactions afin de comprendre la façon dont ils travaillent. Résultat : une productivité augmentée de 10 %[35].

Performance individuelle

Ces indicateurs de performance des organisations peuvent être affinés pour mesurer la performance des collaborateurs de manière individuelle :

  • WorkDay, Buddy et TimeSheet.com remplacent les horodateurs et affectent le temps passé au bureau à différentes rubriques
  • Klout, Kred et PeerIndex calculent l'influence de l'émetteur : « les articles de cet auteur sont-ils utiles ? ».
  • Citizen invite ses employés à renseigner leur régime alimentaire, leurs activités sportives et leur temps de sommeil afin de déterminer comment augmenter leur productivité au travail.
  • Des outils gratuits ou payants aident à mesurer et suivre sa e-réputation, répertoriés par conseilmarketing.com  :

Google Alerts, Social Mention , Netvibes , Mention.net, Alerti.com , Hootsuite , Owler, Trackur , Ami Software, Eloquant

  • IBM veut mesurer la performance d'un contributeur de crowdsourcing en comparant de manière algorithmique les résultats intermédiaires d'une chaîne de production[36].
  • Google veut rétrocéder un pourcentage du prix d'un produit aux internautes qui publient des videos qui facilitent la vente, en fonction de leur efficacité[37]
  • l'économie de pair à pair multiplie les indicateurs de convivialité, influence, réputation, engagement, réseau, partage, confiance, etc. [38]
  • L'application Performance Development de General Electric (PD@GE) permet d'évaluer ses collaborateurs après chaque discussion et de prendre des notes. Les employés peuvent en retour demander des directives à leur hiérarchie. IBM leur permet aussi de noter leurs pairs et d'envoyer une copie à leur patron. L'application Anytime Feedback d' Amazon fait la même chose. Le superviseur peut synthétiser tous les commentaires lorsque vient le moment de décider des promotion et du paiement au mérite[39].

Impact sur les pratiques managériales

"Les vendeurs sont en permanence évalués et savent où ils en sont. Maintenant cette pratique s'étend au reste des cols blancs", dit Paul Hamerman, analyste de Forrester Research. "Fait correctement, ceci augmente l'engagement. Fait incorrectement, les salariés se sentiront sous pression et micro-gérés". "Dans le bureau du futur", dit Kris Duggan de la startup BetterWorks "vous saurez toujours ce que vous êtes en train de faire et à quelle vitesse. Je ne pourrais pas imaginer de vivre dans un monde où je suis supposé deviner ce qui est important, un monde rempli de réunions, messages, dsalles de conférences, et finanelement sans savoir si j'ai délivré quelque chose qui ait du sens"[40].

Bien sûr, cette approche peut être mal vécue ou instrumentalisée. Chez Amazon, la culture du coupe-gorge encourage à descendre les autres. Les services publics peuvent aussi se contenter des appréciations traditionnelles. Cependant la NASA et le FBI considèrent que l'appréciation devrait être collective et que la hiérarchie devrait se concentrer dans le coaching des subordonnés. Chez Intel, une expérience de deux ans sans notation formelle, même avec des commentaires, a été abandonnée. De même chez Medtronic depuis sont rachat de Covidien, chez Deloitte ou chez PwC, qui donne maintenant des notes sur 5 compétences [41].

General Electric signe la fin de l’évaluation annuelle des salariés et installe un système de notation permanente via une application mobile. C'est un virage à 180 degrés pour un groupe ayant poussé à l'extrême la logique des revues annuelles. Le PDG précédent, Jack Welch, en avait fait la pierre angulaire de son management. Le système visait à hiérarchiser les salariés, en leur attribuant à chacun une note. Les 10 % au bas de l'échelle étaient sommés de quitter l'entreprise. Plutôt que des objectifs annuels, les salariés se voient donc assigner des « priorités » qui évoluent en cours d'année. L'évaluation est permanente, l'idée étant de se projeter vers l'avenir plutôt que faire un bilan fastidieux du passé. Ces évaluations se font à 360 degrés : les salariés peuvent commenter les performances de leur manager autant que l'inverse. Et ils jugent également le travail de leurs pairs. GE interdit l'anonymat pour contraindre les salariés à agir de manière réfléchie. Le questionnaire d'évaluation est conçu de telle manière qu'il encourage le coaching et le développement, plus que les critiques. Cette réforme suscite d'autant plus d'intérêt que GE - le plus grand groupe industriel américain - constitue une référence en matière de management.[42]

Les travailleurs peuvent cocher dans leur SmartReward de quelle manière ils souhaitent être rémunérés de manière flexible – et ce dans les limites d’un budget défini au préalable par l’entreprise. « Lorsque le collaborateur a opté pour un certain nombre d’options, il peut immédiatement voir l’impact financier de ses décisions. Les travailleurs peuvent de la sorte comparer les diverses possibilités, » explique Bart Van den Bussche, expert en rémunération flexible chez PwC (source : mail).

Notons que ces mesures peuvent éclairer les décisions prises par les comités de rémunération sans s'y substituer.

Chez Poult un système équitable de participation et d’intéressement a été mis en place : les collaborateurs perçoivent 7% du résultat d’exploitation en intéressement ; l’ouverture du capital est de plus fortement revendiquée auprès de l’actionnariat, sans être acquise pour autant. Mais dans le discours, il semble qu’il vaille mieux éluder la question de la valeur ajoutée, car se la poser revient à re-individualiser et à mécaniser l’homme. Ainsi la seule manière d’évaluer la contribution de chacun à l’entreprise serait de se référer à ses pairs : des équipes de rémunération de 15 personnes (pour 90 cadres) ont été formées pour décider des évolutions de salaire en évaluant le niveau d’engagement des collaborateurs au service du collectif. L’on observe donc un déplacement significatif des critères de rémunération ; autrefois l’expertise, l’expérience, l’ancienneté, la place hiérarchique, aujourd’hui le niveau d’engagement et de collaboration[43].

Performance collective

Il en est de même des performances collectives :

  • Julia Rozovsky a résumé les 5 dynamiques des équipes qui réussissent : la sécurité psychologique (la capacité à s’exprimer et à prendre des risques ou à se mettre en situation de vulnérabilité en face des autres), la fiabilité (la confiance partagée dans les objectifs à atteindre), la clarté des structures et des buts (l’équipe partage des rôles et des objectifs clairs), le sens (le travail en équipe est important pour chacun), l’impact (l’équipe pense que sont travail compte et a un impact)[44]
  • Les données de géolocalisation servent à analyser en détails les mouvements des joueurs de foot sur le terrain et affiner les tactiques de déplacements. L’équipe nationale d’Allemagne a largement eu recourt au Big Data pour la préparation de la Coupe du monde 2014. D’un côté, des capteurs biométriques posés sur les joueurs permettent de collecter des données physiques telles que le rythme cardiaque, les accélérations et décélérations ou les distances parcourues, de l’autre des caméras fournissent des données vidéo capturées sous plusieurs angles détaillant les trajectoires des joueurs sur le terrain[45].

La personnalisation de masse

Les enquêtes classiques de satisfaction des clients et les analyses marketing permettent de mieux écouter les usagers, de mieux comprendre leurs modes d’utilisation des services et d’affiner l’offre. L'introduction de métriques massives introduit une rupture dans cette pratique et accélère la transition depuis la consommation de masse jusqu'à la personnalisation de masse.

Le marketing traditionnel

De manière traditionnelle, les produits sont améliorés dans un cycle long de mesure de l'utilité, d'analyse et d'amélioration du produit, par exemple :

  • description des comportements, motivations, images et attitudes à l'aide d'une enquête de satisfaction de clientèle
  • diagnostic des comportements à l'aide de théories, modèles explicatifs et segmentation de marché
  • prévision de l'évolution du marché, de manière tendancielle ou en réponse aux nouvelles offres
  • recommandations pour la stratégie marketing et le plan d'action[46]

L'analyse des données

Les métiers correspondants sont aujourd'hui enrichis grâce aux nouvelles pratiques d'analyse de données : tableaux de bord, courbes de tendances, anticipation de la demande, du réapprovisionnement, de la fidélité d'un client ou du besoin de maintenance, aide à la décision pour définir un prix, ou pour choisir une version de page web.

La fonction Price Tips d'AirBnB suggère le prix auquel le propriétaire devrait louer son appartement pour avoir de bonnes chances de trouver preneur[47]. Celect permet aux magasins réels de définir les marques et les prix pour maximiser leurs ventes. Son algorithme s'appuie sur des données issues des inventaires et de la gestion des relations avec les clients[48].
Google Analytics propose par exemple aux entreprises d’améliorer la conception de leur site internet par l’analyse des visites des internautes. La mairie de Toulouse a demandé en 2013 à la société Apicube d’analyser 1,6 million de documents (tweet, Facebook, blogs, forums, etc.) pour mieux connaître les sujets de préoccupation des citoyens.
Salesforce Einstein fournit aux utilisateurs des recommandations sur la manière de mieux vendre ou concevoir des campagnes marketing plus efficaces, sans faire appel à un data scientist[49].

Avec l’éducation en ligne (dont les Massive Open Online Courses – MOOC), on peut analyser les activités des élèves (temps consacré, façon de suivre les programmes, arrêt-retour dans les vidéos pédagogiques, recherches internet parallèles, etc.) pour améliorer les modes d’enseignement. Dans le domaine des transports, on modélise les déplacements des populations pour adapter les infrastructures et les services (horaires des trains, etc.). À cette fin, les données provenant des pass de transports en commun, des vélos et des voitures “communes”, mais aussi de la géolocalisation (données cellulaires et systèmes de localisation par satellites) de personnes ou de voitures, sont utilisées.

Dans un autre domaine, celui de la logistique, à la suite du séisme qui s’est produit en Haïti en 2010, les mouvements de foule ont été analysés à l’aide des données cellulaires pour faciliter la distribution de l’aide.Toujours en Haïti, l’épidémie de choléra qui s’est développée après le tremblement de terre a été mieux combattue grâce à l’étude des déplacements des personnes contaminées[50].

Pour prédire efficacement les ventes dans le secteur textile, il est absolument déterminant d’associer de nombreuses caractéristiques telles que le prix, les promotions, la période de l’année, le lieu de vente, la météo, le style et la matière d’un vêtement, la taille, etc. Et c’est l’identification des combinaisons de ces facteurs qui est cruciale : le prix peut avoir un impact plus fort sur les ventes pour une chemise à manche courte de style détendu et de couleur blanche que pour une chemise « ville » de couleur anthracite. La grande force du machine learning est justement d’être capable d’identifier, dans un océan d’informations, le bon mix d’attributs de manière optimale en sachant dépasser les a priori et intuitions parfois erronés qui accompagneraient une analyse comparable effectuée par un humain. Là où les statistiques classiques se contentent d’optimiser les paramètres d’un modèle élaboré manuellement, les algorithmes du machine learning, comme les forêts d’arbres de décision aléatoires (« Random forest ») ou les combinaisons de processus gaussiens, permettent de découvrir automatiquement le modèle le plus explicatif possible d’un phénomène donné[51].

Les moteurs de recommandation

Une part de la personnalisation d'un produit peut être laissée à l'utilisateur, grâce aux outils d'aide à la décision comme les moteurs de recommandation.

Préciser ses besoins

L'utilisateur est invité à préciser ses goûts ou ses besoins pour affiner le produit.

La fonctionnalité Genius sur iTunes suggère à celui-ci des musiques correspondant à ses goûts. Elle se base à cette fin sur l'identification d'artistes peu connus pour faire des recommandations par comparaison avec les listes d'autres utilisateurs aimant ce même artiste[52]. Google Search recommande les meilleurs sites web en relation avec les mots-clés et le profil de l'utilisateur. Amazon recommande des livres en établissant des statistiques sur les achats d'autres clients ayant le même profil d'acheteur. Linkedin suggère des listes courtes de « personnes que vous devez connaître » parmi les centaines de millions enregistrées dans sa base. De la même manière Netflix ou Foundd constituent une liste de films pour chaque téléspectateur. Waze calcule en permanence le trajet le plus rapide, en fonction du trafic mesuré par la vitesse et la géolocalisation des voitures de ses utilisateurs. VentePrivee effectue des recommandations d'achat individuelles. Monster.fr utilise un logiciel, conçu sur le modèle d’un site de rencontre, qui vise à trouver l’employeur idéal en croisant les compétences, mais aussi les affinités “psychologiques” et les caractéristiques des individus embauchés[53].

Modifier ses habitudes de consommation

Grace à la traçabilité de la production, le moteur de recommandation fournit une information plus complète au client ou l'assiste dans ses choix.

Les voyageurs qui achètent des snacks dans les aéroports ou dans les stations essence peuvent utiliser Fooducate pour scanner le code-barre du produit. Cette application rappelle la composition nutritionnelle du produit, mais en déduit une note de qualité pour la santé. Tandis qu'une barre chocolatée vante les bienfaits de ses céréales ou des germes de soja, sa note est mauvaise car elle contient trop de sucre et a un taux élevé de transformation. L'application suggère d'autres barres énergétiques ou des fruits secs à la place, qui ont une meilleure note. GoodGuide va plus loin, en listant de plus les colorants et conservateurs qui font l'objet de demandes d'interdictions pas des organismes de santé, et dégrade la note en conséquence[54].
Abe’s Market permet aux internautes d'utiliser des filtres pour sélectionner leurs achats en ligne selon leurs attributs sociaux, environnementaux et sanitaires. L'utilisateur choisit ses propres critères comme le commerce équitable, le végétarisme, l'emballage recyclable, et le système ne proposera qu'un catalogue réduit de produits[55].

Le moteur de recommandation, en faisant un bilan de son profil de consommation, peut inviter l'utilisateur à changer d'habitudes.

Le monitoring de la conduite permet à Progressive de mettre à disposition de ses assurés un outil de suivi. Chacun peut, presque en temps réel et avec une traçabilité, observer l’évolution de son type de conduite. Un automobiliste bien intentionné disposera alors d’un moyen efficace de mesurer si ses efforts sont efficaces, où il doit s’améliorer et comment[56].

Développements technologiques

Longtemps apanage de sites marchands aux ressources importantes, les algorithmes de personnalisation et de recommandation deviennent accessibles avec des offres SaaS nombreuses comme Sparkow, Tinyclues, Nosto, Ezako, NuuKik, Target2Sell ou PlanetWorld. Ces moteurs de recommandation s’appuient à leur tour sur de l’apprentissage artificiel (machine learning), comme Apache Mahout afin d’apprendre des comportements des internautes[57].

Des produits hyper-personnalisés

Cependant, lorsque ces recommandations sont systématiquement suivies, le cycle des analyses peut aboutir à des décisions automatisées sans intervention du fournisseur ni de l'utilisateur, par exemple pour optimiser les variantes d'un produit, offrir une meilleure qualité de service ou envoyer un e-mailing[58].

La pratique du A/B testing est illustrée par le test comparatif de 41 variantes de bleu de la barre d'outils de Google qui a permis de mesurer celle qui provoque le plus de clics[59]. Le taux de clic sur les liens sponsorisés de Google Adwords définit directement le prix des publicités. Les jeux sur smartphones de King s'adaptent à chaque joueur en fonction de sa dextérité, de sa vitesse de compréhension des règles et de son matériel. Criteo définit le contenu des publicités par prédiction des intentions d'achat de l'utilisateur. Les assureurs Groupama et Aviva baissent leur primes en évaluant la conduite au volant grâce à une appli de son smartphone[3] ou en connectant un boîtier à la prise diagnosctic du véhicule[60]. Les algorithmes permettent à TripAdvisor de classer les hôtels, à Amazon de personnaliser ses pages web pour chacun de ses clients. L’enseigne américaine Target parvient à identifier les femmes qui attendent un enfant pour leur proposer des produits pour nourrisson. À cette fin, les analystes ont corrélé des millions de données à l’aide de cartes de fidélité de femmes ouvrant une liste de cadeaux de naissance. Ils ont observé qu’elles commençaient à acheter des crèmes sans parfum à environ trois mois de grossesse, puis certains suppléments alimentaires à un stade de grossesse plus avancé. Ces profils de comportements ont ensuite été étendus à toute la clientèle. Les systèmes de compteurs intelligents (électricité, gaz, eau) rationalisent la consommation énergétique. En plus d’offrir aux citoyens la possibilité de mieux contrôler leur consommation, ils permettent de couper à distance, avec l’accord des clients, l’alimentation d’équipements pour éviter les surcharges du réseau. Au Royaume-Uni, pour les demandes de nouveaux permis, l’agence en charge des permis de conduire et de l’immatriculation des véhicules peut récupérer les photographies et les signatures nécessaires dans les données en ligne du service en charge des passeports. Les analyses permettent aussi de préremplir les formulaires administratifs en croisant les données. Pour la campagne de réélection de Barack Obama en 2012, les conseillers ont analysé localement les messages sur Twitter pour adapter en direct le discours du président.

Pour Peppers et Rogers (1999), le marketing One-to-One trouve son origine dans l’idée d’établir une relation apprenante avec chaque client. Une relation apprenante est une relation qui devient plus intense à chaque interaction : le client exprime certains de ses besoins que l’entreprise cherche à satisfaire en personnalisant son offre, et chaque interaction est l’occasion d’améliorer la capacité de l’organisation à ajuster son offre à chaque client, jusqu’à atteindre la personnalisation de masse[61].

Les entreprises cherchent à pénétrer l’intimité de leurs clients et connaître leurs style de vies (Ulrich, 2001). Dès lors, le marketing One-to-One se fonde sur la part de client et non plus simplement sur la part de marché. Il ne s’agit plus de se concentrer sur un seul produit et de le vendre au maximum de consommateurs qui ont précisément ce besoin. Le spécialiste du marketing One-to-One se concentre sur un seul consommateur à la fois pour lui vendre le maximum de produits possibles, tout au long de la durée de vie de la relation commerciale (Peppers et Rogers, 1998 ; Ulrich, 2001)

Il en est de même pour les produits intermédiaires ou les services publics.

En analysant les données provenant de capteurs sur les avions et en les associant à des données météo, on modifie les couloirs aériens pour réaliser des économies de carburant, on améliore la conception, la maintenance des avions ou leur sécurité. La police et l’université de Memphis ont développé le programme Blue Crush, maintenant utilisé par de nombreuses villes, qui permet d’identifier les zones et les heures où des délits sont le plus à même d’avoir lieu, afin d’optimiser l’affectation des services. De la même façon, la ville de New York a développé un système pour détecter les logements où des incendies sont le plus susceptibles de se produire (squats, taudis, appartements surpeuplés, découpés en plusieurs “lots”, ne respectant pas les règles de sécurité). Il s’agit de croiser quantité de données issues de différents services et agences municipaux portant sur les cinq dernières années : informations sur les logements, procédures d’expulsion, impayés de gaz, d’électricité, de taxes municipales, visites d’ambulance, taux de criminalité, historique des incendies, etc. Avant les analyses, 13 % des inspections donnaient finalement lieu à des évacuations pour des raisons de sécurité, contre environ 70 % aujourd’hui[62].

Des services plutôt que des biens

Le "contrat de confiance" de Darty, développé dans les années 1990, a entériné l'idée que le service était une composante clé du produit. Aujourd'hui, un produit inclut une part grandissante de services, comme le label AOC, l'échange gratuit, la commande en ligne, la livraison en magasin, le label « made in France », l'image de marque, la traçabilité ou le caractère recyclable, ce qui en facilite la personnalisation.

De plus, la consommation est devenue plus sensible aux effets utiles d'un produit qu'à sa possession[4]. Le covoiturage se substitue au désir de propriété d'une voiture. L'écoute de musique portative se développe aux dépens de la possession de disques.

Enfin, l’usage d’un produit nouveau doit être adopté très rapidement par les consommateurs finaux. La valeur d’usage est plus importante que sa valeur technologique. Le succès repose moins sur la rapidité de diffusion d’une nouvelle technologie que sur la rapidité de diffusion d’un usage, sur la viralité. Cela ne signifie pas qu’il n’y a plus de technologies, mais que la technologie s’efface derrière l’usage, sauf quand elle est suffisamment en rupture avec l’existant pour en faire un argument marketing. On parle désormais de moins en moins de technologie de rupture mais de plus en plus de briques de technologies, c’est-à-dire, d’une manière schématique, de la combinaison de technologies existantes à un coût moindre. De ce fait, l’innovation technologique apparaît moins importante que la créativité : créativité en matière de design des produits, créativité dans le marketing, créativité dans les services rendus par les biens de consommations, bref dans ce qui est visible pour les utilisateurs[63].

La valeur d'usage et la part de service dans le produit sont devenus prépondérants. Comme il est plus facile de personnaliser un service qu'un bien, cette tendance favorise la personnalisation de masse.

Le logiciel, composante dominante du service

Cette tendance est à son tour catalysée par la contribution unique des logiciels à la qualité des services.

Dans un article resté célèbre du Wall Street Journal, le fondateur de Netscape, Mark Andreessen, expliquait en 2011 « pourquoi le logiciel dévore le monde »[64].

Cet article évoquait la mésaventure de Borders, cette grande chaîne de librairies américaines qui, ayant considéré la vente en ligne non stratégique, avait passé un accord avec Amazon, qui paraissait alors inoffensif. Dix ans plus tard, cet accord s'était révélé fatal a posteriori, en provoquant la faillite de Borders. De même Netflix a détrôné Blockbuster, leader historique des videoclubs. Les nouveaux leaders de la musique sont des sociétés de logiciels : iTunes, Spotify et Pandora. Le segment le plus dynamique du marché des loisirs est celui des jeux videos dont les leaders Zynga et Rovio distribuent leurs produits seulement en ligne. Le meilleur producteur de films d'animations est Pixar, dont les logiciels 3D font la différence. Grâce aux appareils photo intégrés dans les smartphones, Shutterfly, Snapfish et Flickr ont pris la place de Kodak. Groupon, Living Social et Foursquare grignotent le marché de la distribution. Skype prend des parts du marché des telecoms aux dépens du troisième plus grand opérateur CenturyLink, tandis que Linkedin consomme celui du recrutement. Dans une voiture, ce sont dorénavant des logiciels qui démarrent le moteur, contrôlent les équipements de sécurité, distraient les passagers, guident le conducteur et gèrent les liaisons aux mobiles ou aux satellites. Wal-Mart ou Fedex peuvent se définir comme des logiciels de gestion logistique auxquels sont rattachés des avions, des camions et des centres de distribution. Il en est de même dans l'exploration pétrolière, les services financiers, l'agriculture et l'armée.

C'est une erreur de considérer l'informatique comme un secteur ou comme un service aux secteurs. Tous les secteurs économiques se réinventent avec leur numérisation.

Au final la demande de produits serviciels se généralise tandis que le logiciel, qui constitue une part grandissante du service et donc du produit, devient le catalyseur de la personnalisation de masse.

La production « à toutes fins utiles »

Cette tendance s'affermit ensuite dans les modes de production "à toutes fins utiles". Contrairement à la production traditionnelle de produits intermédiaires, la production "à toutes fins utiles" se fait en l'absence de demande ou avec une visibilité partielle sur celle-ci. Contrairement à un processus d'innovation classique, la production "à toutes fins utiles" compte sur d'autres producteurs, éventuellement non identifiés, pour aboutir à un produit final. Elle est rendue possible par la présence de métriques de l'utilité.

L'économie de l'offre

  • Productivité = tâche connue + nouvelle connaissance
  • Innovation = connaissance connue + nouvelle tâche

P. DRUCKER « la création de richesses repose sur un facteur spécifiquement humain : la connaissance. Lorsque nous appliquons la connaissance à des tâches que nous savons déjà faire, nous appelons cela productivité. Lorsque nous appliquons la connaissance à des tâches nouvelles ou différentes, nous appelons cela innovation »[65]

Les API

Lorsqu'on regarde une video sur Youtube, on peut voir sous la video un bouton "share", qui permet de copier une ligne de code commençant par "<iframe>". Il suffit de coller cette ligne sur son blog ou dans son site web pour importer la video à l'intérieur de sa propre page web. Il s'agit d'une l'API Youtube. De la même manière, il est possible d'intégrer les "like" de Facebook, un plan "où sommes-nous" de Google Map, une proposition d'achat de livre sur Amazon, un fil d'actualité de USA Today, un paiement par Paypal et des milliers d'autres.

Les modèles économiques sont en général des mixtes entre publicité, freemium et affiliation:

  • publicité : Youtube introduit une publicité au début de la vidéo
  • freemium : les cartes de Mappy sont gratuites jusqu'à un certain seuil d'utilisation
  • affiliation : le site web qui intègre Amazon reçoit une commission sur les transactions effectuées par son intermédiaire [66]

Les API permettent aussi de capturer de l'information. L’API Facebook Connect permet aux sites Internet qui l’utilisent d’offrir à leurs utilisateurs un moyen simple de s’identifier, tout en permettant à Facebook d’augmenter l’utilité de sa plateforme, d’enrichir son contenu et de mieux connaître ses clients[67].

Les API permettent de rendre l'offre accessible à un plus grand nombre d'utilisateurs grâce à de nouveaux intégrateurs de services personnalisés. Elles permettent de recycler, reproposer et revaloriser des actifs sous-exploités[68]. C'est le pari que fait par exemple la SNCF avec une API contenant toutes ses bases de données sur les horaires et les gares. Elles ouvrent la longue traîne de l'offre aux produits intermédiaires.

Les enjeux économiques sont devenus considérables. Le comparateur de prix de transport et d'hôtels Expedia réalise par exemple l'intégralité de son chiffre d'affaires, soit 4 milliards de dollars, exclusivement grâce à ses API [69]. Les trois quarts du trafic de Twitter proviennent de son API [70]. Entre mi-2013 et début 2015, le nombre d'API publics a doublé et s'établit à plus de 10.000[71]. Steve Jobs qualifiait le disque géant et partagé Dropbox de "fonctionnalité et non de produit" tout en lui faisant une offre de rachat en centaines de millions de dollars. "Dropbox se valorise aujourd'hui en milliards [72].

Les API, actifs immatériels "à toutes fins utiles", sont devenues des briques essentielles pour le développement du Web et peuvent s'avérer stratégiques pour l'innovation ouverte "inside-out" des entreprises.

Apigee[73]

Apigee est un spécialiste du management des APIs, racheté pour 600 millions de dollars par Google en 2016.

"En tant que fournisseur d'API, vous avez besoin d'un moyen simple et flexible de monétiser vos API afin de générer des revenus pour l'utilisation de ces API. Les services de monétisation répondent à ces exigences. En utilisant les services de monétisation, vous pouvez créer une variété de forfaits qui facturent aux développeurs l'utilisation de vos API regroupées dans des packages. La solution offre une grande flexibilité: vous pouvez créer des plans prépayés, des plans postpayés, des plans à frais fixes, des plans à taux variable, des plans «freemium», des plans adaptés à des développeurs spécifiques, des plans couvrant des groupes de développeurs, etc. .

"De plus, les services de monétisation comprennent des installations de production de rapports et de facturation. Par exemple, en tant que fournisseur d'API, vous pouvez obtenir des rapports sommaires ou détaillés sur le trafic vers vos packages d'API pour lesquels les développeurs ont acheté un forfait. Vous pouvez également effectuer des ajustements à ces enregistrements si nécessaire. Et vous pouvez créer des documents de facturation (qui incluent les taxes applicables) pour l'utilisation de vos packages d'API et publier ces documents pour les développeurs.

"Vous pouvez également définir des limites pour vous aider à contrôler et surveiller les performances de vos packages d'API et vous permettre de réagir en conséquence, et vous pouvez configurer des notifications automatiques lorsque ces limites sont atteintes ou atteintes.

"Remarque: le noyau Apigee Edge (passerelle et analyse) est une condition préalable à l'utilisation des services de monétisation.

"Fonctionnalités des services de monétisation Les principales caractéristiques des services de monétisation Edge incluent:

  • Entièrement intégré à la plate-forme API signifie une interaction en temps réel
  • Soutenez tous les modèles commerciaux «prêts à l'emploi», des simples plans tarifés aux plans de partage des frais / recettes les plus complexes (facile à créer et à modifier)
  • Notez les transactions sur le volume ou les "attributs personnalisés" dans chaque transaction. La transaction peut être constituée d'API provenant de Gateway PLUS d'autres systèmes (externes à Apigee Edge)
  • Des outils automatisés tels que des limites et des notifications pour surveiller les performances et gérer le processus
  • Flux de travail et contrôles intégrés pour le développeur / partenaire afin de gérer l'achat via la facturation / paiement
  • Entièrement libre-service pour les utilisateurs professionnels et les développeurs / partenaires, donc pas besoin d'intervention technique coûteuse
  • Intégré à tous les systèmes de vente, de comptabilité et d'ERP

Les ICO

Jusqu’alors, figurer parmi les utilisateurs pionniers d’un service numérique n’était pas récompensé ; c’était même le contraire, puisque les grands succès du numérique se sont développés avec l’effet de réseau (selon lequel la valeur d’un service augmente plus que proportionnellement à chaque nouvel utilisateur. Par exemple, BlaBlaCar présentait peu de valeur à ses débuts, puisque très peu de covoiturages étaient proposés ; désormais BlaBlaCar présente un maillage territorial très fin et une quantité d’offres très importante, ce qui rend le service très attractif pour les utilisateurs). Les ICO renversent ce paradigme en offrant, via l’émission de tokens, des incitations fortes à rejoindre le réseau le plus tôt possible, au moment où le token lié à ce réseau présente une valeur encore relativement faible (par rapport à ce qu’il pourra valoir ensuite). Ce mécanisme de création de viralité via l’émission de tokens bénéficie donc aux early adopters et encourage (financièrement) les internautes à rejoindre tôt le service. Les services numériques ne sont pas les seules à pouvoir profiter des ICO.

C’est aussi le cas des protocoles, sur lesquels reposent par exemple les plateformes numériques actuelles. Les protocoles clefs, en particulier celui à l’origine d’Internet (TCP/IP) et du web (HTTP), sont nés du travail de chercheurs. Or la grande majorité des chercheurs qui ont créé ces protocoles en ont tiré très peu de gains financiers directs. La captation de valeur s’est faite au profit des Google, Facebook, etc. Avec le système de tokens, les créateurs d’un protocole peuvent le monétiser directement, et en tirer d’autant plus de bénéfices que d’autres construisent des business par-dessus ce protocole.

Ainsi, les blockchains Ethereum et Tezos ne sont pas des services numériques, mais bien des protocoles. Leurs fondateurs ont pourtant bel et bien pu lever des sommes importantes via une ICO : l’équivalent de 18 millions de dollars pour Ethereum en 2014, bien avant que les ICOs deviennent le phénomène qu’elles sont aujourd’hui, et près de 232 millions pour Tezos en juin 2017, ce qui constitue le record de levée en ICO.[74].

Les biens communs

Jusqu'à présent, biens communs et économie ne semblent pas faire bon ménage. De nombreux observateurs considèrent en effet que le capitalisme, qui a intérêt à organiser la rareté, développe chaque fois qu'il le peut des pratiques d'enclosures qui nuisent à l'idéal des biens communs : servir l'intérêt général. Pourtant, de nouvelles règles d'utilisation des communs promettent de créer une économie adéquate sur le modèle de l'économie des API, tout en respectant l'intérêt général.

Le succès des licences ouvertes

Ces dernières années, les licences ouvertes ont permis le développement de biens communs comme Wikipedia, Linux, OpenOffice.org, Arduino ou OpenStreetMap. Cette formidable dynamique repose sur un contrat juridique. La « GNU General Public Licence » et ses variantes, en particulier, autorise quiconque à utiliser et modifier le code d'un logiciel (ou une autre propriété intellectuelle), tant que ces changements sont ensuite reversés dans un pot commun sous les mêmes conditions pour de prochains utilisateurs[75].

La promesse de la licence ouverte, c'est que les citoyens contribuent à des biens communs et l’économie se crée autour, au contraire du capitalisme, qui cherche d’abord le profit. Le pair à pair propose un vrai prototype de modèle de production[76]

Cette promesse est alimentée par les grands groupes. IBM, Hewlett Packard ou Intel ont énormément investi sur Linux alors même qu’elles n’en tirent pas directement de revenus. IBM a aussi décidé, dès janvier 2005, d’autoriser les projets de logiciels libres d’utiliser 500 de ses 40 000 brevets sans aucune redevance. Cette attitude, qui peut paraître paradoxale pour des entreprises privées, s’explique de plusieurs façons. Il y a d’abord la volonté de générer un effet de réseau. En mettant à disposition des consommateurs un produit ou un service gratuits, une entreprise peut espérer que ceux-ci vont l’adopter et l’utiliser massivement, et ainsi réduire les part de marchés d'offres de concurrents. L’entreprise pourra ensuite vendre des services complémentaires, comme par exemple IBM qui vend des prestations de conseil, ou encore des services « premium » ou enrichis. C’est le cas de Skype dont environ 10 % des utilisateurs utilisent les services payants (possibilité d’appeler un portable). L’autre avantage est que ce type d’offres, qui laisse aux utilisateurs la possibilité d’enrichir le contenu, permet également de stimuler l’innovation et la création de nouveaux produits et services, qui pourront ensuite être récupérés et « rentabilisés » d’une façon ou d’une autre par l’entreprise[77].

Le plaisir de faire oeuvre utile

Dans La nouvelle société du coût marginal zéro, Jérémy Rifkin prophétise la fin du capitalisme grâce au développement des communaux collaboratifs. Il constate avec justesse qu’internet favorise l’économie du partage, des biens communs et de la production par les masses. Internet modernise en effet le bénévolat, l’auto-stop, la chambre d’amis et le pot commun.

La co-création de communaux est en effet matériellement désintéressée, en tout cas à première vue, nous y reviendrons. Les seules contreparties qu’attendraient les contributeurs seraient non monétaires : de la valorisation, des insignes d’honneur, de la notoriété, de l’influence, de l’intégration sociale, le sentiment de sa propre utilité, le plaisir de participer à l’oeuvre ou la satisfaction du travail bien fait [78] . Les utilisateurs sont les équivalents des abeilles. Ce ne sont pas des spectateurs passifs cibles de publicités. Ce ne sont pas des auxiliaires rémunérés. Ce sont des contributeurs volontaires qui créent de la valeur à la fois parce qu’ils en ont le désir, parce que c’est devenu plus facile grâce aux technologies numériques et parce qu’une application leur a inspiré la possibilité de le faire[79]. Jérémy Rifkin le souligne : « les enthousiastes du crowdfunding disent et répètent que ce n’est pas une question d’argent. Ce qui leur plaît, c’est d’intervenir personnellement pour aider d’autres personnes à réaliser leurs rêves, de sentir que leur petite contribution donne un sérieux coup de main - qu’elle compte vraiment pour faire avancer un projet » [80].

Cet état d'esprit a déjà été constaté par Voltaire il y a presque deux siècles à propos de l'Encyclopédie : "On en tira quatre mille deux cent cinquante exemplaires, dont il ne reste pas un seul chez les libraires. Ceux qu’on peut trouver par un hasard heureux se vendent aujourd’hui dix-huit cents francs ; ainsi tout l’ouvrage pourrait avoir opéré une circulation de sept millions six cent cinquante mille livres. Ceux qui ne considéreront que l’avantage du négoce verront que celui des deux Indes n’en a jamais approché. Les libraires y ont gagné environ cinq cents pour cent, ce qui n’est jamais arrivé depuis près de deux siècles dans aucun commerce. Si on envisage l’économie politique, on verra que plus de mille ouvriers, depuis ceux qui recherchent la première matière du papier, jusqu’à ceux qui se chargent des plus belles gravures, ont été employés et ont nourri leurs familles.

Il y a un autre prix pour les auteurs, le plaisir d’expliquer le vrai, l’avantage d’enseigner le genre humain, la gloire : car pour le faible honoraire qui en revint à deux ou trois auteurs principaux, et qui fut si disproportionné à leurs travaux immenses, il ne doit pas être compté. Jamais on ne travailla avec tant d’ardeur et avec un plus noble désintéressement.

On vit bientôt des personnages recommandables dans tous les rangs, officiers généraux, magistrats, ingénieurs, véritables gens de lettres, s’empresser à décorer cet ouvrage de leurs recherches, souscrire et travailler à la fois : ils ne voulaient que la satisfaction d’être utiles ; ils ne voulaient point être connus, et c’est malgré eux qu’on a imprimé le nom de plusieurs.

Le philosophe s’oublia pour servir les hommes ; l’intérêt, l’envie et le fanatisme, ne s’oublièrent pas"[81].

Le paradoxe des communs

Malgré cette promesse, le contrat des licences ouvertes a pourtant ses faiblesses. Comme il ne prévoit pas la comptabilité des apports à ces biens communs ni des profits qui en sont retirés, tous deux impossibles à mesurer sans limiter la liberté d'utilisation du bien, les déséquilibres entre apports et profits sont juridiquement possibles. Dans la pratique, ils deviennent voyants au point d'être souvent dénoncés au titre de l'iniquité voire d'une nouvelle forme de prédation. Les grands groupes informatiques mondiaux, en particulier, sont souvent montrés du doigt et les effectifs communautaires régressent[82]. De même, les plateformes grand public monétisent à leur profit des contenus qu'elles incitent à céder sous licence CC. Si on compte aujourd’hui plus d’un milliard d’oeuvres sous Creative Commons, c’est en partie parce que des sites centralisés comme Flickr, Youtube, Wikimedia Commons, Bandcamp, Viméo, Scribd et bien d’autres encore proposent à leurs utilisateurs d’apposer une licence Creative Commons sur les oeuvres qu’ils chargent. Aujourd’hui, il y a même sans doute davantage d’oeuvres sous CC mises en ligne à partir de telles plateformes que depuis des sites personnels[83].

De manière générale si vous observez bien ce qui se passe, plus les licences sont « communistes » et plus les pratiques sont capitalistes. Si vous utilisez une licence qui permet à tout le monde d’utiliser une ressource, alors même les grandes entreprises multinationales pourront le faire. Et par exemple, IBM va pouvoir utiliser Linux. Et le problème avec ça, c’est qu’une personne qui contribue aux communs ne peut pas dans l’état actuel des choses assurer sa subsistance à travers cette pratique, pour « vivre dans les communs ». Elle doit rester le salarié d’une entreprise, comme IBM par exemple ou une autre compagnie dont le but reste le profit. La valeur est donc « aspirée » en dehors du commun vers la sphère de l’accumulation capitalistique[84].

Pour éviter cette dérive indésirable, la licence « Creative Commons Non-Commercial » préfère bloquer tout développement économique ultérieur, au risque de gâcher un important potentiel d'utilité, ce qui est souvent frustrant.

Les biens communs à réciprocité

Notion de réciprocité

Pour ne pas bloquer la création de richesse, mais pour assurer en revanche leur redistribution équitable, de nombreuses initiatives proposent de renforcer l'obligation de réciprocité de ceux qui exploitent les communs vers ceux qui les créent.

Selon cette obligation, toute organisation développant un commun ou toute activité non lucrative peut utiliser une ressource sous laquelle elle est placée, y compris les activités commerciales conduites par les individus. Ce n’est donc pas une licence « non-commerciale ». C’est une licence qui permet explicitement de créer une économie autour des communs.

Mais une telle obligation précise que les compagnies dont le but est de faire du profit, mais qui contribuent aux communs, peuvent aussi utiliser la ressource gratuitement. Et la raison pour laquelle elles sont autorisées à le faire, c’est qu’il y a une réciprocité, parce qu’elles contribuent en retour. Donc dans le cas d’IBM avec Linux, une telle licence permettrait l’usage, car IBM participe activement au développement de ce logiciel. Mais il y a beaucoup d’entreprises qui utilisent des communs sans contribuer en retour. Pour elles, la licence exigerait qu’elles paient pour l’usage de la ressource. C’est une chose à laquelle ce type d’organisations est déjà habitué, car elles paient par exemple pour des brevets. Ce n’est pas une contrainte très lourde pour elles.

Mais la chose essentielle n’est pas l’argent ou même la création d’un flux de revenu du capital vers les communs. La chose essentielle, c’est la notion de réciprocité : l’idée d’une économie éthique, c’est-à-dire une économie ou un marché qui n’extériorisent pas les aspects environnementaux ou la justice sociale, mais qui les intègrent. C’est la possibilité d’un marché post-capitaliste qui n’est pas focalisé sur l’accumulation du capital et externalise tout le reste, mais un marché qui se régule lui-même à partir de la notion de réciprocité[85].

L'obligation de réciprocité

Les liens HTML sont unidirectionnels, c'est à dire que la page utilisatrice "pointe" vers la page émettrice. En revanche, la page émettrice ne "voit" pas ce pointeur, et donc les pages utilisatrices. De même, un texte ou une image sont facilement copiables grâce à la fonction copier/coller. D'autres logiciels spécialisés récupèrent ou extraient la musique, la video, les partitions, la transcription, la traduction, etc. Ce contexte ne favorise pas la réciprocité, et les tentatives de protection technique des contenus ont montré leurs limites.

Une nouvelle approche consiste à faciliter la réciprocité. Copier-coller un article dans Forbes ou Les Echos fait apparaître dans la copie un lien vers la source. Les contenus sous licence ouverte sont repérables grâce à une signature informatique.

Chaque licence CC est mise à disposition sous trois formes différentes : une « lisible par les humains » sous la forme de logos et d’un résumé simplifié ; une « lisible par les juristes » sous la forme d’un contrat formalisé et une « lisible par les machines » sous la forme d’un bout de code html à insérer dans les pages web à partir desquelles l’oeuvre associée sera diffusée. Elle permet notamment aux moteurs de recherche de repérer des oeuvres sous Creative Commons et de les signaler à leurs utilisateurs en fonction de leurs requêtes. C’est ainsi par exemple l’on peut aller sur Google Images et demander au moteur uniquement des photos réutilisables, en les filtrant en fonction du type de licences utilisées. Ou encore à tout internaute de rechercher des contenus en fonction de leur licence CC, grâce à CC Search (https://search.creativecommons.org/). C’est aussi de cette façon que la fondation Creative Commons est en mesure d’évaluer le nombre d’oeuvres sous CC présentes sur Internet et de mesurer le nombre de vues qu’elles génèrent, car chaque fois qu’une personne récupère le bout de code html associé à une licence, elle exporte en fait vers son site un fichier exécutable hébergé sur les serveurs de la fondation[86].

Grâce à Ascribe, les blockchains sont eux-même mis à contribution pour tatouer les contenus et donner de la visibilité aux auteurs sur l'utilisation de leurs oeuvres.

Les utilisateurs doivent toujours indiquer l’attribution des oeuvres manuellement. Il n’y a pas de statistiques concernant les réutilisations ou les remix. Contribuer par sa création au communs constitue un grand cadeau, mais les contributeurs reçoivent bien peu en retour : pas de feedbacks, pas de statistiques et souvent même pas un « like » ou un « merci ». Maintenant que les CC sont partie prenante de multiples formes de créativité et de partage sur Internet, nous devons capitaliser sur cette influence pour connecter les communs entre eux et les mettre en valeur. Les blockchains permettent ainsi de nouveaux services:
  • Procédure d’attribution et de vérification simplifiée: en enregistrant leur œuvres sur un cadastre publique décentralisé (le blockchain), les créateurs peuvent communiquer au public la paternité de ces œuvres, ainsi que les conditions des licences sous lesquelles elles ont été licenciées.
  • Meilleure accessibilité: les œuvres enregistrées sont également stockées dans un réseau pair à pair (à la BitTorent) de manière sécurisée et décentralisée.
  • Suivi des utilisations: les créateurs obtiennent un identifiant unique (adresse publique) pour chaque œuvre enregistrée sur le blockchain, qui permettra ensuite d’obtenir un suivi des opérations effectuées avec l’œuvre.
  • Partager les œuvres facilement: une URL publique est créée pour chaque œuvre, contenant l’adresse unique de l’œuvre, un link pour télécharger cette œuvre, les conditions de la licence, et les métadonnées (titre, auteur, année, etc)
Il devient ainsi possible à partir d’une vidéo initialement placée sous CC de savoir quels sont tous les remix et mashup qui auront été créés à partir d’elle. On disposerait ainsi d’une « généalogie » complète des réutilisations d’une oeuvre, garantissant une attribution précise à chacun des créateurs étant intervenus successivement [...] Blockchain permettrait aussi aux créateurs de déclarer simplement leur catalogue d’oeuvres et d’obtenir une rémunération à hauteur des usages, par le biais d’un algorithme public et transparent. [87].

L'exécution du contrat

L'obligation juridique et la visibilité peuvent être complétées par un contrat auto-exécutable, ou smart contract.

Les smart contracts sont des programmes autonomes qui, une fois démarrés, exécutent automatiquement des conditions définies au préalable. Ils fonctionnement comme toute instruction conditionnelle de type « if – then » (si – alors). Les bénéfices : vitesse accrue, meilleure efficacité, et confiance dans le fait que le contrat sera exécuté comme convenu. Ces programmes sont capables de surmonter les problèmes d’aléa moral, et de réduire les coûts de vérification, d’exécution, d’arbitrage et de fraude. L’avantage d’implémenter des smarts contracts dans une blockchain est la garantie que les termes du contrat ne pourront pas être modifiés. Un smart contract qui ne serait pas dans la blockchain serait un programme dont les termes pourraient être changés en cours d’exécution[88].

Ethereum, qui met en oeuvre des smart contracts, permet de stocker du code dans une Blockchain, de le faire exécuter et d’apporter la preuve de son exécution. Grâce à Ethereum:

  • UjoMusic entend permettre aux artistes de placer leurs titres sur une blockchain, de définir quelle part de chaque morceau doit revenir à tel ou tel contributeur du titre, et de récolter ensuite les droits d’auteur sans intermédiaire, grâce à des smart contracts. En pratique, le téléchargement d'un morceau de musique est vendu 0,6 $, répartis selon un barème donné entre la chanteuse, les musiciens et ingénieur du son. Le streaming est vendu 0,006 $, répartis selon un barème différent
  • Colony est une plateforme collaborative pour les organisations décentralisées. Les utilisateurs peuvent démarrer des projets en ligne et construire une force de travail pour les aider à transformer leur projet en réalité. Elle aligne les rémunérations sur la productivité, il est possible pour les gens où qu'ils soient dans le monde de travailler sur le projet sans besoin d'un management hiérarchique. La plateforme incite les utilisateurs à devenir les plus doués et productifs en leur distribuant des crypto-actions en proportion de la valeur de chacune de leurs contributions. La plateforme automatise le processus de gestion de projet, en agrégeant l'intelligence collective en suggérant des tâches, en prenant des décisions, en assignant des tâches aux meilleurs et en fournissant un retour sur le travail des gens. Chaque aspect de la plateforme emploie des mécaniques de jeux et un design comportemental pour assurer une expérience attirante qui encourage l'engagement[89].
  • Slock.it rassemble 3000 enthousiastes qui auront prochainement une rémunération financière directe dans chaque projet que soutient Slack, dont l'ordinateur Ethereum. Dans le vieux crowdfunding, vous mettiez un peu d'argent en espérant recevoir un jour un produit au courrier. Maintenant vous devenez un manager de projets, dont une portion vous reviendra sous forme de revenus partagés[90].
  • Backfeed explore des solutions de rémunération sur la base de la réputation ou de la qualité des votes

Les licences à réciprocité

La « peer production licence » propose des communs ouverts à tous ceux qui y contribuent, et payants, sous conditions, pour les entreprises commerciales[75]. Cette première étape de licence à réciprocité permet un petit élargissement de l'exploitation des communs à la sphère marchande coopérative.

En seconde étape, la Commons-Based Reciprocity License élargit encore aux sociétés commerciales qui contribuent aux communs de manière proportionnelle à l'exploitation qu'elles en font. À cette fin, un système de jetons mesure la valeur ajoutée par chaque contributeur[91].

En variante, l'open value accounting établit cette mesure grâce à une notation que chaque contributeur reçoit de ses pairs. Ce score est converti en rémunération pécuniaire dès qu'il se produit des rentrées d'argent. Le lien est donc indirect : l'argent et la création de valeur sont dissociés[92]. Ensuite, les communs font l'objet de redevances payées par les sociétés commerciales[93]. Cependant, la pratique montre que la présence de cette comptabilité est sensible, et peut provoquer des tensions entre collaborateurs[94].

Pour être opérationnelles, les licences à réciprocité doivent donc faire en sorte que le lien entre valeur d'échange et valeur d'usage ne soit pas visible a priori. Ceci conforte l'intuition : dans une production « à toutes fins utiles », c'est-à-dire sans visibilité a priori de l'utilité d'une contribution particulière à un produit marchand, a fortiori si celui-ci n'est pas même encore imaginé, il serait hasardeux d'effectuer ce lien avant toute vente. En revanche, il est possible grâce à l'analyse des traces et aux outils de big data de calculer cette utilité a posteriori. De plus, l'expérience montre que, même si chacun s'accorde à dire qu'un algorithme a toujours une part d'arbitraire, il est de l'intérêt de l'opérateur pour maintenir la dynamique de sa communauté de cultiver le sentiment d'équité[95].

C'est ce que propose la licence FairlyShare, en laissant à l'exploitant des communs la responsabilité d'utiliser le meilleur état de l'art pour calculer l'arborescence des utilités individuelles. Son pari consiste à rendre perméable la frontière entre sphères non-marchande et marchande et de valoriser le travail des contributions fournies « à toutes fins utiles ».

L'invention

L'invention a un double visage. Celui de l'apport d'avancées intellectuelles utiles au dynamisme de l'innovation. Mais aussi celui des chasseurs de brevets (patent trolls), dont les pratiques sont nuisibles à l'innovation. Cependant, les tendances des pratiques professionnelles promettent un avenir plus pacifique et qui valorisera davantage l'invention en tant qu'actif "à toutes fins utiles".

Le logiciel dévore le monde

Dans un article resté célèbre du Wall Street Journal, le fondateur de Netscape, Mark Andreessen, expliquait en 2011 « pourquoi le logiciel dévore le monde »[96].

Cet article évoque en particulier la mésaventure de Borders, cette grande chaîne de librairies américaines qui, ayant considéré la vente en ligne non stratégique, avait passé un accord avec Amazon, qui paraissait alors inoffensif. Dix ans plus tard, cet accord s’était révélé fatal a posteriori, en provoquant la faillite de Borders. Andreessen rappelle que le distributeur de video par correspondance, Netflix, a détrôné Blockbuster, leader historique des videoclubs. De même les nouveaux leaders de la musique sont des sociétés de logiciels : iTunes, Spotify et Pandora. Le segment le plus dynamique du marché des loisirs est celui des jeux videos dont les leaders Zynga et Rovio distribuent leurs produits seulement en ligne. Le meilleur producteur de films d’animations est Pixar, dont les logiciels 3D font la différence. Grâce aux appareils photo intégrés dans les smartphones, Shutterfly, Snapfish et Flickr ont pris la place de Kodak. Groupon, Living Social et Foursquare grignotent le marché de la distribution. Skype prend des parts du marché des telecoms aux dépens du troisième plus grand opérateur CenturyLink, tandis que Linkedin consomme celui du recrutement. Dans une voiture, ce sont dorénavant des logiciels qui démarrent le moteur, contrôlent les équipements de sécurité, distraient les passagers, guident le conducteur et gèrent les liaisons aux mobiles ou aux satellites. Wal-Mart ou Fedex peuvent se définir comme des logiciels de gestion logistique auxquels sont rattachés des avions, des camions et des centres de distribution. Il en est de même dans l’exploration pétrolière, les services financiers, l’agriculture, le renseignement et l’armée.


Full Stack[97]

Non seulement le logiciel dévore le monde, mais il permet aussi la construction de monopoles par intégration verticale. "Full Stack", c'est un secteur à partir du logiciel pour remonter jusqu'à l'offre d'un service complet, voire d'un produit entier et de tous ces composants. Il y a 10 ans, Uber ce serait contenté de vendre sa plate-forme de mise en relation et de calcul de prix société de taxi ou de VTC. Aujourd'hui, il veut les concurrencer. Les nouveaux concurrents ont un appétit d'ogre, mais également ses manières. Tesla, dans les voitures font appeler entre guillemets ordinateur à roulettes », aurait pu se contenter de fournir aux constructeurs auto informatique de gestion de l'énergie pour les voitures électriques. Au moins utiliser une plate-forme existante comme il ne fait au début avec les châssis du constructeur britannique de coupés sportifs lotus. Or, non seulement il veut construire intégralement sa propre voiture, mais au fur et à mesure qu'il récupère de l'argent, il se lance dans des activités nouvelles. Il a entamé la construction, au Nevada, de la plus grande usine de batteries au monde. Encore mieux, Elon Musk a créé une entreprise de panneaux solaires, devenu leader aux États-Unis, et veut connecter les deux. Les batteries de voiture, stockant l'énergie solaire des maisons… Pourquoi ces entreprises se lance dalle maintenant dans des métiers qui ne sont pas les leurs, comme fabriquer des voitures, gérer un système de transport, à l'instar de Google, vendre des thermostats pour gérer le chauffage de sa maison ? Pour contrôler le produit, pour aller plus vite face à des acteurs traditionnels jugés trop lents et aussi pour contrôler la marge. Ou de plus en plus de choses en sont offertes gratuitement sur Internet, il vaut mieux maîtriser le plus d'éléments possibles de la chaîne de la valeur pour être sûr de se trouver à l'endroit où se feront les bénéfices. C'est pour cela que Netflix, le roi de la vidéo à la demande sur Internet, c'est tout d'un coup mis à devenir producteur de série télé comme la fameuse House of Cards.

Le mobile est le premier moteur du logiciel

Le fonds qu’il a créé, Andreessen Horowitz, gère 3 milliards de dollars investis sur cette conviction, au point que la locution « software is eating the world » accompagne toute sa communication. Seule entorse à cette règle, sa présentation lors du Tech Summit de Sausalito en 2014, intitulée « mobile is eating the world »[98].

Le mobile est en effet devenu le premier moteur du monde logiciel. 50% du marché des produits électroniques grand public provient des smartphones et tablettes. 2 milliards de personnes accèdent à internet par un smartphone, et ce chiffre sera porté au double dans 5 ans, lorsque 80% des adultes du monde posséderont un mobile. Leur utilité augmente en effet avec leur autonomie, le taux de couverture, le nombre d’applis et le nombre de capteurs.

Le logiciel dévore donc le monde, et en particulier le logiciel mobile. Mais qui dévore le logiciel mobile ? C’est le brevet !

La guerre Apple-Samsung pour le contrôle du mobile

Pour s’en convaincre, faisons un retour en arrière de quelques années :

  • 2010 : Steve Jobs, fondateur d’Apple, découvre un smartphone HTC sous Android, qui reprend de nombreuses fonctions de l’iPhone. Livide, il fulmine : « je vais lancer une guerre thermonucléaire contre le logiciel de Google. Je vais détruire Android car c'est un produit volé." A Eric Schmidt, Président de Google, qui propose un arrangement amiable, il répond : "je ne veux pas de votre argent. Même si vous me proposiez 5 milliards de dollars, je n'en voudrais pas, j'ai plein d'argent. Tout ce que je veux, c'est que vous arrêtiez de piller nos idées avec Android."[99]
  • 2011 : Apple attaque Samsung, principal intégrateur d’Android, pour contrefaçon. Pour préparer sa défense, Google, qui est contractuellement solidaire de Samsung, rachète Motorola et ses 17000 brevets pour 12 milliards de dollars
  • 2012 : Samsung est condamné à 1 milliard de dollars
  • 2013 : l’administration Obama soutient officiellement Apple contre Samsung, ce qui provoque une tension diplomatique avec la Corée du Sud
  • 2014 : Apple attaque de nouveau Samsung pour contrefaçon de cinq autres brevets, et réclame cette fois 2,2 milliards de dollars. Google revend Motorola pour 3 milliards de dollars, mais en conservant 15000 des 17000 brevets de départ, ce qui confirme à ceux qui en douteraient encore de l’unique objectif de cette acquisition : les brevets.

La guerre mondiale des brevets pour le contrôle du numérique

Enjeux de souveraineté

Le Sénateur Curt Bramble dénonce depuis 2013 les pays qu’il juge menaçants pour les intérêts américains : Taiwan, la Corée du Sud et la France. Selon lui, ces pays ont créé des fonds de brevets qui n’ont d’autres fonctions que d’être des « patent trolls », c’est-à-dire de faire du chantage aux exploitants par intérêt protectionniste. Le taïwanais ITRI dispose de 18 000 brevets américains et a déjà lancé 20 procès. France Brevets a annoncé vouloir favoriser les intérêts des entreprises françaises face à leurs concurrents étrangers. Comme ce fonds peut prendre avantage des préférences de régulation de l’État, qui en est le détenteur, cela crée pour le Sénateur un conflit d’intérêt. Curt Bramble suggère de contraindre ce fonds à une exigence de transparence et à davantage de restrictions que des sociétés privées comme Google ou Apple[100].

En réplique, France Brevets est doté début 2015 de 100 millions d’euros supplémentaires, et le fonds coréen disposera bientôt de 350 millions de dollars.

Enjeux de fiscalité

Les brevets sont utilisés à des fins d'optimisation fiscale.

Apple Sales International et Apple Operations Europe sont deux sociétés de droit irlandais détenues à 100 % par le groupe Apple. Elles détiennent les droits d'utilisation de la propriété intellectuelle d'Apple pour vendre et fabriquer des produits Apple en dehors de l'Amérique du Nord et de l'Amérique du Sud dans le cadre d'un «accord de partage des coûts» avec Apple Inc. Ce dernier prévoit qu'Apple Sales International et Apple Operations Europe effectuent des paiements annuels à Apple aux États-Unis afin de financer les actions de recherche et développement menées au nom des sociétés irlandaises aux États-Unis. Ces paiements se sont élevés à environ 2 milliards d'USD en 2011 et ont sensiblement augmenté en 2014. Ces dépenses ont contribué au financement de plus de la moitié de l'ensemble des efforts de recherche déployés par le groupe Apple aux États-Unis pour développer sa propriété intellectuelle à travers le monde. Elles sont déduites des bénéfices enregistrés par Apple Sales International et Apple Operations Europe en Irlande chaque année[101]

Notes : Travaux en cours avec les BEPS (bases erosion and profit shifting)

Enjeux de gouvernance

En plus des fonds souverains, 900 fonds privés se sont développés. Le nombre de procès en contrefaçon a déjà augmenté de 80% en deux ans. Les investisseurs poussent les entreprises à scinder leurs activités d’exploitation et de brevets. Ainsi Vector Capital, actionnaire principal de Technicolor, veut que le groupe se recentre sur ses seuls brevets pour le valoriser de manière plus agressive[102]. Les analystes financiers de JP Morgan saluent cette proposition. Voyant « un potentiel de hausse significatif pour [leurs] estimations à moyen-long terme du programme de licences dans les smartphones et tablettes », ils pensent que la valeur du titre pourrait en être multipliée par deux[103].

Les hostilités ont été déclenchées en 2013 par l’administration Obama. Pour ceux qui n'auraient pas entendu le message, il réaffirme sans détour en 2015 que les américains "possèdent" Internet.

We have owned the internet. Our companies have created it, expanded it, perfected it in ways that they can’t compete[104]

Or les seuls titres de propriété valables pour l'économie numérisée sont les brevets. Nous sommes en phase d’armement. Les groupes se préparent à rendre offensifs leurs portefeuilles de brevets. Les fonds augmentent leurs capacités d’investissement. Les chinois ont multiplié par 3 leurs dépôts en 5 ans.

Enjeux de puissance

Emmanuel Macron veut que la France devienne une nation de startups [105]. Cependant les GAFAM ont déposé 52.000 brevets en 5 ans[106] pour défendre l'accès aux futurs marchés du numérique. Avec seulement trois d'entre eux, Apple avait obtenu une condamnation de Samsung en milliards de dollars. Comment imaginer que des startups françaises aient la moindre chance ? La French Tech s'enorgueillit d'être la première délégation mondiale du CES de Las Vegas en termes de startups[107] et se réjouit de ses contacts prometteurs avec des grands groupes[108]. Pourtant le vol des idées fait partie du top 5 des mauvaises pratiques de ces grands groupes[109], et la barre pour défendre leurs droits est trop haute pour les jeunes sociétés : de 500 000 à 4 millions de dollars par litige[110][111]. Les startups sont pillées. Pire encore, elles sont des contrefacteurs sans le savoir, jusqu'au jour où elles reçoivent un courrier d'huissier. Par souci de discrétion 90% des actions en contrefaçon font l'objet d'une transaction. Mais leur part la plus visible, initiée par les "patent trolls", concerne à elle seule une startup sur trois[112]. Les startups pensent que leur agilité et rapidité les sauveront. Le mantra du "first takes it all" est dans toutes les têtes, alors qu'il est contredit par les faits : Google, Facebook et Apple n'ont pas été les premiers moteur de recherche, réseau social ni fabricant de lecteur MP3[113]. Devant ces réalités écrasantes, comment ne pas penser que la "startup nation" ne soit qu'une lubie sans lendemain ?

En fait, le chiffre de 52.000 brevets doit être analysé plus finement. En zoomant par exemple sur le domaine de l'intelligence artificielle, on constate que les GAFAM n'ont déposé que 244 brevets, dont 103 par Microsoft et 80 par Google[114]. Amazon a présenté en grandes pompes Alexa au CES 2017, son assistant intelligent et vocal. Vite devenue la star de Las Vegas, Alexa permet de dicter sa liste de courses, de commander son Uber ou sa pizza…en s'adressant à des téléviseurs, des lampes ou des réfrigérateurs[115]. Pourtant, derrière cette vitrine imposante, Amazon dispose de moins de 40 brevets en intelligence artificielle[116]

De même Mark Zuckerberg a annoncé le pari de Facebook sur la réalité augmentée. Ses technologies de "camera effect platform" permettront aux smartphones de superposer des éléments virtuels sur le monde réel[117]. Pourtant, le premier réseau social mondial ne dispose d'aucun brevet de réalité augmentée en propre[118][119].

Ainsi les marchés du numérique sont tellement nombreux que 52.000 brevets rapportés à chaque marché ne pèsent finalement pas si lourd. Les 5 brevets de réalité virtuelle rachetés par Facebook avec Oculus[120] ne l'auront pas empêché d'être condamné à 500 millions de dollars pour vol de technologies à ZeniMax, et il est à nouveau accusé par ImmersiON-VRelia. Contrairement aux apparences, les géants du numérique sont vulnérables.

C'est là que se situe l'opportunité pour les startups qui peuvent valoriser leur positionnement unique, en tant que fournisseur, partenaire ou cible d'investissement. En millions, comme Vega Vista et ses 10 brevets[121][122], ou en milliards, comme Nest et ses 40 brevets[123]. Pour assoir leur domination sur les marchés du numérique, les enchères entre les grands groupes sont illimitées. Il faut en revanche que les startups qui veulent se valoriser disposent de brevets de qualité, c'est-à-dire déposés de manière précoce et avec des moyens convenables. On objectera que seules 15% des start-up françaises détiennent au moins un brevet durant leur phase d’amorçage. On peut voir en effet ce chiffre comme une faiblesse, puisque son équivalent américain est de 22%[124]. On peut le voir aussi comme un formidable potentiel d'opportunités. Celui-ci a été identifié depuis des années par de nombreux rapports officiels, qui insistent sur la qualité et le foisonnement de l'inventivité en France.

Que manque-t-il ? Une culture de la propriété intellectuelle. Les entrepreneurs sont majoritairement des inventeurs qui s’ignorent. Les innovations non technologiques(1), les inventions qui mettent en œuvre des ressources numériques ou des logiciels open source ne leur paraissent a priori pas brevetables. Le brevet leur semble cher, compliqué, indéfendable et le succès des licences ouvertes a brouillé leur compréhension de la propriété intellectuelle. Leurs priorités sont la prospection et la commercialisation. Les business angels interviennent après l’invention, trop tard pour la protéger correctement. Sous la pression des investisseurs, qui exigent la présence d’un brevet pour investir, les entrepreneurs font des dépôts à moindre frais et de qualité médiocre.

Que faut-il faire ? Selon Jean Tirole, Prix Nobel d'Economie, "pour innover, il faut des inventeurs et du financement. L’innovation vient de plus en plus des startups". L'OCDE le confirme, il faut apporter aux startups de l'expertise et financer leur propriété intellectuelle[125]. Les SATT, France Brevets et BpiFrance font des efforts dans ce sens, mais on est encore loin du compte. Il faudra davantage d'initiative pour libérer le potentiel des inventeurs et que le projet d'une "startup nation" devienne plus qu'une simple utopie !

(1) au sens du Manuel d'Oslo, 3ème édition

  • Notes

Moshe Hogeg, who co-founded Mobli, sold Mobli’s Geofilters patent to Snap this month for $7.7 million. (NDVL : Complément pour un achat)

Les start-up dotées de portefeuilles de brevets de qualité ont une valeur potentielle de rachat bien plus grande[126]

La startup i4i a fini par l'emporter contre Microsoft, condamné pour contrefaçon à lui verser 290 millions de dollars[127]

Dans les derniers mois, Uber a acheté 66 brevets à AT&T[128]

Les réactions sont vives : Microsoft said: “While the outcome is not what we had hoped for, we will continue to advocate for changes to the law that will prevent abuse of the patent system and protect inventors who hold patents representing true innovation.”[129]

La pression s'intensifie avec les brevets étendus

Tandis que les arsenaux grandissent, la pression monte.

Les champs d'innovation sont très larges, ce qui permet aux inventeurs de déposer des brevets d'invention sur des territoires immenses. Or le brevet initial trop étendu, s’il récompense généreusement l’inventeur pionnier, bloque les possibilités de recherches subséquentes effectuées par d’autres, diminue donc la diversité des agents innovateurs dans ce domaine et réduit la probabilité que les développements cumulatifs aient lieu. Le cas du brevet protégeant un résultat général plutôt que la méthode particulière d’obtention du résultat est un bon exemple de brevet trop étendu. Dans ce cas, toute recherche ultérieure visant à explorer d’autres méthodes d’obtention du même résultat seront bloquées. Un autre cas est celui du brevet qui porte sur tous les éléments et toutes les applications imaginables – ce qui favorise la création de monopoles d’exploitation très étendus. C’est le cas par exemple de la génétique du cancer du sein où les brevets de la Société Myriad Genetics protègent toute reproduction et utilisation de la séquence et des produits liés, ainsi même que les méthodes de diagnostic, sans limitation de la technique utilisée. Enfin, les brevets sur des connaissances très amonts, notamment sur les outils de recherche, peuvent également entraver la dynamique cumulative de la connaissance. Les brevets trop étendus constituent un véritable problème dans le domaine des sciences de la vie, par exemple dans la génomique, comme le suggèrent de nombreuses études récentes (Cassier et Gaudillère, 2000, Thomas, 1999). Merges et Nelson (1994), ayant étudié de nombreux cas historiques, suggèrent que dans un contexte d’interdépendance, une politique de propriété intellectuelle acceptant des brevets très étendus induit un certain nombre de blocages, qui retentissent en définitive sur la dynamique générale de l’innovation du secteur : “Dans les cas de systèmes technologiques cumulatifs que nous avons observés, des brevets pionniers trop étendus n’amènent rien d’autre que des troubles"[130].

Notes : Beaucoup de présidents d'université pensent que faire de la valorisation va gêner le progrès de la connaissance, qu'ils considèrent comme leur mission. Or, l'expérience montre que les techniques et les outils créés par des start-up contribuent à produire de nouvelles connaissances[131].

On n’attend plus qu’une étincelle pour que la poudrière explose.

La mondialisation du conflit

Ces épisodes sont les premiers d’un scénario de guerre mondiale des brevets pour la maîtrise des logiciels et des mobiles.

Histoire

Les grandes inventions comme la machine à coudre[132], l’ampoule électrique, le téléphone, l’automobile, l’avion ou la radio ont aussi, à leurs époques, fait l’objet de guerres de brevets[133].

Le cas de l'automobile

En 1895, Selden brevète la combinaison des éléments essentiels d'une automobile[134]

Patent No. 549,160 remained in obscurity until 1899, when Electric Vehicle Co., a New York producer of electric taxis and streetcars, purchased rights to it for $10,000 plus royalties[135].

By 1903, several automobile manufacturers, including some of the successful early companies such as the Winton Motor Carriage Company, Olds Motor Works, and Packard Motor Car Company, recognized the validity of Selden's patent and agreed to pay the Electric Vehicle Company a royalty of 1.25% for each vehicle.

On Oct. 22, 1903, Selden and Electric Vehicle Co. sued Ford for patent infringement. The battle raged until 1911, only a year before the Selden patent expired, which enabled the association to collect a total of

$5.8 million in royalties. Selden's estimated return was $200,000. The royalties dwarfed the estimated $1.5 million the association paid for legal and technical experts, patent searches and advertising. Ford won on appeal [as Selden gas engine was not unforceable against Ford]. "From the point of view of public interest, it were even better that the patent had never been granted," wrote Judge Walter Noyes in the appellate court's decision.[136].

Nouvelle poussée de fièvre

L’histoire se répète. Le rapport Percheron-Terroir l’anticipait dès 2012 : « La position des économies dans la possession des brevets va en effet peser de plus en plus dans l’allocation des investissements, de l’emploi et de la croissance au niveau mondial. C’est bien en ce sens qu’il faut interpréter les batailles gigantesques que se livrent les groupes de technologies de l’information à coup de milliards de dollars. C’est également ce que les économies asiatiques ont compris en prenant une place inattendue dans le dépôt des brevets et des initiatives pour renforcer la maîtrise de ce nouveau marché. […] Comme pour l’accès aux matières premières au XIXéme siècle, la propriété intellectuelle est devenue un enjeu de souveraineté et de rapport de forces et il est peu probable que la coopération se développe spontanément – d’autant que de façon plus prosaïque les ressources des offices de brevets sont fonction du nombre de brevets délivrés… Lorsque la situation de blocage aboutit à pénaliser tous les acteurs, des mécanismes de licences croisées et de pools de brevets se mettent en place, mais dans l’intervalle le champ de la propriété intellectuelle devient l’occasion de contentieux et de chantage, qui rapproche le monde de l’invention d’une économie de guerre.»[137]

Les conditions d'une paix durable des brevets

Qui seront les gagnants et les perdants de cette guerre ? Le brevet s’apparente en effet à l’arme thermo-nucléaire évoquée par Steve Jobs : une arme imparable, contre laquelle la seule défense est la contre-attaque, mais qui ne détruit que des produits. Ainsi, les entreprises commerciales et les pays désarmés sont fortement exposés, tandis que les entreprises non commerciales ne risquent rien. Les grands gagnants seront les fonds de brevets et les inventeurs non exploitants. En effet, cette guerre est la conséquence d'une sous-valorisation de l'invention, ce que démontre la présence des "patent trolls", spéculateurs de cette anomalie de marché.

Quand la paix pourra-t-elle revenir ? Lorsque la valeur économique des inventions trouvera un nouvel équilibre plus en phase avec l'économie de la connaissance. Les revenus tirés de la propriété intellectuelle représentent en effet, selon les années, entre 3 % et 5 % du budget de la recherche aux États-Unis, et 1 % en France seulement[138]. Alors la guerre s'arrêtera et les patent trolls disparaîtront. Aujourd'hui, lorsqu'un laboratoire universitaire de recherche, par exemple, constitue un portefeuille de brevets, il est classique que celui-ci soit sous-exploité, faute de visibilité sur une demande solvable et sur d'éventuels exploitants ("sur-traitants"). Ses brevets sont donc sous-valorisés, jusqu'au jour où le laboratoire découvre brutalement un contrefacteur. La rencontre est alors inévitablement conflictuelle. Pour qu'un actif "à toutes fins utiles" se valorise dans des conditions plus apaisées, il faut que les sur-traitants potentiels aient de la visibilité sur cet actif et sur son utilité.

Les pools de brevets

En 1917, le gouvernement américain a forcé les frères Wright et d’autres titulaires de brevets-clefs sur l’aviation à fonder la MAA (Manufacturer’s Aircraft Asssociation), une communauté de brevets (patent pool) qui a permis à plus de 60 entreprises de fabriquer des avions sans craindre des procès pour contrefaçon. Ce patent pool a incité les fabricants d’avion à se concentrer sur la qualité de leurs aéronefs, et non sur la compétence de leurs avocats en propriété intellectuelle. Plus tard, les Etats-Unis ont encouragé un accès plus simple aux brevets sur la radio. Dans les années 50, le pays a forcé des licences obligatoires dans un grand nombre de champs technologiques. Le gouvernement a mis en place un régime spécifique dans le domaine de l’énergie nucléaire -afin que les investisseurs ne soient pas menacés par des procès après avoir englouti des millions dans de nouvelles centrales. Dans les années 70, la loi sur la qualité de l’air (Clean Air Act) comportait une disposition sur une licence obligatoire, afin qu’aucune entreprise ne puisse disposer d’un monopole sur des technologies nécessaires à la réalisation des objectifs de ladite loi.

La notion romantique de l’auteur solitaire n’est pas adaptée à des industries comme l’informatique, les logiciels ou la téléphonie mobile, où la coopération et le respect des standards sont des facteurs clefs du succès. Nous avons besoin aujourd’hui d’une approche digne du XXIème siècle dans le domaine des licences obligatoires, qui encourage les licences volontaires, et fournit des rémunérations justes et raisonnables aux titulaires de brevets, sans que ces derniers ne deviennent des armes utilisées par les cartels et les monopoles anti-consommation et anti-innovation.

Une piste simple de réforme serait de mettre en place une règle de responsabilité, où les entreprises seraient libres d’agir, à condition de verser de l’argent à un fonds pour rétribuer les titulaires de brevets. Par exemple, dans le domaine de l’électronique grand public, une entreprise pourrait fabriquer le produit qu’elle désire, tant qu’elle verse 6 à 10% de son chiffre d’affaire à ce fonds. L’argent serait réparti entre les différents titulaires de propriété intellectuelle, selon une clef décidée par un arbitre indépendant. Ce système doperait largement les cycles d’innovation[139].

Multipropriétés de brevets

Nous préconisons qu’au moment de la création ou du renouvellement d’une unité de recherche multitutelles, un accord soit signé affirmant le principe d’une multipropriété de la PI incluant toutes les tutelles fondatrices. Il peut être ajouté, le cas échéant, et au cas par cas, d’autres entités pouvant jouer un rôle important dans la PI d’une unité particulière (exemple de l’hôpital pour les unités de recherche clinique). Le partage des droits entre propriétaires sera de même défini à ce stade et doit obéir à des règles simples: soit une équi-répartition entre tutelles, soit une répartition prenant en compte les forces respectives des tutelles mais ceci doit être fixé ex ante. De même, dans cet accord, un titulaire gestionnaire unique des droits de l’ensemble de la PI générée au sein de l’unité sera défini pour la durée de vie du contrat de l’unité (5 ans en général), de manière spécifique à l’unité. Cette désignation sera accompagnée de garanties claires quant au retour financier vers les tutelles, à l’intéressement des inventeurs et au processus de suivi[140].


Valorisation des brevets

Succès des start-up

L'apport économique des brevets à un projet innovant est palpable. Ils multiplient par 35 les chances de succès d'une startup.

Une nouvelle étude de chercheurs a révélé la valorisation des startups par les brevets qu'elles déposent. Cette étude, intitulée “A new view of the skew: A quantitative assessment of the quality of American entrepreneurship”[141], est co-signée par quatre universitaires du Massachusetts Institute of Technology. Il suit d'un mois la publication d'un autre article intitulé "The bright side of the patents", qui analyse les bénéfices considérables que les startups reçoivent du dépôt de brevets.
Parmi les clés de la réussite le document constate que "la probabilité de croissance est 35 fois plus élevée pour les entreprises qui déposent des brevets". Malgré ce chiffre remarquable, cela ne veut pas dire que si une start-up a un brevet, son succès est garanti à coup sûr. Voici comment il décrit la relation entre les deux: il est très important de souligner que ces caractéristiques de démarrage ne sont pas les moteurs de la croissance, mais sont plutôt des «signatures numériques» qui permettent de distinguer les entreprises en fonction de leur qualité d'entreprise. Le dépôt d'un brevet ne garantit pas un résultat de croissance pour une nouvelle entreprise, mais les entreprises qui, historiquement, se sont engagées dans ces activités ont été associées à des résultats de croissance asymétriques.
Valorisation des acquisitions

Netslabs illustre la valeur des brevets dans une startup.

Nest Labs, qui s’est rendu célèbre avec son fameux thermostat connecté, a dès sa création en 2011, investi sur la protection intellectuelle de ses inventions d’usages. «Chez Nest, ce que nous avons fait c’est mettre le paquet sur une tonne de brevets», dit son co-fondateur Tony Fadell, «c’est ce qu’il faut faire quand on veut disrupter des enjeux financiers importants.». Son brevet #841 par exemple, décrit comment un réseau de thermostats, équipés aussi de capteurs sismiques, prédit un tremblement de terre de manière statistique. Son brevet #255 décrit comment économiser l’énergie en anticipant la présence des habitants dans chaque pièce. 36 autres brevets similaires permettent de préempter un véritable territoire d’usages pour la maison connectée. Or il s’avère que ce marché, qui se chiffre en dizaine de milliards, va doubler dans les cinq prochaines années alors qu'il ne nécessite aucune expertise technologique de pointe. Entre Apple, Google, Microsoft et Samsung, celui qui dominera ce nouveau marché sera celui qui détiendra le meilleur portefeuille de brevets d'usage. Conséquence logique, la valorisation de Nest Labs s’est envolée à plus de 3 milliards de dollars, que le meilleur enchérisseur, Google, a donc déboursé pour s’imposer[142].

Le CTO d'Apigee, acheté 600 millions de dollars par Google en 2016, défend l'intérêt des brevets.

"Les IBMs et les Hitachis du monde ont leurs propres raisons pour breveter. Je ne vais pas là avec ce post-il s'agit de startups.

"Premièrement, voici trois raisons fréquemment invoquées pour expliquer pourquoi les brevets ne sont pas importants.

  • En fin de compte, seul le code compte. Protégez ce que vous voudrez, mais si vous ne livrez pas vite, vous êtes grillé. Donc, à la fin, si c'est tout ce qui compte, qui se préoccupe du brevetage?
  • Ce que vous faites breveter, vous ne publiez pas. Vous n'installez pas une marque d'ingénierie et vous n'embauchez pas de personnes talentueuses. L'impact des talents dépasse de loin l'impact de la «protection».
  • Les brevets prennent du temps à coder (voir la raison # 1).

Alors maintenant vous pensez: "Je suis vendu, rien de plus à lire, nous avons fini, non?"

"Si seulement c'était si simple. En fait, un brevet soigneux est extrêmement important pour un démarrage. Il y a plusieurs raisons à cela.

"Il n'y a probablement pas une seule start-up qui ne possède pas d'idée technique clé. Idée clé + exécution = succès, non? Les gouvernements mondiaux vous ont donné un outil pour protéger cette idée clé, améliorant les chances que vous réalisiez ce succès, alors pourquoi ne pas l'utiliser? Bien sûr, je ne préconise pas d'aller au-delà de la protection et de la pêche à la traîne. Les brevets augmentent la valeur du démarrage. Si vous allez être acquis, les brevets comptent. Si vous cherchez à obtenir un financement (ou à approcher un premier appel public à l'épargne), c'est important. Et si vous êtes dans un monde post-IPO, vous n'êtes plus startup (voir le titre de cet article). L'exercice entier de la rédaction d'un brevet peut être très clair. La mécanique de l'écriture du brevet ne l'est pas forcément - dans certains cas, c'est ennuyeux pour un ingénieur (plus sur cela plus tard), mais cela aide à se concentrer sur ce qu'est exactement votre "sauce secrète".

"La défense est la meilleure forme d'infraction. Toutes les choses que vous voyez, d'autres voient. Oui, l'exécution est importante. Mais si vous les avez déjà vus, pourquoi ne pas dire à tout le monde que vous les avez déjà vus? Cela pourrait s'avérer un avantage inutile, mais pourquoi ne pas mettre quelques milliers de dollars pour préserver cette option? Bien sûr, si vous voulez breveter quelque chose, vous devez faire en sorte que cela soit indolore pour les ingénieurs. Le codage devrait être leur métier. "Chez Apigee, nous avons adopté cette approche. Nous déposons des brevets régulièrement, et nous utilisons un cabinet extérieur très compétent en droit de la propriété intellectuelle, qui exige seulement des ingénieurs qu'ils écrivent librement leur idée et pourquoi c'est important, puis les avocats du cabinet décident de l'ordre de priorité et réalisent des entretiens. Nous avons essayé une équipe interne d'évaluation de la propriété intellectuelle, mais cela ralentissait les choses et n'ajoutait pas suffisamment de valeur pour justifier le retard.

"La vitesse, le code et le talent sont tous importants, mais prenez également soin de protéger vos bijoux de la couronne[143].

Transferts technologiques

De nouveaux outils d'analyse des portefeuilles de brevet veulent mesurer cette valeur de manière plus précise.

Innography applique par exemple les techniques du big data aux bases de données de brevets pour en extraire des cartographies d'aide à la décision. Reed Tech utilise des moteurs sémantiques pour identifier plus finement les correspondances entre brevets et technologies. Thomson Reuters analyse les contenus des brevets pour en déduire des tendances et identifier des opportunités stratégiques. Constatant que 95% des brevets américains ne sont pas valorisés, Haystack IQ veut mettre à profit les technologies du big data pour mettre en relation précoce les inventeurs et exploitants potentiels[144]. Ces outils accélèrent actuellement le développement du marché de brevets et favorisent le bourgeonnement des intermédiaires et fonds spécialisés.

De plus, le brevet stimule les transferts technologiques.

le Bay Dohle Act américain adopté en 1980 a joué un rôle fondateur. Ce mécanisme, qui donne aux universités et aux PME la propriété intellectuelle des inventions qui résultent de la recherche menée avec des fonds du gouvernement fédéral, facilite les transferts technologiques entre universités et entreprises[145]

Si le logiciel dévore le monde, le brevet dévore le logiciel, ce qui en fait un actif "à toutes fins utiles" éminemment stratégique pour les investissements, l'emploi voire la souveraineté nationale, au niveau mondial.

Intensité des startups françaises

Tech Tour établit sa liste annuelle des « 50 futures licornes européennes ». Sélectionnées par un jury d'experts en fonction de leur croissance, de leur potentiel et des fonds levés sur les trois dernières années, Tech Tour a identifié sept sociétés françaises susceptibles de devenir des licornes, contre seulement quatre l'an dernier : Devialet, Actility, Sigfox, Cedexis, Amplitude, Scality et Crocus Technology.

L'invention collective

Historique

L'invention collective porte en elle-même l'un des principaux paradoxes de l'économie : celle-ci se développe grâce aux progrès de l'industrie qui sont eux-mêmes liés aux grandes innovations, comme la vapeur ou la micro-informatique. Or celles-ci sont souvent le fruit d'inventions collectives, et les contributeurs aux innovations collectives ne sont pas économiquement reconnus, comme l'illustrent les exemples de la planche à voile, de la micro-informatique ou d'internet.

Propriété collective

Le processus d'invention collective est fondamental pour dynamiser l'économie, mais semble s'évanouir au contact de la propriété privée, que ce soit sous forme de brevet ou d'entreprise commerciale. L'organisation en consortium de propriété collective apporte une première série de réponses.


L'innovation

Les catégories suivantes sont établies par le Manuel d'Oslo

Exemples d'innovations par catégorie

  • Produit : Withings, Voluntis, Ulule (exemples BPIfrance), iPhone, Netflix (ex. OCDE), Criteo, FlyOverGreen, Bird Office (exemple VL)
  • Procédé : Uni Packaging (ex. BPIfrance), Qowisio (ex. VL)
  • Organisation : Poult (ex. BPI France), Talan, Tecbak (ex. VL)
  • Commercialisation : Compte Nickel, Le Kiosk (ex BPIfrance), Kameleoon, Royal Cactus, Gemmyo, Product-Live (ex. VL)

L'innovation de produit

540. Une innovation de produit correspond à l’introduction d’un bien ou d’un service nouveau ou sensiblement amélioré sur le plan de ses caractéristiques ou de l’usage auquel il est destiné. Cette définition inclut les améliorations sensibles des spécifications techniques, des composants et des matières, du logiciel intégré, de la convivialité ou autres caractéristiques fonctionnelles.

541. Ne sont pas considérées comme des innovations de produits :

  • Les modifications ou améliorations mineures.
  • Les améliorations courantes.
  • Les changements saisonniers réguliers (tels que les lignes de vêtements).
  • Une adaptation aux besoins d’un client unique qui ne présente pas de caractéristiques sensiblement différentes des produits réalisés pour les autres clients.
  • Les changements dans la conception qui ne modifient pas la fonction, l’utilisation prévue ou les caractéristiques techniques d’un bien ou d’un service.
  • La simple revente de nouveaux biens et services acquis auprès d’autres entreprises.

542. Exemples d’innovations de produit :

Biens

  • Remplacement des intrants par des matériaux aux caractéristiques améliorées (textiles respirants, matériaux composites mais résistants, matières plastiques sans danger pour l’environnement, etc.).
  • Système mondial de localisation (GPS) dans les équipements de transport.
  • Appareils photographiques dans les téléphones mobiles.
  • Systèmes de fermeture pour vêtements.
  • Appareils électroménagers comprenant un logiciel qui améliore la convivialité ou la commodité, tels que les grille-pain qui se mettent automatiquement hors circuit lorsque le pain est grillé.
  • Logiciel anti-fraude qui profile et suit les transactions financières individuelles.
  • Intégration d’équipement de connectivité sans fil dans les ordinateurs portables.
  • Produits alimentaires présentant de nouvelles caractéristiques fonctionnelles (margarine réduisant les niveaux de cholestérol sanguin, yoghourts produits au moyen de nouveaux types de cultures, etc.).
  • Produits présentant une consommation d’énergie sensiblement réduite (réfrigérateurs à bon rendement énergétique, etc.).
  • Modifications notables apportés à des produits pour respecter des normes

environnementales.

  • Radiateurs ou thermostats programmables.
  • Téléphones Internet.
  • Nouveaux médicaments aux effets sensiblement améliorés.

Services

  • Services nouveaux qui améliorent notablement l’accès des consommateurs à certains biens ou services, tels la prise en charge et la restitution à domicile des voitures de location.
  • Service d’abonnement DVD où moyennant une redevance mensuelle les clients peuvent commander via Internet un nombre prédéterminé de DVD, avec livraison à domicile par la poste, puis restitution par enveloppe préadressée.
  • Vidéo sur demande via l’Internet à haut débit.
  • Services Internet tels que banque, ou systèmes de paiement de factures.
  • Nouvelles formes de garantie. Par exemple, extension de garantie visant des

biens nouveaux ou usagés, ou groupement de garanties avec d’autres services tels que cartes de crédit, comptes bancaires ou cartes de fidélité.

  • Nouveaux types de prêts, par exemple, prêts à taux variable avec un taux

plafond fixe.

  • Création de sites Web sur Internet, avec la fourniture gratuite aux clients de nouveaux services, par exemple informations sur les produits et diverses fonctions de soutien.
  • Introduction de cartes à puce et de cartes plastifiées à usages multiples.
  • Nouvelle agence bancaire en libre-service.
  • Fourniture aux clients d’un nouveau « système de maîtrise de l’offre » qui permet aux clients de vérifier que les livraisons effectuées par les entrepreneurs sont conformes aux spécifications.

Innovation de procédé

543. Une innovation de procédé est la mise en œuvre d’une méthode de production ou de distribution nouvelle ou sensiblement améliorée. Cette notion implique des changements significatifs dans les techniques, les matériels et/ou les logiciels. 544. Ne sont pas considérées comme des innovations de procédé : ● Les changements ou les améliorations mineurs. ● Un accroissement des moyens de production ou de service par l’adjonction de systèmes de fabrication ou de systèmes logistiques qui sont très analogues à ceux déjà en usage. 545. Exemples d’innovations de procédé : Production ● Installation d’une technologie de fabrication nouvelle ou améliorée, par exemple équipement automatisé ou capteurs en temps réel capables de piloter des processus. ● Nouveaux équipements requis pour des produits nouveaux ou améliorés. ● Outils de coupe au laser. ● Conditionnement automatisé. ● Développement de produits assisté par ordinateur. ● Numérisation de procédés d’impression. ● Équipement informatisé pour la maîtrise de la qualité de la production. ● Équipement d’essai amélioré pour la surveillance de la production.

Exécution et opérations ● Numériseurs/ordinateurs portables pour l’enregistrement de biens et les inventaires. ● Introduction du codage par code à barre ou de puces d’identification par radio fréquence (RFID) pour suivre les matières le long de la chaîne d’approvisionnement. ● Systèmes de suivi par GPS destinés à des équipements de transport. ● Introduction de logiciels pour la détermination d’itinéraires de livraison optimaux. ● Logiciels ou programmes nouveaux ou améliorés pour les systèmes d’achat, de comptabilité ou de maintenance. ● Introduction de systèmes de compensation électroniques. ● Introduction d’un système automatisé à réponse vocale. ● Introduction d’un système de perception électronique des contraventions. ● Nouveaux outils logiciels destinés à améliorer les flux d’approvisionnement. ● Réseaux informatiques nouveaux ou sensiblement améliorés.

Innovation de commercialisation

546. Une innovation de commercialisation est la mise en œuvre d’une nouvelle méthode de commercialisation impliquant des changements significatifs de la conception ou du conditionnement, du placement, de la promotion ou de la tarification d’un produit.

547. Ne sont pas considérées comme des innovations de commercialisation :

  • Les changements dans la conception ou le conditionnement d’un produit, le

placement d’un produit, la promotion ou la tarification d’un produit qui sont fondés sur des méthodes de commercialisation qui ont déjà été utilisées par l’entreprise.

  • Les changements saisonniers, réguliers ou ordinaires dans les instruments

de commercialisation.

  • L’utilisation de méthodes de commercialisation déjà appliquées pour cibler

un nouveau marché géographique ou un nouveau segment de marché (par exemple, groupe sociodémographique de clients).

548. Exemples d’innovations de commercialisation :

  • Les innovations de commercialisation peuvent renvoyer à toute méthode de commercialisation (conception/conditionnement, placement, tarification, promotion d’un produit) pour autant qu’elle est utilisée pour la première fois par l’entreprise.

Conception et conditionnement

  • Mise en œuvre d’un changement significatif dans la conception d’une gamme de mobilier pour lui donner un aspect nouveau et la rendre plus attrayante.
  • Mise en œuvre d’une conception radicalement nouvelle de flacons de lait pour le corps en vue de donner au produit un cachet original.

Placement (circuits de distribution)

  • Introduction de l’autorisation d’exploitation d’un produit.
  • Introduction d’une vente directe ou d’une commercialisation de détail exclusive.
  • Mise en œuvre d’un nouveau concept de présentation d’un produit, par

exemple salles d’exposition de mobilier qui sont conçues selon des thèmes pour permettre aux clients de voir les produits « en situation ».

  • Mise en œuvre d’un système d’information personnalisé au moyen, par exemple, de cartes de fidélité, pour adapter la présentation des produits aux besoins spécifiques de clients individuels.

Tarification

  • Introduction d’une méthode nouvelle permettant aux clients de choisir les caractéristiques souhaitées d’un produit sur le site Web d’une entreprise, puis de visualiser le prix du produit correspondant à la description.
  • Première utilisation d’une méthode de modulation du prix d’un bien ou d’un service en fonction de la demande.
  • Première utilisation d’offres spéciales en magasin qui ne sont accessibles qu’aux détenteurs de la carte de crédit ou de la carte privilège.

Promotion

  • Première utilisation de marques de fabrique.
  • Première utilisation du placement d’un produit dans des films ou des programmes de télévision.
  • Introduction d’un symbole de marque fondamentalement nouveau destiné à positionner le produit d’une entreprise sur un nouveau marché.
  • Première utilisation du « product seeding », méthode de placement d’un produit par l’intermédiaire de personnalités influentes, célébrités ou groupes particuliers de prescripteurs de tendance.

Innovation organisationnelle

BPI France réunit organisation et procédé dans la même catégorie d'innovation

549. Une innovation organisationnelle est la mise en œuvre d’une nouvelle méthode organisationnelle dans les pratiques, l’organisation du lieu de travail ou les relations extérieures d’une firme.

550. Ne sont pas considérées comme des innovations organisationnelles :

  • Les changements dans les pratiques commerciales, l’organisation du lieu de travail ou les relations extérieures qui sont fondés sur des méthodes organisationnelles déjà en usage dans l’entreprise.
  • Les changements dans la stratégie de gestion, sauf s’ils s’accompagnent de l’introduction d’une nouvelle méthode d’organisation
  • Les fusions ou les acquisitions d’autres firmes.

551. Exemples d’innovations organisationnelles :

  • Par innovation organisationnelle, on entend toute méthode organisationnelle visant les pratiques, l’organisation du lieu de travail ou les relations extérieures d’une entreprise, pour autant qu’elle est utilisée pour la première fois par la firme.
Pratiques de l’entreprise
  • Création d’une nouvelle base de données sur les pratiques exemplaires, les enseignements tirés et autres formes de savoir, pour les rendre plus aisément accessibles à des tiers.
  • Introduction d’un système de surveillance intégré des activités d’une entreprise (production, finance, stratégie, commercialisation).
  • Introduction de systèmes de gestion des opérations générales de production ou d’approvisionnement, tels que système de gestion de la chaîne d’approvisionnement, reconfiguration des processus, rationalisation de la production et système de gestion de la qualité.
  • Introduction de programmes de formation visant à créer des équipes efficaces et fonctionnelles qui intègrent des salariés venant d’horizons ou de domaines de responsabilité différents.
Organisation du lieu de travail
  • Première mise en œuvre d’une décentralisation, en direction des salariés de l’entreprise, des responsabilités inhérentes à leurs postes, par exemple en donnant un contrôle et une responsabilité sensiblement accrus au personnel de production, de distribution ou de vente sur les processus de travail.
  • Première création d’équipes de travail formelles ou informelles pour améliorer l’accès et le partage des connaissances venant de différents services tels que la commercialisation, la recherche et la production.
  • Première mise en œuvre d’un système anonyme de notification des incidents pour encourager la notification des erreurs ou des dangers afin d’en déterminer les causes et d’en réduire la fréquence.
Relations extérieures
  • Introduction de normes de contrôle de la qualité pour les fournisseurs et les sous-traitants.
  • Premier recours à l’externalisation de la recherche ou de la production.
  • Première initiative de collaboration en matière de recherche avec des universités ou d’autres établissements de recherche.

Innovation de modèle d'affaires

BPI France définit cette catégorie sans en donner de définition.

Innovation technologique

Une innovation technologique crée, ou s'appuie sur, une ou plusieurs nouvelles technologies qui, en comparaison des technologies existantes apportent :

  • soit des performances supérieures (fonctions, capacités, puissance, rapidité, facilité d'usage,...)
  • soit un meilleur rapport entre la performance et divers facteurs de coût (investissement, utilisation, énergie,...)
  • soit des possibilités entièrement nouvelles

Elle peut consister en:

  • la mise au point de technologies nouvelles,
  • l'avancement de technologies existantes
  • un assemblage original de technologies plus ou moins avancées

L'innovation technologique doit se compléter d'une innovation d'usage:une invention technique sans application n'est pas une innovation[146].

Similitudes de modèles entre les actifs "à toutes fins utiles"

Les API facilitent l'appropriation d'actifs immatériels par des tiers, par l'intermédiation d'un réseau de distributeurs ou d'intégrateurs, selon un modèle freemium. De même, grâce aux licences à réciprocité, les biens communs restent gratuits tant qu'ils sont utilisés dans une sphère mutualiste, mais deviennent payants proportionnellement aux profits que génèrent les tiers exploitants. Enfin, de nombreux fonds de brevets sont créés entre les grands groupes pour créer un pot commun de brevets accessibles à prix modéré tandis que ces mêmes brevets sont chèrement monétisés auprès des tiers.

L'économie de l'usage

"La culture d’ingénieur va nous tuer, estime Laurent Habib. L’industrie doit mieux prendre en compte l’immatériel, car la valeur naît à la fois des représentations symboliques et des nouveaux usages[147]".


Des prix hyper-personnalisés

De manière traditionnelle, le prix est le point d'équilibre entre une offre et une demande solvable dans un marché de concurrence parfaite. La personnalisation de masse aboutit à des marchés atomisés qui diluent la notion même de marché. Dans ce contexte, le prix se redéfinit en fonction de la valeur utile du produit.

Les décisions automatisées peuvent aussi calculer le prix d'un produit en temps réel.

Le yield management permet à AirBnB de calculer le meilleur prix d'une location au jour le jour, à Easyjet d'optimiser chaque vente de billet d'avion, à Uber de définir le prix d'une course en fonction du trafic et du nombre de chauffeurs disponibles. Ainsi, le soir du nouvel an, ce prix peut être multiplié par 7 et le forfait minimum grimper à 175 dollars[148].
Boomerang Commerce permet aux e-commerçants d'ajuster leurs prix en temps réel en fonction de ceux d'Amazon et d'autres e-commerçants. Le logiciel parcourt les sites de la concurrence et analyse les prix d'un produit donné. Il peut ensuite ajuster le prix automatiquement, à la hausse ou à la baisse. Il peut aussi faire des suggestions au lieu d'un ajustement automatique, et par exemple proposer d'augmenter un prix par rapport à la concurrence, afin d'accroître des marges dans une catégorie de produits. Ainsi, les e-commerçants ont la possibilité d'automatiser leurs prix en fonction de nombreux facteurs, comme leur stock, les changements de prix de la concurrence, l'heure du jour ou la météo. Boomerang Commerce offre aussi de tester différentes stratégies de prix via un indice de perception des prix pour un produit donné. Il permet aussi d'optimiser les prix en fonction des canaux de distribution utilisés[149].
Jet.com détermine en temps réel, à partir du panier, quels détaillants fourniront les produits le plus efficacement (et pour les coûts les plus bas), en particulier en fonction de la localisation de leurs divers entrepôts et de celle de l'acheteur. Peut-être qu'un entrepôt plus proche pour l'un des articles permettrait de réduire les coûts. Ou qu'au contraire, un marchand facturera moins cher la livraison si plusieurs produits viennent du même stock. Des remises additionnelles peuvent aussi s'appliquer, par exemple si l'acheteur s'engage à ne pas recourir à un retour gratuit, ou à utiliser tel ou tel moyen de paiement moins onéreux pour le marchand. En pratique, Jet sait donc trouver le prix le moins élevé pour les produits, mais recalcule aussi en temps réel le montant du panier au fur et à mesure que l'internaute ajoute des articles… et lui indique comment économiser davantage encore. Comme Jet ne s'adjuge pas de commission sur les ventes et se rémunère uniquement par les abonnements annuels, son intérêt est véritablement de trouver les prix les plus bas pour acquérir plus de membres[150].

Ces cycles marketing automatisés, ne nécessitant pas l'intervention d'un analyste, peuvent être mis en oeuvre en temps réel et à coût marginal quasi-nul[151]. L'analyse automatisée des données, même si elle ne se substitue qu'aux cycles ne nécessitant pas beaucoup de créativité, permet néanmoins de maximiser les effets utiles d'un produit en industrialisant sa personnalisation.


Témoignage : François Pacot, Royal Cactus

Royal Cactus est un éditeur de jeux videos sociaux. Ces jeux sont commercialisés en modèle freemium, c'est-à-dire qu'ils sont gratuits, mais on propose des achats complémentaires à l'intérieur du jeu. Pour que ce modèle fonctionne, il faut augmenter la rétention des joueurs de façon à leur donner envie de revenir sur le jeu et in fine de passer à l'acte d'achat. Pour cela il faut bien adapter le jeu parce que si votre joueur finit le jeu en 15 minutes, il ne reviendra jamais. Si par contre il reste bloqué au niveau un pendant quinze jours il abandonnera également. Le jeu est tellement adapté qu'il y a finalement un jeu par joueur.

A cette fin il utilise toutes les informations qu'on a renseignées sur son profil Facebook par exemple le nom, le prénom, le sexe, la localisation géographique ou la configuration de son ordinateur. L'objectif sera toujours d'optimiser l'expérience de jeu du joueur donc on va se servir de toutes ces informations pour adapter le comportement du produit au joueur. On va aussi estimer dans les toutes premières secondes de jeu s'il connaît ou si il ne connaît pas ce type de produit, ce qui va nous permettre d'adapter la difficulté, de ne rajouter des tutoriaux que s'il est novice ou au contraire d'augmenter les difficultés si on se rend compte qu'il est adepte de ce type de jeu. S'il a du bas débit ou du haut débit on va modifier les graphismes. Si on voit qu'il a besoin d'être pris en main on va rajouter des tutoriaux de manière à ce qu'il comprenne 100% des fonctionnalités du produit. On rajoute du contenu aux produits de manière à donner envie aux joueurs de revenir. C'est du marketing auto-adaptatif, permanent, en temps réel et comportemental. Le joueur trouve le produit qui lui convient et trouve également la dose de challenge et de fun qu'il est venu chercher.”

Voir l'Interview complète sur Xerfi Canal



Le prix des produits s'aligne sur leur utilité

L'industrialisation de produits hyper-personnalisés nécessite une plus grande flexibilité de la production, ce que favorise la valorisation de l'utilité ajoutée[6].

Intéressement au chiffre d'affaires

  • BlaBlaCar prend 11% de commission sur les partages de frais de voyage.
  • Leetchi prend un pourcentage sur la cagnotte ou une commission pour les achats effectués sur Pixmania.
  • AirBnB prend 9 à 15% de commission sur le prix des nuités.
  • Appstore prélève 30% du chiffre d'affaires généré par les « apps » des développeurs.

Prix à l'apport de contact

  • MisterBell et Marketshot se rémunèrent en fonction du nombre de contacts client qualifiés ("lead").
  • Google rémunère les fournisseurs de contenus en fonction de leur audience, et prépare une rémunération en fonction de leur capacité à promouvoir un produit[152]
  • Click to message ". Un bouton « message " sera en effet prochainement ajouté en bas à droite de certaines publicités du réseau social. Si un utilisateur clique dessus afin d'envoyer un message à l'entreprise (un restaurant ou un fleuriste par exemple), alors cette dernière paiera à Facebook le contact généré[153]

Prix au service rendu

  • FinalCad est payé au m2 de chantier, logiciel et services « humains » inclus. Shift Technology se rémunère au volume de fraudes détectées.
  • Salesforce facture 27 EUR par terminal et par mois.
  • Nanocloud est facturé par processeur et par an

Prix évolutif

  • Resonate facture la première écoute d'un morceau de musique à 0,002 dollars, et double le prix à chaque écoute jusqu'à ce que l'utilisateur devienne propriétaire[154]

Les critères sont définis pour que la facturation se rapproche au mieux de l'utilité du service, sous contrainte des indicateurs de succès mesurables et acceptables par les partenaires commerciaux.

Les nouvelles métriques favorisent la rémunération à l'usage

Cette tendance se décline pour les collaborateurs sous la forme d'un intéressement plus fin que le classique bonus, indexé sur la valeur ajoutée comptable.

  • Forbes rémunère ses journalistes en fonction de la fidélité de leurs lecteurs.
  • Nussbaum Transportation récompense les chauffeurs de camions en calculant leurs économies de fuel[155].
  • Uber rémunère les chauffeurs en fonction de l'affluence, jusqu'à 175$ un soir de réveillon[156].
  • Quirky rétribue des milliers de co-créateurs en analysant les traces de leurs contributions[157].
  • Au travers de la plateforme Zanox, l'annonceur rémunère l'éditeur de contenu en ligne en fonction du nombre d'appels téléphoniques ayant généré un lead ou une vente [158]
  • Indeed, plate-forme de recherche d'emploi et de ressources humaines, facture l'employeur au clic généré par l'annonce et au recrutement effectif[159]

Les pratiques de l'innovation ouverte avec les consommateurs convergent avec ces formes d'intéressement.

Décathlon Creation rémunère ainsi les propositions créatives de ses clients, mais aussi leurs votes pour ces propositions. Lorsqu'une idée est sélectionnée pour être développée, elle est rémunérée 500 €. Les contributions s'étalent pour leur part entre 50 et 500 € en fonction de la complexité du questionnaire.


Témoignage: Philippe Lourenço, Mister Bell[160]

"Mister Bell est une régie publicitaire sur mobile. John Wanamaker, l'un des pionniers des grands magasins aux États-Unis, disait : « La moitié de l'argent que je dépense en publicité est gaspillée, mais je ne sais pas quelle moitié ! ». Ce qu'apporte Internet, c'est qu'on peut tracer ce qui est affiché, ce qui est cliqué, rempli, acheté. On peut ainsi aligner l'intérêt de la régie publicitaire sur celui de l'annonceur. Lorsque celui-ci met une affiche dans la rue, on suppose que le consommateur la voit. Sur internet, on peut le mesurer, ce qui permet de dire si l'affiche est performante ou non. Cette mesure va même plus loin que celle de l'affichage : celle du clic, voire celle du lead, qui consiste en un formulaire rempli. Par exemple une marque de voitures cherche à apporter du chiffre d'affaires à ses concessions. Elle propose à l'internaute de venir tester un nouveau modèle de voiture. Celui-ci est ainsi invité à remplir un formulaire avec son nom et son adresse. Il est également géolocalisé grâce à son mobile, ce qui permet de lui proposer d'essayer la voiture dans l'une des concessions les plus proches. C'est ce lead qui est facturé, en tant que meilleure métrique de l'apport de chiffre d'affaires.

On est donc capable aujourd'hui non seulement de générer du chiffre d'affaires pour des boutiques de commerce électronique, mais aussi pour des boutiques réelles, c'est-à-dire le drive to store.”

Les nouvelles formes d'emploi vont dans le même sens

L'emploi flexible

Il existe un mouvement profond, puissant, croissant, de remise en cause du salariat comme modèle dominant. Le contrat de travail est un objet de subordination uniforme, normé, renvoyant à des fiches de poste, des tâches, des horaires que toute personne doit accepter si elle prétend être un salarié. La durée légale du travail est une norme que tout le monde s’attache à contourner, par le truchement des heures supplémentaires (payées ou non), par les congés imposés, par les horaires décalés. Ce monde de contraintes collectives est en train d’évoluer sous nos yeux[161].

La loi El Khomri contient, en plus de dispositifs propres au droit du travail classique, les prémices d'une nouvelle organisation du travail, mieux adaptée à un monde où le salariat cessera d'être la norme, où peu à peu les indépendants se substitueront aux employés et les donneurs d'ordre aux patrons. (...) Ce nouveau monde, les jeunes de la génération Y nous montrent tous les jours qu'ils l'ont intimement compris et anticipé. En se saisissant spontanément des innovations technologiques pour affirmer leur indépendance. En plébiscitant l'auto-entrepreneuriat et le coworking. En se déclarant prêts, pour un tiers d'entre eux, à lancer une boîte. En se jetant dans l'économie collaborative (demandez à votre chauffeur VTC, qui auparavant était chômeur, ou intérimaire, ce qu'il pense des 35 heures)[162]

Les nouvelles formes d'emplois sont plus flexibles.

  • Les chauffeurs d' Uber ont un employeur distant : leur entreprise tient presque entièrement dans leur smartphone.
  • Les femmes de ménage d' O2 peuvent augmenter leur indépendance grâce à la micro-franchise.
  • Les artisans chauffagistes trouvent avec QuelleEnergie un apporteur d'affaires qui leur offre de plus des outils statistiques pour identifier les opportunités de leur métier.
  • Les commerçants en ligne affiliés à Amazon disposent d'outils et de services qui leur permettent de se concentrer sur leur boutique plutôt que sur la logistique ou la gestion des stocks.
  • Les graphistes inscrits sur 99designs reçoivent des appels d'offre de création de logos auxquels ils peuvent concourir.
  • Les indépendants peuvent proposer leurs services à moindre coûts grâce aux gains liés à la désintermédiation C2C.

L'emploi au compteur

Cette évolution de l'emploi évolue dans deux directions. Celle de l'utilité, qui enrichit la qualité des emplois, et celle d'une nouvelle forme d'économie au compteur, qui se confond progressivement avec la gig economy.

  • Les déménageurs de TaskRabbit sont payés à l'heure
  • Ceux qui donnent leur opinion sont rémunérés à partir de 0,1 dollar pour répondre à une question, jusqu'à 3 dollars pour répondre à un questionnaire [163]

Les géants de l’économie prétendument collaborative se sont appuyés sur les smartphones avec des applications alléchantes, addictives même, ainsi que sur l’illégalité envers les réglementations non comme un défaut de jeunesse mais comme une stratégie revendiquée pour pousser suffisamment de citoyens-utilisateurs à demander des aménagements législatifs en leur faveur… alors que dans le même temps, les travailleurs de ces plateformes gagnent à peine 2–3 $/h et que le taux de turnover annuel des chauffeurs Uber est de 50%… sans parler du vol de salaires : de nombreux clients refusent de payer un travail sur la plateforme qu motif qu’ils ne sont pas contents d’un résultat... qu’ils peuvent tout de même conserver. L’économie au compteur (On Deman Economy) a en effet massifié le digital labor : les plateformes nord-américaines d’intermédiation pour freelances UpWork (ODesk et Elance) annoncent 10 millions de membres, tandis que Crowdwork serait à 8 millions et CrowdFlower à 5 millions. Entre Uber et Lyft, 200.000 VTC sillonnent les villes américaines en 2015. Dans cette période émergeant sur les ruines de la crise de 2008, les gig workers, ces nouveaux travailleurs représentant 1/3 des emplois américains, ont perdu dans la transformation : les heures supplémentaires, un salaire et des protections sociales décents. La contrepartie serait une liberté et l’organisation de son temps à sa guise… Mais cette promesse de liberté est vite déçue par des horaires et des cadences imposées par leur donneur d’ordre virtuel[164].

Blockchain, DAOs et paiement à l'usage

Problème : le piratage

Media industries have been heavily affected by the ubiquitous availability and the subsequent “commoditization” of content and been undermined by widespread piracy of intellectual property (IP). Today, media users are largely accustomed to having free access to a wide variety of content, and most of them are still reluctant to pay subscription fees for “premium” content behind paywalls. In addition, all media segments have suffered significantly from digitization, since content can be copied and distributed easily and without loss of quality. So far, the introduction of Digital Rights Management systems has not substantially reduced copyright infringements. The ensuing revenue “leakage” has been only partially recovered through new consumption models such as all-you-can-consumer streaming subscriptions and micro-payments for articles.

Solution : blockchain

Blockchain-based technologies have the potential to resolve some of the current challenges:

  • Paid content can receive a boost from new, micropayment-based pricing models
  • Monetization options emerge for an increasingly fragmented content inventory (e.g. blogs, news bites, photos)

However, the technology and the mechanisms are still young and evolving, and industry-wide adoption of standards is most probably still a few years off.

Becoming more and more accustomed to “digital” business models, consumers expect “per-use” payment models, instead of paying a monthly / yearly fee for an online subscription to one particular newspaper / (Pay-)TV channel. Increased willingness to pay especially younger digital natives are more willing to pay a few cents for a music track they favor than to be charged a flat monthly subscription.

Blockchain-enabled micro-payments can help publishers to monetize this flexibility seeking group of customers. With the help of a blockchain, individual articles or other pieces of content could be sold for cent prices without disproportionate transaction costs. Users have to register and provide payment details to activate pay-per-click. Blockchains enable copyright owners to track the usage of their material. It also ensures they receive their fair share of proceeds calculated and collected accurately and cost-efficiently. With the help of blockchain, every play of a song is recognized, counted, with royalties tracked and allocated to specific users. Artists can market their songs independently of big platform providers wherever they want, since a blockchain permits easy tracking of usage and deduction of the associated payments. It is also possible to store instructions in form of smart contracts that specify how the artists are to be compensated and how sales proceeds are to be divided among all eligible parties.

[165]

Rétributions à l'usage

CreativeChain, CreativeCoin

Nous comprenons les «chaînes créatives» comme la capacité de l'art et de la culture à entrelacer toute forme de création intellectuelle. Lorsqu'un créateur décide d'utiliser une image sous licence Copyleft pour compléter une nouvelle oeuvre génère un lien invisible qui relie ces deux œuvres pour toujours. Grâce à la technologie blockchain, nous pouvons maintenant enregistrer, tracer et visualiser dans une archive publique décentralisée toutes les connexions générées entre toutes créations. Ce système facilite le chaînage des paiements aux œuvres dérivées, offrant une solution innovante à la reconnaissance et à la récompense économique des chaînes créatives. Cette caractéristique est celle qui donne le nom à la plate-forme et son objectif final est de pouvoir créer une carte de connexions qui nous aide à comprendre comment la transmission culturelle est articulée et les processus créatifs qui la façonnent au fil du temps[166].


Licence de Creative Chain : Licence basée sur une licence Creative Commons pour classer des œuvres dérivées dont les bénéfices sont générés de manière chaînée avec un pourcentage X à tous les travaux mentionnés. La création ou les «contrats intelligents» qui intègrent la plateforme vous permettent de concevoir des contrats adaptés aux besoins de chaque secteur culturel[167].

Collective Work tracking

Works contributed to a collective work would also be more traceable and identifiable — which for instance could be very valuable if a third party later saw a particular piece they liked in the collective work and wanted to use it themselves for some other purpose, and could easily identify the owner and license the necessary rights. More importantly, creators will be able to embed terms regarding how works can be used (or not) for subsequent derivative works, and easily track the usage of their works in such derivatives.

With the ability to securely identify, record and track each contributor a particular creative works creation and developments, one can imagine that many platforms could be built that might enable forms of collaboration we have not even dreamed up yet. (...) an assembled group of humans who each agree to perform their own creative tasks under an agreed set of rules with a clear view of how much they will be paid and what rights they will have in the released content. Almost like a co-operative association, but decentralized and partially automated[168]

Les nouveaux pouvoirs et responsabilités de l'utilisateur

La co-création de valeur[169]

Le marketing affirme être le représentant du client dans l’entreprise mais, la plupart du temps, il demeure le représentant de l’entreprise auprès du client, utilisant toutes les astuces pour faire en sorte que le comportement du client soit conforme aux intérêts bien compris de l’entreprise. Trois éléments contribuent à restreindre l’horizon des marketers. Ils sont focalisés sur des gains de court terme (part de marché de la semaine, ventes du mois, cours de l’action du trimestre…). Ils ne considèrent pas l’ensemble de leurs parties prenantes en allant rarement au-delà de la cible qu’ils visent sur le marché. Ils ne mesurent pas assez la puissance de leurs outils, de leur propre pouvoir (...) et de leur contribution aux résultats de l’entreprise.

Le fait que les consommateurs comprennent de mieux en mieux comment fonctionne le marché et ont de plus en plus de moyens pour s’informer, se connecter, être des agents actifs pour apprendre comment extraire de la valeur lors de l’échange. La division du travail entre entreprise et clients est en train de se déplacer car les consommateurs savent/sauront de mieux en mieux examiner, analyser, évaluer, comparer ce qui leur est proposé comme le montrent les sites d’enchères (eBay) ou les réservations de billets d’avion en ligne. Ils sont moins dépendants de la seule information fournie par les entreprises ou par les associations de consommateurs. Ils peuvent désormais échanger de l’information entre eux, rapidement et pour un faible coût comme le montrent les sites animés par les « communautés de marques » ou les « tribus » de consommateurs.

Plus les clients auront conscience de leur poids dans la négociation et plus les entreprises de certains secteurs (de l’automobile à la chirurgie esthétique en passant par les jeux vidéo) ressentiront les effets de cette pression sur les prix et les termes de l’échange. Pour échapper à cette pression, les entreprises n’ont que deux solutions : baisser les prix ou co-créer la valeur avec les clients afin de faire converger les intérêts de la production et de la consommation.(...) Le marketing ne consiste pas à pressentir, détecter, interpréter la demande et à répondre aux besoins dits « latents ». Il ne consiste pas non plus à enrôler les utilisateurs pionniers ou avant-gardistes dans un rôle de représentant de commerce au service de l’entreprise. Il consiste à développer des méthodes permettant une co-construction des offres avec les clients et les consommateurs tout en sachant que ceux-ci sont d’emblée (comme tout membre d’un réseau de valeur) dans une relation de coopération et de concurrence avec l’entreprise. En coopération pour créer de la valeur (un plus gros gâteau), en concurrence pour récupérer de la valeur (le partage du gâteau).

L’utilité d’un bien ou d’un service n’est pas contenue dans celui-ci, elle est perçue et déterminée par le consommateur (qui lui aussi gère, ou plutôt bricole, ses propres réseaux de valeur) et l’entreprise ne peut faire que des propositions au travers de la/des chaînes de valeur qu’elle a construites. Pour illustrer ce point, prenons l’exemple de la famille qui prépare son petit déjeuner. Elle agit en tant que producteur de sa propre satisfaction en mobilisant, pour elle-même, un réseau de valeurs. Elle combine des ressources en provenance des échanges marchands qu’elle a pu réaliser (du café, du sucre, des viennoiseries, une cafetière, etc.) avec des ressources propres et non marchandes (un savoir-faire, souvent hérité, pour faire le café, disposer la table et organiser ce moment dit de consommation mais qui est aussi une production). Aussi simpliste soit-il, cet exemple illustre en quoi les notions de réseau de valeurs et de co-création de valeurs sont pertinentes pour décrire aussi bien ce qui se passe du côté de l’offre que du côté de la demande afin d’explorer de nouveaux espaces potentiels.


Le rapport « qualité subjective/prix »

Dans le rapport qualité/prix, la qualité est désormais subjective : elle reflète l'utilité du service que le produit rend à un utilisateur individuel, et n'est donc plus une caractéristique objective que tous ressentiraient plus ou moins de la même façon.

Au même titre que la suite Office de Microsoft ou les microprocesseurs d'Intel dans les années 90, les produits sont en concurrence monopolistique, c'est-à-dire que les alternatives sont trop éloignées pour en comparer la qualité. Ce régime de concurrence est illustré par la vente de glaces sur une plage. Lorsque deux glaciers s'installent aux deux extrémités d'une plage, chacun est en situation de monopole de son côté : les vacanciers ne traverseront pas toute la plage pour acheter une glace de l'autre côté. En revanche, ceux qui sont au milieu iront chez le moins cher des deux : il y a donc aussi une zone de concurrence. De même, lorsqu'on achète aujourd'hui une Smartwatch ou qu'on loue un Velib', ce n'est pas pour leur meilleure qualité que les montres ou vélos traditionnels, mais pour leur meilleur rapport « qualité subjective / prix ».

Cette évolution du marché installe l'utilisateur dans une position plus forte que celle que ne l'était le traditionnel consommateur, puisque la valeur du produit dépend de son jugement individuel, plutôt que de l'opinion moyenne du segment de marché auquel appartient le consommateur. Cette nuance est loin d'être neutre, comme le montre le cas des VTC à l'été 2015.

Le cas des VTC

Le marché des taxis était dénoncé comme sclérosé depuis 50 ans. Les propositions du rapport Attali de 2008[170], qui voulait une fois de plus libéraliser le marché des taxis, n'a jamais abouti malgré le soutien de l'Elysée. Avec Uber et les VTC, il n'a suffit que de quelques mois pour que les seules métriques de l'utilité bousculent sérieusement le secteur.

Cet exemple montre que l'utilisateur, en introduisant d'autres paramètres que le prix dans son appréciation d'une prestation, acquière aujourd'hui un pouvoir dont ne disposent ni les associations de consommateurs, ni le pouvoir politique.

L'utilisateur face au consommateur

Davantage de responsabilités

À travers la figure abstraite de la ménagère de 50 ans, la production de masse cherchait à conquérir les besoins moyens d'un consommateur-type. Avec l'hyper-personnalisation de l'offre, chaque client est pris en considération, individuellement.

Le consommateur pouvait toujours se dégager de sa responsabilité si le produit qu'on lui impose n'a pas toutes les caractéristiques qu'il aurait souhaité. A l'inverse, l'utilisateur dispose d'un choix considérablement élargi, qui le responsabilise. Il est à la fois juge de la prestation, co-producteur et gardien des droits citoyens. Sa responsabilité doit s'exprimer dans sa sobriété, en termes de quantité, et son exigence, en termes de qualité[171]. Qualité qui inclut l'impact social et environnemental du produit et la transparence de l'information sur le produit (composition, provenance des composants, traçabilité, contrôles, adéquations aux normes, tiers de confiance, etc.).

Dans la consommation de masse, le consommateur devenait symboliquement le produit qu'il achetait, comme en témoignait de manière ultime la campagne "parce que je le vaut bien" de l'Oreal. A l'inverse, l'utilisateur imprime ses intentions dans les produits qu'il utilise.

Davantage d'exigences

Cette nouvelle responsabilité est considérable. Elle nécessite pour l'exercer une information complète et claire qui permette à l'utilisateur d'exprimer ses intentions et son jugement en toute connaissance. C'est pourquoi son exigence de transparence se renforce tandis que les affaires de manipulation de l'information tournent immédiatement au scandale.

  • Le cas de Volkswagen relève de ces deux préoccupations : responsabilité environnementale et transparence de l'information sur le produit.
  • Ces préoccupations rejoignent l'un des combats originels du logiciel libre, au terme duquel seul un code informatique ouvert est contrôlable et donc susceptible de respecter les droits de ses utilisateurs. Ce combat d’une grande modernité a débuté dès les années 1980. Il va devenir crucial à mesure que les ordinateurs et les logiciels qui les équipent investissent les transports, l’énergie, les objets du quotidien. Demain, les voitures autonomes peupleront nos routes, nos maladies seront diagnostiquées par des machines et même nos gouvernements utiliseront des algorithmes pour prendre leurs décisions. Qui pourra s’assurer que ces logiciels respectent les règles du jeu démocratique ? « Code is law », « le code, c’est la loi », professait dès les années 1990 l’universitaire américain Lawrence Lessig. [172].
  • On retrouve aussi ces exigences pour les nouveaux services financiers. La banque de demain ne pourra pas faire l'économie de répondre à cette question: à quoi sert mon argent ? Où va-t-il ? Qu'en faites-vous ? A qui profite-t-il ? [173]

Davantage de pouvoirs

Le pouvoir politique individuel

On a jusqu'à présent toujours considéré qu'il revenait à la sphère politique la responsabilité de réguler l'économie pour limiter les dommages sociaux et environnementaux qu'elle provoque. "Les algorithmes doivent être plus transparents", défendait encore en 2014 le Conseil d’Etat dans son rapport annuel sur le numérique. Or on ne peut que constater depuis 20 ans la multiplication des crises systémiques que le pouvoir politique est de moins en moins capable d'endiguer.

Avec l'économie de l'utilité, l'utilisateur dispose aujourd'hui d'un pouvoir politique individuel dont ne dispose pas le simple consommateur, et qui peut surpasser le pouvoir politique traditionnel. L'utilisateur a donc non seulement le devoir de l'exprimer pour orienter la production dans un sens plus souhaitable, ce qui relève de sa consommation responsable mais aussi, et c'est là que s'introduit une rupture dans le modèle traditionnel, de mettre la responsabilité sociale et environnementale au coeur même du mécanisme de rentabilité des producteurs.

Ce pouvoir individuel va plus loin que la seule "internalisation des externalités".

Le pouvoir environnemental individuel

On a en effet souvent soulevé une objection à la marchandisation des droits de polluer. Le fait de considérer que, pourvu que l’on paye, on a le droit de polluer en toute bonne conscience, a des effets sur les comportements des agents à long terme. Ce n’est pas la même chose de se voir poursuivi pour délit par la puissance publique et de risquer la fermeture parce qu’on a enfreint une législation, et de savoir que, de toute façon, on pourra transiger avec les autorités ou avec d’autres entreprises en versant de l’argent. Dans un monde de marchés largement dominés par la corruption, ce facteur ne peut qu’inciter davantage les entreprises à penser que, dans la mesure où elles peuvent payer, la pollution n’est pas un problème en soi. On a là une illustration de la subordination perverse de l’impératif inconditionnel écologique à l’allocation de ressources en fonction d’un prix de marché. Que, pour un temps limité, dans un contexte local, un tel mécanisme de péréquation des droits de pollution puisse être mis en place pour accélérer la réalisation d’objectifs réglementaires, cela est concevable. Mais généraliser ce moyen purement tactique en outil d’allocation stratégique des ressources est dangereux, ne serait-ce que parce qu’il encourage la transgression systématique et normale de l’interdiction de dépasser la charge de l’écosystème. Il faut par ailleurs bien comprendre que la question des écosystèmes n’est jamais simplement globale, contrairement à ce que nos climatologues mathématiciens laissent croire, mais aussi locale : ce qui doit être protégé, ce n’est pas seulement l’habitabilité de la planète comme un tout, c’est aussi la viabilité du biotope, y compris humain, partout où il existe. [174].

(Les consommateurs) prennent conscience des conséquences que leurs habitudes de consommation pèsent sur l’environnement au sens large, donc également social. De moins en moins de gens achèteront des produits qui ont fait deux fois le tour de la planète dans un cargo. Nos clients ne sont pas des CSP+, mais ils sont éduqués. L’un d’eux nous a même demandé si depuis sa reprise par un groupe luxembourgeois, un fabricant payait toujours ses impôts en France. Ils veulent savoir si leur fournisseur contribue bien à notre environnement social et favoriseront ceux qui ont fait ce choix.[175]

Le pouvoir individuel sur le made in France

Invité à s'exprimer sur la Fédération Indépendante du Made in France (FIMIF), Charles Huet, porte-parole de cette organisation née en juillet 2015, a insisté sur le pouvoir d'emploi qu'a le pouvoir d'achat. Son association a pour objectif de rassembler les entreprises et les consommateurs pour porter plus haut la voix du Made In France. Elle compte déjà plus d'une centaine d'adhérents. Outre le fait de produire du contenu pour maintenir le sujet du Made In France dans l'agenda médiatique, à travers notamment la sortie d'études sur les comportements et les attentes des consommateurs, la FIMIF visent à mettre en réseau les acteurs impliqués dans cette volonté de fabriquer et d'acheter français. En homme convaincu par sa mission, Charles Huet a été jusqu'à dire qu'« avec leur pouvoir d'achat, les consom'acteurs ont plus de pouvoir que les politiques pour que l'emploi se développe en France ».[176]

L'utilisateur dispose d'un pouvoir qui dépasse celui de l'argent et de la poursuite pour délit : celui de dégrader la réputation de ces agents.

La revalorisation des compétences sociales

En plus de la valeur économique, la valeur sociale de l'utilité devient elle-même visible.

Compétence spécialisée, compétence enrichie, coopération enrichie

Dans le courant du XIXe siècle, la machine à vapeur apporte une force domestique considérable. En s’alliant à la mécanique, elle provoque le développement de l’usine aux dépens de l’atelier. En revanche peu flexible, elle impose son rythme à la production. Avec l’organisation scientifique du travail, la compétence se spécialise jusqu’à ce que la main-d’œuvre devienne un auxiliaire de la machine. La machine électrique est quant à elle plus flexible. Chaque poste de travail peut disposer de son propre moteur électrique, ce qui donne à chacun davantage d’autonomie dans la maîtrise de la force mécanique. Formé à l’utilisation d’une machine à coudre, un artisan couturier voit par exemple s’ouvrir sensiblement les possibilités de son métier. Sa compétence est enrichie, c’est-à-dire que son savoir-faire est amélioré par la connaissance de nouvelles pratiques ou techniques. En revanche, si sa productivité est multipliée par 85, elle n’influence pas considérablement l’organisation de l’entreprise. La téléphonie a un impact plus fort. Tandis que le modèle dominant était celui de la vente en gros, demi-gros puis détail, accompagné par de lourds stocks intermédiaires, le téléphone fluidifie la relation avec les fournisseurs et les clients. Le métier et les compétences relationnelles des vendeurs, dont le rôle se bornait à remplir des carnets de commandes, sont enrichis par des pratiques collaboratives nouvelles. La coopération entre entreprises en est améliorée au point de faire apparaître les directions commerciales et de réduire la chaîne des intermédiaires. Organisée auparavant autour de l’outil de fabrication, l’entreprise se reconstruit progressivement autour de la fonction commerciale. Cette présentation est bien entendu simpliste puisque l’utilisation de chaque technologie a les trois types d’influences sur les compétences. Pour la téléphonie actuelle, par exemple, les appels à la chaîne depuis des centres d’appels pour vendre des fenêtres ou des assurances ne sont qu’une extension du taylorisme pour une spécialisation des compétences. La télé-assistance, lorsqu’elle est effectuée par un technicien assisté d’un ordinateur, relève de la compétence enrichie. Et la conciergerie par téléphone, proposée aux propriétaires de voitures de luxe, est fournie par la coopération enrichie d’un réseau social de compétences mobilisables.

Moins de compétences spécialisées, plus de coopération enrichie

Quelle est alors la différence entre la dernière révolution industrielle et celle d’aujourd’hui ? C’est une question de proportions entre les trois formes de compétences. Aujourd’hui, les tâches spécialisées, répétitives, sont remplacées par des automates : le tri postal est réalisé par de la reconnaissance automatique des adresses sur les enveloppes, les cabines de peinture d’automobiles sont robotisées, la saisie des données comptables est informatisée. Les tâches fonctionnelles sont davantage aidées par des assistants virtuels : pilote automatique d’un avion ou d’une centrale nucléaire, outil de recherche de jurisprudence pour les avocats, logiciel de dessin en 3D ou anticipation de requête par un moteur de recherche sur Internet, ces assistants déchargent les professionnels des tâches courantes tout en enrichissant leurs capacités d’initiative, de discernement ou de débrouillardise. Les tâches relationnelles sont pour leur part considérablement améliorées. La relation client devient multicanal (SMS, téléphone, web, réseaux sociaux) et permet d’accompagner le consommateur tout au long du cycle de vente, de manière pertinente et non invasive. Dans leur dialogue avec leurs patients hospitalisés, les médecins gagnent du temps et de la précision grâce à la consultation du dossier médical sur tablette. Les formateurs utilisent des murs interactifs pour faciliter la compréhension et l’apprentissage. La coopération entre les entreprises devient plus imbriquée : blogs métiers pour la diffusion et le partage des meilleures pratiques, regroupement de communautés professionnelles interentreprises, ressources partagées (vitrine web, paiement ou logistique sur Amazon), plates-formes de logiciels Open source, coopétition. Les fournisseurs et les clients participent à l’innovation, plus ouverte. Les coopérations de l’entreprise avec son écosystème sont ainsi enrichies par les nouvelles techniques.

Le nouvel équilibre des compétences réinvente l'entreprise

Or, le changement de proportion entre les trois formes de compétences a des conséquences radicalement différentes. Du point de vue de la nature du travail, la révolution industrielle du XIXe siècle a essentiellement provoqué le développement de la compétence spécialisée, ou main-d’œuvre. Celle que nous vivons provoque surtout celui du cerveau d’œuvre dont les compétences et coopérations sont enrichies par les techniques relationnelles. Du point de vue des ressources humaines, l’intelligence relationnelle est mieux reconnue, ainsi que les services à la personne pour leur apport au bien-être de la population, donc pour l'économie. Les formations professionnelles, concentrées auparavant sur la relation avec la matière (esprit de géométrie), s’étendent à la relation avec des personnes (esprit de finesse). Du point de vue de la compétitivité, les gains de productivité résidaient au XXe siècle dans la transformation de la matière, à laquelle l’organisation hiérarchique et taylorienne de l’entreprise était adaptée. Or celle-ci est confrontée maintenant à davantage de diversité, d’instabilité et de complexité. Leurs répercussions en interne provoquent incohérences stratégiques, inflation procédurale, spirale bureaucratique et perte d’efficacité. Dans ce contexte, l’essentiel des gains de productivité réside dans le bon fonctionnement du réseau de partenaires qui coopèrent à l'élaboration des produits. La coopération enrichie en est le facteur-clé. Du point de vue de l’entreprise, celle-ci favorise l’organisation en mode projet, fédérant les compétences en réseau à l’intérieur ou à l’extérieur de l’entreprise, utilisant les fonctions support (DRH, DSI, administration) comme des ressources partagées. Le décloisonnement, la traçabilité et la réputation remplacent la hiérarchie, la mission et l’évaluation. Ce changement de proportion engendre donc une nouvelle économie de la coopération. C’est ainsi que l’entreprise se réinvente en tant que lieu d’organisation des coopérations pour valoriser le capital relationnel des individus et le capital social collectif.


Les compétences sociales sont mieux valorisées

Les humains ont encore un avantage par rapport aux robots : leurs compétences sociales. Les ordinateurs ne peuvent en effet pas comprendre un humain aussi bien qu'un autre humain. Leur capacité à simuler les interactions humaines est encore très limitée. Lire dans l'esprit des autres et réagir à ce qu'on a compris est un processus inconscient. Notre capacité à entretenir des interactions sociales évolue depuis des milliers d'années.

Encadrement: selon une étude de la Graduate School of Education d'Harvard, la maîtrise de ces compétences sociales est de plus en plus valorisée par les employeurs. Une grande majorité de la hausse des emplois et des salaires depuis 1980 s'est produite dans des secteurs qui impliquent un grand nombre d'interactions sociales. Etant donné que chaque travailleur est spécialisé dans une tâche en particulier, il est important de communiquer et de répartir les tâches pour s'assurer que chaque membre de l'équipe réalise celle pour laquelle il est le plus productif. Les travailleurs qui possèdent de très bonnes compétences sociales sont donc les mieux placés pour faciliter ce processus et en réduire le coût. Le travail d'équipe n'a d'intérêt que si la coordination est parfaite entre chaque membre. Ces travailleurs peuvent "répartir les tâches" pour un coût moindre, permettant un travail d'équipe plus productif. Les compétences sociales sont à l'origine d'avantages salariaux même en considérant comme équivalents les compétences cognitives et non cognitives et une grande variété d'autres facteurs déterminants dans l'établissement du salaire[177].
Coaching: chez Criteo l'autonomie est une compétence clé. Sa croissance rapide a complexifié le processus d'innovation. Pour ce faire, la startup a décidé de ne rien encadrer et de laisser les gens travailler comme ils le souhaitent. On ne leur dit pas comment faire les choses mais pourquoi. Une fois que l'objectif et la mesure de succès sont fixés, libres à eux de s'organiser et de décider des moyens d'y parvenir. Dans cette organisation, les managers jouent surtout un rôle de coach des talents. La motivation des salariés va reposer sur deux choses : leur niveau d'impact dans l'entreprise et l'émulation de l'ensemble. Trois ou quatre objectifs majeurs leur sont fixés par trimestre, avec mesure du succès et échanges réguliers. Pour s'organiser, la société a recours à des outils internes (wiki ou logiciel de gestion des tâches) leur permettant de communiquer plus rapidement mais aussi le "bon vieux post-it sur le mur", pour avoir en permanence sous les yeux, l'évolution des projets. [178].
Animation: Quand on rencontre, dans un magasin, des vendeurs aimables et compétents ; quand on rencontre, dans un hôpital, une équipe d'infirmières efficaces, attentives et patientes ; quand on observe une équipe de pompiers en action devant le danger, admirables de calme et de professionnalisme, on sait que leurs patrons sont des animateurs. L'ambiance d'une entreprise, d'une direction, d'un service détermine en effet la proportion des animateurs et les 10 % que l'on constate en moyenne ne sont pas une fatalité : dans une institution dirigée de façon persévérante par un animateur, il peut arriver que la quasi-totalité des agents se comportent eux-mêmes en animateurs[179].

Pour l'encadrement et le coaching en particulier, et les compétences sociales en général, les qualités relationnelles des travailleurs humains endigueront et seront enrichies par la robotisation. Dès lors, une part grandissante de l'activité sociale du tissu associatif rentrera progressivement dans la sphère économique. Le potentiel est celui du travail de 14 millions de bénévoles, qui représente un volume de travail de l'ordre de 935 000 emplois en équivalents temps plein[180].

Capital social

Le capital social est l’ensemble des ressources actuelles ou potentielles qui sont liées à la possession d’un réseau durable de relations plus ou moins institutionnalisées d’interconnaissance ou d’interreconnaissance ; ou, en d’autres termes, de l’appartenance à un groupe, comme ensemble d’agents qui ne sont pas seulement dotés de propriétés communes (susceptibles d’être perçues par l’observateur, par les autres ou par eux-mêmes) mais sont aussi unis par des liaisons permanentes et utiles. Ces relations sont irréductibles aux relations objectives de proximité dans l’espace physique (géographique) ou même dans l’espace économique et social parce qu’elles sont fondées sur des échanges inséparablement matériels et symboliques dont l’instauration et la perpétuation supposent la re-connaissance de cette proximité » (Bourdieu, 1980, p. 2)[181]

Capital relationnel

Le capital relationnel correspond au potentiel de séduction, d'interactions de l'entreprise avec son milieu, sa capacité en particulier à nouer des partenariats[182]

Les problèmes théoriques de l'utilité sont résolus par la pratique

Théorie de l'utilité

La théorie de l'utilité est ancienne. Son concept fondamental a été exprimé par Jeremy Bentham en 1789 : « par principe d'utilité, on entend le principe selon lequel toute action, quelle qu'elle soit, doit être approuvée ou désavouée en fonction de sa tendance à augmenter ou à réduire le bonheur des parties affectées par l'action. [...] On désigne par utilité la tendance de quelque chose à engendrer bien-être, avantages, joie, biens ou bonheur. »[183].

Dès lors c'est la notion de “richesse naturelle”, la vague idée matérialiste d'une “valeur inhérente” aux objets qui est fallacieuse, et de ce fait fausse le jugement. En réalité, la valeur n'apparaît qu'à partir du moment où une conscience humaine a reconnu qu'un objet pouvait servir son projet particulier. La valeur est une création de l'esprit humain[184]

Si une personne possède en effet deux stylos, l'utilité apportée par un stylo supplémentaire est faible, comparée à une autre personne qui ne possèderait initialement aucun stylo. De même, la première gorgée de bière procure un plaisir ineffable, la seconde est déjà moins bonne, et ainsi de suite, jusqu'à arriver au moment où l'envie se tarit. L'utilité de chaque nouvelle gorgée de bière est inférieure à celle de la précédente.

Adam Smith, dans Recherches sur la nature et les causes de la richesse des nations, écrit en 1776 : « Il n’y a rien de plus utile que l’eau, mais elle ne peut presque rien acheter; à peine y a-t-il moyen de rien avoir en échange. Un diamant, au contraire, n’a presque aucune valeur quant à l’usage, mais on trouvera fréquemment à l’échanger contre une très grande quantité d’autres marchandises. » [185]

Ces observations s'étaient jusqu'alors agrégées en problèmes théoriques (théorème d'Arrow) et empiriques (Robbins, 1981)[186], mais que l'abondance des nouvelles métriques permet aujourd'hui de résoudre.

La subjectivité

Problème n°1 : puisque la valeur est subjective, comment définir le prix d'un produit ? Le même produit peut-il avoir deux prix différents pour deux individus différents, ou encore pour le même individu à deux instants différents ?

Un voyage en avion peut être considéré comme une prestation identique pour tous les passagers. Il s'agit en effet d'être transporté sur le même trajet, au même horaire, avec le même niveau de sécurité et le même confort. Il y a pourtant aujourd'hui autant de prix qu'il y a de places. Il s'avère en effet qu'une grande part du produit est constituée par les services associés : réservation à l'avance ou à la dernière minute, via un site comparatif ou de groupement de demandes, avec garantie d'horaires, choix de la place, bagages, assurance annulation, impression ou envoi des billets, en package avec un voyage organisé, un hôtel ou une voiture, etc.

Il y a en fait autant de produits personnalisés qu'il y a de places, soit autant de rapports « qualité subjective/prix » que de clients. Toute personne qui a acheté un billet d'avion ou une chambre d'hôtel sur internet a ainsi pu constater que le prix peut varier entre deux clients et entre deux instants. Les techniques de yield management, en particulier, permettent de maximiser le profit du vendeur en ajustant le prix à l'utilité, en temps réel.

Compte-tenu de la diversification des produits en variétés et l'accent mis sur la qualité subjective, la satisfaction de l'utilisateur dépend moins de la quantité consommée que de sa possibilité de trouver une variété qui réponde à son besoin. C'est déjà le cas pour le livre ou la musique : le choix des supports et des formats pour des contenus proches est très large. Le lecteur a donc toutes les chances de trouver le livre qui lui convienne.

Les nouvelles pratiques permettent de pousser encore cette diversification et de l'élargir à la majorité des secteurs. On peut dès lors proposer une nouvelle formulation de la fonction d'utilité. Cette fonction de la théorie économique, qui évalue le bien-être du consommateur, n'a en effet plus pour argument la quantité qu'il consomme mais le nombre de variétés disponibles[187].



Témoignage : Arthur Waller, PriceMatch

PriceMatch est un spécialiste du yield management. Il s'agit d'une technique de définition du bon prix en temps réel. La majorité des français ont pour la première fois côtoyé le yield management en réservant un billet d'avion que ce soit sur des comparateurs de prix comme Skyscanner, Trivago ou Expedia. Sur ces sites les prix changent tout le temps en fonction de la date demandée, en fonction de la durée entre la date et le moment où vous réservez, si vous avez réservé le soir où le matin-même parce que l'on sait que ce ne sont pas les mêmes types de profils qui réservent le soir ou pendant la journée. C'est pourquoi le même aller-retour Paris Berlin en avion coûte entre 100 et 500 euros. Vous avez une armée d'ingénieurs chez Air France qui travaille là-dessus toute la journée pour optimiser les marges. Cette technique a commencé dans les années 80 quand les compagnies aériennes aux Etats-unis ont vu leurs marges se faire rogner par le low-cost. Le mouvement s'est ensuite accéléré avec internet, car il est devenu possible pour l'entreprise de changer ses prix très facilement, et pour le client de comparer tous les prix.

Les entreprises qui utilisent le yield management sont en général celles qui ont une capacité maximale fixe, des coûts fixes élevés et des coûts variables plutôt faibles, une demande qui varie au cours du temps pour des biens qui peuvent être qualifiés de périssables et la possibilité de changer leur prix assez facilement. Donc les secteurs de l'aérien, le rail. On estime que dans l'hôtellerie 5 % des hôtels dans le monde ou un outil de yield management. La publicité en ligne aussi : vous avez beaucoup de startups françaises très connues, comme Criteo, ou AlpehD pour aider les annonceurs. La billetterie suit, ainsi que les parcs de stationnement et la restauration. Le chiffre d'affaires augmente en moyenne de 7% après l'application d'une stratégie de yield management. Comme ce sont des entreprises qui ont des coûts variables assez faibles c'est quasiment du profit.

Voir l'Interview complète sur Xerfi Canal

La répartition des revenus

Problème n°2 : comment définir la répartition équitable des revenus entre les co-producteurs d'une valeur utile ?

Il s'avère que cette question avait déjà été débattue dans les années 50, lors du développement de la diffusion radiophonique, à propos des ayant-droits des œuvres musicales : pouvaient-ils s'opposer à ce qu'elles soient diffusées à la radio ou en discothèque ? Devaient-ils toucher une rémunération forfaitaire pour toute diffusion, dans le cadre d'une licence globale ? En cas de rémunération, comment établir sa répartition entre les différents ayant-droits ?

Ces questions ont été tranchées par la Convention de Rome en 1961, qui stipule que les artistes et producteurs ne peuvent pas s'y opposer, mais qu'une rémunération équitable doit leur être versée par l'utilisateur[188]. Pour des questions pratiques, celle-ci est calculée sur la base d'un pourcentage des recettes des utilisateurs (5% pour les diffusions radio, 1,65% pour les discothèques[189]) réparti en fonction de coefficients définis par les sociétés de gestion collectives.

Critères de répartition

Critères de répartition de la collecte au titre de la rémunération équitable

  • deux moitiés égales aux artistes et producteurs
  • pro rata des relevés de diffusions fournis par les utilisateurs et, sinon, par estimation sur la base des relevés antérieurs
  • identification des artistes-interprètes à partir du visionnage de génériques, des supports des phonogrammes, de bases de données externes, de documentation communiquée par les producteurs ou autres organismes du secteur audiovisuel, ou à partir de déclarations effectuées par les artistes.
  • part des artistes-interprètes calculée à partir de la rémunération de chaque phonogramme, en fonction d'une part de la catégorie de musique: variétés, jazz, classique et opéra et d'autre part de la nature de la prestation de l'artiste.
  • des groupes techniques constitués d'artistes nommés par le Conseil d'Administration, vérifient la liste des artistes solistes à rémunérer, la nature de leurs prestations et procèdent le cas échéant (lyrique, par exemple), à une différenciation des rôles interprétés.
  • des coefficients sont alors appliqués et les montants attribués aux phonogrammes sont ainsi répartis aux artistes solistes en fonction de ces coefficients[190].

Le principe du partage équitable entre les co-producteurs d'une valeur utile est donc déjà établi – au moins partiellement - et sa pratique est opérationnelle depuis 50 ans.

Grâce aux nouvelles métriques, cette pratique prend aujourd'hui de l'ampleur. Elle est élargie à la collaboration ouverte en ligne par des plate-formes telles Quirky ou Sensorica. Elle est approfondie grâce à la théorie des jeux et aux technologies du big data, qui permettent de calculer les coefficients de répartition pour chaque œuvre et non plus de les imposer selon des barèmes forfaitaires. Elle est extensible par les licences à réciprocité à toutes les œuvres collectives et aux biens communs.

Les difficultés théoriques de l'économie de l'utilité sont donc dorénavant résolues par la pratique.


Autres problèmes : l'utilitarisme

John Stuart Mill

John Stuart Mill préconise plusieurs leviers pour orienter les comportements :

  • l'intérêt, l'éducation et l'opinion sont des moyens de guidage
Pour nous rapprocher de cet idéal autant qu'il est possible, l'utilitarisme prescrirait les moyens qui suivent. En premier lieu, les lois et les arrangements sociaux devraient mettre autant que possible le bonheur ou (comme on pourrait l'appeler dans la vie courante) l'intérêt de chaque individu en harmonie avec l'intérêt de la société. En second lieu, l'éducation et l'opinion, qui ont un si grand pouvoir sur le caractère des hommes, devraient user de ce pouvoir pour créer dans l'esprit de chaque individu une association indissoluble entre son bonheur personnel et le bien de la société[191].
  • l'espoir de la bienveillance, la crainte du mécontentement et la conscience sont les sanctions
Le principe de l'utilité possède toutes les sanctions qui appartiennent à quelque autre système de morale que ce soit. Ces sanctions sont extérieures ou intérieures. Sur les sanctions extérieures il n'est pas nécessaire de s'étendre. Ce sont : l'espoir de se concilier la bienveillance, ou la crainte de provoquer le mécontentement de nos semblables ou du Maître de l'Univers[192].
Une peine plus ou moins intense, qui suit la violation du devoir, et que les personnes d'éducation morale convenable éprouvent à tel degré que, dans les cas graves, elles reculent devant cette violation comme devant une impossibilité[193].
  • les sentiments sociaux sont le point d'appui des précédents
Ce sentiment naturel puissant qui doit nous servir de base, il existe, et c'est lui, dès que le bonheur général est reconnu comme idéal moral, qui constitue la force de la moralité utilitariste. Ce fondement solide, ce sont les sentiments sociaux de l'humanité; c'est le désir de vivre en bonne harmonie avec nos semblables[194].

Les métriques de l'utilité fournissent de quoi mesurer l'utilité collective et la contribution individuelle au collectif. Il reste aux coachs, éducateurs, managers et cadres le soin d'inciter les bons comportements, à moins que la seule conscience d'agir dans le sens de l'intérêt collectif soit un moteur assez fort pour s'en passer.

Critique de l'utilitarisme : les utilités ne s'additionnent pas[195]

En tant que discipline distincte et reconnue, la science économique est apparue au 19e siècle, ce qui coïncida hélas ! avec la domination de l’utilitarisme en philosophie morale. Par conséquent, la philosophie sociale des économistes, partisans du laissez-faire au 19e siècle ou de l’étatisme au 20e, s’est presque toujours fondée sur l’utilitarisme. Même de nos jours, l’économie politique regorge de débats assis sur la comparaison entre des “coûts sociaux” et des “avantages sociaux” dans l’évaluation des politiques publiques.

Pour résumer, la philosophie sociale utilitariste considère comme “bonne” toute politique qui produit “le plus grand bien pour le plus grand nombre”.

Felix Adler ironise sur les utilitaristes, qui “voient le plus grand bonheur pour le plus grand nombre comme raison d’être de la société mais qui n’expliquent pas pourquoi le bonheur du plus grand nombre devrait rallier le consentement de ceux qui se trouvent faire partie de la minorité”.

L’utilitarisme dissimule l’hypothèse implicite que les désirs subjectifs constituent des données ultimes que l’ingénieur social devrait, pour une raison ou pour une autre, s’employer à satisfaire. Pourtant, l’expérience de chaque homme démontre que les désirs individuels ne sont pas du tout absolus ni invariables.

On postule que les utilités et les coûts subjectifs, une fois additionnés, soustraits et mesurés, donneraient une “utilité sociale nette” ou un “coût social”, ce qui permettra à l’utilitariste de donner un avis favorable ou défavorable sur chaque politique sociale particulière.

Il est absolument illégitime de les additionner ou de les pondérer dans quelque calcul d’utilité ou de coût “social” que ce soit.

Les richesses de l'utilité

La mesure créatrice de richesse

La richesse économique est la multiplication d'une ressource, de sa mesure et de son modèle d'exploitation. Les nouvelles technologies donnent des nouveaux moyens d'exploration des ressources, de leur mesure et de leur exploitation. Leur effet multiplicateur est donc exponentiel.

Histoire

Dès l'antiquité, la mesure géographique est une source de richesses. Le pointillisme du cabotage permet de repérer les ports naturels. Le tracé des côtes révèle les territoires, et leur exploration révèle les richesse de leur sol et de leur sous-sol. La géographie devient stratégique avec le développement de l'empire romain. Lorsque le monde ne contient quasiment plus de régions inexplorées, il se redécouvre d’une autre manière, moins extensive et plus scientifique, mais toujours stimulé par la recherche d’opportunités économiques. Plus tard la mesure scientifique des caractéristiques mécaniques des matériaux révèle la ressource des alliages artificiels et provoque l'éclosion de l'industrie de la métallurgie fine. L'observation des propriétés chimiques permet l'industrie des engrais et des cosmétiques. L'observation microscopique permet le développement de l'industrie pharmaceutique et biologique.

Traitement de données, cartographie, business intelligence

ajouter le jumeau numérique

Ce travail de clarification est important car le traitement comptable de ces investissements essentiels au fonctionnement de l’économie numérique détermine largement le comportement des acteurs concernés. Ainsi, pour ce qui concerne les bases de données, l’impossibilité d’activer les investissements parfois considérables que représentent ces actifs, en particulier dans le domaine du e-commerce, ne permet pas le développement d’approche à forte valeur ajoutée, qui valorise les bases de données mais se heurte au « marché noir » des données, achetées ou louées en grande quantité et à vil prix. Ainsi, la production d’une base de données qualifiées et ciblées, nécessitant des traitements technologiquement sophistiqués et coûteux, se trouve défavorisée par rapport à l’acquisition massive de données brutes.[196].

La cartographie mondiale des risques d’inondation est un outil complet basé sur des données physiques. Elle utilise des modèles hydrologiques et hydrauliques et prend en compte des informations telles que les précipitations, l’évaporation, la fonte des neiges et la topographie. Les chercheurs de FM Global se sont appuyés sur les connaissances et données collectées par plus d’une dizaine d’organismes scientifiques, universitaires et gouvernementaux pour créer ce nouvel outil[197].

La finalité de la business intelligence est de transformer des données disponibles en informations utiles à la prise de décision. La BI permet à l'utilisateur d’analyser les données plus facilement, en les restituant sous une forme accessible et intuitive. Rapports et dashboards permettent la représentation et la visualisation des données sous forme de tableaux et autres graphiques.

Mesurer les nouveaux champs d'observation, traiter les données et les cartographier révèle inévitablement de nouvelles ressources, naturelles ou non, que l'activité économique des entrepreneurs transformera tout aussi inévitablement en richesses.

Saudi Aramco

L'Arabie Saoudite n'a découvert l'immensité de son trésor pétrolier qu'en 1938. Auparavant, il s'agissait d'un pays pauvre vivant d'une agriculture d'oasis et des revenus provenant des pélerinages à la Mecque[198]. Aujourd'hui, sa société d'exploitation nationale Saudi Aramco pourrait être valorisée 2000 milliards de dollars[199], soit plus de 3 fois la valeur d'Apple, actuellement plus grosse capitalisation boursière mondiale[200]

Cet exemple illustre pourquoi :

  • il y a création de richesse marchande si et seulement si la ressource est identifiée, mesurée et valorisée au regard d'un modèle économique d'exploitation. Dans l'exemple la valeur d'Aramco est égale au capital naturel en pétrole de l'Arabie Saoudite, sur la base de ses réserves estimées[201], moins les ponctions de la famille royale
  • la comptabilité nationale ne tient compte des ressources naturelles que lorsque celles-ci sont la propriété d'agents économiques et qu'elles ont un prix
  • le produit intérieur brut ne tient pas compte de la dégradation des ressources naturelles[202]
  • on peut mesurer une ressource, par exemple en barils, même en l'absence de taux de change

Richesse globale ou locale

Historique

Le mot "richesse" mérite aussi qu'on le précise. Les colliers de wampum des Indiens de l’Amérique du nord étaient des chapelets formés avec les extrémités de coquilles blanches et noires qu’on avait d’abord polies par le frottement, puis enfilées en forme de ceintures et de colliers ; on les estimait selon leur longueur, mais aussi selon leur couleur et leur éclat, un pied de wampum noir valait deux pieds du blanc. Ce qui est assez curieux aussi, c’est que, semblables à nos avares européens entassant des monnaies d’or et d’argent, les plus riches d’entre les chefs indiens entassaient des colliers de wampum, faute d’un meilleur placement pour le superflu de leur richesse.

Dans l’Inde anglaise et à Siam, on employait encore il y a un siècle des coquillages "cauris" comme menue monnaie. Le taux ordinaire était d’environ 5000 cauris par roupie. Les Fidjiens employaient des dents de baleine. Entre autres objets d’ornement ou objets précieux employés en guise de monnaie, on peut mentionner l’ambre jaune, les pierres gravées telles que les scarabées égyptiens, et les dents d’éléphant. En Norvège le blé se déposait dans des greniers publics comme on dépose la monnaie dans les banques ; il se prête et s’emprunte. Comme l'huile d'olive était assez uniforme en qualité, qu’elle se conserve et se divise facilement, elle a longtemps servi de monnaie dans les îles Ioniennes. Les noix de cacao, dans l’Amérique centrale et dans le Yucatan, forment une monnaie fractionnaire parfaitement reçue. A Caracas, dix noix de cacao valaient environ un penny anglais. Dans les contrées de l’Europe où les amandes sont communes, elles ont eu cours dans certaines limites, mais leur valeur change aussi, suivant que la récolte est plus ou moins abondante.

Les étoffes de coton appelées pièces de Guinée servaient au trafic sur les rives du Sénégal ; le sel a eu cours en Abyssinie, des pains de benjoin ou de cire à Sumatra, des plumes rouges dans les îles de l’Océan pacifique, des briques de thé en Tartarie, des pelles ou des pioches de fer chez les Malgaches et même Adam Smith a remarqué les clous qui servaient de monnaie dans certains villages d’Écosse. M. Michel Chevalier a cité un cas tout à fait analogue qui s’est présenté dans un des districts houillers de la France[203].

Monnaies locales

Ce système se reconstitue avec les SEL (système d'échange local)[204]

Taux de change et richesse globale

La richesse devient globale avec les taux de change.

Les wampums d'Amérique du Nord étaient si bien une monnaie acceptée parmi les indigènes que la cour du Massachusetts décida, en 1649, que, pour le paiement des dettes entre colons, elle serait reçue jusqu’à concurrence de quarante shellings. Une curieuse monnaie de paille circula jusqu’en 1693 dans les possessions portugaises d’Angola, et qui consistait en petites nattes, appelées libongos, tressées avec de la paille de riz, et valant environ un penny et demi chacune.

Les législateurs prirent souvent le parti d’obliger les créanciers à recevoir les paiements en produits naturels dont le taux était fixé. En 1618, le gouverneur des plantations de la Virginie ordonna que le tabac serait reçu au taux de trois shellings la livre, avec peine de trois ans de travaux forcés pour celui qui le refuserait. En 1732, la législature du Maryland donna encore cours forcé au tabac et au maïs ; et en 1641 on fit des lois semblables sur le blé dans le Massachussets[205].


richesse non marchande

Selon les anciens, la richesse était « tout ce que l’homme désire comme pouvant lui être utile et agréable ». A la fin du XVIIème siècle, Pierre de Boisguillebert pense qu' « Il est certain que l’argent n’est pas un bien de lui-même et que sa quantité ne fait rien pour l’opulence d’un pays en général... L’argent n’est que le moyen et l’acheminement, au lieu que les denrées utiles à la vie sont la fin et le but. » Pour Antoine de Montchrestien (1575-1621) « ce n’est point l’abondance d’or et d’argent, la quantité de perles et de diamants, qui fait les États riches et opulents ; c’est l’accommodement des choses nécessaires à la vie et propres au vêtement ». François QUESNAY (1694-1774) suggère « ...que le souverain et la nation ne perdent jamais de vue que la terre est l'unique source des richesses, et que c'est l'agriculture qui les multiplie ». « L’argent n’est pas la véritable richesse d’une nation, la richesse qui se consomme ou qui renaît continuellement, car l’argent n’engendre que l’argent. Un écu bien employé peut à la vérité faire naître une richesse de deux écus, mais c’est la production et non pas l’argent qui est multipliée. »[206].

Or dans les Principes d’économie politique publiés en 1820, Malthus considérait qu'on ne peut « aborder aucune discussion sur l’accroissement relatif de la richesse chez les différentes nations si nous n’avons un moyen quelconque, quelque imparfait qu’il soit, d’évaluer la somme de cet accroissement ». Pour des questions purement pratiques, la richesse s'est limitée pour les économistes à ce que mesure la monnaie, c'est-à-dire une petite part de la richesse telle que la concevait les anciens.

Or on a récemment pris conscience que l'enrichissement en monnaie peut provoquer, pas toujours mais souvent, un appauvrissement social ou environnemental supérieur.

Réduire l'entreprise à « maximiser le profit », c'est aller au devant de l'opinion des gens simples qui pensent, en France, que le seul souci du « patron » est de « produire de l'argent » pour s'enrichir toujours plus. Ces personnes ne font pas la différence entre l'entrepreneur et le prédateur, « celui qui vit de proies » comme dit le Littré. Pourtant cette différence existe. Tandis que l'entrepreneur a pour but de construire et de produire dans la durée, le prédateur détruit car rien n'est plus profitable que de détruire un patrimoine mal protégé. Il est facile par exemple de faire apparaître un profit dans le compte d'exploitation en brûlant des parts mal comptabilisées du patrimoine : c'est ce qu'a fait Bull en démantelant sa recherche, ce que fait France Telecom en dilapidant la compétence des salariés et la confiance des clients[207]...

Aujourd'hui, les moyens d'évaluation s'affinent grâce aux nouvelles métriques, ce qui permet de revenir à la définition des anciens et de révèler la partie immergée de l'iceberg économique.

L’introduction d’une mesure modifie le comportement, par un effet “weight watchers”. Elle positionne la vigilance, et induit un maintien. Le seul fait de mesurer son poids tous les jours -et d’en parler avec ses collègues- attire l’attention, fait passer dans le registre conscient des gestes inconscients, et, dans l’ensemble, aboutit à un meilleur contrôle de son propre poids. Dans l’industrie, le repérage de tel indicateur de performance -un rendement, un taux de défaillance…- transforme les comportements et suscite, comme par enchantement, un mouvement pour l’améliorer[208].

Pour entrer dans l'économie de l'utilité, il faut reformuler le postulat de Malthus. Pour « faire de l’économie politique une science positive fondée sur l’expérience et susceptible de donner des résultats précis, il faut prendre le plus grand soin d’embrasser seulement, dans la définition du terme principal dont elle se sert, les objets dont l’accroissement ou la diminution peuvent être susceptibles d’évaluation ; et la ligne qu’il est le plus naturel et le plus utile de tracer nettement est celle qui sépare la mesure du bien-être matériel et du bien-être non matériel »[209]. Au-delà de la valeur d'échange des produits, la richesse doit se redéfinir comme une quantité subjective d'effets utiles.

Redéfinir la richesse

Selon le Larousse, les entreprises ou sociétés non financières sont des agents économiques dont la fonction consiste à produire des biens ou des services afin de les vendre sur le marché. La production des entreprises est considérée comme marchande, puisque l'objectif des propriétaires – ou des dirigeants de la firme pour une société de capitaux – est de dégager un bénéfice[210].

La comptabilité nationale considère que la richesse est composée d'actifs qui sont des réserves de valeur. Le système des comptes distingue trois grandes catégories d'actifs :

  • les actifs produits : les biens et services ;
  • les actifs non produits, par exemple les terrains ;
  • les actifs financiers, par exemple la monnaie, les prêts et les crédits[211].

l'un des buts de la comptabilité nationale est d'étudier la création de richesse, il est donc intéressant de faire apparaître explicitement l'accroissement de richesse de chaque agent économique. Puisque l'accroissement de richesse d'un agent correspond à son accumulation.(..) Puisqu'elle est égale à la différence entre la variation des actifs et celle des passifs, l'épargne mesure l'enrichissement d'un agent économique du fait des opérations qu'il a effectuées au cours de la période étudiée[212].

Le manque de rigueur des bilans et l’action des comptables peu scrupuleux menaçaient de transformer les impôts personnels en de simples contributions facultatives. En 1916, La loi exige en effet de préciser la notion de bénéfice ainsi que la réglementation des inventaires et des bilans. Elle fait de la normalisation comptable la base même de toute « taxation équitable ». En janvier 1933, Pierre Mendès-France, député radical, suggère par exemple d’augmenter les sanctions contre les comptables coupables de fraudes. Il cherche ainsi à améliorer les comptabilités des entreprises, assainir la profession des comptables et renforcer la lutte contre la fraude. Le poids du réarmement, qui augmente fortement entre 1936 et la guerre, oblige à imposer des règles comptables pour limiter les charges publiques et les enrichissements des fournisseurs de guerre. En 1942, le premier plan comptable général (PCG) français et l’Ordre des experts comptables et des comptables agréés (OECCA) sont introduits. Épurées de l’empreinte du régime qui les a fait naître, ces réformes seront entérinées à la Libération. Elles témoignent de l’affirmation d’une nouvelle alliance entre les responsables des services fiscaux, pour qui le PCG doit faciliter la lutte contre la fraude, ceux des secteurs de production les plus modernes, pour lesquels la normalisation et le calcul des prix de revient doivent améliorer la productivité [213].

L'entreprise utile

Richesses de startups

Les startups sont les premiers transformateurs de richesses non marchandes en richesses marchandes.

Pour réussir, il leur faut plusieurs qualités

Il faut que les sociétés soient fondées sur des technologies innovantes, différentiations exceptionnelles, je n'investis que sur la science de première classe, science de top niveau, et je crois que vous l'avez dit de façon tout à fait brillante.

Cela se dit rarement, on croit que les financiers ne financent que la recherche appliquée de bas étage et que la recherche noble est financée par le public. Ce n'est pas vrai ! Nous n'investissons que sur la recherche de top niveau. J'ai plusieurs prix Nobel dans mes sociétés, j'ai plusieurs prix Nobel dans les conseils d'administration de mes sociétés. Nous ne finançons que de la top recherche.

Deuxièmement, je veux dire un mot sur les brevets parce que ce n'est pas assez dit ici. S'il n'y a pas de brevets, on ne fait rien. Avec une institution qui est représentée ici, je me suis heurté à un problème, à savoir qu'ils ont publié avant de prendre le brevet, de sorte que je n'ai pas pu faire la société. On avait un projet de start-up et je n'ai pas pu le faire parce le scientifique, le sachant d'ailleurs très bien, a breveté. Et il m'est arrivé déjà de me promener dans les labos et de les empêcher de publier... C'était à huit jours près.

Une de mes plus belles sociétés actuelles, je l'ai rattrapée juste à temps. Deux jours avant une publication dans un congrès américain, j'ai appelé un de mes amis, qui est le patron d'une société de brevets, qui est venu rédiger le brevet pendant le week-end avec lui. Et c'est devenu une de mes plus belles sociétés de portefeuille. Si je ne l'avais pas fait, il n'y aurait pas de société. Donc brevet, brevet, brevet, brevet, il n'y a que ça. Ce qui n'empêche absolument pas de publier !

Troisièmement : potentiel de marché important. Je crois que cela a été dit, je ne vais pas le rappeler.

Dernier point, mais c'est évident, il faut un management top parce que ces sociétés sont fragiles. C'est difficile, elles se heurtent à des PME comme Toshiba ou Hitachi, comme il a été dit précédemment, et c'est vrai ! Donc la seule façon de réussir, c'est d'être plus intelligents, d'être meilleurs managers, d'avoir une meilleure recherche, une meilleure propriété intellectuelle. Il faut être top[214]

Les producteurs de richesses immatérielles

le ratio price to book

La valeur économique rapportée à la valeur comptable révèle l'importance des actif immatériels. Le ratio price to book est supérieur à 10 pour Facebook, Amazon, IBM ou Technicolor[215]

le besoin de comptabilité non-financière

Aujourd’hui, pour connaître une entreprise et porter un jugement et une appréciation sur sa performance, je pense qu’il faut du non-financier. Comme premier sujet qui est abordé sur le non-financier, on pense tout de suite à l’environnemental. Il y a déjà des règles, qui sont connues, imposées, et l’environnemental permet de trouver des unités à comptabiliser. La comptabilité n’est jamais qu’une technique pour enregistrer des unités. Si l’on remplace des euros par des mètres cubes ou des litres, nous y arrivons, donc cela s’y prête assez bien. Mais est-ce que cette comptabilité d’unités, – par exemple, unités de consommation de matières premières –, est suffisante pour juger de la performance d’une entreprise? Je pense que nous pouvons nous poser la question de la pertinence. Pourquoi ? On mesure une consommation, est-ce pour autant vertueux? Je pense qu’il faut avoir une information qui ne soit pas forcément quantifiable (...) Il y a un besoin de prendre confiance dans l’entreprise, de connaître ce qu’il se passe à l’intérieur: son projet, ses indicateurs de progression sur un chemin vertueux, son évolution. Ce sujet intéresse toutes les entreprises, de la plus grande à la plus petite. La petite entreprise qui cherche à financer un petit investissement a aussi besoin de rassurer, d’expliquer ce qui se passe dans son entreprise sur les questions environnementales, mais aussi sociales, l’humain, ses objectifs, Nous avons aussi notre mot à dire. Pourquoi ? Parce qu’à partir du moment où il n’y a pas de norme, c’est la porte ouverte à toutes les présentations qui pourraient être subjectives, et donc non-contrôlables.(...) je suis d’accord avec l’idée de capital environnemental que vous développez et qui prévoit que je suis redevable de quelque chose à l’environnement. Mais comment le mesure-t-on ? Dois-je le mesurer de la même façon ici, en Chine, aux États-Unis ou au Brésil? Qui est le gardien de cette mesure? Quel est le concept ? Quelle est la nature de l’actif en contrepartie ? Quel est cet actif ? Qui le contrôle ? (...) L’impact environnemental n’est pas uniquement mesurable en argent. Il est difficile à mesurer, parce que nous devons nous mettre d’accord sur ce que nous voulons mesurer: est-ce la pollution de l’air, les tonnes de CO2 rejetées dans l’atmosphère, la contamination de l’eau ? Ne doit-on pas plutôt utiliser des seuils? Comment mesure-t-on l’impact humain dans tout cet environnement ? (...) Je pense que c’est une déformation culturelle que de vouloir comptabiliser des choses qui ne se comptabilisent pas forcément. Je ne sais plus si c’est Einstein qui disait que « ce qui compte ne se compte pas ». Cette information-là est indispensable, mais de là à l’aborder par le biais de la comptabilité, je pense qu’il y a peut-être d’autres façons de faire. [216]

les actifs immatériels

Thésaurus-Bercy propose des outils pour explorer les goodwills, d’analyser leurs contenus et de proposer une approche pour définir la valeur patrimoniale de leurs constituants. Cette étude est capitale car si la comptabilité écarte de trop nombreux facteurs de production de richesses au motif qu’ils sont jugés trop volatils, alors non seulement la valeur patrimoniale de l’entreprise est presque toujours sous-estimée mais de surcroît, il n’est pas possible d’établir pour l’entreprise un pronostic fiable de capacité à générer des cash-flows[217].

La plupart du temps ne figurent pas dans les livres comptables les actifs ou ressources immatériels de l’entreprise. Ainsi la réputation, la solidité amont d’un territoire de fournisseurs avec lequel on a des relations de long terme reposant sur la confiance. Cela peut-être aussi le réseau de la clientèle fidélisée par l’excellence de vos prestations ou par une politique active visant à obtenir des renseignements approfondis sur les consommateurs pour avoir une conception à l’écoute du marché[218].


  • Le capital client (fidélité, solvabilité, rentabilité, dynamique des secteurs, ...)
  • Le capital humain (motivation, savoir-être, compétence, climat, expertise, leadership, ...)
  • Le capital organisationnel (politique qualité, sécurité, orientation client, processus de contrôle, supply chain, réseau de distribution, ...)
  • Le système d’information (couverture métier, ergonomie, fiabilité, coûts, ...)
  • Le capital de savoir (RetD, secrets de fabrication, brevets, ...)
  • Le capital de marque (notoriété, réputation, singularité, ...)
  • Le capital ‘partenaires’ (nombre par produit stratégique, satisfaction du client, fidélité, ...)
  • Le capital actionnaire (réserve de ressources financières, patience, influence, conseil, ...)
  • Le capital naturel (abondance et qualité de la ressource naturelle, ...)
  • Le capital sociétal (qualité de l’environnement sociétal, ...)[219]

Caractère inopérant de la nomenclature

Comment se comparent les richesses révélées par le numérique avec les actifs immatériels ?

L'Institut de l'Iconomie est un think tank spécialisé sur l'économie du numérique. Dans nos travaux, nous aurions besoin d'outils pour classer les richesses produites par l'économie du numérique et, de plus en plus souvent, on constate que l'approche par les actifs immatériels n'est pas très pratique. En particulier pour les projets open source ou dont le business model est évolutif.

Wikipedia est cité sur 90% des premières pages de Google, donc il contribue considérablement à la valeur de Google, probablement autour de 10%[220][221]. Dans une vision comptable classique, Il y a donc bien eu une création de richesse quelque part, une externalité qui passe en dessous de tous les radars économétriques jusqu'à leur révélation par les bénéfices des GAFA. Au-delà de Wikipedia, de Linux, Android, toutes nos contributions, commentaires et data sur internet seraient de simples externalités moissonnées par les GAFA. Au final, certains ont le sentiment de travailler gratuitement pour enrichir les actionnaires des GAFA au point de transformer l'Europe en colonie numérique.

Pour rendre compte de la création de richesse, l'approche par les actifs immatériels n'est pas très pratique. Si Wikipedia est un actif immatériel de Google, dans quelle catégorie le placer ? Quelle part de Wikipedia faudrait-il intégrer ? Est-ce que cette approche nous renseigne sur le mécanisme réel de la création de valeur avant son exploitation par Google ?

On observe en fin de compte à un phénomène qui ressemble à celui des années 1995, quand on a pris conscience que la valeur des entreprises n'était plus dans leur bilan comptable[222]. Il existe aujourd’hui un « grand vide » entre la valeur des actifs comptable IFRS hors goodwills, et la valeur de marché des entreprises. Les goodwills extra-comptables et comptables représentent une part majeure de la valeur des entreprises : entre 55 % et 72 % pour le CAC 40 selon que l’on est en crise ou pas. Dans les PME, les goodwills sont également très importants de l’ordre de 2/3 de la valeur totale des entreprises (Fustec et Marois 2006) [223]. De la même manière observant les richesses, on se dit que la valeur des entreprises sera de plus en plus dans des externalités.

Pour classer Linux, Android ou les écosystèmes, certains ont proposé la notion de capital de biens communs, ou de valeur partagée[224], qui ont l'avantage de montrer la valeur d'actifs en dehors du périmètre de l'entreprise, mais qui ne répondent que partiellement à l'observation des richesses révélées par le numérique. D'autres insistent sur le modèle de plate-formisation ou d'ubérisation qui capte cette valeur en s'installant dans la sur-traitance des entreprises. Mais cela ne rend pas compte de modèles de services aux entreprises en leur apportant une communauté. Luckyloc s'adresse aux entreprises pour leur proposer un service de transport de leurs véhicules, en leur apportant une communauté de chauffeurs particuliers gratuits. Tecbak installe des babyfoots dans les entreprises avec une communauté de joueurs pour animer les relations entre entreprises partenaires.

A l'Institut de l'Iconomie, nous ne proposons pas de classification, mais nous observons que pour essayer d'exprimer la création de richesse, les mêmes termes reviennent fréquemment. Wikipedia, par exemple, est une richesse de la contribution. Pour l'instant, on identifie assez bien, en plus des richesses de la contribution, les richesses de la créativité, de la coopération, les richesses relationnelle, collective, sociale et environnementale. Mais ce classement se superpose assez mal avec les nomenclatures classiques, même si les noms se ressemblent.

notes

C'est ce que la Sénatrice Catherine Morin-Desailly analysait dans son rapport : "l’Europe est en passe de devenir une colonie du monde numérique, à la fois parce qu’elle devient dépendante de puissances étrangères et parce qu’il n’est peut-être pas exagéré de dire que le sous-développement la guette."[225].

Emmanuel Macron a annoncé au sommet européen de Talinn, le 28 septembre 2017, sa volonté d'instituer une taxe sur les GAFA. « Cette taxe est soutenue par 19 pays, ce qui montre une vraie dynamique. Je veux que nous trouvions la même dynamique que sur la levée du secret bancaire, où l'on a réussi à débloquer la situation car tout le monde a compris que c'était un sujet d'intérêt général. La taxation dans le numérique en est un aussi », a indiqué le chef de l'Etat à l'issue du sommet[226].

Richesse sociale et capital sociétal, ce n'est pas la même chose ?

Si on pense au capital sociétal aux infrastructures et aux services publics environnants en tant que ressources[227], cela ne donne pas d'indication de richesse.

Si on met le capital social au regard de la RSE, les indicateurs RSE pour leur part sont en général spécifiques à chaque entreprise et sont orientés par la mesure d'une responsabilité plutôt que celle d'une création de richesse.

L’Union européenne, après bien des atermoiements idéologiques, et au fur et à mesure que sa stratégie de développement durable se précise, communique sur un modèle de responsabilité dont la seule disposition forte est aujourd’hui le projet de directive comptable de Michel Barnier, en vue d’intégrer dans la publication des comptes des éléments extrafinanciers que l’entreprise juge pertinents.(...). Au final, si orientation publique il y a en matière de RSE, celle-ci relève surtout de la promotion de normes de sécurité et de qualité, mais aussi, désormais, de la communication qui sera faite autour de telles initiatives, comme le démontre le succès de la démarche issue de Rio+20 en faveur du reporting[228].

Les expériences les plus avancées sont autour de l'idée de la "valeur partagée", introduite par Michael Porter. Mais les expérimentations sont encore insuffisamment codifiées pour mesurer une valeur d'actif au travers d'un retour sur investissement.

5 conditions du succès pour la démarche Shared value :
  1. Les marques doivent intégrer dans leur mission un réel objectif social,
  2. Elles doivent répondre à un besoin social bien identifié et bien analysé,
  3. Elles doivent mettre en place des mesures de suivi régulier de leurs actions, afin de pouvoir modifier les conditions de leur engagement en cas de besoin,
  4. La conduite du projet doit associer un maximum de collaborateurs mais le pilotage de l’action doit être concentré entre peu de mains et irréprochable,
  5. La cocréation en partenariat avec des intervenants externes est à la fois la meilleure approche et indispensable 9 fois sur 10[229].

Pourtant la richesse sociale est beaucoup plus tangible quand elle s'illustre par BlaBlaCar. Au début, la communauté a développé le sentiment de "faire société" autour d'un projet écologique, permettant de rencontrer des personnes, contre la société de consommation. Elle a été l'actif essentiel de la construction de cette start-up, qui pèse aujourd'hui plus d'un milliard d'euros, avant d'être internalisé comme une simple clientèle.

Richesse environnementale et capital environnemental, ce n'est pas non plus la même chose ?

Le capital naturel se réfère aux ressources naturelles disponibles et au risque de pénurie. L'approche par la création de richesse valorise par exemple l'économie du partage.

On peut voir AirBnb comme un concurrent déloyal des hôteliers, on peut aussi le voir comme un créateur de richesse environnementale, puisqu'il permet d'exploiter des logements sous-utilisés. Slock.it est une start-up qui propose un protocole pour louer tout objet sous-utilisé, ce qui permet de limiter les gâchis. Partage de maisons, de voitures, de vélos, de capacité informatique, etc... entre particuliers, il s'agit de créer un parc mondial d'objets à louer sans opérateur de plate-forme.

Quelle est finalement la différence entre un actif immatériel et une richesse ?

Pour prendre une comparaison, le désert saoudien n'avait aucune valeur au début du 20ème siècle et le naphte était une huile d'éclairage de mauvaise qualité. Cet actif s'est valorisé instantanément lorsque le business model de son exploitation a été connu en 1930, puis lorsque l'on a mesuré les réserves du sous-sol. Le capitalisme s'est développé sur l'idée qu'un actif ne vaut rien tant qu'il n'est pas associé à business model profitable.

On a le sentiment que le numérique décompose le mouvement. L'émergence des crypto-monnaies valorise une richesse intermédiaire, entre actif immatériel et richesse marchande : d'abord on découvre des gisements de pétrole, exprimés en barils, richesse non marchande avant de savoir combien va coûter leur extraction et leur transport. Ensuite on découvre le business model complet jusqu'à la création de profit : les barils deviennent convertibles en dollars.

Pour filer la métaphore, l'actif immatériel se mesurerait en km2, la richesse non marchande en crypto-monnaies et la richesse marchande en dollars. En revanche, les réserves en baril ne seraient pas dans un territoire, mais plutôt dans une zone franche.

Certaines caractéristiques des richesses du numérique reviennent souvent :

  • valeur partagée plutôt que valeur captée par une seule entreprise
  • co-propriété massive plutôt que bien commun
  • richesse non marchande (pas de prix) mais mesurable

Caractéristiques qui sont typiques pour les projets open source, pour les projets pour lesquels le business plan n'est pas stabilisé, pour les applications partagées (APIs, DAOs) ou les objets connectés partagés.


Vitalik Buterin : "Les ICO sont intéressantes, car elles permettent de facilement financer des projets open source, ce qui n’est habituellement pas évident"[230].

Le bilan comptable donne une image du patrimoine de l'entreprise en attirant l'oeil sur les prix. L'approche par les actifs immatériels s'attache davantage à détailler les ressources disponibles au regard du business model de l'entreprise. L'approche par les richesses non-marchandes s'ouvre à une multiplicité de business models.

Propriété et valeur du capital client

Si le business model est extérieur à l'entreprise, à qui appartiennent les nouvelles richesses ?

Si on reprend l'exemple du désert saoudien, le business model de l'extraction a été apporté par les américains, mais le sous-sol est resté saoudien, assorti d'une concession d'exploitation pour partager les richesses. C'est cette notion de partage qu'il faut avoir maintenant à l'esprit.

Selon l'Observatoire de l'Immatériel "le Capital client est un actif immatériel clé de l’entreprise puisqu’il apporte le chiffre d’affaires dont résulte la rentabilité. Pourtant, les entreprises connaissent encore assez mal leur capital client. (...) Dans toutes les entreprises, la fidélité, la solvabilité, la rentabilité, la satisfaction des clients devraient figurer sur le tableau de bord du directeur commercial."[231]

Sous entendu l'actif capital client appartient à l'entreprise. Pourtant, les nouveaux modèles du numérique remettent en cause cette vision. Prenons l'exemple des taxis. On peut sans doute dire qu'un taxi indépendant dans une petite ville possède son capital client, puisque les clients sont récurrents. Dans le modèle de la centrale de taxis comme G7, le capital client est attaché à la marque[232]. Le client peut être fidèle à G7, mais pas à un chauffeur en particulier. Dans le modèle Uber, le chauffeur détient une part du capital client, puisque son activité dépend de sa note. Mais le client détient peut-être aussi une part du capital puisqu'il est lui-même noté.

Le capital client est-il une co-propriété entre Uber, les chauffeurs et un peu aussi les clients ?

Oui, même au delà. Depuis deux ans on voit apparaître des nouveaux modèles décentralisés. LaZooz ou ArcadeCity, par exemple, sont des DAO, c'est-à-dire des plate-formes sans opérateur de plateforme. Toute l'architecture technique d' Uber est transférée dans une blockchain en open source, c'est-à-dire qu'elle appartient à tout le monde et à personne. C'est le système Uber sans la société Uber. Ce n'est pas un système bénévole, puisque les échanges économiques se font avec des crypto-monnaies. Donc le capital client ne s'est pas évaporé. A qui appartient-il, puisqu'il n'y a plus d'opérateur ? C'est là qu'il faut regarder de plus près les nouveaux modèles. Le mouvement en cours de la blockchainisation et des crypto-monnaies suggère que le capital client devient un grand capital de satisfaction de toutes les parties prenantes de l'entreprise - client, fournisseur, développeur, investisseur - auquel se résume d'ailleurs quasiment tout le capital total de l'entreprise tokenisée.

A la question : à qui appartient le capital client ? On est tenté de répondre que "c'est une propriété décentralisée qui appartient à toute personne qui détient de la crypto-monnaie". Combien vaut le capital-client ? Le montant de la masse de la crypto-monnaie.

Quelle est la différence entre la crypto-monnaie d'une entreprise décentralisée et une action d'une entreprise normale ?

Dans les deux cas, il s'agit d'un titre qui représente la promesse d'une valeur économique. Mais la différence fondamentale, c'est que la crypto-monnaie est à la fois un actif financier pour l'investisseur et la valeur d'échange du service rendu par l'entreprise. Pour simplifier, c'est comme si l'action d'une entreprise était la monnaie des produits de l'entreprise. Sa valeur ressemblerait davantage à la qualité réelle des services de l'entreprise et moins à la loi des marchés boursiers.

Pour résumer, il faut penser les richesses du numérique :

  • comme des ressources déjà orientées par de nouveaux business models
  • comme des richesses mesurables et décentralisées, à partager entre plusieurs parties prenantes

Les grandes étapes de cette évolution :

  • biens publics, biens communs : wikipedia, Android, Linux
  • actif communautaire ubérisé : plate-formes, Uber, AirBnB, Netflix = captation, sur-traitance
  • DAO : tokenisation de la richesse numérique et distribution dans les mains des parties prenantes

Au même titre que la valeur immatérielle est prépondérante dans le patrimoine des entreprises, on peut penser que la co-propriété de richesses non marchandes va représenter une part prépondérante de la valeur des entreprises.

le pilotage des actifs immatériels

Si vous achetez un système informatique inopérant, il sera enregistré en comptabilité pour sa valeur d’achat. Si ce dernier crée de la valeur, il sera enregistré en comptabilité pour le même montant ! Mais dans ce deuxième cas vous aurez enrichi votre actif immatériel “Système d’information”. Gérer l’entreprise par le pilotage de ses actifs immatériels est donc complémentaire à l’administration financière de celle-ci. Cela permet de suivre la création de valeur et de performance globale de l’entreprise, au-delà de sa simple performance financière. Chaque entreprise doit trouver, en fonction de sa phase de développement, les indicateurs les plus performants. Il n’y a pas de réponse académique prédéterminée[233].


Evaluation des actifs immatériels

Normes

Le contexte d'exploitation, et donc l'usage d'un actif immatériel, peut être pris en considération pour la valorisation comptable de celui-ci.

Un des apports essentiel de la norme ISO 10668 figure dans son paragraphe 3.6 qui pose que « pour la réalisation de l’évaluation monétaire d’une marque, les paramètres financiers, mercatiques (marketing) et juridiques doivent être pris en compte simultanément, lesdits paramètres faisant partie intégrante de l’évaluation globale[234].

Capacité de capter une production sociale

Pour Yann Moulier Boutang, à l'instar de l'activité de pollinisation des abeilles, l'activité de "réseautage" social, y compris hors de l'entreprise, devient l'un des principaux vecteurs de création de valeur. En fait, dans ce nouveau capitalisme, la valeur d'une entreprise se détermine avant tout hors de ses murs : son potentiel innovant, son organisation, son capital intellectuel et humain débordent de toutes parts. Le capital immatériel d'une entreprise y est moins le résultat de ses investissements que celui d'une productivité sociale qu'elle ne ferait que capter. Dans ce cadre, les entreprises qui réussiraient le mieux sont celles qui insèrent leurs productions dans des valeurs de biens collectifs et qui stimulent l'interactivité avec leurs parties prenantes[235]

la transformation des actifs immatériels par le modèle économique

Comme ils représentent les 2/3 de la valeur de l’entreprise, cela vaut la peine de s’y pencher. Si l’on veut poursuivre la métaphore, il faut liquéfier puis solidifier ces actifs pour assurer leur pérennité. Autrement dit, il faut s’assurer que les actifs immatériels ne se dégradent pas (évaporation) et qu’ils constituent un vrai effet de levier pour la création de valeur dans l’entreprise (par la création de cash et/ou la génération d’actifs tangibles)[236].

Fin de cycle pour le capitalisme

Economie du partage ou hypercapitalisme ?

Hypercapitalisme

Le modèle de plate-forme est au cœur de l'ère Google

Google doit son succès à son modèle de plate-forme : Google docs permet à des collaborateurs de travailler sur un document partagé. Youtube et Picasa fournissent des ressources pour partager videos et photos. Adsense permet de monétiser l'audience d'un site web. De même pour Facebook, Amazon, Flickr, SalesForce, Paypal, etc[237]. En soi le concept de plate-forme n'est pas nouveau, puisqu'il n'est qu'une forme moderne des marchés bifaces : un magazine organise une transaction tacite entre deux clients, l'annonceur et le lecteur. Une carte de crédit s'adresse à un commerçant et un consommateur. Une agence immobilière met en relation un vendeur et un acheteur[238]. La force d'une plate-forme est de multiplier les effets d'externalités, c'est-à-dire que le développement de chaque face est bénéfique à l'autre face. Dès lors, l'avantage concurrentiel augmente avec la taille de la plate-forme jusqu'à créer un monopole de fait pour le leader d'un segment de marché.


Les plateformes accentuent le déséquilibre des filières au profit des distributeurs

Comme le souligne Jaron Lanier dans Who Owns The Future?, le développement d’internet entraîne un déplacement de la valeur créée du producteur et de l’intermédiaire vers l’agrégateur ou distributeur final, dont la rémunération est en grande partie liée aux volumes importants d’information collectée et traitée dans le cours des activités des utilisateurs. Une telle analyse se vérifie dans l’industrie culturelle, mais également dans des secteurs plus traditionnels. Ainsi, l’essor de sites tels qu’Expedia a profondément transformé le secteur du tourisme, en créant un déplacement de la valeur créée. Dans le schéma traditionnel, l’économie du tourisme de masse était dominée par des tour-opérateurs intégrés. Ceux-ci sont souvent directement propriétaires d’une partie des actifs commercialisés (chaînes hôtelières, flottes aériennes et bateaux de croisières, comme c’était le cas du leader mondial du secteur, l’allemand TUI). L’activité cœur des tour-opérateurs restait cependant d’acheter des volumes importants de prestations de transport et touristiques, de les assembler et de les commercialiser sous la forme de « package » – en bénéficiant au passage d’une baisse des prix en échange d’une garantie de remplissage pour les opérateurs (compagnies aériennes, hôtels, réceptifs…). Outre le prix, le package garantit pour le touriste la qualité du service acheté, dans un secteur où l’accès à l’information est rendu complexe par l’éloignement géographique, la barrière de la langue ou la mauvaise qualité des classements « officiels».

Le modèle des sites de réservation en ligne est différent. Expedia met à disposition l’information à travers un système de notation par les utilisateurs sur la qualité de la prestation. Le service est « gratuit» pour l’utilisateur : les coûts sont en réalités portés par les «producteurs» sur la base des transactions réalisées, mais également par les recettes liées à l’exploitation des quantités importantes de données récoltées par le site (habitudes des touristes). Le service offre ensuite à ses clients la possibilité de construire intégralement leur produit touristique («dynamic packaging ») en faisant disparaître une grande part des coûts d’intermédiation et en accroissant le niveau de concurrence entre acteurs (via la transparence des prix). Ainsi, l’activité de packaging et de commercialisation traditionnelle n’est plus pertinente que pour les offres positionnées haut de gamme. Enfin, à la différence des tour-opérateurs traditionnels, les sites tels qu’Expedia ne prennent pas part au risque d’exploitation (...) Le développement de la distribution sur internet implique une recomposition des chaînes de valeur pour l’ensemble des secteurs des services, y compris les plus traditionnels. Au passage, la valeur créée par la récolte de quantités importantes d’information n’y est pas monétisée, au-delà de l’accès à des services « gratuits», ainsi qu’à la baisse des coûts liés à la désintermédiation, pour le consommateur. S’exerce ainsi une double pression sur le producteur, en termes de transfert de valeur vers l’agrégateur sur internet, et en termes d’accroissement de la concurrence avec d’autres producteurs. [239].


Les plateformes de données monétisent les contributions à leur unique profit

Lorsque le marché des plate-formes est mondial, ce qui est le cas des plate-formes de données dont Google est emblématique, il conduit à des monopoles mondiaux. Dès lors, leur dérive naturelle est de monétiser les productions à leur unique profit.

Côté consommateur, l'expression If you are not paying for it, you are the product est devenue classique. Côté producteur, le crowdsourcing est souvent dénoncé comme une nouvelle forme d'exploitation de masse[240] et le respect des droits de propriété intellectuelle des créateurs est un sujet de conflit majeur. Des voix s’élèvent contre certains « Captchas » (« prouvez que vous êtes un humain ») conçus pour faire réaliser des tris de photos par des internautes à leur insu [241]. Chaque “like” que nous déposons sur Facebook mesure notre participation, notre performance, et construit une réputation et un capital social. Un commentaire sur Amazon, un clic sur Google fabriquent de la valeur. Les plateformes tirent profit de nos relations humaines, de nos affects, de nos discussions et commentaires [242]. De manière indirecte, les contributions sont systématiquement récupérées puis monétisées au seul profit des plate-formes. Les traductions soi-disant automatiques sur Internet sont en fait des collages de traductions de phrases similaires faites auparavant par de véritables traducteurs[243]. Les banques de photos à 15 cents récupèrent celles dont les droits ont été abandonnés par des amateurs qui signent – comme tout le monde - les conditions générales sans les lire.

L’ampleur du travail gratuit de millions de contributeurs est telle que leur bonne volonté désintéressée provoque ainsi – indirectement - leur propre chômage[244]. Le gouvernement français lui-même constate que la délocalisation des bénéfices ainsi générés « porte préjudice à tous les secteurs de l’économie et que l’urgence d’instaurer de nouvelles règles constitue non seulement un enjeu de recettes fiscales pour l’Union mais également un enjeu de souveraineté »[245].

Les plateformes collaboratives exacerbent la compétition

Une pétition a été adressée au gouvernement français contre certaines plate-formes de crowdsourcing. Cette pétition est signée par 7000 graphistes, webdesigners, directeurs artistiques, développeurs, ergonomes et autres illustrateurs[246]. Ils dénoncent les plate-formes qui reposent sur l’industrialisation du travail gratuit, en dehors des règles de l’appel d’offre, du concours ou du bénévolat. Ils emboîtent ainsi le pas à la campagne NO!SPEC.com, qui exhorte les designers à ne pas succomber aux sirènes des plate-formes comme crowdspring ou 99designs.

Autre forme de mécontentement : la levée de boucliers qui a suivi le rachat du journal 2.0 Huffington Post par AOL pour 315 millions de dollars.

Les contributeurs d’articles de presse se mettent en « grève », scandalisés de voir leur contribution gracieuse monétisée de manière imprévue[247]. Un éditorialiste du Los Angeles Times s’étrangle : « AOL et le Huffington Post rejouent les pires abus du capitalisme industriel de l’ancienne économie : ateliers de misère, augmentation des cadences et travail à la pièce »[248].

Les contributeurs bénévoles de Wikipedia s'insurgent contre les agences spécialisées dans l'édition d'articles favorables à certaines entreprises. Plus de 12 000 clients auraient fait appel aux services de Wiki-PR, selon The Daily Dot. Parmi eux, le voyagiste en ligne Priceline ou le géant américain des médias Viacom. Des clients interrogés indiquent avoir payé entre 500 et 1 000 dollars pour la rédaction d'un article, puis un forfait de 50 dollars mensuels pour la gestion de la page. [249]

Les ouvriers de Mechanical Turk protestent et revendiquent leur droit à ne pas être considérés comme des algorithmes, se plaignent de l’absence de salaire minimum ou de recours lorsque leurs travaux sont rejetés[250].

In summary, crowdsourcing, a popular form of collective intelligence, has close connections to artificial intelligence. An increasing number of machine-learning applications are trained with data produced by crowd annotation. Furthermore, many AI methods can be used to improve crowdsourcing. In particular, expectation maximization may be used to aggregate the results of multiple imprecise workers, learning worker accuracies at the same time. Partially-observable Markov decision processes (POMDPs) and related decision-theoretic approaches may be used to optimize the types and number of tasks given to workers. Since these AI methods are a very active area of research, we expect to see even more powerful methods in the coming years[251].

La structuration dialogique et participative du réseau n’assure pas nécessairement que la connexion de chacun à tous produise une action orientée par des projets et des valeurs communes, en accord avec le socle de nos droits fondamentaux. La perspective d’une société de contrôle, atomisée et en proie à la concurrence exacerbée de tous avec tous n’est pas à exclure. La seule invocation des nouveaux pouvoirs d’une multitude agissante, tirant sa capacité d’action de la circulation de l’information ne suffira pas à faire barrage à cette perspective[252].

Au final, avec les plateformes, l'économie numérique devient une machine à concentrer les richesses dans quelques points du globe [253].

Comme les plate-formes de données déstabilisent et dominent souvent les secteurs qu'elles investissent (musique, tourisme), qu'elles récupèrent les biens communs, qu'elles entretiennent une pression à la baisse sur les prix, qu'elles créent peu d'emplois et qu'elles transfèrent leurs bénéfices vers les paradis fiscaux[254], certains n'hésitent plus à parler de prédation aux dépends des autres acteurs économiques.

Bruno Bonnell : il faut monétiser les données personnelles

Par quel étrange renoncement sommes-nous devenus de la chair à algorithmes ? Tous les jours, nous abandonnons une partie de nous-mêmes à des plates-formes numériques, appâtés par l’illusion de la gratuité. Nos données personnelles les plus intimes, concernant nos goûts, nos déplacements ou nos amours, sont passées à la moulinette, collectées, agrégées, souvent revendues, et ultimement utilisées pour orienter et contrôler nos comportements. En cliquant sur des conditions d’utilisation léonines, que nous n’avons pas le temps ni la capacité de lire, encore moins de comprendre ou de négocier, nous courons vers notre servitude volontaire. Les géants du Web bâtissent leur fortune sur les dépouilles de notre identité. Parce qu’il est urgent de rétablir nos valeurs les plus fondamentales, nous plaidons pour instaurer une patrimonialité des données personnelles. En dépit des idées reçues, le droit de propriété a toujours été une conquête sociale permettant de rééquilibrer les rapports de pouvoir au profit de l’individu et de ses libertés. Du cadastre aux brevets, la propriété garantit, selon l’adage romain, l’usus, l’abusus et le fructus, nous rendant pleinement maîtres de nous-mêmes et de nos actions, protégés de l’arbitraire des puissants. Voilà pourquoi Proudhon pouvait écrire dans la Théorie de la propriété, en revenant sur ses propos de jeunesse, que « la propriété est la plus grande force révolutionnaire qui existe ». Après la terre et les idées, le temps est venu d’étendre cette force révolutionnaire à nos data.

Concevoir des contrats intelligents et adaptés

Cette simple adjonction juridique, qui n’existe aujourd’hui ni en Europe ni aux Etats-Unis, suffirait à bouleverser l’écosystème du numérique. Chacun pourrait choisir en toute autonomie l’usage qu’il souhaite faire de ses données, selon leur nature et leur finalité. On pourrait ainsi accéder à certains services sans partager ses propres données, mais en payant le prix de cette confidentialité et donc en devenant véritablement client. A l’inverse, dans la mesure où l’on accepte de céder ses données, il faudra que les plates-formes nous rémunèrent, réintégrant ainsi le producteur primaire de données dans la chaîne de valeur. Des flux continus de transactions, plus ou moins importants en fonction des catégories de data, en débit comme en crédit selon nos préférences contractuelles, viendraient alimenter nos comptes personnels de données, avec possiblement une blockchain [technique qui consiste à sécuriser une transaction en la faisant valider par une multitude d’ordinateurs, de manière chiffrée] pour garantir la validité des transactions. On peut imaginer que de puissants intermédiaires se constituent, comme les sociétés de gestion collective pour les droits d’auteur, afin de négocier conditions et tarifs au nom de millions de citoyens numériques, et de concevoir des contrats intelligents adaptés à chacun d’entre eux.

Nos données sont de facto devenues objets de commerce

Il ne s’agit pas de marchandiser ses données, selon le terme convenu pour inhiber tout débat, mais de rendre aux citoyens une valeur aujourd’hui capturée par les Gafam – Google, Apple, Facebook, Amazon et Microsoft – et leurs milliers de disciples. En quoi est-il contraire à la dignité humaine de doter les producteurs de data d’un capital qui leur revient, et qui leur permettra d’effectuer leurs choix de manière d’autant plus indépendante ? Dénoncer la monétisation, c’est nier une réalité économique, puisque nos données sont de facto devenues objets de commerce (au point de représenter bientôt 8 % du PIB européen !). Mais c’est aussi, politiquement, se faire le complice objectif des oligopoles, comme l’Eglise condamnait le prêt à intérêt pour empêcher la naissance d’une bourgeoisie marchande, menaçant son pouvoir.

Monétisation sauvage des données

D’autant que la logique de la patrimonialité n’entre nullement en contradiction avec celle des droits fondamentaux, portée au niveau européen par le règlement général sur la protection des données (RGPD). Etablir des droits inaliénables permet d’autant mieux de concevoir un marché qui les respecte, comme c’est classiquement le cas dans nos démocraties. De plus, certaines conquêtes du RGPD, telles que l’exigence de portabilité, constituent des étapes indispensables vers un droit de propriété.

Il est urgent de reprendre la maîtrise de nos data et donc de nous-mêmes

Qu’on le veuille ou non, cette discussion a commencé. Des start-up se créent chaque semaine pour monétiser nos données de manière sauvage. Jaron Lanier, l’un des geeks les plus charismatiques de la Silicon Valley, porte le sujet depuis plusieurs années aux Etats-Unis, au nom même des valeurs libertaires qui faisaient la vigueur de l’Internet des années 1980, décentralisé et idéaliste. Son dernier papier, cosigné entre autres avec des universitaires de Stanford, a relancé le débat outre-Atlantique. En France, le député Bruno Bonnell (LRM) travaille sur une proposition de loi. L’Europe s’honorerait de prendre les devants et d’imposer sa soft law [règles de droit non obligatoires] face à une Amérique à genoux devant les intérêts du big business et à une Chine peu soucieuse de l’individu. Alors qu’on nous annonce, à l’image de l’historien Yuval Noah Harari, un « dataisme » dissolvant l’humain dans le réseau et rendant caduc le libre arbitre, il est urgent de reprendre la maîtrise de nos data et donc de nous-mêmes. Le droit de propriété est l’un des outils essentiels de cet humanisme 2.0[255]

L'utilité apporte des solutions pour limiter le risque d'hyper-prédation

Les plateformes apportent des pratiques utiles

Avec leur succès, les plate-formes de données ont cependant apporté une diversification des applications et un enrichissement de la qualité des outils en quelques années. Créer, exprimer, diffuser ou partager des informations est devenu un usage courant pour les internautes. Transposé dans le monde professionnel, cet usage a fait émerger de nouvelles pratiques managériales : l'animation de communautés sans hiérarchie, la gestion de coopérations synchrones ou différées, le dosage de la confiance, de la réputation et de la reconnaissance, l'équilibre entre objectif, règles et initiative[256]. Dès lors, ces pratiques autour des réseaux sociaux d'entreprise, de la gestion des connaissances ou de l'innovation ouverte sont adoptées par ce qu'on appelle souvent les "entreprises 2.0".

Slack est un intégrateur de solutions communautaires pour l'entreprise. Ainsi, une communauté peut s'équiper de manière intégrée de dizaines d'applications collaboratives comme Dropbox, Google+ Hangouts, MailChimp, IFTTT, Desk.com ou Twitter. Beaucoup s'adressent plus particulièrement aux développeurs. Des connecteurs sont ainsi disponibles pour Visual Studio Online et bien d'autres outils comme GitHub, JIRA, Nagios, Code Climate, Skype[257]. Les entreprises de logiciels cherchent à automatiser les fonctions qui étaient manuelles afin d’augmenter la productivité des employés. Slack représente un gros progrès par ses “bots”, ces algorithmes qui automatisent les tâches subalternes qui sont effectuées par les humains. Slack propose des robots qui compilent les commandes de repas, les rapports d’avancement des projets ou génèrent des analyses sur demande[258]
Accenture développe le crowdsourcing interne avec “Just Do It”, qui a pour objectif d'initier des brainstormings internes pour faciliter l'efficacité des processus d'innovation et d'opérations avec le support d'une combinaison de canaux (intranet, email et rendez-vous présentiels).
Starbucks développe le crowdsourcing communautaire avec My Starbucks Idea. il s'agit d'une communauté d'individus et d'organisations ayant des expertises identifiées. La plate-forme encourage le partage de connaissance et les interactions en les rendant ludiques avec des notes, des trophées ou des badges. De plus, les contributeurs les plus actifs reçoivent le privilège de contribuer à animer la communauté.
Freelancer développe le crowdsourcing facilité. Le client doit décrire l'appel à propositions détaillé et le budget prévu pour une mission donnée, par exemple la réalisation d'un site web, sélectionner un freelance parmi les participants et évaluer ses performances. Lorsque la mission est postée sur la plate-forme, les freelances préenregistrés peuvent participer en indiquant leurs références. La relation de collaboration se fait directement entre le client et le freelance choisi.
Crowdspring développe le crowdsourcing arbitré. Les rôles des client et freelance est le même que dans le crowdsourcing facilité. En revanche, l'arbitrage se fait ici lorsque tous les candidats ont effectué le travail demandé, par exemple la réalisation d'un logo. Le client choisit alors la prestation gagnante qui, seule, donnera lieu à un règlement.
Crowdflower développe le crowdsourcing agrégé. Le client doit segmenter son projet en un grand nombre de micro-missions, simples à exécuter. Il doit ensuite agréger les micro-travaux pour finaliser son projet. Cette approche a permis à Unilever d'effectuer rapidement le test d'un projet de campagne publicitaire video pour une nouvelle gamme de produits[259].

Des mécanismes de rétribution apparaissent

Lego développe le crowdsourcing public, en proposant aux passionnés de partager leurs propres constructions sur la plate-forme spécialisée CUUSOO. Ces constructions sont débattues et notées par la communauté. Si le modèle est finalement commercialisé, son inventeur touche des redevances de 1% sur les ventes[260].
Quirky et GiffGaff développent le crowdstorming. Ces startups mesurent les participations et récompensent les contributions. La reconnaissance publique et la rémunération pécuniaire sont fréquentes. La communauté remplace largement la traditionnelle organisation de recherche et développement. La foule ne les aide pas seulement à produire des biens et des services mais aussi à travailler mieux avec la communauté, ce qui inclut aussi la rémunération et le recrutement[261].
IBM calcule les rémunérations pour le crowdsourcing à partir de multiples critères : difficulté, durée et récence de la question, niveau d'expertise requis, disponibilité des experts et qualité des réponses aux questions similaires
  • [14] incentive program 112 is capable of determining factors related to the question such as the difficulty level, the life of the question, the recency of the question, a group of experts for the question, the skill level and availability of the group of experts, and the quality level previous similarly answered questions. Further, incentive program 112 is capable of determining an incentive based on one or more of the aforementioned factors and other factors related to the question. In the example embodiment, an incentive is a payment, reward, increased user rating, or other type of compensation that can be awarded to a user/expert for answering a question.
  • [15] an incentive is a payment (monetary or good/item), increased user rating, increased peer rating/popularity score, or other form of score/rating that may be associated with an expert[262]


IBM prédit l'efficience de la coopération (outcome) d'un travail collectif (objectifs de la réunion, non-accident de la circulation) à partir de mesures sur le travail du groupe : interactions entre les membres et capteurs physiologiques de l'attention (expression faciale, conductance de la peau). Les indicateurs intermédiaires sont les graphes d'interaction et l'index de coopération
  • [05] model of focus of attention of each member of a group of individuals engaged in an activity requiring cooperation; generating an interaction graph showing, over time, which members have interacted and over what linkages the interactions have occurred; measuring at least one physiological parameter associated with at least one of the members; determining a cooperation index based on the model of focus of attention, the interaction graph, and the at least one physiological parameter of the at least one of the members; comparing the determined value of total cooperation index to historical data to predict a given outcome for the group of individuals engaged in the activity
  • [48] The goal was to produce meetings where individuals were grouped together and scored
  • [55] a group of vehicles' heading, drivers' and/or pilots' focus of attention, vehicle-to-vehicle interaction graph topology, and physiological measures of drivers (such as facial expression, skin conductance on steering wheel, and in-car vocalizations), are all used to characterize vehicle-to-vehicle cooperation
  • [57] inputs in an instrumented meeting room or from a set of vehicles on a road, waterway, or in the air, and transform them into a total cooperation index (CI). Based on historical data, CI is then used to predict certain outcomes of the group, such as meeting effectiveness, likelihood of meeting goals within an allotted time, or an accident on a highway [263]


Thomson motive la propagation d'informations dans un réseau social à partir de la mesure de la première notification
  • [14] A useful content here means a piece of information that arrived earliest at the receiving node, among all copies of this piece of information propagated in the network.
  • [16] by this incentive mechanism, a user would transmit a content to his neighbors, i.e. followers or friends, even if said content does not particularly interest himself
  • [42] As a user may receive a same content more than one time, for example, from different contacts of said user, he considers only the earliest received content as a useful content. The copies of this useful content are not interesting for the user.
  • [48] rewarding module 10 for rewarding to the second relaying node j a score each time that the node k receives a useful content from the node s through the path 6 [264]


Xerox mesure la qualité de reconnaissance d'image à partir du prix, de la récurrence et de la durée de vie de la tâche, du pays, de la disponibilité et des compétences du travailleur
  • the one or more input parameters may correspond to, but are not limited to, an incentive associated with the tasks, a country in which the tasks are attempted, a lifetime of the tasks, a time available to complete the tasks, days of a week on which the tasks are attempted, time of the days when tasks are attempted, recurrence of the tasks, and difficulty levels of the tasks. Further, in an embodiment, the input parameters may include one or more parameters that indicate behavioral characteristics associated with the crowdworker. For example, the behavioral characteristics may include skill set associated with crowdworkers, availability of the crowdworkers to perform to the tasks, motivation of the crowdworkers, intentions of the crowdworkers in performing the tasks, and so forth.
  • The incentive associated with the tasks may correspond to a monetary reward (e.g., cash) paid for the crowdsourcing tasks. In an embodiment, the incentive associated with the tasks may also correspond to other forms of rewards, such as, but not limited to, gift cards, gift coupons, lottery tickets, etc. Further, in an embodiment, the incentive associated with the tasks may correspond to strengthening the relationship between the crowdworkers and the requesters, or the prospects of better rewards on completion of the tasks[265]

Le modèle du coopérativisme de plate-forme émerge

La blockchain permet d'organiser la collaboration de plusieurs personnes sans organisateur central. Contrairement au crowdsourcing, le coopérativisme est décentralisé. Les contributeurs sont aussi les actionnaires de la plate-forme[266].

Une typologie de ses applications est proposée par la CNIL[267]:

Vérification de document ou de propriété intellectuelle

(sealX and geniusX, blocksign , Factom) ;

Contrôle des chaines d’approvisionnement

(EverLedger, Provenance, Skuchain)

Initiatives d’économie pair à pair

Slock.it , Airlock.me, Lazooz, WeiFund

Système de gouvernance

Colony, Freecoin , Boardroom, BitNation

Colony fonctionne avec plusieurs outils : Google Doc, Twitter, Dropbox, Mailchimp,... You can assign tokens to tasks to incentivize (and track) the contributions of your collaboration network. (The “budget” for a task can be set to zero if necessary.) Once a task has been “funded”, you can assign it to someone in your Colony . Once the assignee has completed the task, they can submit their work for review. If it’s good, you can Accept and Pay for the task. The tokens will be transferred to the assignee and will be tracked on their work profile and the Colony transaction record[268].

Distribution de contenus dématérialisés

Alexandria, UjoMusic, Blockai

Exemples

Akasha est une application décentralisée qui met en oeuvre Ethereum et l' Inter-Planetary File System. Il s'agit d'un réseau mondial d'information immunisé par conception contre la censure. L'émission d'un token était envisagée lors de la constitution.
OpenBazaar, comme Amazon, est une galerie marchande en ligne. Un tiers de confiance n'est sollicité qu'en cas de désaccord entre acheteur et vendeur.
Lazooz et ArcadeCity, comme Uber, organisent le co-voiturage. Les chauffeurs sont en revanche rémunérés par des tokens pour les intéresser au succès de la plate-forme.
Synereo, comme Facebook, dispose d’un fil d’actualité, d’une messagerie, d’une liste d’amis, de groupes. Chaque fois que quelqu’un partage vos contenus ou s’y intéresse (clique, lit, regarde…), vous gagnez des Reos. Ainsi le nombre de Reos que vous avez représente la pertinence des contenus que vous publiez. Une personne lointaine de votre réseau, avec laquelle vous interagissez peu, vous rapportera plus de Reos qu’un ami à qui vous parlez tous les jours, et qui s’intéresse probablement d’abord à vous avant de s’intéresser au contenu de vos publications. Qu’un parfait inconnu s’intéresse à vos publications est donc davantage valorisé. Lorsque quelqu’un choisit de promouvoir votre contenu, de le partager, vous êtes également récompensés par des AMPs, la cryptomonnaie de Synereo[269]. Qrator, issu de Synereo, veut concurrencer Youtube et, au-delà, tous les acteurs de l'attention centralisés.


annuaire des dapps : https://www.stateofthedapps.com/

Le coopérativisme s'étend de l'organisation à la production

Rétributions du jeu

Prospectors is creating a Massive Multiplayer Online Real Time Economic Strategy, which would combine all the fun of gaming online in an immersive environment but also have a game digital currency based on the Blockchain technology. They are creating a game which has an economic model, unlike other games. Prospectors will give the players the possibility of earning real money for the time that they spend on the game[270].

Rétributions des transactions

[Sur des places de marché]. Aiming to enable positive social change through the adoption of the blockchain technology, RibbitRewards is a patent pending blockchain based customer reward program designed to incentivize economic activity by rewarding both buyers and sellers with a unit of value distributed from the blockchain’s decentralized ledger[271].


Rétributions du marketing

“The other problem with equity is it incentivizes the holders of that equity to hold as much of it as possible to concentrate the equity because it represents a perpetual right to profits.” Tokens, he said, invert those incentives. “A token has financial value when the network or service it represents is being used an increasing amount, so you’re not incentivized to get a company to increase profits but rather incentivized to get as many as people as possible to use the service”.[272]

Rétributions grâce aux votes

Backfeed liste des projets que les contributeurs sont libres d’intégrer ou non. Le travail de chaque collaborateur sera ensuite répertorié par le biais d’un questionnaire envoyé directement au patron après validation de tous les autres collaborateurs. Ainsi, suivant le mode de fonctionnement de la blockchain, chaque collaborateur approuve la création de valeur et le travail des autres, donnant donc de la valeur à leur libre collaboration. « Notre croyance est que la reconnaissance libère énormément d’énergie. » affiche le site de Backfeed. Ainsi, il s’agit de valoriser les initiatives, le travail collaboratif et la conscience de groupe tout en répartissant de manière juste les fruits de cette collaboration. Introduire les valeurs de la méritocratie dans un écosystème collaboratif permet ainsi de construire une intelligence collective qui encourage et valorise l’effort individuel. Car c’est dans la somme des talents uniques de chacune de ses parties que réside le génie collectif du tout[273].

AKASHA lets users publish, share and vote for entries, much like Medium and other modern publishing platforms. The difference, though, is that user content is published over Ethereum's decentralized network rather than on the company's servers. The votes are bundled with Ethereum microtransactions, so users can earn some Ethereum if their content is good and other users vote for it[274].

Whale : Whales have the power to send upvotes to other users. Unlike other social networks where upvotes or “karma” have no inherent value, in WhaleCoin, the blockchain will pay users a portion of the mined block reward based on how many upvotes a user received from the Whales(...)while Steemit is a novel and groundbreaking project, a flaw in the user experience is that it solicits everyone to post whatever they want, but mostly rewards people only if Whales happen to send an upvote. This leaves many users frustrated when they put effort into high quality posts which may not fit the tastes of Whales, or perhaps happens to get overlooked by Whales on that particular day. In Steemit, the top 20 Whales may be so powerful that it actually hinders the value of the community.[275].

Eulercoin : Content creators earn EulerCoin proportional to the number of likes (aka upvotes) of their education content [276].

Rétributions calculées

Token[277]

La frontière est mince entre un token et une cryptomonnaie ; même s’il est généralement admis que la seconde est émise par le protocole de consensus d’une blockchain publique alors que le premier en est dissocié. Les tokens font beaucoup parler d’eux depuis quelques mois depuis la généralisation de ce que l’on appelle communément des ICO, pour initial coin offerings. Ces ICO sont en pratique des ventes de tokens organisées par les initiateurs d’un projet. A titre d’exemple, un développeur peut envisager d’émettre des tokens :

  • dits applicatifs, ayant pour but d’être utilisé dans une application décentralisée particulière. Exemple : un token spécifique pour un jeu vidéo, comme les NXC émis par Beyond the Void, ou un token permettant de payer de la puissance de calcul comme le RLC de iEx.ec.

de réputation, et permettant donc de mesurer la fiabilité d’un utilisateur (plus l’utilisateur a reçu de tokens, plus il est fiable). Exemple : les tokens REP d’Augur.

  • de vote, le token représentant alors une voix pouvant être utilisée dans un contrat particulier de vote. Exemple : les tokens de The DAO comprenaient un droit de vote.
  • de traçabilité, le token représentant alors un actif réel dont le transfert entre ses propriétaires est matérialisé par un transfert du token. Exemple : Provenance enregistre le suivi de la supply chain des produits dans un token transféré entre les différents acteurs.
  • donnant droit à un dividende, le token est alors habituellement associé à un projet particulier et donne le droit à recueillir des dividendes du projet à intervalle régulier. Exemple : Les tokens The DAO, toujours, donnaient un droit à revenu sur les projets financés. C’est le cas aussi des tokens DGD émis par Digix ou des tokens de TokenCard.
  • représentant des point de fidélité, le token étant fourni à un client d’un service à chaque utilisation, ce token peut ensuite être utilisé en paiement ou selon d’autres modalités. Exemple : les tokens de Plutus sont conçus comme des points de fidélités distribués à chaque transaction.
  • représentant une valeur spécifique, correspondant par exemple à un euro. Un token ETH-EURO, par exemple, pourrait être conçu de telle manière à ce qu’il corresponde toujours à un euro, soit en étant lié à un collatéral, soit en recourant à des mécanismes de marché complexes. C’est le projet développé par StabL / VariabL notamment.
  • de preuve de possession ou de transfert d’un actif matériel, le token étant alors lié d’une façon ou d’une autre au dit actif réel et son transfert vaut transfert de propriété réel (on pense ici aux tokens DGX représentant un gramme d’or dans les coffres de Digix).
  • de ticket d’entrée ; on peut imaginer qu’un token représente un ticket d’entrée à un événement. Même si aucun exemple n’existe encore à ma connaissance ; c’est le projet d’un festival de musique qui se tiendra à Liepzig cet été.
  • représentant un statut. Un token peut également être distribué aux membres d’une organisation ou aux participants à un événement comme preuve de leur statut particulier. Les tokens de DAO1901 représentent l’adhésion à une association. Des tokens uniques DEVCON2 ont également été distribués aux participants.


SlackCoin : Watson sentiment

What if we could examine the communications among our teams, pay incentives for “good” messages, levy fines for “bad” messages, and assess the effect of these payments on team effectiveness? We’d need access to a source of real-time team communications, a private, secure, and easy way to monetize those communications, and a mechanism to measure improvements. Can it be done? (...) For our purpose though, Watson exposes powerful sentiment analysis capabilities through its new AlchemyAPI. We’ll feed our Slack messages through Watson, and based on what Watson thinks, we'll assign a score to each message.(...)We could have also used Microsoft’s Text Analytics API, or one of very many other open language processing tools (including a “Russian Sentiment Analysis” API(...)As smart as Watson seems, its sentiment analysis is only one part of our communications scoring algorithm, and really, only the negative part. To build effective teams, we want to measure not just their sentiment, but their energy (quantity of communications), engagement (distribution of communications), and exploration (engagement with outsiders). For those measures, we’re going to need a social graph database that can store both the directionality and the positive/negative score of our Slack chats. Here, we’ll use OrientDB. We’ll discuss the data schema and how to store and query signed digraphs in Part 4: Can’t We Be Friends. We could have also used Neo4J, a more popular graph database for this project[278]


DAO.casino : usage

DAO.casino. Trusted third party that is needed in a traditional online gambling industry to function is replaced with smart contracts that act as autonomous agents that automatically reward all the key contributors: game developers, referrers and operators of independent platforms necessary for the game discovery, and those that take part in PRNG. The fact that reward system is fully automated and transparent allows to introduce a crowdfunding element into a bankroll of every game (see section 2.1.5) and incentivise community driven security audit. DAO.Casino protocol still requires a fee system, but the distribution of fees is a hard coded reward system for all the participants described further. There is no hidden fees.

DAO.casino is a protocol defining interactions between untrusted participants in the context of online gambling industry. This includes two levels: game level - player’s trust in a particular casino operator in the context of the game (provably fair gambling) and a business model level: i.e. game developer doesn’t have to trust casino operator to get rewarded. In short: all participants that are needed for the system to function don’t have to trust each other in order to cooperate.

Suggested Dao.Casino reward distribution distributes tokens accumulated by game contracts as follows, rewarding all participants equally, however independent platform operators can choose their own reward distribution scheme (i.e. if the platform needs to incentivise more referrals but build their own games)

  • Game Developer - 25%
  • Casino Operator * - 25%
  • Referrer - 25%
  • Bankroll backers - 25%

Quiconque fournit un morceau de logiciel fonctionnel, relatif à un jeu ou à un contrat, reçoit automatiquement des tokens dans son EOA (Externally Owned Account)[279] par DAO.Casino proportionnellement à l'usage de ce logiciel. Les développeurs de jeux indépendants devraient être en mesure de collaborer avec les opérateurs de plate-forme plus facilement, conserver leurs droits de propriété intellectuelle dans le jeu et avoir la possibilité de recevoir des récompenses pour leur travail automatiquement. Un développeur frontal qui est capable de créer un bon jeu n'a pas besoin de développer un contrat intelligent de jeu de jeu, mais d'utiliser des logiciels existants. Dans ce cas, les récompenses du développeur seront divisées automatiquement entre le créateur du contrat et le créateur du jeu[280].

Note: à ce stade, DAO.casino ne dit pas encore comment partager les revenus entre développeurs.

SingularityNet : usage

One thing we realized recently was that introducing our own token could also be a valuable ingredient in the mix, because the different AIs in this DAO may be owned by different people, I mean ultimately they will be owned by themselves, and they want to exchange value along with exchanging data and requests for work. So then having a token that’s customized for the AIs to use to exchange value among each other can be valuable also.(...) Because businesses all over the world now want to use machine learning as a service, and AI as a service, because only a few big tech companies can really afford to hire an army of AI developers themselves. (...) Your AI code sitting in that container can be found by our discovery mechanism because you’ve told our master node that it’s there, and then instead of just having your code in Github for geeks to download and work with, you put it online and wrap it in the API in a way that anyone can use it who finds it, by the SingularityNet discovery mechanism. Then you can get compensated in our token for people who have used your code and used its services[281].

AI researchers or developers would be able to make their AI products available to SingularityNET users, which would pay for services with network-specific crypto-tokens[282].

Steem.it

Payments for posts are split between the author (at least 75%) and the curators (up to 25%). The author reward is paid 50% in Steem Power, and 50% in liquid STEEM/SBD[283].

Les limites actuelles des plateformes: la mesure de l'utilité intermédiaire

Si l'on s'en tient aux seuls services et informations, les tâches pouvant potentiellement être externalisées par les entreprises et travailleurs indépendants sont en réalité extrêmement réduites. Seules des tâches très simples et mesurables peuvent l'être, ce qui est le cas des plates-formes comme Amazon Mechanical Turk (traduction de texte, classement d'image, réalisation de sondage, écriture de textes). Le marché peut alors jouer son rôle d'évaluateur de la productivité des travailleurs indépendants. Mais, dès qu'il s'agit de tâches complexes, les donneurs d'ordres sont confrontés à des difficultés de mesurabilité et d'évaluation de la qualité, si bien que le paiement à la tâche s'avère complexe à mettre en œuvre. Ces difficultés augmentent ce que les économistes appellent les coûts de transaction. Autrement dit, l'entreprise comme forme d'organisation collective fondé sur le salariat possède des avantages qui lui sont propres lorsqu'il s'agit de production collective. Lorsque les tâches sont peu mesurables, la seule forme de paiement est le salaire au temps, l'entreprise contrôlant le travail de ses salariés, et donc la qualité des tâches effectuées. L'analyse de l'entreprise fondée sur les compétences spécifiques montre par ailleurs le rôle dé cisif du savoir et des connaissances comme source d'avantage concurrentiel. Chaque salarié génère des externalités de connaissance en direction des autres salariés, et la compétence globale de l'entreprise est, dans ces conditions, supérieure à la somme des compétences individuelles de ses salariés. De plus, la transmission des connaissances n'est pas seulement horizontale, elle est aussi intertemporelle, les salariés les plus anciens transmettant leurs connaissances aux nouveaux.[284].


Les limites du coopérativisme

Ouishare a lancé une expérience avec Backfeed pour mesurer les contributions au collectif afin de mieux récompenser les plus actifs des participants.

L’expérience a été courte et difficile. D’abord parce que l’outil utilisé était nouveau et nécessitait de former les utilisateurs en face à face, ce qui a réduit considérablement le nombre d’expérimentateurs (une dizaine). L’enjeu de l’outil était qu’il permette de mesurer les contributions provenant des différents outils que le collectif utilise. Or, beaucoup de contributions échappent aux outils, notamment parce que beaucoup sont bénévoles. Donner de la visibilité à des contributions bénévoles ou non mesurées par les outils utilisés nécessitait de se poser la question de leur mesure, de leur quantification, de leur évaluation… et donc de la surveillance des contributions. “Et les gens n’aiment pas ça”. La mesure introduite par l’expérimentation n’était pas dans la culture du collectif reconnaît Francesca Pick.

Un outil de ce type nécessitait également de documenter les actions. Comment mesurer le travail de bénévoles qui aident à installer ou démonter un événement et en assurent la logistique opérationnelle par exemple ? “Les outils en ligne sont trop souvent conçus comme s’il n’y avait pas de travail hors ligne”, pointe avec justesse Francesca Pick. Celui qui nettoie le bureau doit-il renseigner dans le système d’information qu’il l’a fait et le temps qu’il y a passé ? A l’inverse, ceux qui participaient en ligne voyaient leurs contributions mesurées automatiquement, sans leur accord explicite.

La réaction à l’évaluation n’est pas la même pour tout le monde. Beaucoup de participants voulaient comprendre comment la valeur était mesurée. Les contributions ne sont souvent qu’une facette de l’organisation qui n’explique pas tout de la manière dont sont prises les décisions. En mesurant les contributions, les gens ont finalement eu encore plus peur de contribuer et d’être jugés. D’autres étaient très réticents voir ont refusé d’évaluer les autres membres du collectif. Sans compter que tout le monde ne voit pas les critères de ces mesures de la même manière. Comment par exemple évaluer un salaire ou une rémunération ? L’auto-évaluation ou l’évaluation par les autres demande enfin du temps et de l’énergie que tout le monde ne peut ou ne veut pas apporter[285]

Un nouveau modèle d'entreprise

La "public benefit corporation" : l'entreprise utile

Une entreprise à bénéfice public n'aura pas uniquement comme objectif d'amasser des bénéfices mais s'attachera à réaliser des buts sociaux, quand une C-Corporation ne s'intéressera qu'au profit. Concrètement, une entreprise à bénéfice public est dotée d'une charte, qu'elle fixe librement, et dans laquelle elle liste ses responsabilités sociales et ses objectifs[286]

Kickstarter

Kickstarter s'est fixé plusieurs objectifs, liés notamment au soutien artistique mais pas seulement. Depuis 2015, Kickstarter a

  • payé un taux d'imposition plus élevé (25 % contre environ 20 % pour les grandes entreprises déclarant un bénéfice),
  • emploie autant d'hommes que de femmes pour ses postes de responsabilité, et même plus de femmes que d'hommes au total (53 %)
  • les dirigeants de Kickstarter perçoivent un salaire cinq fois supérieur aux employés, un ratio bien moins important que la moyenne dans la high tech (95 fois)
  • diversifie l'origine de ses employés. Ce qu'elle commence à accomplir : 100 % de ses stagiaires sont recrutés par une association promouvant la diversité, tandis que près d'un tiers des employés de la start-up ont des origines non-caucasiennes[287].

Charte :

  • Kickstarter cherche à proposer des outils et ressources s'adressant ceux qui souhaitent réaliser un projet créatif, mais aussi pour tisser des liens entre les personnes, sur les thèmes de la créativité et du processus de création.
    • → En 2016, 57 515 nouveaux projets ont été lancés sur Kickstarter par des créateurs indépendants.
    • → 4 391 268 personnes de presque tous les pays du monde ont soutenu les créateurs
    • → 658 053 820 $ pour soutenir toutes sortes de nouvelles idées
  • Kickstarter s'intéresse à la santé de son écosystème et à l'intégrité de ses systèmes.
    • → Examen de 74 575 projets soumis, validation de 59 745 d'entre eux (environ 80 %), avec un temps de réponse moyen de 22 heures
    • → bannissement de 86 968 utilisateurs ayant manqué à nos règles
    • → depuis 2009, les contributeurs ne reçoivent pas les récompenses promises par le créateur dans 9 % des cas
    1. Kickstarter participe aux débats sur les questions qui touchent les artistes et les créateurs au delà de ses quatre murs.

→ séances de lecture sur les thèmes de l'art et la vie politique avec plus de 150 artistes → projets Kickstarter : 283 000 collaborateurs employés à temps partiel pour réaliser des projets créatifs, près de 8 800 nouvelles sociétés et organisations sans but lucratif et 29 600 personnes qui ont trouvé un emploi à temps plein

  1. Les activités de Kickstarter reflètent ses valeurs.
    1. Kickstarter s'engage à ne jamais vendre ses données utilisateur à des tiers et à défendre avec acharnement les données personnelles et la vie privée des personnes qui utilisent ses services, notamment dans ses relations avec les autorités publiques.
    1. Kickstarter s'engage à appliquer des conditions d'utilisation et politiques de confidentialité claires, équitables et transparentes. Kickstarter ne peut tenir compte de toutes les éventualités et s'abstient de prétendre à des droits ou pouvoirs, que ce soit simplement par principe ou dans le seul but d'appliquer une norme.
    1. Kickstarter s'abstient de tout lobbying et de toutes activités de campagne visant à soutenir des politiques publiques, à moins que ces dernières ne soient en alignement avec sa mission et ses valeurs, indépendamment de tout avantage économique pour l'entreprise.
    1. Kickstarter s'engage à ne pas profiter d'une lacune dans la législation fiscale ni à mettre en œuvre de stratégies ésotériques d'évasion fiscale légale. Kickstarter fera preuve de transparence quant à son taux d'imposition et aux nombreux facteurs qui entrent dans le calcul de ses impôts.

→ Le taux d'imposition effectif combiné de Kickstarter pour l'année 2016, impôts fédéraux, étatiques et locaux compris, était de 25 % ; notre taux d'imposition fédéral effectif était de 28,4 %. À titre de comparaison, le rapport 2016 du Government Accountability Office des États-Unis indique que le taux d'imposition effectif des entreprises américaines rentables de taille similaire était de 22 % en moyenne, avec un taux d'imposition fédéral effectif d'environ 14 %.

    1. Kickstarter cherche à limiter son impact environnemental en investissant dans des infrastructures écologiques, en encourageant les modes de transport « verts » et en tenant compte d'aspects environnementaux dans le choix de ses fournisseurs. De plus, Kickstarter s'engage à proposer des recommandations et ressources aux créateurs désireux de prendre des décisions écologiques en matière d'expédition ou d'emballage, ou pour les tâches courantes et inhérentes à l'utilisation de ses services.
  1. Kickstarter cherche un monde plus créatif et plus équitable.

Kickstarter fera don de 5 % de ses bénéfices annuels nets en faveur de l'enseignement des arts et de la musique, et à des organisations qui luttent contre les inégalités systémiques, tel que défini aux sections 4(c) et 5(c) ci-dessous (« l'engagement des 5 % »).

  1. Kickstarter soutient les arts.
    1. Kickstarter s'engage à toujours appuyer, servir et encourager les artistes et créateurs, surtout ceux qui travaillent dans des milieux peu commerciaux.

→ 12 098 des 19 235 projets intégralement financés en 2016, soit 63 %, appartenaient à nos catégories culturelles fondamentales

    1. Kickstarter s'engage à proposer un cadre de travail positif aux employés qui souhaitent travailler sur des projets créatifs personnels, avec notamment des congés prévus à cet effet.
    1. La moitié de « l'engagement des 5 % » de Kickstarter sera consacrée à des programmes artistiques et de musique destinés aux enfants et jeunes adultes, avec une attention particulière accordée aux communautés défavorisées de la ville de New York. Les fonds seront versés à des organisations caritatives de droit américain (dites « 501(c)(3) »), des écoles publiques ou par le biais d'initiatives de Kickstarter.
  1. Kickstarter s'engage à lutter contre les inégalités.
    1. Kickstarter s'engage à créer des opportunités et à proposer des congés aux employés souhaitant devenir des mentors ou formateurs professionnels pour des groupes sous-représentés dans les univers artistiques, des affaires ou des technologies.
    1. Kickstarter s'engage à établir un rapport sur la composition démographique de son personnel et de sa direction, sur la rémunération de ses cadres et de ses dirigeants, et sur les programmes et stratégies mis en œuvre pour créer un cadre de travail fondé sur la diversité, l'inclusion et l'équité.

Composition démographique globale de l'équipe Kickstarter : → 53 % de femmes, 47 % d'hommes → Origines ethniques : 70 % de caucasiens, 12 % d'asiatiques, 12 % de deux origines ethniques ou plus, 4 % d'hispaniques ou de latins, 2 % d'afro-américains →En 2016, notre PDG a touché 5,52 fois la rémunération médiane de tous les employés (hors PDG et fondateurs)

    1. La moitié de « l'engagement des 5 % » de Kickstarter sera réservée à des organisations de lutte contre les inégalités systémiques. Kickstarter mettra l'accent essentiellement sur les organisations caritatives de droit américain (dites « 501(c)(3) ») qui cherchent à mettre fin aux préjugés subis par les personnes de couleur, les femmes et les personnes LGBTQ, et à renforcer les perspectives de ces individus.

La comptabilité utile

valeur d'utilité

Norme IAS 36, IFRS

La valeur d'utilité est la valeur actuelle des flux de trésorerie futurs susceptibles de découler d'un actif ou d'une UGT.

Le calcul de la valeur d'utilité (hors valeur marchande) d'un actif doit refléter les éléments suivants :

  • une estimation des flux de trésorerie futurs que l'entité s'attend à obtenir de l'actif ;
  • des attentes relatives à des variations possibles du montant ou de l'échéance de ces flux de trésorerie futurs ;
  • la valeur temps de l'argent, représentée par le taux d'intérêt sans risque actuel du marché ;
  • le prix pour supporter l'incertitude inhérente à l'actif ;

et

  • d'autres facteurs tels que l'illiquidité, que les participants du marché refléteraient dans l'estimation des flux de trésorerie futurs que l'entité s'attend à obtenir de l'actif[288].
Valeur d'utilité perçue

De même qu’il n’est de valeur que relative, il n’est de valeur que perçue. La valeur d’utilité perçue par le client (VUPC), troisième concept essentiel, se définit par les bénéfices perçus moins les sacrifices perçus de la nouvelle offre, par rapport à l’offre de référence. Ces bénéfices et sacrifices sont déterminés par l’étude des attributs de la valeur de l’offre. La VUPC est un concept phare de notre recherche parce qu’elle intègre la notion de perception, mais aussi celle d’usage. C’est en effet par l’usage que feraient les clients de la nouvelle offre qu’on peut définir son offre de référence, et effectuer une comparaison de la VUPC respective des deux offres[289].

Investissement à impact social

Impact investing + intelligence artificielle

“If you care about sustainability, you care about money. And you want your money to be invested in the right way”, Selim concludes. Arabesque’s model speaks to Generation S by offering a quant fund that uses big data and artificial intelligence to identify high sustainability companies. And with a strong track record, they’re meeting Generation S’ financial and sustainability desires[290].

Au lieu d’utiliser des données “traditionnelles” comme la rentabilité ou le chiffre d’affaires, le big data va permettre de tester d’autres variables, de repérer des signaux faibles, qui seront autant de nouveaux critères de placement possible. On pourra par exemple ainsi financer des sociétés en fonction de leurs dépenses de R&D, de publicité, sur leur degré de « green », ou sur leur niveau de création d’emplois. Le big data présente une opportunité innovante de sélectionner les entreprises autrement que sur leurs comptes et sur leur rentabilité purement financière[291].

comptabilité du bien-être

Statistical evidence on businesses’ contribution to well-being is scattered and firms’ performances on Environmental, Social and Governance (ESG) and Corporate Social Responsibility (CSR) issues remain hard to benchmark. The purpose was to discuss the foundations to measuring businesses’ impacts on well-being through the development of new measurement standards in close collaboration with the business sector and as part of existing reporting practices that already transcend economic performance. The OECD’s long-standing experience on elaborating indicators enabling governments to design policies for improving well-being (i.e. the Better Life Initiative) appeared as a catalyst for harmonising existing measures and the advancing towards a common language[292].

comptabilité non financière

« Il est impératif de compléter l’approche financière comptable par des informations non financières, et mettant l’accent sur l’extra-financier : apprécier le projet dans sa globalité, besoin d’adhésion au projet de l’entreprise, besoin de mettre en place un système de remontée d’informations tout au long de l’année, gouvernance d’une autre nature. Tous ces éléments sont de nature à rassurer et améliorer la confiance. » (Philippe Arraou, Président du Conseil Supérieur de l’Ordre des Experts-Comptables)[293].

In 2011, Sustainable Brands launched a series of conversations on this topic, both online and via the New Metrics of Sustainable Business conference, convened again in 2012, and again in the fall of 2013 at the University of Pennsylvania in Philadelphia to address these important shifts. The objective has been to bring together thought leaders from business, non-profits and academia to realize three objectives:

  1. Understand the rapidly evolving progress towards developing and implementing New Metrics globally
  2. Advance the state of the art through focused discussions based on case studies
  3. Nurture the emergence of new mental models to deliver and benefit from new forms of value[294]

True Value Metrics[295]

Il s’agit de compter et classer les gaz à effet de serre (GES) par grands périmètres (scopes), tout comme la comptabilité financière recense les flux financiers et les regroupe par postes. La comparaison s’étend au champ lexical mobilisé autour de la construction de cette comptabilité carbone. On parle dans les deux cas d’exhaustivité et de fiabilité des données, de « true and fair view », de « MRV » (caractère mesurable, reportable, vérifiable des données affichées)[296].

monnaie non financière

Définition de Guenther et Stechemesser (Op. Cit.) : « la comptabilité carbone inclut la connaissance et l’évaluation des émissions de gaz à effet de serre à l’aide d’une valorisation non-monétaire ou monétaire pour des buts internes (comptabilité de gestion) ou externes (comptabilité financière) »[297].

taux de change

Une méthode de calcul est proposée ainsi que des paramètres techniques conventionnels (les facteurs d’émission) permettant de fixer des hypothèses communes à tous les utilisateurs (par exemple, pour s’accorder sur la conversion entre 1 kWh et 1 tonne de CO2) [298].

Une voiture particulière fonctionnant à l’essence émet 259 grammes équivalent CO2 par kilomètre ou que chaque kilo de viande de bovin consommé équivaut à un rejet de 13,4 kilogrammes de CO2 dans l’atmosphère [299]

comptabilité performative

Ayant un fort pouvoir de structuration des comportements en créant de nouveaux espaces calculables, en jouant un rôle de médiation, de « subjectivation » et d’imputation de responsabilités (Miller et Power, 2013), la comptabilité est performative : elle peut modifier le réel (Cartelier, 2006, Muniesa et Callon, 2008)[300].

ambivalence de la comptabilité

fiabilité vs. action

D’un côté, il faut s’assurer que le processus de collecte de données soit irréprochable pour assurer la fiabilité de la comptabilité comptable à rendre publique. Or cette activité s’avère chronophage compte tenu de la difficulté d’accès aux données, du nombre très élevé d’hypothèses de calcul à élaborer, de la compréhension fine de l’organisation qu’elle nécessite. De l’autre, il faudrait privilégier les quelques données clefs représentatives de l’activité en disposant d’un ordre de grandeur plutôt qu’une connaissance précise afin de consacrer du temps à mobiliser les salariés et trouver des leviers d’action.

personnalisation vs. comparaison

Les données auxquelles les investisseurs ont accès ne sont pas utilisables car pas comparables, pas standardisées. Si les bases de calcul sont différentes, ce n’est pas comparable. S’ils veulent comparer deux entreprises d’un même secteur, ils ne sont pas sûrs que le périmètre soit complètement identique, ni que le reporting ait été fait de la même manière sur les deux ou trois années pour lesquelles ils disposent des données. Et un autre problème concerne la fiabilité des données.[301].

périmètre de responsabilité

Le débat sur la responsabilité (« je refuse de compter ce qui n’est pas de ma responsabilité individuelle, celle-là étant définie par mon périmètre organisationnel tel qu’il est pris en compte par la comptabilité financière ») a été éludé par les acteurs qui y apportent une réponse détournée : « je compte et j’essaye d’agir uniquement ce sur quoi je peux agir ». La question de la responsabilité (juridique ou morale) est évincée par une question subjective sur les capacités d’action. Ce transfert amène à restreindre les actions possibles car il n’est plus question de partenariats pour gérer une responsabilité partagée de facto et les entreprises sont seuls juges de leur potentiel d’action[302].

intégration carbone finance

La comptabilité carbone est-elle en mesure d’inciter les acteurs à s’engager dans une transition bas carbone ? Selon certains comptables environnementaux, compter seulement le carbone éloigne des vrais enjeux environnementaux, d’autant plus si la comptabilité carbone n’est pas intégrée dans la comptabilité financière (Plot et Richard 2014). S’il cherche seulement à réduire les émissions de GES, ce modèle comptable est hypocrite car peu susceptible d’y arriver[303].

normalisation de la comptabilité

finance

Alors que le besoin de règles communes pour certains acteurs émerge dès le développement de l’échange marchand et la naissance de la comptabilité (Renaissance), il a fallu attendre 1942 en France pour que le premier Plan Comptable Général (PCG) commence à acter les conventions comptables communes. Quatre événements ont contribué à l’adoption de ces règles communes : 1. L’engouement autour de la pensée rationaliste (Organisation Scientifique du Travail) au tout début du XXème siècle lance le chantier d’une rationalisation de la comptabilité.

2. L’accélération de la concentration et des ententes d’entreprises appuie la nécessité d’harmoniser les pratiques comptables.

3. La disqualification du libéralisme suite à la crise économique des années 1930 laisse à l’Etat la légitimité d’instaurer une fiscalité d’entreprise et de mettre en place des règles comptables communes.

4. Le développement des marchés financiers plaide pour une uniformisation des pratiques comptables pour permettre aux investisseurs de comparer les entreprises entre elles[304].

carbone

le GHG Protocol (GreenHouse Gas Protocol) est un référentiel donnant des lignes directrices d’une comptabilité carbone harmonisée à l’échelle internationale. Le CDP (Carbon Disclosure Project) est un questionnaire rempli par les entreprises, communiqué aux investisseurs et composé de deux notes : la transparence et la performance de l’entreprise en matière de carbone. Le Bilan Carbone (BC) initialement proposé par l’Agence De l’Environnement et de la Maîtrise de l’Energie (ADEME) au début des années 2000 et actuellement géré par l’Association Bilan Carbone (ABC) se présente sous la forme d’un tableur informatique qui permet de recenser les émissions de gaz à effet de serre converties en tonnes de CO2 de l’organisation en différents postes d’émission selon le périmètre organisationnel retenu. Le périmètre restreint (on parle de scope 1) concerne uniquement les émissions directes hors électricité (on parle de scope 2 en les ajoutant) et le périmètre étendu (ou scope 3) intègre toutes les émissions indirectes amont et aval. Un exemple de poste du périmètre étendu est celui des émissions liées au déplacement domiciletravail des salariés.[305].

L'entreprise hyper-coopérative, au point de convergence de plusieurs tendances alternatives

En 1730, l’entreprise type est une ferme. En 1830, c’est un atelier, en 1930 une usine. Qu’en sera-t-il en 2030 ?

Plusieurs modèles sont en lice. Celui de la plate-forme met en relation deux types de clientèle : un annonceur et un internaute (Google), un chauffeur et un passager (Uber), un hôte et un touriste (Air BnB), un fabricant et un consommateur (Alibaba). Celui de l’entreprise 2.0 met en œuvre des outils collaboratifs (réseaux sociaux, forums, bases documentaires) et organise un écosystème de clients et partenaires pour participer à la production. Celui de l’entreprise élargie, comme Airbus, pilote une constellation de sous-traitants pour disposer d’une organisation pouvant se reconfigurer rapidement. Celui de l’entreprise libérée, comme Favi, Poult ou Chronoflex, est fondée sur l’autonomie. Les leaders sont cooptés, les décisions sont collégiales, la production est centrée sur le client. Celui des communaux collaboratifs, comme Wikipedia ou Linux, permettent la coopération de millions de personnes pour créer des biens communs. Celui de l’entreprise dans le smartphone, comme O2, permet un télétravail autonome. Une nounou organise son emploi du temps à distance ou flashe le QR code sur le cartable des enfants à la sortie de l’école, ce qui envoie un texto aux parents pour les rassurer. Celui du partage des profits, comme Forbes ou Quirky, met en œuvre des algorithmes de calcul des rémunérations en fonction des contributions individuelles[306].

En fait, ces modèles ne sont concurrents qu’en apparence. En anticipant leur point de convergence, on peut déjà décrire à grands traits celui de l'entreprise hyper-coopérative. En tant que plate-forme, cette entreprise met à disposition des ressources partagées parmi lesquelles des logiciels métiers, qui permettent aux collaborateurs d'enrichir leurs compétences[307],des outils collaboratifs, qui leurs permettent d'enrichir leurs coopérations, des tutoriels, formations, services d'assistance, pour les accompagner ,des fonctions support stratégiques : ressources humaines, vision, objectifs, valeurs, règles et déontologie de collaboration, sécurité, secret industriel.

Les contributeurs travaillent pour plusieurs entreprises hyper-coopératives en fonction de leur disponibilité, intérêt et intéressement par projet. Le coût d'identification, de sollicitation, d'intégration et de fédération des talents est en effet largement gommé par les outils collaboratifs, ce qui permet une grande mobilité des ressources humaines.

Viadeo développe un moteur de mise en relation des employeurs et des talents. Presans identifie les meilleurs experts dans le monde pour résoudre un problème technique spécialisé. Motivation Factory organise du brainstorming en ligne. Slack facilite les échanges d'informations au sein d'une équipe de travail virtuelle. TeamworkProject est un assistant de gestion de projet qui enregistre le temps passé par collaborateur et par tâche. Asana se présente comme une boîte d'emails qui seraient regroupés par tâche et par projet, caractérisés par des dates au plus tard, des "like" et des étoiles[308].

Pour gérer son temps de travail, le contributeur dispose d'un assistant virtuel, tableau de bord de ses savoir-faire, réputation, influence, opportunités, priorités, engagements, rémunération et développement personnel.

Slack, prototype d'entreprise hyper-coopérative

La communication entre collaborateurs a souvent lieu via différents canaux : oralement, par courrier électronique, via les réseaux sociaux ou par le biais de programmes de messagerie instantanée. Nous recevons de la même manière une directive générale de l'entreprise et une invitation à partager une pizza. De plus, la communication n’étant pas centralisée, il est difficile de retrouver les informations et de garder une vue d’ensemble. Slack peut se présenter comme une messagerie instantanée organisée en canaux. Par défaut, un canal est public, donc tout le monde peut y participer, mais la privatisation est réglable. Des outils de recherche permettent de retrouver les messages archivés, joindre des pièces se fait par glisser-déposer et des dizaines d'apps de communication comme twitter ou Zendesk sont intégrées. Slack veut devenir le portail unique de la communication entre collaborateurs et tuer le courrier électronique.

Le deuxième étage est constitué par les "bots", qui facilitent les actions répétitives. Avec Pegg, Sage dispose d'un bot de messagerie permettant aux utilisateurs de gérer leurs finances via Slack. Rentrer des notes de frais, vérifier si tous les paiements ont été effectués, contrôler les versements: tout cela peut être simplement demandé au chatbot Pegg.(...) Sage annonce également une intégration complète avec Slack. (...) "Nous croyons fermement que l'avenir du poste de travail tournera autour des conversations, avec une priorité accordée à la facilité d'emploi et au plaisir au travail", a affirme Stephen Kelly, CEO de Sage.[309].

Le troisième étage est constitué par les "message buttons", qui permettent aux entreprises tierces d'insérer des boutons d'actions dans Slack. "Ils fonctionnent comme des pièces jointes, et permettent d'introduire jusqu'à cinq boutons par message ce qui est largement suffisant pour exécuter n'importe quel processus", estime-t-on chez Slack. Les premiers partenaires sont Pagerduty (gestion de résolution de problème), Current (gestion et approbation de paiement) ou la solution française Talkus (centrée sur le support client)[310]. L'outil de gestion de projet Trello permet d'assigner des dates d'échéance, catégoriser des tâches ou gérer des conversations depuis un channel Slack. Le tout étant synchronisé avec ses tableaux de bord de suivi de projet. Un employé peut aussi utiliser Abacus pour soumettre un rapport de dépenses, que les concernés pourront accepter ou refuser d’un simple clic. Pratique dans le cas de personnes envoyant leurs factures pour être remboursées. Idem avec Greenhouse pour la gestion des embauches et l’acceptation des missions. (...) Un simple clic de souris à l’intérieur de Slack peut remplacer plusieurs actions qu’il fallait auparavant réaliser en-dehors du logiciel. Non seulement les utilisateurs gagnent du temps, mais la fonctionnalité améliore au passage la facilité d’intégration des applications tierces[311].

Les étages suivants ne sont pas encore construits mais, compte-tenu de la politique d'intégration totale de Slack, on peut facilement s'en faire une idée avec les pratiques en cours.

Les pratiques du crowdsourcing rémunéré se diffusent déjà. En France, 400 000 consommateurs remontent des informations sur les points de ventes aux marques par l'intermédiation des startups Clic and Walk, Tcheck'it, Mobeye, Roamler ou Localeyes. Le principe est simple: armé de son téléphone, l'utilisateur répond à une «mission» qui consiste à vérifier le prix, l'emplacement, la publicité d'un produit dans un point de vente donné. Cordon bleu, parfum voire salon de coiffure, tout peut y passer. L'utilisateur enregistre les données récoltées sur l'application, photos à l'appui. Ce rôle de client mystère est rémunéré entre 1 et 10 €[312].

La rémunération commence à s'étendre au crowdsourcing collaboratif, et les projets foisonnent pour explorer ce nouveau monde de l’entreprise hyper-coopérative : Forbes[313], Quirky, GiffGaff, Threadless, Sensorica, Innocentive, Edison Nation, Local Motors, Nov'in, MyKompany, la Fabrique à Innovations... Leurs résultats sont déjà substantiels : Local Motors regroupe 35.000 contributeurs et a levé 15 millions de dollars. Quirky fédère 900.000 contributeurs et génère un chiffre d'affaires de 100 millions de dollars, 5 fois plus qu'il y a deux ans[314].

La vitesse de développement de ce modèle dépend donc de deux principaux facteurs :

  • l'innovation managériale. Les plate-formes nous ont déjà appris que le contributeur doit comprendre facilement le projet (vision, objectif, cadre,...), ce qu'on attend de lui (outils, processus, règles,...) et la contrepartie (réputation, influence, intégration sociale, sentiment de faire œuvre utile, plaisir de participer à un grand projet,...).
Le succès d'une plate-forme dépend de son "élégance", pour reprendre l'expression de Mark Zuckerberg, c'est-à-dire de la pertinence du mix projet/contribution/contrepartie/design. Ces règles restent valables pour l'entreprise hyper-coopérative, avec l'ingrédient supplémentaire de la contrepartie monétaire, qui doit être jugée équitable.
  • la clarification du statut juridique des collaborateurs et la simplification des contraintes administratives

Le moteur de l’économie de l’utilité

L’entreprise actuelle échange en externe des produits marchands avec ses fournisseurs et clients, mais évalue mal ses échanges internes, non marchands. Trop grosse, elle subit le coût exorbitant de la bureaucratie, des baronnies et du malaise au travail. Trop petite, elle perd le bénéfice des économies d’échelle, de la spécialisation et de la puissance économique.

L’entreprise hyper-coopérative évite ces écueils car elle échange des « effets utiles » en interne comme en externe. L'utilité élémentaire de chaque contribution est calculée a posteriori, à partir du prix de vente d'un produit et du traçage de toutes les contributions à ce produit. La rémunération de chaque contributeur dépend de la valeur anticipée de l'utilité de ses contributions et de l'algorithme de rémunération. Celui-ci prend en compte des critères objectifs relatifs aux contenus (audience, référencement), à l'auteur (profil, réputation), au service associé (réactivité, rareté) et des critères subjectifs (clarté, originalité, convivialité).

L'entreprise hyper-coopérative évite deux écueils : d'abord celui de la grande entreprise actuelle, dont l’organisation hiérarchique provoque un coût exorbitant du "travailler ensemble" et des gâchis de compétences humaines. Ensuite celui du crowdsourcing des plate-formes de données, qui ignore la valeur économique de ces compétences.

L'entreprise hyper-coopérative offre une grande diversité de modes de collaboration : les décisions sont plus ou moins collégiales, les pouvoirs et responsabilités sont plus ou moins centralisés, les projets sont plus ou moins cadrés, les rémunérations sont plus ou moins dépendantes d'un succès collectif ou individuel, plus ou moins sécurisées ou incitatives[315].

Nouvelles concurrences

Comme la rémunération des collaborateurs n’est pas tarifée a priori, la concurrence entre entreprises hyper-coopératives pour attirer les talents se joue sur les points suivants :

  • le sentiment de loyauté et d'équité des contributeurs pour que chacun ait confiance en une règle du jeu équilibrée et respectueuse de ses valeurs. On retrouve ici en substance l’impératif d’un franchiseur traditionnel, qui se doit de cultiver ce sentiment parmi ses franchisés
  • la finesse et le réglage des algorithmes de rétribution des contributions
  • l’information des contributeurs sur leurs chances de rentabiliser l’investissement de leur travail. Cette qualité fait souvent défaut aux plateformes actuelles, qui génèrent beaucoup de frustrations (Innocentive, 99designs). QuelleEnergie, au contraire, calcule pour un artisan chauffagiste le chiffre d’affaires additionnel qu’il pourrait générer s’il proposait des poëles à granulés de bois[316]
  • l’information des contributeurs, dès que possible, de l’intérêt que suscite leur contribution, comme les « like », commentaires, étoiles, retweets, pages vues, etc...
  • la visibilité et l’accessibilité des contributions, pour en faciliter l’intégration dans d’autres travaux
  • le taux de recyclage des contributions, pour en maximiser la valeur utile

L'entreprise hyper-coopérative est faisable, souhaitable et dans l'air du temps

Ce modèle est techniquement faisable : ses briques-clés sont toutes opérationnelles. Il est socialement faisable : les précurseurs comme MTurk, qui propose par exemple de supprimer les photos floues pour 1 cent par photo, existent depuis 2005. De manière plus récente, Forbes propose de publier un article contre une rémunération déterminée par un algorithme prenant en compte l'audience de l'article et la fidélité des lecteurs à l'auteur[317]. Quirky partage 10 % du prix entre plusieurs milliers de contributeurs à un produit, depuis celui qui a eu l'idée originale jusqu'à celui qui a voté pour le meilleur design[318], en application d'un algorithme fondé sur l'utilité des contributions au résultat final[95].

Ce modèle est souhaitable : il renforce l'esprit d'initiative, l'autonomie, la flexibilité du travail et la co-propriété industrielle. Il dénoue les tensions autour du temps de travail, du chômage, de l'employabilité, du marché du travail, du cloisonnement des activités, de la formation, de la hiérarchie, des baronnies et de la dérive bureaucratique. Il fédère l'énergie du crowdsourcing autour de la création de richesses partagées et d'emplois rémunérés.

Il converge avec l'organisation agile, en réseau et les nouvelles pratiques managériales.

In an organization that functions as a network, managers lead projects, not just people. People lend their skills to multiple teams. Teams are often cross-functional, and they must have an easy way to form and change over time[319]
We now need standard tools for team-based performance management, goal-sharing, team feedback, project management, and of course messaging and collaboration. As vendors such as Atlassian, Facebook, Google, Microsoft, Slack, and others further enrich their team management tools, a new set of leading practices is needed to help form, manage, measure, and optimize teams[320].

Il est dans l'air du temps : depuis les nombreuses révélations de la valeur économique des contributions bénévoles, en particulier lors du rachat du Huffington Post par AOL en 2011, les contributeurs sont devenus exigeants[321]. La rétribution est devenue une revendication forte, dans les milieux hacktivistes et au-delà, qui engendre de multiples propositions comme le micro-paiement universel[322], la taxation des plate-formes qui tirent profit du travail gratuit ou la licence entre pairs.

La blockchain invente la nano-entreprise numérique

La cellule économique

Le Bitcoin, première monnaie 100% numérique, doit sa fiabilité à sa technique de blockchain. Celle-ci fiabilise aussi les collaborations sans hiérarchie et les transactions sans tiers de confiance. Comme un segment d'ADN, la blockchain est le processus codifié d'une collaboration prédéfinie. Elle n'attend qu'un client et un fournisseur pour activer une cellule économique et se répliquer. Il peut s'agir de mettre en relation un chauffeur de VTC et un passager puis de sécuriser leur transaction, sans opérateur.

L'organisme économique

Ces segments peuvent ensuite se combiner pour des processus plus complexes. Colony et Boardroom gèrent des centaines de collaborateurs par projet, qui reçoivent des jetons ("tokens") de droits de vote et de reconnaissance de leurs contributions. Ces tokens deviennent rapidement une monnaie locale, qui valorise les contributions entre elles malgré les incertitudes du projet et de sa future valeur marchande. Synereo et Backfeed construisent ainsi des intelligences collectives à but économique.

Aspects juridiques

De même que l'économie du partage a modernisé la société coopérative, l'économie tokenisée modernise la société en participation, utilisée dans le secteur du spectacle[323]. Pour monter une pièce de théâtre en coproduction, comptabiliser les apports des techniciens et des acteurs permet ensuite de répartir la recette au pro rata de leurs parts. De même UjoMusic et LaZooz intéressent leurs contributeurs au téléchargement de musique ou au succès du co-voiturage.

Enjeux

Les opérateurs de plate-formes sont en ligne de mire : OpenBazaar, ArcadeCity et Qrator veulent déjà se substituer respectivement à Amazon, Uber et Youtube. Les plate-formes collaboratives s'ouvrent à l'économie : de même que Wikipedia et Linux ont créé de nouveaux biens communs, la tokenisation crée de nouveaux produits marchands.

Définition de l'entreprise iconomique

Contexte économique

L’organisation des entreprises est fortement impactée, l’entreprise fordienne hiérarchique devant évoluer vers une entreprise innovante collaborative. Plus généralement, nous passons d’une économie hiérarchique de main-d’œuvre à une iconomie relationnelle de cerveau-d’œuvre. Dit autrement, nous basculons d’une économie fordienne hiérarchique, nom communément donné au système économico-social dominant de 1945 à 1985, à une iconomie entrepreneuriale relationnelle datant du milieu des années 1980 et s’imposant au monde depuis les années 2000[324].

Mission

Gouvernance iconomique.

Insuffisances des indicateurs de performance de l’entreprise

Club des Juristes, Mission Contrat Social Contribution de Vincent Lorphelin, co-Président de l'Institut de l'Iconomie

Important : cette note exprime l'opinion personnelle de son auteur et n'engage pas les organisations dont il fait partie. Réciproquement, l'auteur n'est pas engagé par l'utilisation de cette note par ces organisations.

Note méthodologique : l' Institut de l'Iconomie développe une vision de l'économie et de la société transformée par le numérique, comme elle a été transformée il y a un siècle par la mécanisation et l'électrification. Cette vision donne en retour une grille de lecture pour comprendre les grandes tendances actuelles et en anticiper les conséquences. La présente note rassemble des extraits de publications et interventions :

  • Le Monde, édition du 20 juin 2015. Le triomphe de l'économie de l'utilité. Vincent Lorphelin, Christian Saint-Etienne et Michel Volle
  • Fondapol, janvier 2017. La République des Entrepreneurs. Vincent Lorphelin
  • Forbes, 21 juillet 2017. La mission de l'entreprise iconomique. Vincent Lorphelin, Michel Volle
  • Club des Juristes, Mission Contrat Social 18 Juillet 2017. Mission de l’entreprise dans l’Iconomie. Présentation de Vincent Lorphelin


cette contribution peut être insérée dans le rapport :

  • Insuffisances des indicateurs de performance de l’entreprise : 2ème partie II 3/ alinea 2
  • Propositions : 4ème partie VII 2/

Le triomphe de l'économie de l'utilité

La manière dont nous mesurons l'économie a une influence décisive sur sa gestion et sa régulation. Mesurer le temps de travail aboutit au SMIC et à l'âge légal de la retraite. Mesurer la rentabilité aboutit à l'augmentation de l'épargne et à la circulation des capitaux. En creux, nous ignorons ce que nous ne mesurons pas, ou mal : les effets positifs de la responsabilité d'un manager, du dévouement d'une infirmière, de l'agriculture raisonnée[2] ou d'une dynamique collective, les effets négatifs de l'obsolescence programmée, de la bureaucratie ou de l'empreinte carbone d'un produit.

L'utilité de ces effets est fondamentale en économie. Pourtant, bien que la théorie de l'utilité soit antérieure, elle a été supplantée par la théorie ricardo-marxiste de la valeur travail et la théorie néo-classique de la valeur de marché.

Or il s'avère que de nouvelles métriques s'invitent en masse dans l'économie. La qualité des contributions dans Amazon est mesurée grâce à la question: «ce commentaire vous a-t-il été utile?». Des algorithmes calculent l'utilité grâce aux clics des internautes. Ils permettent à Google de définir le prix des publicités, à TripAdvisor ou à BlaBlaCar de classer hôtels et conducteurs.

Industrialisée, la personnalisation de l'offre optimise cette utilité. Netflix constitue une liste de films pour chaque téléspectateur. Vente-privee effectue des recommandations individuelles grâce au big data. Les jeux sur smartphones de King s'adaptent à chaque joueur. L'assureur Aviva baisse la prime d'un jeune conducteur en évaluant sa conduite grâce à une appli de son smartphone[3].

Cette tendance répond d'abord à une consommation plus sensible aux effets utiles d'un produit qu'à sa possession[4]. Le covoiturage se substitue au désir de propriété d'une voiture. La musique portative se développe aux dépens du disque. Un produit inclut une part grandissante de services, comme le label AOC, l'échange gratuit, la commande en ligne, la livraison en magasin, le « made in France », l'image de marque, la traçabilité ou le caractère recyclable. Le rapport qualité/prix devient un rapport utilité/prix, dont la subjectivité est propre à chaque consommateur lorsqu'il achète une smartwatch ou loue un Vélib'.

Cette tendance s'affermit ensuite avec les modes de production. La SNCF met à disposition tous ses horaires dans une application ouverte « à toutes fins utiles »[5], c'est-à-dire à la disposition de sur-traitants qui en inventeront de nouveaux usages. Ce modèle d'« API » est utilisé par des milliers d'applications comme Mappy pour ses cartes ou Twitter pour l'exploitation des billets publiés par ses usagers.

Cette tendance se renforce aussi avec la valorisation grandissante de l'utilité ajoutée[6]. Cette forme de reconnaissance ou d'intéressement est plus fine que le simple bonus, indexé sur la valeur ajoutée comptable. Ainsi les modèles freemium ou au lead (au prospect), dont le prix est proportionnel au service rendu, se sont imposés en ligne. Les patients notent leurs médecins sur doctor.com et les étudiants de HEC notent leurs professeurs[7]. Dans la fonderie Favi, les leaders sont désignés par les ouvriers[8][9]. L'entreprise américaine Morning Star fonctionne sans hiérarchie[325]. Forbes rémunère ses journalistes en fonction de la fidélité de leurs lecteurs. Quirky rétribue des milliers de co-créateurs en analysant les traces de leurs contributions.

Les problèmes théoriques de l'utilité sont résolus par la pratique, en particulier son caractère subjectif : le prix d'un même produit peut varier entre deux clients et entre deux instants, par exemple celui des billets d'avions. Le problème de la répartition équitable des revenus entre les co-producteurs d'une valeur utile est résolu grâce au big data.

Quelques initiatives publiques vont dans le même sens : les associations sont invitées à comptabiliser le bénévolat pour rendre compte de leur utilité sociale. BPI France élargit son périmètre à l'innovation centrée sur l'utilisateur. Suite à la Commission Stiglitz, France Stratégie propose des indicateurs de croissance soutenable[11]. Le Royaume-Uni mesure le bien-être de sujets ou citoyens[12]. L'union européenne développe des critères d'utilité environnementale et sociale, suivie par l'ONU.

Les prismes du travail et du capital ont structuré la politique pendant deux siècles. Celui de l'utilité, en révélant la compétence relationnelle, la dynamique collective ou le rôle grandissant de l'utilisateur face au duo travailleur-capitaliste, réinvente aujourd'hui notre modèle économique pour en dépasser les limites.

L'économie de l'utilité révèle de nouvelles richesses

Dès l'antiquité, la mesure géographique est une source de richesses. Le pointillisme du cabotage permet de repérer les ports naturels. Le tracé des côtes révèle les territoires, et leur exploration révèle les ressources de leurs sol. La géographie devient stratégique dès l'empire romain mais atteint son apogée avec les cartes marines, monopoles des souverains lors des grandes explorations de la Renaissance. Le monde se redécouvre ensuite de manière plus scientifique, mais toujours stimulée par les opportunités économiques. Les mesures mécaniques des matériaux engendrent les alliages artificiels et l'industrie de la métallurgie fine. L'observation des propriétés chimiques génère l'industrie des engrais et des cosmétiques. L'observation microscopique conduit à l'industrie pharmaceutique et biologique.

Les métriques ont été celles de la terre et de la matière, elles sont de plus en plus immatérielles. Les nouveaux champs d'observation révèlent inévitablement de nouvelles ressources, naturelles ou non, que l'activité des entrepreneurs transformera tout aussi inévitablement en richesses.

Ce mot "richesse" mérite qu'on le précise. Selon les anciens, la richesse était « tout ce que l’homme désire comme pouvant lui être utile et agréable ». Or dans ses Principes d’économie politique publiés en 1820, Malthus considérait qu'on ne peut « aborder aucune discussion sur l’accroissement relatif de la richesse chez les différentes nations si nous n’avons un moyen quelconque, quelque imparfait qu’il soit, d’évaluer la somme de cet accroissement ». Pour des questions purement pratiques, la richesse s'est limitée depuis pour les économistes à ce que mesure la monnaie, c'est-à-dire une petite part de la richesse telle que la concevait les anciens.

Or on a récemment pris conscience que l'enrichissement en monnaie provoque fréquemment un appauvrissement créatif, collectif, social ou environnemental supérieur. Le démantèlement de la recherche de Bull, la dilapidation de la confiance des clients de France Telecom, la perte de compétences d' Alcatel en témoignent. "Créer de la valeur pour l'actionnaire" ressemble souvent à ces cueillettes mécanisées brutales qui, au prétexte de réduire les coûts, détruisent les arbres fruitiers et compromettent l'avenir.

Avec la mesure de l'utilité, la partie immergée de la richesse se révèle en tant que quantité subjective d'effets utiles réalisés ou potentiels. La plus grande partie de l'économie, la valeur utile non marchande cachée jusqu'alors sous le tapis du capital immatériel, du goodwill et des externalités, devient visible.

Notons que nous évoquons ici la richesse dans son seul sens économique, non en tant que valeur essentielle (richesse esthétique d'un chef d'oeuvre ou d'un paysage, richesse humaine, culturelle ou spirituelle).

Nouvelles richesses

Nous définissons les catégories de richesses en fonction des grappes de métriques identifiées qui, contrairement aux classes du capital immatériel et au "goodwill", dépassent le cadre de l'entreprise.

Richesse de la créativité

La créativité est une capacité à innover et à produire des idées : intuitions, concepts, inventions, brevets d'invention, design, marques, recherche, essais, modèle d'affaires, etc.

La force économique de l'innovation a été identifiée depuis longtemps. En revanche la fulgurance des Amazon face aux libraires, Netflix face aux videoclubs, iTunes et Deezer face aux disquaires ou Skype face aux opérateurs de telecoms sont autant d'exemples[326] de la viralité des nouveaux usages. C'est pourquoi la guerre de domination pour le marché des smartphones s'est jouée entre Apple et Samsung sur les brevets d'usage, par exemple celui du "zoom en écartant deux doigts". Le rachat par Google, en milliards de dollars, des portefeuilles de brevets de Motorola ou de Nestlabs illustre la volonté de capter cette richesse de plus en plus tôt.

Richesse de la contribution

La valeur contributive résulte de l’autoagrégation et de l’organisation à des fins productives d’agents libres, qui peuvent s’aligner "sans permission" et dont la motivation "passionnelle" dépasse en productivité les motivations d’origine coercitives ou par appât du gain[327].

Les exemples de Wikipedia ou des logiciels open source[328] font référence, mais on peut aussi citer ceux de la planche à voile, de la micro-informatique ou d'internet. Mal protégée, cette richesse est particulièrement exposée à la prédation.

La micro-informatique, par exemple, s'est développée dans des clubs de passionnés comme le Homebrew Computer Club à Menlo Park. Mais, lorsque certains de leurs membres ont fondé leur entreprise, comme Steve Wozniak et Steve Jobs, le club a périclité à cause des risques de concurrence[329][330]. Le Huffington Post, journal en ligne qui accueille les opinions de milliers de contributeurs bénévoles, a été vendu 315 millions de dollars en 2011 à AOL. Lors de cette transaction, les contributeurs ont réclamé leur part mais en vain[331].

Les licences à réciprocité veulent rompre la spirale infernale de ce travail gratuit[332] et introduire un mécanisme de reconnaissance de la richesse de la contribution sans en gêner la dynamique.

“Nous réorganisons l’entreprise en nous appuyant sur des 
modèles de “DAO”[333] et la technologie de la  blockchain. 
L’objectif est de décentraliser la gouvernance, de substituer 
à une hiérarchie, dominée par les actionnaires, une communauté 
ouverte où les contributeurs détiennent un pouvoir de décision 
et reçoivent une juste rétribution en proportion de la valeur qu’ils créent.” 
Philippe Honigman, fondateur de Ftopia et initiateur de Freeftopia
Richesse de la coopération

La qualité d'un service dépend de plus en plus de la bonne coopération entre fournisseur et client, plutôt que de la bonne conception / exécution d'un cahier des charges[334].

Les maquettes en 3D partagées entre Airbus et sa constellation de fournisseurs en sont un exemple. Un service de location de voiture de qualité nécessite un bon entretien de la part du fournisseur, et un bon comportement de conduite et de propreté de la part du client. Il en est de même pour la location d'appartement, de matériel, les prestations freelance ou les clubs sportifs.

"Nous offrons aux golfs des videos de présentation de leurs installations, réalisées par drones. 
En échange, ils renseignent une fiche technique et les numéros de téléphone des profs. Les golfeurs 
visionnent ces videos et donnent des notes, ce qui révèle leur intérêt. Au final, golfeurs et golfs
disposent d'informations croisées qui améliorent la qualité globale du service."
Guilhem Miranda, fondateur de Flyovergreen

De nouvelles pratiques stimulent la co-production, la co-innovation ou la coopération entre entreprises. Elles s'opposent à l'hyper-compétition qu'organisaient Mechanical Turk ou les premières versions de TaskRabbit qui fonctionnaient comme des comparateurs de prix entre fournisseurs[335].

Richesse relationnelle

La richesse relationnelle correspond à la capacité de séduction et d'interactions de l'entreprise avec son milieu[336]. Elle augmente grâce aux compétences relationnelles de ses collaborateurs et à ses pratiques partenariales.

Le marché des taxis était dénoncé comme sclérosé depuis 50 ans. Aucune proposition, dont celle du rapport Attali de 2008[337], n'a jamais abouti malgré le soutien de l'Elysée. Avec Uber et les VTC, il a suffit de quelques mois pour que les seules métriques de la qualité relationnelle bousculent sérieusement le secteur[338][339].

"Plus l'outil numérique est performant, plus les compétences relationnelles sont importantes. Un 
salarié en déplacement trouve presque normal de trouver en quelques clics une salle de réunion et
les prestations associées. Dès lors, il attache davantage de valeur à la qualité de l'accueil, de 
l'écoute, de la compréhension fine de ses attentes et leur transposition dans les faits."
Arnaud Katz, co-fondateur de Bird Office
Richesse collective

La richesse collective est le résultat de la dynamique d'un groupe. Elle est souvent entretenue par un ou plusieurs animateurs qui, par leur énergie ou leur charisme, incarnent un projet ou une vision à laquelle adhèrent les autres membres du groupe y compris sans y contribuer.

Quand on rencontre, dans un magasin, des vendeurs aimables et compétents ou, dans un hôpital, une équipe d'infirmières efficaces, attentives et patientes, on sait que leurs patrons sont des animateurs, dont le panthéon réunit les Henry Ford, Louis Renault, Steve Jobs ou Marcel Dassault[340].

Cette richesse collective est mesurée et amplifiée par de nouvelles pratiques managériales comme celles de General Electric ou Criteo (voir plus haut), ou encore des entreprises libérées comme Favi, Poult ou Chronoflex.

Richesse sociale

La richesse sociale correspond à la qualité d'un réseau de relations plus ou moins institutionnalisées d’interconnaissance ou d’interreconnaissance, de liaisons permanentes et utiles[341].

Elle comprend l'affectio societatis, pierre fondatrice de toute entreprise et le "don contre-don" décrit par Marcel Mauss comme étant le premier acte social. Elle se manifeste par le sentiment d'appartenance ou d'être utile à une communauté, entreprise ou nation, par l'éthique, la confiance, l'autonomie ou la solidarité professionnelles[342]. .

Cette richesse est illustrée par les débuts de BlablaCar. Son état d’esprit, alliant à la fois un volet économique (réduction du coût du voyage), un volet écologique (ne pas prendre de multiples voitures pour un seul et même voyage) et un volet communautaire (échange et liens entre les personnes) était révélateur de l'intention des co-voitureurs à "faire société" contre la société de consommation[343].

La valorisation économique de BlaBlaCar à 1,6 milliards d'euros donne un ordre de grandeur de cette richesse sociale.

"Rien de tel que le bon vieux baby-foot pour créer du lien entre les employés. Surtout s'il est bardé
de capteurs et connecté à un réseau social pour que les matchs soient suivies et commentées 
en ligne, et que les équipes et les tournois soient organisés pour entretenir les échanges avant et 
après les parties. La même dynamique peut s'appliquer entre partenaires ou avec les clients."
Jérôme Boyé, fondateur de Tecbak
Richesse environnementale

La richesse environnementale est la valeur du patrimoine naturel. Elle dépend de la façon dont la nature est aménagée, de la sobriété de la consommation et de la maîtrise des déchets.

La multiplication des capteurs et des systèmes d’assistance à la conduite, la coordination entre les véhicules et la voirie, le développement de la multi-modalité pourraient permettre de réduire jusqu’à 100 % des embouteillages, soit une économie de 5,5 milliards d'euros. Les smartgrids permettraient d'économiser 1,2 milliards[344].

"Pourquoi utiliser un camion pour transporter 3 voitures, alors que chacune d'elles pourrait rouler
en emportant 4 passagers ? Notre plateforme propose aux particuliers une voiture à 1 euro et ils
sont assurés pour le covoiturage. Nous partageons avec les propriétaires l'économie du coût de
transport, et cette organisation permet de réduire jusqu'à 80% des émissions de carbone".
Idris Hassim, co-fondateur de LuckyLoc

Les circuits courts de distribution, la finesse de la segmentation des produits et leur personnalisation produisent aussi de la richesse environnementale grâce à l'ajustement de la consommation de ressources.

"Nous envoyons un kit aux agriculteurs grâce auquel ils extraient des échantillons de leurs sols,
qui sont ensuite analysés par des laboratoires partenaires. Sur la base de ces analyses et du 
projet agricole, notre plateforme préconise un plan de conservation et d'enrichissement du 
capital-sol adapté, parcelle par parcelle. Nous nous rémunérons en partageant les bénéfices."
Clément Le Fournis, co-Fondateur d'Agriconomie


L'entreprise créatrice de richesses

Pour repenser le rôle de l'entreprise dans ce contexte, il faut revenir à son équation économique classique :

Re(Ressource) x Bm(Business model) = Rm(Richesse marchande) + Ex(externalités)

ou plus simplement :

Re x Bm = Rm + Ex


1 - Valorisation des externalités positives

L'externalité la plus connue est la pollution, mais on s'est récemment intéressé aux externalités positives qui sont à l'origine du succès des géants du numérique.

La valeur de Google provient des milliards de cliqueurs qui travaillent gratuitement : les externalités de leur activité de recherche constituent sa ressource principale. De même la qualité des contributions dans Amazon est mesurée grâce à la question : « ce commentaire vous a-t-il été utile ? ». Une location d'appartement sur AirBnB, la prestation d'un chauffeur de Blablacar, la propreté d'une Autolib' sont notés entre une et cinq étoiles. Une information postée par un contributeur de Facebook et les vidéos de Youtube sont encouragées par des « like ». Un lecteur de Forbes révèle son intérêt lorsqu'il le partage sur Twitter. Linkedin étudie votre graphe social pour deviner quelles personnes vous connaissez sans doute. Criteo analyse les traces des internautes pour prédire leurs intentions d'achat[345].

Ces externalités ne sont pas seulement captées, mais aussi encouragées, animées et enrichies par ces opérateurs. Ce changement de nature les distinguent des autres externalités (Ex) et les valorise en tant que richesses non marchandes (Rn).

L'équation devient :

Re x Bm = Rm + Rn + Ex

2 - Nouvelles ressources

Ces opérateurs ont intérêt à explorer et mesurer ces richesses non marchandes Rn pour les transformer en ressources exploitables Re(Rn).

Pour faire un parallèle avec l'économie classique, les terrains pétrolifères (en hectares) peuvent se convertir en réserves estimées (en barils) lorsque les campagnes d'exploration sont suffisamment avancées, puis enfin en richesses marchandes (en dollars) lorsque leurs conditions d'exploitation sont éclaircies. Les barils sont une unité plus adaptée que les hectares pour mesurer la ressource au regard de ses perspectives d'exploitation. De manière plus générale, un territoire se représente avec des cartes géographiques, démographiques, hydrographiques ou géologiques ayant chacune ses unités adaptées à chaque discipline.

Les métriques de l'utilité extraient ainsi du système d'information des comptabilités alternatives qui représentent l'entreprise et son écosystème sous toutes ses dimensions. Les richesses non marchandes peuvent être par exemple étalonnées avec des tokens, ces jetons dérivés du bitcoin, de la même manière que les euros étalonnent l'économie marchande. Les tokens sont les équivalents des barils (en tant que mesure de réserves). Ce sont des unités intermédiaires qui valorisent des ressources Re(Rn) et peuvent se convertir en monnaie au fur et à mesure que la visibilité du business model Bm s'améliore.

Lazooz et ArcadeCity, qui veulent concurrencer Uber, distribuent des tokens à leurs pionniers pour les intéresser à leur futur succès collectif. Synereo et Qrator, qui veulent concurrencer respectivement Facebook et Youtube, rémunèrent les apports de contenu par des tokens. Colony, Akasha, Backfeed et Steemit distribuent des tokens aux contributeurs de travaux collectifs, pour évaluer les valeurs relatives de leurs contributions en attente d'une marchandisation éventuelle des résultats[346].

L'équation devient :

(Re + Re(Rn)) x Bm = Rm + Rn + Ex

3 - Nouveaux business models

Amazon et Google ont commencé par rendre un service traditionnel, puis l'ont amélioré grâce à l'équation précédente pour entretenir une richesse endogène Rn → Re(Rn). Aujourd'hui, les startups n'hésitent plus à apporter de nouveaux business models Bm' aux entreprises pour valoriser leurs actifs immatériels. C'est le cas des startups Flyovergreen, Tecbak et Agriconomie indiquées plus haut.

Au même titre que la simple identification du modèle d'extraction et de distribution de pétrole a valorisé instantanément le désert saoudien en 1930, le foisonnement de ces nouveaux business models Bm' incite les entreprises à explorer leur sous-sol immatériel, à créer autant de nouvelles ressources Re(Bm') et à les transformer en richesse marchandes Rm' et non marchandes Rn' .

L'équation devient :

(Re + Re(Rn) + Re(Bm')) x (Bm + Bm') = (Rm + Rm') + (Rn + Rn') + Ex

4 - Nouvelles externalités positives

La responsabilisation sociétale des entreprises est tangible. Autrefois anecdotique, l'intégration des critères sociaux et environnementaux dans la rémunération des dirigeants devient la norme au sein des grandes entreprises françaises. Près des trois quarts (73%) du CAC40 est aujourd’hui converti contre seulement 10 % il y a 10 ans [347]

DanoneWave (6000 salariés) s'engage à promouvoir une agriculture durable, économiser l’eau, réduire ses déchets et encourager l’économie circulaire[348][349].
Microsoft et Société Générale imputent une taxe carbone interne aux business units pour inciter les responsables à améliorer leur efficience énergétique (téléprésence plutôt que déplacement en avion)[350][351].

La mesurabilité plus fine des indicateurs associés les y encourage. Les indicateurs clés de performance (key performance indicators ou KPI) par exemple explosent au profit de la business intelligence. Par "effet weight watchers", c'est-à-dire de renforcement de la volonté par la mesure, la conjugaison de la responsabilité sociale et des métriques développe les externalités positives (Ex*), ce qui alimente encore les tendances évoquées.

L'équation devient :

(Re + Re(Rn) + Re(Bm')) x (Bm + Bm') = (Rm + Rm') + (Rn + Rn') + Ex*

Insuffisance d'indicateurs

Les indicateurs de l'entreprise sont la conséquence de son équation économique traditionnelle :

Re(Ressources) x Bm(Business Model) = Rm(Richesse marchandes) + Ex(Externalités).

Ces indicateurs obligent à des contorsions comptables entre goodwill, actifs immatériels, informations extra-comptables voire "valeur d'utilité" (norme IAS 36), qui essaient d'estimer en monnaie des richesses d'un autre ordre.

La mesure massive des effets utiles provoque quatre tendances de fond :

  • valorisation des externalités positives,
  • création de nouvelles ressources,
  • nouvelles externalités positives

L'équation de l'entreprise iconomique se métamorphose ainsi pour devenir :

(Re + Re(Rn) + Re(Bm')) x (Bm + Bm') = (Rm + Rm') + (Rn + Rn') + Ex*

Les indicateurs des entreprises devraient rendre compte de l'intégralité de cette nouvelle équation économique, ce qui n'est pas le cas. Ces lacunes dans l’identification et la valorisation des richesses non marchandes rendent nécessaire de faire évoluer notre compréhension de la création de valeur.

Propositions

De l'équation économique traditionnelle de l'entreprise

Re (Ressources) x Bm (Business model) = Rm (Richesses marchandes) + Ex (Externalités)

découle son objectif : conquérir des ressources (extension de territoires) et améliorer la productivité du business model (nouvelles techniques) pour accroître les richesses marchandes sous contraintes réglementaires relatives aux externalités.

L' iconomie est une vision de la société transformée par la numérisation, au même titre qu'elle a été transformée par l'électrification et la mécanisation il y a un siècle. Avec la mesure massive des effets utiles, l'équation de l'entreprise iconomique se métamorphose pour devenir :

(Re + Re(Rn) + Re(Bm')) x (Bm + Bm') = (Rm + Rm') + (Rn + Rn') + Ex*

De cette équation découle son objectif : révéler des ressources (exploration de richesses non marchandes), adopter des business models pour accroître les richesses (marchandes et non marchandes) et orienter les externalités.

Au regard des travaux de la Commission Contrat de Société, nous proposons d'inciter l'entreprise à :

1 - Comptes

→ Rendre des comptes à ses parties prenantes selon des comptabilités extra-financières adaptées.

Notons pour éviter toute confusion que les "performances extra-financières" de la Directive RSE (2014/95/UE) découlent de l'équation traditionnelle de l'entreprise :

  • Ce reporting est relatif aux "dommages collatéraux" causés par l'activité de l'entreprise. Comme la comptabilité financière, les comptabilités extra-financières que nous proposons sont relatives à la création de richesses (nette de destruction).
  • Ce reporting est relatif à la responsabilité sociale et environnementale, tandis que les comptabilités que nous proposons visent tout type de richesse


2 - Gouvernance

→ Définir les unités (non monétaires) des comptabilités extra-financières en fonction du projet de l'entreprise (objectifs

→ Définir les arbitrages entre objectifs, et adopter des taxes internes pour orienter les modèles d'affaires vers les priorités de l'entreprise.


3 - Finalité.

→ Réhabiliter la mission de l'entreprise en tant que producteur de richesse's', dans son plein sens économique, c'est-à-dire de richesses marchandes et non marchandes.


L'économie a confondu richesse et richesse marchande pendant deux siècles, ce qui a abouti au tiraillement des entreprises entre plusieurs objectifs apparemment contradictoires. L' entreprise iconomique tire parti de façon radicale des nouvelles métriques de l'utilité pour redéfinir sa mission, éclairer sa gouvernance et éviter son écartèlement par ses parties prenantes.

Théorie de la croissance endogène

La théorie de la croissance endogène va au bout de cette logique et vise à favoriser, par des politiques publiques adaptées, les investissements publics et privés dans les activités à rendement croissant ou à externalités positives[352].

La synthèse des intelligences

Synthèse

Vouloir engager une réflexion nationale sur l'intelligence artificielle est un piège politique que le gouvernement se tend à lui-même. Pour l'éviter, il vaut mieux chercher la synthèse de l'intelligence artificielle et de l'intelligence collective.

Le Premier Ministre a confié au Député et mathématicien Cédric Villani une mission sur l'intelligence artificielle (IA) pour l'éclairer et "ouvrir le champ à une réflexion nationale"[353]. L'enjeu est en effet de taille. Mark Zuckerberg, le fondateur de Facebook, et Eric Schmidt, Président exécutif de Google, pensent pouvoir grâce à l'IA « réparer tous les problèmes du monde ».

Ce courant de pensée est puissant, mais critiqué pour ses dérives "solutionnistes". Demander à l'IA de résoudre le problème des sans-abris reviendrait à lui laisser les effacer en temps réel dans nos lunettes de réalité augmentée. Aussi perfectionnée soit-elle, l'IA ne sait pas contextualiser les problèmes pour les élucider, et se précipite trop tôt sur de fausses solutions. C'est pourquoi Elon Musk, fondateur de Tesla, craint le scénario de Terminator : « jusqu'à ce que les gens voient vraiment des robots tuer des personnes, ils ne sauront pas comment réagir, tellement ça leur paraîtra irréel ». Pour contrer ce funeste destin, il a créé la société Neuralink avec la mission vertigineuse d'implanter des électrodes dans notre cerveau, et veut ainsi augmenter l'intelligence humaine. Ce deuxième courant de pensée "transhumaniste" est lui-même critiqué pour être un remède pire que le mal.

A l'inverse l' intelligence collective (IC) veut augmenter la coopération entre les humains. Mais ce rêve ancien est resté inachevé. L'intelligence est certes interconnectée avec Internet et collaborative avec Google et les réseaux sociaux, mais elle est encore peu collective. Ce développement s'est toujours heurté aux limites du bénévolat, de la gouvernance partagée ou de l'organisation hiérarchique. A chaque fois dans l'histoire qu'une dynamique d'invention collective s'est mise à bouillonner, pour lancer la machine à vapeur, l'aviation ou la micro-informatique, elle s'est figée brusquement dès les premiers succès. Les contributeurs se disputent la propriété des fruits de l'IC et, lorsqu'ils essaient de résoudre le dilemme entre propriété privée ou commune, ils s'enlisent dans le sempiternel clivage capitalisme / communisme.

Le thème de l'IA conduit mécaniquement aux thèses solutionniste et transhumaniste, et son inverse l'IC conduit aux antithèses capitaliste et communiste. Bloquée dans ces oppositions, la pensée ressasse les craintes du chômage, de colonisation numérique, de fuite des cerveaux, d'impossibilité de régulation et de perte de souveraineté. Elle sécrète ainsi un poison anxiogène qui intoxiquera toute réflexion nationale. Le gouvernement, qui n'aura aucun argument solide face à ces craintes, dépensera son énergie à ne pas se laisser contaminer. On exhortera l'IA à être plus verte et responsable, on durcira les contrôles administratifs, on dispensera quelques saupoudrages pour adoucir le mal, et on finira par ranger le tout dans le tiroir des occasions ratées avec le smartphone, le commerce électronique et l'ubérisation.

Pourtant notre histoire a déjà été confrontée à ce type de situation. Pour faire émerger une nouvelle intelligence du monde, le philosophe René Descartes établissait au XVIIème siècle la prééminence du raisonnement. Isaac Newton lui opposait celle de l'observation. Il constatait en effet qu'une pomme est attirée par la Terre comme les planètes par le Soleil, sans raison. Cette querelle de deux sciences incomplètes, envenimée par les préjugés des théologiens, a alimenté des débats fiévreux et vains pendant presque un siècle. Il a fallu attendre les Lumières pour inventer la synthèse du raisonnement et de l'observation par la science moderne. Alors seulement celle-ci a pu se développer pour résoudre les grands problèmes de son temps - la misère, les grandes épidémies et la mortalité infantile.

De même aujourd'hui, la réflexion doit se focaliser sur la synthèse naissante des intelligences IA+IC. Celle-ci se dessine justement grâce à un foisonnement de jeunes expériences pour mieux coordonner les automobilistes et accroître la sécurité routière. Pour partager les images médicales et expertises, et améliorer la prévention des risques. Pour enrichir et simplifier la coopération entre les équipes marketing et leurs clients, entre élèves et professeurs. Pour répartir la prise de décision et remplacer le commandement par l'animation. Pour établir, dans les entreprises "à mission", des comptabilités extra-financières poussées[354] et se fixer des objectifs responsables au-delà de la seule rentabilité. Pour mesurer, sur les plate-formes "décentralisées", la valeur de chaque contribution, lui attribuer des parts de co-propriété et sortir du travail gratuit habituellement récolté par les GAFA. Pour gérer les œuvres collectives et les big data comme des co-propriétés massives, dépasser les vieux clivages idéologiques sur la propriété et sortir du tout gratuit lorsque les GAFA les monétisent. Pour mesurer de multiples indicateurs de qualité de vie[355][356], les inclure dans les statistiques officielles et gouverner une économie enfin durable. Aucun de ces enjeux n'est accessible à l'IA ou l'IC pris séparément.

En traitant le sujet tel qu'il lui a été confié, l'aboutissement de la mission sur l'IA sera anxiogène pour la réflexion nationale. En ouvrant son sujet à la synthèse de l'IA et de l'IC, cette mission pourra orienter les Français et les Européens vers l'avènement d'une nouvelle science capable de faire face aux grands problèmes contemporains. Cette vision offrira une alternative aux courants de pensée dominants de l'IA, et sera plus en ligne avec nos valeurs, davantage portées par l'intérêt collectif. Le défi intellectuel est de taille, mais Cédric Villani en a relevé d'autres.


Startups

Dawex

Pour valoriser leurs données, les entreprises attendent le "AirBnB de la data"

En constatant que leurs données sont commercialisées par d’autres, les entreprises veulent les valoriser à leur propre bénéfice. Elles ont en revanche besoin d’un « AirBnB de la data », c’est-à-dire un tiers de confiance qui leur garantira la sécurité de la transaction et des outils d’intermédiation comme le mise en place de contrats de licences sur les droits d’utilisation des données, par exemple. Dawex veut apporter aussi des services plus spécifiques : évaluer la qualité des données avant la transaction, proposer une tarification, garantir de ne pas vendre à un concurrent. On estime que cette valorisation représentera de 0,5 à 1,5% du chiffre d’affaires dans le secteur du retail d’ici 3 à 5 ans. On observe l’émergence de nouvelles pratiques : la fourniture de données permet d’identifier une demande latente qui, en retour, justifie une investigation plus poussée du système d’informations pour améliorer cette fourniture. La coopération du client et du fournisseur s’intensifie avec des partages croisés de données. En Allemagne, des réseaux décentralisés s’organisent déjà autour de la data dans le secteur automobile. L’IA permet progressivement de tarifer les données. Certains « pure players » émergent, tel la startup Hydrao, créateur de douches connectées qui propose des solutions intelligentes pour la conservation et la gestion de l’eau et dont le modèle est fondé essentiellement sur les informations du comportement client collectées et anonymisées. L'économie de la donnée submergera rapidement la digue de l’open data et du marché publicitaire.

Fabrice Tocco et Laurent Lafaye sont les co-fondateurs de Dawex, place de marché B2B pour la monétisation et le partage des données <tocco à dawex.com><laurent à dawex.com>

Deepomatic

La reconnaissance massive d'images améliore la vigilance

L’ONG NHance consolide les expertises de médecins. Chaque spécialiste, qui est capable de détecter une pathologie particulière sur un lot d’images médicales, enseigne cette connaissance à l'IA. Une fois entraînée, celle-ci devient une aide précieuse au diagnostic en soulageant le praticien, qui n’est pas omniscient. La cartographie augmentée par IA de champs entiers survolés par drone enrichit la collaboration des agriculteurs et experts pour anticiper l’apparition de maladies. Deux tiers des accidents de personnes qui sont descendues sur les rails du métro auraient pu être évités si toutes les caméras étaient visionnées en permanence, ce qui n’est économiquement pas possible. L’IA en revanche reconnaît des situations anormales et pourra bientôt déclencher une alerte. Pour la sécurité nationale, l’appel d’offres Artemis veut scanner les réseaux sociaux par IA pour détecter les traces de comportements terroristes.

Augustin Marty est le CEO de Deepomatic, éditeur d’outils de reconnaissance d’images <augustin à deepomatic.com>

C-Radar

Le machine learning enrichit les métiers de la relation client

Le machine learning enrichit les métiers de la relation client. Il prédit les futurs clients, les clients qui veulent partir, leurs délais de paiement et quand les relancer. Ces prédictions n’étaient pas faites avant l’IA, on faisait des envois et des relances au pif, et on essayait de rattraper un client lorsqu’il était déjà trop tard. L’IA fait monter en compétence toute la chaîne des métiers sans les remplacer. Toute l’industrie sera équipée dans un horizon de 5 à 10 ans. Le temps paraîtra lointain de celui où les entreprises n’avaient pas de vision précise de leur cible, pratiquaient une publicité invasive ou des prix non personnalisés, enregistraient des taux faibles de transformation de prospect, ou ne disposaient pas de cartographie précise de la satisfaction de leur clientèle.

François Bancilhon est le Fondateur de C-Radar, société de marketing prédictif B2B <francois.bancilhon à c-radar.com>

Cogiflex

L'IA est un support de la collaboration de l'équipe pédagogique

L’IA permet au Professeur de mesurer toutes les micro-compétences de ses élèves, de tracer les parcours individuels et collectifs d’apprentissage. Elle est un support de collaboration de l’ensemble de l’équipe pédagogique, car elle mesure aussi les compétences de français et de maths à travers la résolution d’un problème de physique. Elle agrège des contenus pédagogiques pour répondre aux questions, par exemple « pourquoi le ciel est-il bleu ? ». Le Professeur peut d’une part piloter l’IA en définissant des objectifs ou des priorités, et peut d’autre part jouer davantage son rôle de mentor. Quelque soient les qualités de l’IA en termes de personnalisation d’exercices ou son caractère ludique, un enfant sait qu’il a affaire à une machine et a d’autant plus besoin de la présence, de l'expérience et des conseils d’un enseignant. Contrairement aux tentatives précédentes d’informatisation des collèges et lycées, la diffusion de ces nouveaux outils sera facilitée par le mode Saas, qui évite tout problème d’installation et de maintenance, et par le taux élevé d’équipement en smartphones.

Ambroise Cade, Fondateur de Cogiflex, éditeur d'un système d’apprentissage automatique et adaptatif <ambroise.cade à cogiflex.com>

Batvoice

L’IA revalorise le centre d'appels

L’IA enrichit la collaboration des services liées à la relation client. Si un client appelle le call center parce qu’il veut payer par Paypal alors que le site web ne le permet pas, l’action traditionnelle consiste au mieux à traiter le problème avec le client, mais aucun enseignement n’en est retiré. L’IA analyse la discussion téléphonique pour enregistrer les motivations du client, son humeur, la pertinence des réponses apportées, son risque de résiliation, calcule des statistiques et documente des prédictions. Les équipes du call center, du marketing, du design produit, sont sollicitées autour de problèmes correctement identifiés et mesurés. Par exemple "5% des clients demandent de pouvoir régler par Paypal avec un niveau d’exigence moyen à élevé, le risque de résiliation lié à cette cause est de 3% ce qui conduirait à une perte de chiffre d’affaires de 0,1%". Si les équipes modifient leur offre, elles disposent ensuite d’une cible qualifiée auprès de laquelle promouvoir cette amélioration. Les consommateurs qui ont un problème ont besoin de parler à quelqu’un, et les entreprises voient souvent leur call center comme une source de coûts à réduire. Or les call centers low cost et les robots conversationnels non seulement sont désagréables pour le client, mais de plus ne permettent pas de retirer tous les enseignements d’une véritable discussion téléphonique. L’IA revalorise le service client.

Maxime Sendorek, Fondateur de Batvoice, éditeur d’IA dédiée à la relation-client par téléphone <msendorek à batvoice.com>

Lalilo

Avec l'IA, la pédagogie va faire de grands progrès

L’IA peut découvrir des meilleures pédagogies. En modifiant légèrement les parcours individuels d’apprentissage, on peut détecter des différences de réussite entre deux échantillons d’apprenants. De proche en proche, l’IA nous permet d’améliorer la pratique de l’enseignement. Comme l’IA adapte l’apprentissage à chaque élève, elle apporte au professeur la possibilité de donner à chaque élève des exercices personnalisés. Si les enfants sont notés par une machine, non seulement ils n’ont pas peur d’être jugés, mais ceci renforce leur confiance dans leur Professeur, dont le rôle d'accompagnateur est revalorisé. De même si l’IA voit qu’un élève sait faire une division, tandis qu’un autre sait calculer une aire, elle va proposer un exercice qui nécessite les deux compétences, à résoudre par ce tandem. L’élève qui explique à son co-équipier renforce sa compétence, les deux apprennent à collaborer, personne n’est dévalorisé de ne pas savoir. La pédagogie va faire de grands progrès dans les 5 prochaines années.

Laurent Jolie, co-Fondateur de Lalilo, plate-forme d’apprentissage de la lecture personnalisé par IA <laurent à lalilo.com>

Kapcode

Les discussions d'internautes au service de la pharmaco-vigilance

Dans 30% des cas, l’identification des effets secondaires d’un médicament est plus rapide par l’analyse des réseaux sociaux que par la pharmacovigilance. Les médecins sont sensés notifier ces effets secondaires mais c’est fastidieux. De plus, les patients parlent plus spontanément en ligne. L’activité combinée de l’IA et des internautes permet aussi de comprendre les véritables raisons des problèmes de non observance de leurs ordonnances. « J’ai pris tel anti-dépresseur pendant 10 jours, ça ne marche pas », écrit sur Twitter un patient, qui ne sait pas que le délai de retournement de l’humeur peut atteindre 3 semaines. On identifie aussi très tôt les mésusages comme celui du Mediator utilisé comme coupe-faim ou le Cytotec utilisé dans les interruptions volontaires de grossesse (pour déclencher des accouchements), alors qu’ils n’ont pas été conçus pour cela. Au-delà des réseaux sociaux, les sources d’informations médicales provenant des patients se multiplient avec les smartphones, les montres et balances connectées, les agendas de prises de rendez-vous en ligne, ce qui va provoquer un effet de masse sur leur utilité. Il manque encore des méthodes standardisées d’évaluation du bénéfice médical de ces données, mais il n’y a aucun doute que les enjeux économiques et de santé publique sont considérables, et que nous n’en sommes qu’au tout début.

Dr Stéphane Schück, Président et Directeur Scientifique de Kap Code, société de détection de signaux sanitaires sur les réseaux sociaux <stephane.schuck à kappasante.com>

Wiidii

La complémentarité des intelligences

L’assistant numérique hybride mixe IA et conciergerie. On attend d’un assistant qu’il puisse faire le nécessaire lorsqu’on lui dit « je dois être à l’aéroport dans une demi-heure » ou « trouve-moi un restaurant à 13:00 dans le quartier, je déjeûne avec un client ». L’IA peut déjà transcrire la voix, apprendre nos préférences de transport ou de cuisine, mémoriser nos budgets habituels et calculer des temps de transport. En revanche, la machine fait facilement des contresens si on lui dit : « retrouve le japonais de la dernière fois ». Le service doit alors transmettre le relai à une personne du back office, en lui communiquant non seulement la question posée, mais aussi le problème rencontré et l’historique du client, pour que la transition se fasse sans couture. L’assistant numérique va monter en gamme et fera des propositions : « j’avais noté que vous rêviez de voir un jour un Opéra à Milan, or il reste de la place pour Don Giovanni lors de votre prochain voyage ». Ce qui nécessitera une complémentarité encore plus fine entre les intelligences artificielle et humaine.

Cédric Dumas, Fondateur de Wiidii, assistant personnel hybride <cedric.dumas à wiidii.com>

SmarterTime

Mieux gérer son emploi du temps

L’IA facilite une gestion plus équilibrée de notre emploi du temps. Les capteurs d’activités mesurent notre temps passé sur Facebook et sur nos logiciels de bureau, au téléphone et dans les transports, au cinéma et dans les magasins. En cas de doute, l’IA bouche les trous et propose des grandes catégories. Chacun peut ainsi avoir un tableau de bord complet et détaillé de ses activités, et se comparer à des statistiques. L’effet Weight Watchers permet de prendre de bonnes résolutions après avoir pris conscience de ses excès. La machine peut aussi faire quelques rappels utiles : « attention, on avait dit pas plus de 15 minutes à lire les emails à la maison ! » ou donner des informations, par exemple sur les risques liés au manque de déconnexion.

Anna Winterstein, fondatrice de smarter Time, une appli pour optimiser la gestion des journées des mobinautes <anna.winterstein à smartertime.com>

Owi

L'IA améliore la compréhension mutuelle des interlocuteurs

L’IA facilite et sécurise la relation entre un conseiller et ses clients. Quand nous nous adressons à notre banque par mail, elle nous propose trop souvent d’en discuter lors d’un rendez-vous, alors que la solution ne paraissait pas si compliquée. En fait, notre conseiller peut tout simplement avoir peur de s’engager par ses écrits ou de mal s'exprimer. En analysant le mail entrant, l’IA peut lui faciliter la tâche en lui proposant une réponse prérédigée, dont il n’a plus qu’à choisir les paragraphes. Ce choix enrichit l’apprentissage de l’IA pour affiner la personnalisation des prochains mails pour le client. La performance de la réponse est également mesurée en fonction de son contenu mais aussi de son style. L’analyse des conversations au téléphone apporte une dimension humaine supplémentaire, qui permet de mieux qualifier la satisfaction du client. Ces techniques permettent au final d’optimiser la relation client, ce qui se mesure par exemple par la capacité à résoudre le problème en un seul mail, le nombre de relances, ou le taux de rétention des clients qui voulaient partir. Elle se mesure aussi par la capacité de détecter des besoins. Un mail à Engie contenant « il y a une odeur de gaz » peut justifier une alerte immédiate des techniciens. L’IA peut être vue comme u à traducteur entre deux personnes qui ne comprennent que partiellement les attentes, les expertises et les responsabilités de leur interlocuteur.

Christophe Dany, co-fondateur d’OWI, éditeur de solutions d’IA au service de la relation client <christophe.dany à owi-tech.com>

Antvoice

L'IA impose sa technicité au marketing

Le marketing est actuellement géré par type de canal ou par type de média par des spécialistes du marketing, chacun maitrisant son domaine. L’IA va permettre un suivi complet des consommateurs, des assistants numériques comme Alexa au magasin en passant par le digital et le mobile, et une gestion optimisée des contacts, permettant de gérer la pression, le type de canal ou de média à favoriser. Chaque individu bénéficiera ainsi d’un plan marketing qui lui sera propre et optimisé dans le temps par des technologies de machine learning. L’IA va imposer aux directions marketing d’être beaucoup plus techniques, en plus d’être stratèges et créatives. L’IA remplace l’approche par segment, dépassée, par une approche réellement individuelle permettant de personnaliser l’offre en dépassant les limites des règles métier, souvent non modélisables et statiques (pas d’auto apprentissage). La fonction marketing est en cours de réinvention. Elle devrait faire la jonction entre les objectifs stratégiques, marketing et commerciaux de l’entreprise (écouler un stock, viser une nouvelle cible, améliorer un indice de satisfaction, etc.) et les technologies comme l’IA qui seront au cœur des activations marketing. La créativité (sur les formes, les matières ou les services, etc.) restera un apport important de l’homme vs la machine. Mais pour combien de temps ?

Alban Peltier, Fondateur d'Antvoice, qui édite une solution d'optimisation des taux de conversion basée sur les recommandations sociales des internautes<alban à antvoice.com>

Tharios

Moins de rédaction et plus de responsabilités pour le community manager

L’IA améliore la qualité des échanges sur les réseaux sociaux. L’infobésité actuelle est liée aux mécanismes publicitaires qui incitent les éditeurs du web à multiplier les contenus pour multiplier les encarts. L’IA segmente les consommateurs de manière plus fine et personnalisée et fabrique des messages mieux ciblés. Lors d’un match de foot, par exemple, l’IA propose au community manager une série de messages destinés aux différents réseaux sociaux, que celui-ci valide avant de les poster. Sa responsabilité de l’envoi reste incontournable, ne serait-ce que pour filtrer les éventuelles fake news. La communication est plus rapide et mieux adaptée à chaque communauté, dont le profil s’enrichit de caractéristiques culturelles. La viralité d’un message individuel est moins forte, mais la somme des diffusions l’est davantage, tout en augmentant son niveau de qualité. Au final, les internautes sont incités aussi à créer du contenu de qualité, ce qui aura un effet vertueux sur l’ensemble. En négatif, l’effet miroir du media est renforcé, comme pour les personnes qui lisent toujours le même journal.

Joaquin Fernandez-Tapia, co-Fondateur de Tharios, éditeur d’intelligence artificielle d’aide à la rédaction


En même temps que les intelligences collectives se renforcent et évoluent grâce à l'explosion des réseaux sociaux, il devient de plus en plus complexe pour un être humain de gérer tous ces nouveaux échanges (on ne communique pas de la même façon sur linkedin vs facebook vs snapchat vs instagram), ces nouvelles règles de communication et de partage qui se créent (on ne communique plus sur linkedin aujourd'hui qu'il y a un an par exemple), parfois d'apprendre à se protéger des excès et comportements néfastes de certains (trolls, fake news & autres tentatives de manipulation ..). Les technologies d'IA sur lesquelles on travaille et qu'on développe chez Tharios s'inscrivent dans ces tendances et ont pour but d'être de nouveaux outils pour continuer à faciliter et fluidifier nos échanges et à communiquer toujours plus, mieux et vite. Probablement que ces nouveaux outils feront évoluer aussi la manière dont on communique aujourd'hui. Par exemple, les modèles de deep learning qu'on utilise pour faire de la génération automatique de texte sont très proches de ceux utilisés pour faire de la traduction automatique. Il est clair que si on se projette dans quelques années et qu'on imagine qu'il est possible d'échanger avec quelqu'un à l'autre bout du monde sans parler sa langue, de lui écrire et envoyer des messages automatiques pour l'informer de ce qu'on fait, veut, ... et / ou de ce qu'il fait, veut ..., éventuellement d'avoir des robots qui répondent pour nous quand nous ne sommes pas disponibles de la même manière qu'on le ferait, d'entretenir des échanges avec toujours plus de monde à différents niveaux, ce sont des changements significatifs qui nous renforceront dans notre rôle de communicant. Les évolutions fortes de l'IA qu'on observe, et dont à Tharios nous sommes les acteurs, viennent donc enrichir les intelligences collectives et renforcent la place des hommes dans le "système" plus qu'elles ne nous mettent "de côté".

Christophe Bourgoin, co-fondateur de Tharios, éditeur d’intelligence artificielle d’aide à la rédaction <christophe à tharios.com>

Dialoog

L'IA facilite l'expression et le dialogue dans l'entreprise

L’IA participe à la transformation managériale des entreprises. Lors d’enquêtes en ligne, les collaborateurs peuvent être interrogés en multilingue, partout dans le monde, à travers questions fermées et ouvertes :

  • à travers des baromètres récurrents : suivi de l’intégration des nouveaux arrivants (êtes-vous satisfaits de l’intégration ? que devrait faire l’entreprise pour améliorer votre intégration ?), baromètre RH (êtes-vous heureux au travail ? qu’est-ce qui vous rend heureux dans l’entreprise ?)...
  • à travers des enquêtes ponctuelles : SWOT, culture numérique (à quel point êtes-vous à l’aise avec les outils informatiques ? Quels outils numériques recommanderiez-vous à vos collègues ?)...

L’IA analyse en temps réel les verbatim pour lister les idées exprimées et en retirer des statistiques. Elle facilite ainsi un usage généralisé des questions ouvertes, ce qui libère la parole, révèle les signaux faibles et compense le biais d’orientation des questions fermées. Au cours d’un séminaire interne, des tables de collaborateurs sont organisées pour les faire réfléchir (Sur quels points êtes-vous à l’aise/pas à l’aise avec le nouveau plan stratégique ? Quelles actions allez-vous mettre en œuvre pour améliorer la rétention des clients ? etc.). L’animateur de la table saisit sur sa tablette toutes les réponses, en vrac. La synthèse est ensuite affichée à l’écran, sans temps mort, pour nourrir les échanges avec la salle.

En quelques années, les pratiques managériales ont beaucoup évolué. On ne faisait hier des enquêtes internes que pour mesurer un degré de satisfaction ou de rejet, ou s'acquitter d'obligations légales. On est convaincu aujourd’hui qu’il faut davantage d’écoute, mais le retour d’information vers les collaborateurs est encore limité. On disposera demain de tableaux de bord partagés qui favoriseront l’expression, le dialogue, la décentralisation des décisions et, au final, le bien-être au travail.

Pierre Simonnin, co-fondateur de Dialoog, accélérateur d'échanges pour les séminaires et formations <pierre à dialoog.fr>

Khresterion

Il faut des experts pour arbitrer les contradictions de l'IA

L’IA a besoin de l’intervention d’experts pour arbitrer les contradictions. Lorsqu’une solution d’IA d’aide au traitement médical a été programmée avec des règles inspirées des meilleures pratiques cliniques, elle ne doit pas décider de soigner le cancer quitte à aggraver le diabète d’un patient. Elle doit éclairer le médecin sur ses deux axes de raisonnement, chacun relatif à une maladie. Le médecin pourra faire un choix après discussion avec ses confrères, transgresser une règle pour trouver un compromis, ou préférer la qualité de vie à l'espérance de vie après discussion avec son patient. Dans tous les cas, son choix et les résultats obtenus enrichiront le système d’une nouvelle expérience.

Denis Pierre, Président de Khresterion, éditeur d’un moteur de raisonnement expert <denis.pierre à khresterion.com>

Salezeo

L'IA renforce l'intérêt des pairs à coopérer

La coopération des commerciaux est renforcée par l’IA. Ils échangent entre eux depuis toujours des cartes de visite pour élargir leurs bases de prospects. De nouvelles plateformes facilitent ces échanges et deviennent des « Wikipedia des commerciaux ». Elles assortissent les données d’une note de fiabilité en fonction de leur date d’émission, de leur cohérence avec Linkedin et les sites web, de la réputation de leur émetteur. Le traçage des utilisateurs permet ensuite de faire le lien et d’enrichir progressivement la connaissance des prospects. De proche en proche, la plateforme devient un outil de veille des intentions d’achat et de mise en relation d’affaires d’un commercial et d’un prospect. La pertinence de cette mise en relation est garantie par son initiation par un intermédiaire de confiance, et sa qualité est assurée par celle des données apportées au départ par les commerciaux eux-mêmes.

Olivier Piscart, Fondateur de Salezeo-Visiblee, société qui réinvente la génération de leads grâce à l’IA <olivier à visiblee.biz>

Therapixel

Les experts ne sont plus sollicités pour la routine

Au même titre que le pilotage automatique des avions, l’IA de radiologie gère la routine mieux que les experts, mais elle leur laisse la place à la première difficulté. On a mesuré pour la rétinopathie et la caractérisation des lésion cutanées que l’IA présente déjà une capacité analytique supérieure à celle des spécialistes. Ce sera aussi le cas pour le dépistage du cancer du sein d’ici 2 ans, et les autres spécialités prennent le même chemin. Les radiologues, qui sont des spécialistes, ne seront progressivement plus sollicités que pour les cas exceptionnels, délicats ou nouveaux, comme les pilotes d’avions.

Olivier Clatz, co-fondateur de Therapixel, éditeur d’IA d’analyse d’imagerie médicale <oclatz à therapixel.com>

Talentoday

Mieux comprendre les ressources humaines grâce à la cartographie

La cartographie massive des talents améliore la qualité de l’emploi. Grâce à un questionnaire rempli par plus de 3 millions de personnes dans le monde, on mesure des compétences humaines et motivationnelles de manière individuelle, par entreprise, par fonction et par pays. On observe statistiquement que les commerciaux sont persuasifs mais ont peu d’ouverture aux autres, que les banquiers sont motivés par la rémunération et la reconnaissance sociale, ou que les mexicains sont peu sensibles à la pression. Ces mesures permettent aux entreprises de mieux comprendre leur propre culture et d’orienter leur politique de recrutement. La qualité du recrutement, la formation d’équipe et l’encadrement se fondent davantage sur la personnalité que sur le CV. La direction des ressources humaines est largement assistée par ces outils et peut se concentrer davantage sur le suivi et la réussite des employés. Ces mesures permettent symétriquement au chercheur d’emploi ou à l’employé de mieux gérer sa carrière, par comparaison de son profil à ceux des fonctions ou des entreprises.

Martin Ryssen, co-Fondateur de Talentoday, éditeur d’une plate-forme d’orientation professionnelle <m.ryssen à talentoday.com>

C-zam

Les économies communautaires émergent avec le token

Les tokens de la blockchain ouvrent le champ aux économies communautaires. Les émissions de tokens (Initial Coin Offering ou ICO) ont eu beaucoup de succès mais pourraient n’avoir été un feu de paille. En revanche, elles auront illustré leur immense potentiel grâce à tous les usages qu’elles ont exploré. La période actuelle ressemble pour les tokens aux débuts du commerce électronique : pendant plusieurs années, aucune solution n’était à la fois pratique et sécurisée, jusqu’au succès de PayPal. Aujourd’hui, le portefeuille simple et sécurisé de tokens n’est pas encore très ergonomique, mais on y arrive. A partir de là, il y aura un fort développement dans plusieurs directions, en particulier pour les écosystèmes au sein de communautés. Les crypto-monnaies comme Bitcoin facilitent déjà les transactions, les "corporate tokens" seront utilisés par les entreprises pour stimuler des dynamiques collectives, et entre les deux les "tokens communautaires" permettront de valoriser les contributions, interactions ou co-propriétés entre participants de plateformes.


Adrian Sauzade, Fondateur de C-zam, spécialiste des services de gestion de tokens <adrian.sauzade à gmail.com>

Sophia Genetics

La coopération médicale est dynamisée par l'IA

L’intelligence collective se développe grâce à l’IA. Habituellement le thème de l’IA insiste trop sur les aspects techniques alors que le cœur de l’intelligence est toujours humaine. Et il faut les deux pour démocratiser une solution standardisée et globale qui fait levier sur le bon usage des expertises médicales. Au départ, les hôpitaux disposent de données médicales, mais trop peu pour réellement aider au diagnostic numérique. Il faut déjà les mettre en réseau, ce qui nécessite la volonté d’un projet commun. Il faut dépolluer les données des scories et les normaliser. Il faut superviser l’apprentissage de l’IA, en indiquant par exemple quel variant génétique est la cause de la maladie. Des disciplines différentes doivent combiner leurs expertises pour identifier la nature de la tumeur et sa progression. L’IA identifie des informations-clés indispensables aux cliniciens pour prendre des décisions d’intervention, par exemple radiofréquence ou chirurgie, et les résultats du traitement permettront à la machine d’accumuler de l’expérience. Au final, la technologie est là et c’est bien la mise en réseau du savoir, possible grâce à une globale coopération d’organisateurs, de directeurs d’hôpitaux, de bio-informaticiens, de médecins provenant de multiples disciplines, d'analystes moléculaires, de radiologues, d’animateurs de communautés médicales et de praticiens qui est nécessaire pour une médecine basée sur les données, de sa montée en gamme, pour tous et à moindre coûts.

Jurgi Camblong, co-Fondateur de SOPHiA GENETICS, société qui développe une médecine basée sur les données <jcamblong à sophiagenetics.com>

Julie Desk

La supervision de l'IA par l'oeil humain permet d'en contrôler le risque

Dès qu’il y a une prise de responsabilité, la supervision humaine de l’IA est nécessaire. Pour trouver le bon créneau dans un agenda, entre plusieurs personnes tout en prenant en compte les différentes contraintes comme les temps de transport, l’IA est beaucoup plus performante et fiable qu’un assistant humain seul. Cependant sur d'autres actions, la machine fait plus d'erreurs qu'un humain et a besoin de l'humain. Quand on demande à SIRI « appelle Zoé » et qu’il répond « j’appelle Chloé », il est facile de corriger et les enjeux sont faibles. En revanche dans un contexte professionnel, l’erreur de l’IA n’est plus acceptable, même si le taux est faible. L’IA se heurtera longtemps à des difficultés d’interprétation, par exemple que veut dire « jeudi prochain » quand on est mercredi ? Que veut dire « j’espère qu’il y aura des Haribo ;) » ? Il faut une personne pour interpréter le contexte. L'IA doit être supervisée. Dans ce contexte pour éviter les erreurs, l'immense majorité des cas d'organisation de rendez-vous sont contrôlés par des humains chez Julie Desk pour éviter une erreur avant que le client s'en rende compte. Le temps passé sur cette supervision diminue au fur et à mesure que l'IA s'améliore.

Julien Hobeika, co-Fondateur de Julie Desk, société qui a créé une assistante virtuelle pour la prise de rendez-vous <julien à juliedesk.com>

Lokad

L'IA stimule la stratégie

Le déploiement de l’IA stimule la réflexion stratégique : que faut-il optimiser ? Que ce soit un boulon à 200 EUR ou un réacteur à 20 millions d’euros qui soit défaillant, l’avion ne décollera pas et il faudra peut-être loger tous les passagers pour la nuit le temps d’acheminer une pièce de rechange. Si un vêtement n’est plus disponible en magasin, il y aura des effets de substitution vers d’autres articles de mode ou vers d’autres magasins. Faut-il donner priorité à la rentabilité, à la disponibilité, à la satisfaction ? L’IA fait évoluer les métiers. Le service Fullfillment by Amazon (FBA) est facturé en fonction de nombreux paramètres comme la quantité, le stock, la date, les modes de transport. Le nouveau site de la Redoute est largement robotisé. La simple référence produit est enrichie avec des méta-données femme/pantalon/matière/motif/style/tendance/émotion. Elle est reliée par l’IA à des historiques de ventes et de stocks, des promos et des prix pour anticiper les besoins de livraisons et retours de marchandises, pour calculer les temps de livraison et les taux de rebuts, pour prédire les ventes et la rentabilité. Les recherches soviétiques des années 50 pour optimiser leur atelier national se métamorphosent en la vision ultime d’un atelier mondial, mais non déterministe et adaptable à l’incertitude. C’est pourquoi les métiers de la logistique nécessitent davantage de réflexion sur les priorités, les marges de tolérance et les critères de succès.

Joannès Vermorel, Fondateur de Lokad, spécialiste de l’optimisation de la logistique par anticipation de la demande <estelle.dewost à lokad.com>

Ethereum France

Le token fait émerger des communautés professionnelles autonomes

Le token de la blockchain construit une nouvelle forme d'organisation à la convergence de l’entreprise et de Wikipedia. Les tokens sont distribués gratuitement à des prospects qualifiés pour rémunérer leur engagement dans une communauté. Ils sont la contrepartie d’une souscription (ICO), d’un apport en industrie (sweat for security), d’un préachat (crowdfunding) ou de la contribution à un projet (crowdsourcing), mais en apportant beaucoup plus de simplicité, de granularité, de fluidité, de traçabilité et d' objectivité. Sur les plateformes communautaires ils rémunèrent des contributions, des réactions, des interactions, de la qualité approuvée subjectivement ou mesurée avec des indicateurs, de la participation et de la performance. On est très loin d’avoir tout expérimenté et il y a encore beaucoup de spéculations et d’arnaques, mais on voit clairement émerger un nouveau type d’organisations décentralisées, des communautés professionnelles autonomes, grâce au token.

Simon Polrot, Fondateur d’Ethereum France et de Variabl, qui développe des produits de couverture de risque de change en smart contract <spolrot à gmail.com>

Angus

La qualité de la relation client dépend de celle de la relation humaine

L’IA transpose dans le monde réel les métriques massives du web. En dotant les caméras de surveillance des magasins de reconnaissance d’images, on identifie le profil et le comportement des clients. Tranche d’âge, homme, femme, trajet dans le magasins, intérêts pour tels produits, hésitations. Ce client ne trouve apparemment pas ce qu’il cherche ? Un vendeur est alerté sur sa tablette et va lui proposer son aide. Quelques différences notables avec le web : l’identification individuelle, la publicité, la mise en avant personnalisée de produits, la présence de personnel. Certaines sociétés imaginent déjà les écrans de Minority Report et des vendeurs équipés de lunettes de réalité augmentée pour tout savoir de notre profil, capter nos émotions et proposer le meilleur produit avec le meilleur discours calculé en temps réel. Même si ces techniques sont presque au point, les assistants numériques ne doivent pas polluer la relation humaine, qui reste un critère essentiel de la qualité de la relation client. En plus de faciliter le travail des vendeurs, l’IA coordonne l’équipe et consolide des tableaux de bords pour les directions du magasin et de l’entreprise.

Gwennael Gaté, co-fondateur d’Angus, société spécialisée dans les traitements d’image et de son par IA <gwennael.gate à angus.ai>

A/B Tasty

Les fonctions marketing coopèrent pour former des écosytèmes de données

L’IA prédit le meilleur endroit et le meilleur moment pour placer une publicité sur une page web, ou quels sont les meilleurs accessoires que l'on pourrait proposer à un acheteur de télévision pour optimiser la rentabilité de son panier. Certains s'inquiètent de ce glissement de compétences vers l'IA, ou la machine vient à remplacer les cerveaux, cependant ces analyses ne pourraient pas être faites pas un humain pour deux raisons. Tout d'abord, la phase d'apprentissage manipule des données abstraites et en très grand volume, ce qu'un humain ne peux pas faire. Ensuite, la restitution de cet apprentissage, c'est à dire son utilisation, doit être réalisée très rapidement (de l'ordre du dixième de secondes) et à un débit énorme (des milliers de données traitées par seconde). Dans ce contexte l'humain n'a jamais été en compétition avec la machine. Au contraire, l'IA est un outil qui augmente la valeur des équipes marketing, si elles savent s'en servir. La particularité du Machine Learning dans le marketing est que ce n'est plus un expert de la vente qui définit ce qu'il va proposer en achat complémentaire. Ainsi, l'IA peut arriver à des résultats de recommandations qui pourraient surprendre un expert humain et donc potentiellement faire mieux que lui. Par ailleurs, elle pourrait aussi nous surprendre avec des découvertes scientifiques inattendues. Quoi qu’il en soit, cette IA nécessite des quantités astronomiques de données, ce qui fait le bonheur des GAFAM qui en disposent. Mais le reste de l'industrie de la donnée n'a pas perdu la bataille. En particulier dans le marketing, de véritables réseaux de diffusion des données sur les sites web permettent même à des petits acteurs de trouver leur marché et de créer de la valeur. Chacun récupère et produit des données dans des écosystèmes d’informations de plus en plus étendus et coopératifs.

Hubert Wassner, Chief Data Scientist d’AB Tasty, spécialiste des solutions de personnalisation d’expérience utilisateur <yasemin à abtasty.com>

Verteego

La comptabilité extra-financière s'étoffe avec l'IA

L’IA ouvre des perspectives nouvelles à la comptabilité extra-financière. La reconnaissance d’image repère dans les factures les relevés de compteurs sur les factures d’électricité, les quantités de ciment achetées selon leur référence, leurs livraisons par chantier. L’IA récupère des données dans des systèmes d’informations hétérogènes, elle les normalise au besoin en corrigeant des erreurs ou en reconstituant des éléments manquants, par exemple les emplacements exacts de compteurs de consommation. Cette foule d’informations permet de mesurer la consommation d'électricité, les anormalités, l’efficacité énergétique des bâtiments, la production de déchets, les émissions de gaz à effet de serre. L'IA en améliore la qualité d’audit. Elle fournit de nouveaux tableaux de bord pour effectuer des comparaisons entre sites ou entre fournitures alternatives, pour anticiper les consommations et les piloter. Elle devient exploitable sans investissement lourd par les sociétés, de plus en plus nombreuses, qui souhaitent fournir une comptabilité extra-financière de qualité, par exemple dans le cadre de la Global Reporting Initiative ou de B-corp.

Rupert Schiessl, Fondateur de Verteego, éditeur de solutions de reporting extra-financier <maya.kerras à verteego.com>

Artificial Scan

La bonne formation au bon moment

L’IA trouve le bon moment pour aider les employés. Les capteurs d’activité détectent les logiciels qu’ils utilisent et les difficultés qu’ils rencontrent. Ce qui permet à l’IA de leur suggérer individuellement la bonne activité de e-learning au bon moment ou une video de communication interne. L’IA collecte aussi l’adoption ou le rejet de ces suggestions, établit des statistiques anonymisées des activités réelles des employés, et détecte des pistes d’amélioration et de perfectionnement des compétences, pour outiller efficacement les responsables de la formation.

Olivia Azoley, co-Fondatrice de Artificial Scan, solution de productivité des équipes par analyse des usages des applications <olivia à artificialscan.com>

Alicante

Des dossiers médicaux intelligents pour mieux informer les praticiens

L’IA facilite la coopération médicale. Elle a en effet le don de contourner les incompatibilités de centaines de logiciels hospitaliers entre eux, de réparer, ordonner et consolider des masses de données mal structurées. Dans un dossier de patient de 200 pages, l’IA peut scanner un ancien compte-rendu d’anesthésiste, en déduire des facteurs de risques face aux maladies nosocomiales et alerter l’équipe médicale pour effectuer des tests au moment de son admission. Elle peut identifier un antécédent cardio-vasculaire chez un patient admis pour une simple fracture, et informer l’équipe de recherche d’un profil de candidat idéal pour un essai clinique de stent. Elle peut constater des différences de prises en charge entre plusieurs cas de troubles jumelés cardiaques et cognitifs, et documenter une réflexion de l’équipe sur ce sujet. Elle pourrait même pallier à la marge l'absence, ou l'incomplétude, du dossier médical partagé. Mais ces techniques ne doivent pas faire abandonner, malgré les réelles difficultés qu'a rencontrées le projet DMP depuis 2007, cet objectif de créer un dossier numérique, sécurisé, structuré, multi-sources pour chaque patient. Les techniques d'IA n'en seront alors encore que plus performantes.

David Delerue, Directeur Associé de Alicante, qui permet aux hôpitaux de revaloriser leurs données <david.delerue à alicante.fr>

Snap Data

Gommer les corvées de saisies informatiques

L’IA simplifie l’informatique. Pour un agent commercial de terrain, photographier une carte de visite est plus facile que d’en recopier tout le contenu, et la supervision par des équipes spécialisées fiabilise la qualité des données extraites par IA. Dicter un compte-rendu de réunion est plus facile que de le rédiger dans une fiche préformatée, et son analyse par IA restructure cette information pour renseigner automatiquement le CRM de l’entreprise. Lorsque le service rendu en retour par le CRM au commercial dépasse la corvée du compte-rendu, la coopération entre front et back office se renforce. La combinaison de la relation humaine et de l’IA rend alors l’entreprise plus sensible à la qualité de son service et enrichit le CRM avec les informations les plus utiles : les attentes, la connaissance et la satisfaction des clients.

Charles Vieillard, Directeur Général de SnapData, solution de mise à jour du CRM pour les commerciaux <cv à polaramis.com>

Riminder

L'IA améliore le radar des recruteurs

Les entreprises découvrent grâce à l’IA des ressources humaines insoupçonnables. Tout recruteur connaît certaines formations, entreprises, types d’associations. Aussi large soit-elle, la connaissance humaine est limitée. En dehors, le recruteur n'a pas d’opinion sur le caractère valorisant ou non de l'ensemble des parcours professionnels, ce qui introduit un biais dans l’analyse des CVs. De proche en proche, le processus de sélection survalorise les formations et les entreprises connues, et aboutit à un clonage de la culture déjà en place. L’IA compense et même surcompense ces limites. Elle induit les compétences à partir d’un CV. « J’ai fait 3 années de site d’appel » se traduit par « j’ai des capacités relationnelles et de résilience » ; « je développe en C++ » implique « je peux apprendre Python en 2 semaines ». Elle révèle des passerelles de parcours invisibles, par exemple entre l’évènementiel et la restauration. Au final, elle identifie quatre fois plus de profils pertinents pour un poste, cartographie la culture de l’entreprise au travers des CVs, outille les RH pour gouverner cette culture et affine ses nouvelles propositions en fonction des décisions prises.

Mouhidine Seiv, Fondateur de Riminder, société qui aide les entreprises à trouver les talents dont elles ont besoin <mouhidine.seiv à riminder.net>

Prevision.io

La décision reste humaine

L’IA est toujours orientée par une décision humaine, celle du choix de ses buts et de ses moyens. S’il s’agit de régler le chauffage d’un bâtiment, nous pouvons décider de maximiser le confort des résidents en demandant à la machine de trouver le meilleur compromis entre la consommation énergétique et les demandes de chauffage. Il faut décider des données à fournir - température intérieure, extérieure, météo, présence. De la précision des plans - bâtiment, étages, pièces - des historiques d’informations, des décisions déjà prises et de leur qualité. S’il s’agit d’un scoring d’emprunteur pour une banque, il faut évaluer le coût de se tromper dans les deux sens, décider du taux d’erreur acceptable, de l’équilibre entre exploration et exploitation quand viennent de nouveaux dossiers. S’il s’agit d’une assistance au jugement, il faut pouvoir etablir le taux d’incertitude, et fournir les principaux inducteurs d'une décision particulière. Dans tous les cas, comme il convient de définir la finalité et la propriété des données, il faudra également établir celles des intelligences formées à partir des données.

Nicolas Gaude, co-fondateur de Prevision.io, plateforme d’IA qui automatise le machine learning<nicolas.gaude à prevision.io>

AdBlock

L'open source de l'IA pour davantage d'intelligence collective

L'open source dynamise les échanges d’expertises sur l’IA. Bien que les outils d'apprentissage machine tels que Tensorflow et Scikit Learn sont disponibles gratuitement, leur bon usage requiert des compétences avancées. Des communautés dynamiques se sont formées autour du code source (Github), de blogs (Medium, Hacker News), de sites de questions réponses (StackExchange), ou encore du site Kaggle qui organise des compétitions ouvertes et où chacun publie son approche du problème. Ainsi l'ouverture des échanges permet de rapidement diffuser l'expertise en IA. De plus, l'amélioration continue de la documentation et le développement de couches d'abstraction (ex: Keras) réduisent les barrières à l'entrée pour les apprentis analystes. En conclusion, si l'intelligence collective permet de faire d'outils des standards d'industrie, elle donne aussi aux individus l'accès à des logiciels robustes pour libérer leur vie numérique et leur accès aux médias.

Alexandre Storelli, Fondateur de Adblock Radio, application de suppression des publicités à la radio<alexandre à storelli.fr>

Antescofo

L’IA permet au musicien de s’entraîner seul avant de solliciter l’orchestre. Le karaoke comme les accompagnateurs automatiques habituels ne s’adaptent pas à l’interprétation du soliste. L’IA module déjà le tempo en fonction de cette interprétation et les prototypes promettent des variantes d’intensité du volume voire des improvisations.

Arshia Cont, Fondateur d’Antescofo, éditeur d’un logiciel de suivi de partition <arshiacont à antescofo.com>


Cutii

L’IA permet aux seniors de rester chez eux plus longtemps. La commande vocale se substitue à la manipulation de clavier ou de tablette pour les personnes gênées par l’arthrose des doigts. Les robots domestiques se positionnent correctement pour une télé-consultation médicale ou pour présenter l’écran pour un Skype. Ils orientent correctement la caméra si le bracelet de détection de chute a lancé une alerte et qu’un infirmier distant et autorisé veut vérifier que tout va bien. Leur interface et les services associés permettent à l’utilisateur de participer à distance à une visite de musée ou un bavardage entre amis. L’objectif visé par la filière est de prolonger de 5 ans le temps de vie à domicile. L’IA participe ainsi à un meilleur confort de vie âgée, à la rupture de l’isolement, et à des économies estimées à 20% pour la collectivité et 40% pour la famille par rapport au placement en EHPAD.

Thomas Haesslé, Directeur Technique de Cutii, robot d’assistance aux personnes âgées <thaessle à cutii.io>


QEmotion

L’IA permet de mesurer les émotions du client. Lorsqu’il voyage, il utilise ses mail, chatbot, réseaux sociaux qui sont autant de traces de son ressenti. Ces traces sont synchronisées avec l’organisation du voyage - arrivée à l’aéroport, contrôle des bagages, attente, vol. Elles sont analysées pour en déduire les sentiments de joie, surprise, peur, tristesse, colère, dégoût et leurs combinaisons. Plus généralement, tous les verbatim des forums, sites d’opinion d’utilisateurs, enquêtes ou call centers sont autant de sources pour comprendre sa clientèle de manière plus profonde. Ceci permet de mieux profiler, accompagner et interagir avec le client, de prioriser et anticiper ses demandes, d’anticiper les opportunités et les risques. Documenter efficacement les services en relation avec la clientèle et mesurer son émotion au delà de sa satisfaction remet l’humain au centre des objectifs de l’entreprise.

Grégoire Pfirsch, co-fondateur de QEmotion, spécialiste de l’analyse des émotions <gregoire.pfirsch à qemotion.com>

Botfuel

Un très bon chatbot sait quand il ne sait pas. L’IA est performante pour comprendre « je veux aller à Bordeaux la semaine prochaine avec mes enfants ». En revanche elle est perdue quand on lui dit « j’ai perdu mes clés et j’ai laissé mes tickets chez moi. Comment je fais pour prendre mon train ? ». Au lieu d’essayer de deviner des intentions implicites, il vaut mieux qu’elle laisse un humain prendre le relai. Les fournisseurs d’IA doivent au besoin durcir les seuils de tolérance d’erreur, entraîner l’IA à passer la main et qualifier finement les déclencheurs de ce passage. Ces déclencheurs doivent prendre en compte le périmètre de compétence de l’IA, l'anticipation de l’insatisfaction du client et le niveau de qualité souhaité du service client. Il faut voir le chatbot comme un assistant de l’opérateur, qui facilite la vie du client pour les problèmes courants et enrichit la discussion directe avec des informations contextuelles. La palette des chatbots s’élargit depuis l’automate low cost jusqu’au véritable opérateur augmenté.

Javier Gonzalez, co-fondateur de Botfuel, éditeur de bots <javier à botfuel.io>

Autokab

L’IA seule ne peut pas garantir la sécurité routière d'un véhicule autonome. C’est une brique qui peut contribuer au véhicule autonome mais elle a un défaut structurel qui empêche d'assurer la sûreté de ses décisions dans un environnement variable. Il vaut mieux s’inspirer des savoir-faire du ferroviaire et de l'aéronautique, qui modélisent l’infrastructure et l'environnement autant que le véhicule. Le comportement de celui-ci doit en effet, par exemple, anticiper son passage à proximité d’une école, en prenant en compte l’horaire. Dans ce contexte, l’expérimentation pendant 6 mois d’une flotte de véhicules autonomes dans un couloir de bus a montré que la sécurité était assurée malgré les évènements imprévisibles liés aux autres usagers de la route. Pour aller plus loin, des progrès restent à faire sur les interfaces de communication, les clignotants et feux stop ne suffisant pas pour pour communiquer entièrement aux autres usagers les intentions du véhicule.

Carlos Holguin, Co-fondateur et Directeur Général d'AutoKAB, fournisseur de services d'automatisation pour véhicules de transport en commun <carlos.holguin à autokab.com>

Blue DME

L'IA stimule les décloisonnements

L’IA ouvre de nouvelles coopérations transverses. Les données de l’entreprise sont souvent cloisonnées entre celles qui décrivent le parcours du client sur le web, les métadonnées du call center (heure et fréquence d’appels), les informations de la boutique (durée et fréquence des achats), le CRM (historique des achats). Or l’IA valorise le rassemblement de ces données pour quatre raisons. D’abord, la quantité de données étant trop riche pour être appréhendée par un commercial dans une simple fiche client, l'assistant IA permet d’extraire les caractéristiques essentielles. Ensuite l’IA est d’autant plus fine que les données sont diverses et nombreuses. L’IA est de plus construite pour une finalité métier, elle oriente donc en amont la manière de collecter et d’agréger les données, et donne aux services de la visibilité sur l’objet de leur collaboration. Enfin l’IA, pour être acceptée, doit s’adapter aux habitudes de travail de ses utilisateurs. Cette valorisation des données s’accroît avec la découverte de nouveaux modèles d’exploitation, ce qui conduit à l’ « IA-driven business » puis, dans quelques années, à l’ « économie de la donnée ».

Cédric Mora, Marketing & Product Director de Blue DME, spécialistes des solution de AI-driven business <cmora à bluedme.com>


Zyl

L'IA centralisée fait peur

L’IA et le partage d’informations renforce le besoin de sécurité. Les photos privées sont un bien précieux, on souhaite être garanti de ne pas les perdre. Mais la solution de stockage dans le cloud est de plus en plus mal perçue. Nos photos sont-elles utilisées pour entraîner des algorithmes ? D'autres algorithmes leur seront-elles appliquées pour reconnaître nos visages ou pour tout savoir de notre vie privée ? Ces informations seront-elles utilisées pour nous présenter des publicités et des produits ? Les serveurs risquent-ils d’être piratées comme l’ont été Yahoo et Uber ? Les pirates peuvent-ils nous rançonner ? La sensibilité à ces questions est grandissante, surtout par les jeunes parents, qui prennent conscience des menaces pour eux-même et leurs enfants. La demande de solutions décentralisées et de « privacy by design » est une tendance forte qui devient une exigence pour de nombreux utilisateurs. Zyl et Qwant répondent à cette demande.

Mathieu Spiry, co-fondateur de Zyl, appli de gestion de photo sur smartphone <mathieu.s à zyl.ai>

Clustaar

Le chatbot simplifie la vie pour les opérations routinières

Le chatbot devient un assistant numérique. Lorsqu’il est proposé au client comme premier niveau de réponse du call center, il traite la plupart des questions récurrentes. Il est programmé moins pour répondre à tous les problèmes que pour repérer les nombreuses formulations d’un nombre limité de problèmes. Dès lors, quand la question de l’utilisateur dépasse ce périmètre, il passe la main à un technicien. Lorsque le chatbot est proposé à un collaborateur d’une entreprise, il interprète une question en langage naturel dont la réponse est disponible dans les bases de données communes (KMS) ou cachée dans les méandres du système informatique : «  combien de journées de congé me reste-t-il ? Quel est le mail de tel client ? Quel est le code de la porte du parking ? ». Le chatbot simplifie la vie pour toutes les petites opérations informatiques routinières.

Timothée Meuret, Chargé de communication /marketing de Clustaar, développeur de chatbots experts <timothee à clustaar.com>


CompareAgences

L’IA facilite les mises en relations d’affaires. Pour le vendeur non professionnel d’un bien immobilier, le choix de la meilleure agence immobilière est difficile. Quels sont la qualité de leurs suivis client, leurs visibilités sur internet, leurs délais et leurs taux de conversion pour le même type de bien ? Les comparateurs de prix ou de qualité, comme Tripadvisor pour les restaurants, ont leurs limites : la meilleure agence n’est pas la même pour tout le monde. Avec l’IA, les comparateurs se personnalisent et offrent davantage de services dans la mise en relation : prise de rendez-vous, tableau de bord de suivi, apport d’affaires documentées et payé au succès, garantie d’indépendance. La désintermédiation a été apportée par le commerce électronique, la réintermédiation se développe avec l’IA.

Arthur Cassagnau, co-Fondateur de CompareAgences, comparateur d’agences immobilières <arthur.cassagnau à compareagences.com>

Cosmotech

L’intelligence augmentée permet de préparer des décisions face à des problèmes qui n’ont jamais été rencontrés. Le développement de l’auto-partage et des voitures autonomes va avoir des impacts sur l’organisation de la ville. Comment faudra-t-il réorganiser les transports en commun, la circulation, les parkings ? La co-production d’électricité par des panneaux solaires et éoliennes privées va impacter la gestion de l’énergie. Comment faut-il faire évoluer les infrastructures en fonction des risques de surtensions ou des pics de consommation, sous contrainte d’investissement maximum ? L’IA seule est impuissante face à ces questions. Il faut développer des modèles complexes, sortes de jumeaux numériques des futurs projets. Ce développement nécessite la collaboration d’équipes représentant toutes les fonctions de l'entreprise. Elle nécessite aussi une vision et des arbitrages stratégiques pour fixer le cadre des objectifs de succès : quel mix optimiser entre rentabilité, sobriété énergétique, risque d’insécurité ou d’insatisfaction ? A quel horizon ? Elle nécessite enfin une couche d’abstraction suffisante pour que la modélisation puisse être réalisée directement par les experts. Ces modèles peuvent être ensuite raffinés en utilisant des outils d'IA travaillant à partir de données du passé lorsqu'elles sont suffisantes. Les simulations fondées sur ces modèles sont elles-mêmes productrice de grandes quantités de données qui sont analysées par les experts pour leur permettre de recommander les meilleurs décisions. Les experts peuvent également s'appuyer sur des outils d'Intelligence artificielle pour en extraire davantage d'information. Les algorithmes doivent justifier ces décisions en traçant leurs inducteurs et corrélations pour en rendre compte aux experts et à la gouvernance de l’entreprise. Les grandes décisions sont prises jusqu’à présent par l'intuition guidée par l’expérience et quelques KPI. L’intelligence augmentée permettra de prendre des décisions plus éclairées.

Hugues de Bantel, co-fondateur de CosmoTech, qui offre aux dirigeants des solutions d’aide à la prise de décision <hdebantel à cosmotech.com>

AR-P

L’IA alerte sur ce qui est inhabituel. Un cours de bourse, un trafic routier, des flux de marchandises, le graphe social d’une entreprise sont des grandeurs qui évoluent en permanence. Elles sont difficiles à modéliser mais pourtant l’IA détecte des variations surprenantes, qui ne sont pas nécessairement brutales. Au contraire, l'IA se distingue de l’analyse traditionnelle par sa capacité à détecter des signaux faibles, par comparaison avec ce qui était prévisible. Une augmentation du flux de manganèse du Gabon vers la Chine est couplée à une fébrilité du cours ? Le graphe social d’une entreprise se rapproche d’un nouveau profil de clientèle ? Des synchronisations d’ordres de bourse sont nombreuses sur une courte période ? Ces signaux, qui ne seraient pas détectables sans IA, pointent du doigt des évolutions du marché, du positionnement des acteurs ou des ententes frauduleuses. Ils améliorent notablement la sensibilité des capteurs de la veille économique.


Henri Laude, Fondateur d’Advanced Research Partners, éditeur d’algorithmes pour l’intelligence économique <henri.laude à ar-p.com>

Cognitalk

Il manquera toujours à l’IA du vécu et de la subjectivité. Pour acheter des chaussures, on apprécie d’avoir des informations objectives, comme le niveau de recommandation des experts, le classement dans un comparateur de prix, le taux de remise ou la solidité des tissus utilisés. Mais on apprécie aussi des avis et l'expérience d’utilisateurs : « elles ont un super look mais j’ai eu des ampoules ». En revanche l’IA ne manquera plus longtemps de véritables capacités de conversation, qui seront vite couplées avec la masse de connaissances d’internet. La grosse difficulté est celle de la contextualisation. Poser la question « c’est quoi ce bâtiment ? » est encore impossible à interpréter par une machine. Les pistes les plus prometteuses pour réduire cette difficulté combinent plusieurs techniques. Les systèmes experts pour établir des règles et réduire le nombre de données nécessaires pour apprendre. Les graphes de connaissance pour mesurer des distances au savoir et inciter l’IA à poser des questions à des experts pour combler ses lacunes. Les prochaines années apporteront de grands progrès et un développement des communautés mixtes IA+IC.

Stefan Knerr, Fondateur de CogniTalk, qui développe une nouvelle génération d’interfaces conversationnels homme-machine <stefan.knerr à cognitalk.com>

Le cerveau mondial

La technologie au secours de l'humanité

Le dérèglement du monde fait maintenant l'objet d'un large consensus : dictature des marchés, destruction de la nature, concentration des richesses, iniquités entre générations[357].

Grâce aux progrès de l'intelligence artificielle, plusieurs leaders de la Silicon Valley restent néanmoins confiants. Mark Zuckerberg, le fondateur de Facebook, pense que "le monde étant confronté à de nombreux enjeux majeurs, ce que nous tentons de mettre en place en tant qu'entreprise, c'est une infrastructure sur laquelle s'appuyer pour en dénouer un certain nombre"[358]. Eric Schmidt, président exécutif de Google, le confirme : « Si nous nous y prenons bien, je pense que nous pouvons réparer tous les problèmes du monde. » Quant à l'entrepreneur Peter Diamandis, cofondateur avec Ray Kurzweil de la Singularity University, il prophétise dans son livre « Abundance », un monde où la pauvreté, la faim et la maladie seront à jamais éradiquées[359].

Ray Kurzweil, un génie de la technologie à l’origine de nombreuses inventions, est actuellement salarié par Google. Il prédit l’avènement d’une superintelligence pour 2045 environ (on n’est pas à deux trois années près). De cette singularité technologique découlera, d’après lui, la résolution de tous les problèmes de l’humanité. A commencer par rien de moins que la mort[360].

Elon Musk, Fondateur de Tesla et de SpaceX, craint au contraire que la fiction de Terminator ne devienne réalité, il dénonce l'intelligence artificielle comme « le plus grand risque auquel notre civilisation sera confrontée. (...) Jusqu'à ce que les gens voient vraiment des robots tuer des personnes, ils ne sauront pas comment réagir, tellement ça leur paraît irréel»[361]. Mais comme il considère que les hommes ne sont plus en mesure de contrôler l'IA, il préconise le transhumanisme, c'est-à-dire... l'amélioration du cerveau humain. Sa société Neuralink a pour objectif d'augmenter nos capacités cognitives par la pose d'électrodes dans nos cerveaux. Ce «cordon neuronal» permettrait de communiquer directement avec les machines en se passant d'interface physique. «Nous sommes déjà des cyborgs. Votre téléphone ou votre ordinateur sont des extensions de vous-mêmes, mais les interfaces (vos doigts ou votre voix) sont très lentes», indique Elon Musk, en précisant qu'un cordon neuronal permettrait de se passer d'une telle interface.

Critique du solutionnisme

Ces manières de traiter les problèmes relèvent du "solutionnisme", critique l'essayiste Evgeny Morozov qui prend l'exemple du problème des sans-abri. Le solutionnisme, incarné en l'occurrence par la futurologue Ayesha Khanna, propose des lentilles de contact intelligentes qui pourraient faire disparaître les sans-abri de notre vue[362] : "le solutionnisme présume plutôt qu’il n’explore les problèmes qu’il cherche à résoudre pour atteindre la réponse avant que les questions n’aient été entièrement posées. Pourtant, comprendre comment les problèmes sont composés importe tout autant que de comprendre la façon dont ils sont posés". Autrement dit en termes philosophiques par Thomas Berns : "la perte du questionnement induit par la corrélation risque de nous faire perdre les épreuves qui permettaient de produire du sujet".


L'intelligence humaine restera encore longtemps la seule à pouvoir élucider les problèmes de l'humanité. Mais elle semble de plus ne plus souvent débordée par les avancées spectaculaires de l'intelligence artificielle qu'elle n'a plus le temps de questionner ni d'éprouver. Une autre piste consiste à explorer les voies de la coopération des intelligences humaines.

Le cerveau mondial

En décrivant l'interconnexion de millions d'internautes échangeant leurs idées, l'image d'un cerveau mondial vient vite à l'esprit, bien qu'elle ne soit pas originale. Inspiré par le télégraphe, Nathaniel Hawthorne écrivait déjà en 1851 "grâce à l'électricité, un nerf immense rayonne pour toujours sur des milliers de kilomètres. Notre globe est maintenant un cerveau à l'intelligence bouillonnante". H.G Wells poursuivit cette métaphore en décrivant le cerveau mondial comme "une banque de connaissances planétaires où savoir et idées seraient reçus, triés, résumés, digérés, comparés et expliqués". Dans les années 1950, Teilhard de Chardin eut l'intuition d'une "planétarisation de la conscience", un réseau mondial de communication des pensées humaines[363]. James Lovelock intègra quant à lui une dimension écologique à cette conscience. Il écrivit en 1979 : "dans quelle mesure notre intelligence collective est-elle aussi partie de Gaïa ? Est-ce qu'en tant qu'espèce, nous constituons un système nerveux gaïen et un cerveau capable d'anticiper consciemment les modifications de l'environnement ? Que cela nous plaise ou non, nous commençons à fonctionner ainsi"[364].

L'interconnexion physique du cerveau mondial est opérationnelle, mais son intelligence reste embryonnaire. Selon Joël de Rosnay, qui décompose son évolution, "avec l'accélération des échanges est apparue une intelligence connective, puis collaborative et, progressivement - il faut l'espérer ! -, collective"[365]. Si les étapes connective et collaborative ont correspondu respectivement à Internet et à Google, il manque toujours à la construction du cerveau mondial une véritable dimension collective. Pour mieux la comprendre, il faut revenir rapidement sur son histoire.

5000 ans d'histoire de l'intelligence collective

De l'intelligence à la connaissance

L'intelligence se définit en tant qu' "ensemble des processus de pensée d'un être vivant qui lui permettent de comprendre, d'apprendre ou de s'adapter à des situations nouvelles". L'intelligence est meilleure avec des processus clairs et ordonnés. C'est la grande idée que défend René Descartes dans son Discours de la Méthode en 1637. Cette méthode imposera la prééminence de la raison sur la foi pour accéder à la connaissance. L'intelligence, selon Descartes, est fondée sur la puissance de la raison et de l'entendement. Mais cette approche sera elle-même dépassée par l'intelligibilité newtonienne. Isaac Newton, est célèbre pour avoir inventé le principe de la gravitation universelle, qui fait que la pomme tombe sur le sol avec la même force que la Terre tourne autour du Soleil. Savoir cette règle permet de mieux comprendre l'univers même si elle dépasse l'entendement. « J'ai expliqué jusqu'ici les phénomènes célestes & ceux de la mer par la force de la gravitation, mais je n'ai assigné nulle part la cause de cette gravitation », écrit Newton dans ses Principia en 1687[366]. Ce nouveau principe d'intelligibilité se heurte au principe de Descartes, car l' "action à distance" n'était pas explicable par des termes connus[367].

Deux écoles s'opposent pendant un siècle, qui invoquent le plus souvent des arguments théologiques.

Les cartésiens critiquent le caractère intrinsèque à la matière de l’attraction ce qui revient à leur reprocher le retrait divin du monde[368]. Selon eux, l’empirisme anglais ne ferait que s’appuyer sur et renforcer les préjugés communs, et réactiverait l’ancienne philosophie scolastique[369].

Louis-Bertrand Castel s'oppose à la théorie de la gravitation. Il écrit en 1743 "Descartes a rempli l'univers d'une bonne matière solide, étendue et qui ne pouvait lui échapper, n’étant pas même destructible. Il l’a animée de bons moments matériels et grossiers. Il l’a divisée en un bon nombre d'éléments et de tourbillons, etc. Voilà l' ouvrage d'un homme. Newton a presque osé tenter l’ Ouvrage même de Dieu"[370].

En 1749, à l'inverse, l'empiriste Etienne Bonnot de Condillac écrit : "Les cartésiens reprochent aux newtoniens qu'on n’a point d'idée de l'attraction ; ils ont raison mais c'est sans fondement qu'ils jugent l’impulsion plus intelligible. Si le newtonien ne peut expliquer comment les corps s'attirent, il défiera le cartésien de rendre raison du mouvement qui se communique dans le choc. N’est-il question que des effets, ils sont connus ; nous avons des exemples d’attraction comme d’impulsion. Est-il question du principe, il est également ignoré dans les deux systèmes. Les cartésiens le connaissent si peu qu’ils sont obligés de supposer que Dieu s'est fait une loi de mouvoir lui-même tout corps qui est choqué par un autre. Pourquoi les newtoniens ne supposeraient-ils pas que Dieu s’est fait une loi d'attirer les corps vers un centre en raison inverse du carré de la distance ? La question se réduirait donc à savoir laquelle de ces deux lois Dieu s'est prescrit, et je ne vois pas pourquoi les cartésiens seraient à ce sujet mieux instruits"[371].

Il faudra attendre Voltaire puis l'Encyclopédie de Diderot et d'Alembert en 1751 pour trouver un éloge définitif de Newton : "Ce grand génie (...) a peut-être plus fait pour (la science) en lui apprenant à être sage, et à contenir dans de justes bornes cette espèce d’audace que les circonstances avaient forcé Descartes à lui donner. "[372].

L'Encyclopédie reprend quasiment l'exposé de Bonnot de Condillac pour donner le point, mais avec prudence, à Newton : "il est donc certain que dans le principe ces deux hypothèses n'ont pas d'avantage l'une sur l'autre ; il ne reste qu'à imaginer quelle est celle qui souffre le moins de difficultés. À cet égard, la supposition de l'attraction me paraît préférable. J'en juge par les difficultés que les newtoniens ont faite contre l'impulsion, et auxquelles je ne sache pas que les cartésiens aient encore satisfait. Mais quoique l'hypothèse de Newton paraisse mieux s'accorder avec les observations, on ne saurait s'assurer qu'elle soit le vrai système de l'univers"[373].

L'intelligence se définirait-elle ainsi comme le fruit de processus éclairés par les principes scientifiques ? Il manque encore une dimension que n'oublie par Isaac Newton. Il écrit en 1676 : « Si j’ai vu plus loin que les autres, c’est parce que j’étais assis sur des épaules de géants », soulignant ainsi le bénéfice que son génie avait retiré de l'accumulation des connaissances antérieures[374].

De la connaissance à l'Encyclopédie

Accumuler des connaissances est probablement l’objet même de l’invention de l'écriture, et se confond donc avec l'origine de l'histoire. Ce n'est certainement pas un hasard si les textes les plus anciens, retrouvés en Mésopotamie et qui datent de 3340 av. JC, sont des encyclopédies[375].

La grande bibliothèque d'Alexandrie, qui a pour objet de rassembler tous les savoirs universels, date de 288 av JC. Elle met à contribution les navires qui font escale dans son port pour dupliquer leurs écrits, appelle tous les souverains du monde à contribuer au fonds, et rassemble une foule de savants pour traduire et classer les documents[376].

Mais l'encyclopédiste D'Alembert va plus loin. Il est convaincu par cette nécessité d'accumuler des connaissances pour inventer. Il observe que "l’avancée des connaissances est l’effet de révolutions soudaines, de brusques secousses trouvant leur origine dans l’action de quelques rares génies, disséminés ça et là dans le cours des siècles"[377][378]. L'encyclopédie doit ainsi donner à la science un champ d'application et une plus grande fertilité. Elle doit en simplifier les principes afin qu'ils puissent être compris et reliés les uns aux autres[379][380]. Il ne faut pas pour autant attendre que l’Encyclopédie se substitue à l’intervention irremplaçable des inventeurs. Elle constitue, dans l’esprit de D’Alembert, un simple « instrument de diffusion » pouvant sans doute créer le milieu propice au progrès, mais non un outil d’invention, susceptible d’engendrer le progrès de lui-même[381][382]. Sa vision rejoint celle de son contemporain Rousseau, pour lequel "la vraie science n'est ni ratiocination de sophiste avide de briller, ni accumulation de pédant, mais culture de l'expérience, progrès dans la sagesse pratique[383]".


L'intelligence vue par les Lumières est un ensemble de processus de pensée, éclairés par la science et nourris par une accumulation de connaissances qui stimuleraient l'intuition de "quelques rares génies". Pourtant cette définition sera encore dépassée par un nouveau phénomène, découvert 60 ans plus tard en Angleterre.

L'invention collective et la révolution industrielle

En 1811, le Lean's Engine Reporter est publié dans la région des Cornouailles pour collecter et diffuser les meilleures connaissances relatives à la machine à vapeur[384].

Bien qu'en compétition par ailleurs, les entrepreneurs jouent le jeu pour financer cette revue et échanger leurs savoirs. Echange gagnant-gagnant : cette revue encyclopédique aura un impact considérable sur l'inventivité et les progrès de la vapeur[385].

En analysant ce phénomène, le chercheur Peter Meyer le théorise en 2003 sous le nom d' "invention collective" et le relie à six épisodes historiques : la machine à vapeur des Cornouailles (1811), les haut-fourneaux de Cleveland (1850), la production d'acier aux Etats-Unis (1865), l'aviation (1890)[386], la micro-informatique (1975) et Linux (1991). Il observe à chaque fois le rôle déterminant d'un centre d'échange d'informations auquel contribuent de nombreux explorateurs. Il identifie des inventions collectives à l'origine de toutes les révolutions industrielles. Il confère ainsi une nouvelle dimension à l'intelligence qui, lorsqu'elle devient collective depuis l'accumulation de connaissance jusqu'à l'invention, se dote d'une puissance économique incomparable. Ceci corrobore l’intuition de 5000 ans d’histoire : collecter et diffuser des connaissances grâce à un mécanisme collaboratif stimule l’inventivité. Ceci éclaire les travaux de Peter Drucker, qui anticipait l' "économie de la connaissance" (1969)[387]. Selon lui, "la connaissance est l'unique ressource qui ait du sens aujourd'hui. Les "facteurs de production" traditionnels - la terre (c'est-à-dire les ressources naturelles) le travail et le capital, n'ont pas disparu, mais ils sont devenus secondaires".

Le cerveau mondial est interconnecté avec Internet, il agrège les connaissances avec le web et Wikipedia, il les diffuse avec Google et les réseaux sociaux, mais son intelligence reste encore trop limitée pour espérer résoudre même partiellement les grands problèmes de l'humanité. Elle manque encore d'inventivité collective. Pourquoi ? Parce qu'un obstacle majeur s'est toujours opposé à la progression de l' "invention collective".

Le mur de l'invention collective

Une barrière infranchissable entre connaissance et industrie

Peter Meyer a constaté un phénomène étrange. Dans la plupart de ses observations, la dynamique de l'invention collective se fige brutalement alors qu'elle est en plein bouillonnement. C'est ce qu'illustre l'exemple de la micro-informatique à la fin des années 70.

Dès que les puces informatiques ont été suffisamment petites, puissantes et peu chères pour rendre possible la construction de calculatrices et ordinateurs, un certain nombre de clubs d'amateurs est apparu à travers les USA pour le faire et en discuter. Le Homebrew Computer Club était parmi ceux-ci un club important. Il a rencontré à Stanford un nouveau départ en 1975, suite à l'invention du microprocesseur, mais avant il y avait déjà auparavant une industrie des ordinateurs personnels. Des centaines de personnes y assistèrent régulièrement à partir de 1975. Rapidement certains membres prévoyaient un grand potentiel pour les micro-ordinateurs. Steve Wozniak, de son côté, savait qu'il n'avait pas assez de connaissances. Les autres parlaient des dernières puces: le 8008 et le 8080. Woz se sentait perdu. Il n'en avait même pas entendu parler. Mais il avait conçu un terminal vidéo et le club était intéressé. « Il a changé ma vie », dira Woz plus tard. « Mon intérêt a été renouvelé, et toutes les deux semaines les rencontres du club ont été la plus grande chose dans ma vie.». Wozniak a apporté son ordinateur pour Homebrew et transmis des photocopies de sa conception afin que d'autres puissent le reproduire. Comme un hobbyiste parfait, Woz croit dans le partage de l'information. Les autres amateurs ont en effet été impressionnés. Wozniak et Steve Jobs ont constitué la société Apple. Homebrew a alors évolué. Les membres qui avaient lancé leurs entreprises ont cessé de venir, en partie parce que garder des secrets de l'entreprise serait devenu inconfortable au Homebrew[388].

Il ne s'agit pas d'un cas isolé. De nombreux chercheurs ont également observé depuis ce même phénomène d'arrêt brutal de l' invention collective. Ils ont confirmé que, lorsque le groupe inclut des partenaires industriels, l’exploitation industrielle des résultats de recherche s’effectue aisément puisque les industriels participent au travail de recherche et coproduisent les connaissances. En revanche, le travail commun, le partage des ressources et l’appropriation collective des résultats se heurtent très vite à de grandes difficultés. En effet, il faudra le plus souvent diviser et cloisonner le projet pour éviter que des concurrents ne doivent partager des données ou des résultats critiques[389].

La science se heurte à des murs

Ce n'est pas la première fois que la science se heurte à ce phénomène de seuil. Les grandes avancées sont souvent le fruit de ruptures. Il a fallu deux siècles pour que l'Eglise accepte l'idée de l'héliocentrisme proposée par Copernic au début du XVIème siècle. Il a fallu du temps aussi pour que Descartes impose la raison à la foi ou pour que Newton impose qu'un principe qui dépasse l'entendement - l'action à distance de la gravité - puisse améliorer l'intelligibilité de la nature. Il a fallu aussi une longue succession d'explosions d'avions prototypes avant de franchir le mur du son en 1947. Ces enseignements ont été le résultat d'un infatigable cycle entre bancs de test, prototypes, observations et intuitions scientifiques. Ailerons spéciaux pour contrer les effets du durcissement des commandes, géométrie renforcée de la voilure pour supporter l'onde choc, nez en pointe pour répartir la charge aérodynamique, chaque version améliore les précédentes.

Nécessité d'indicateurs, de mesures de valeur, de comptabilité et de richesse contributives

En 2011, les chercheurs Philippe Beraud et Franck Cormerais s'appuient entre autres sur les travaux de Perroux pour formuler quelques premières intuitions scientifiques pour franchir le mur de l'invention collective. Selon eux, il faut tout d'abord revoir les unités de mesure des contributions ainsi que les normes comptables.

"la fonction de contribution doit permettre d’établir un rapport entre les entrées et les sorties de la matrice participative. Plus la contribution est importante, plus les variables de la fonction permettent de faire progresser le montant de la valeur créée. Reste ainsi à prendre en compte la contribution relative des facteurs, sans pouvoir s’appuyer sur une structure de coûts et un système de prix relatifs qui demeurent propres à la marchandise.
"La fonction de contribution, en mettant en relief la nécessité d’un nouvel ordre de grandeur et de nouveaux instruments de mesure, introduit à la construction d’une économie humaine, une économie de la personne au sens de Perroux, où la mobilisation des ressources et des services productifs s’effectue en fonction d’objectifs définis de manière délibérative. De ce point de vue, la fonction de contribution est inséparable d’une nouvelle définition de la valeur et de l’innovation.

Ces nouvelles unités de mesure de la valeur seraient à rapprocher des indicateurs alternatifs de la richesse et du PIB, qui ont été publiés depuis par France Stratégie suite aux recommandations du rapport Stiglitz, Sen et Fitoussi.

"L’identification de l’ordre de grandeur qui permet de qualifier la nature des échanges entre les contributeurs nécessite une nouvelle interprétation de la valeur, qui peut être comprise comme la recherche d’une approche en terme de valeur sociétale (Humbert, 2003 ; Humbert, Caillé, 2006). On retrouve une préoccupation assez semblable dans les travaux critiques sur la mesure de la richesse et les nouveaux indicateurs (Méda, 2000 ; Gadret, Jany-Catrice, 2005 ; Stiglitz, Sen, Fitoussi, 2009)[390].
"L'économie de la contribution, en faisant de la valeur sociétale le fondement de la mesure de l’activité, retrouve le sens du processus de création collective défini par Perroux. Il manque encore à ce principe d’évaluation un compte de création collective qui permette de retracer les indicateurs de la contribution, au même titre que les recherches sur les indicateurs alternatifs tentent d’instituer une autre manière de mesurer la richesse [391].

Les chercheurs tâtonnent, mais on note déjà quelques intuitions récurrentes : la mesure de la contribution doit se faire dans une autre unité que celle des coûts et des prix, mais qui serait homogène à un apport sociétal. Cette mesure doit pouvoir faire l'objet d'une comptabilité et être traçable. Pour progresser, la théorie a besoin de nouvelles expérimentations.

Le temps des pionniers

La tentative de Quirky

En 2009, la société Quirky commercialise une multiprise pivotante qui se vend en millions d'exemplaires. Son originalité : autour d'un premier inventeur, une communauté de milliers de contributeurs participe au succès. Quirky réussit à faire démarrer un processus d' invention collective jusqu'à la commercialisation d'un premier produit et à répartir la recette entre tous les contributeurs. En quelques années, la start-up est parvenue à réunir une communauté de plus d'un million de membres, inventeurs, partenaires industriels, makers, designers et clients potentiels, ayant mis en œuvre et testé plus de 280 000 projets[392]. Son concept de production collaborative séduit les investisseurs, qui apportent 185 millions de dollars. Mais le moteur cale. Quirky ne trouve pas son business model et finit par jeter l'éponge en 2015.

Les premières DAOs

En réaction à la centralisation des GAFAs, les organisations décentralisés (Decentralized Autonomous Organization ou DAO) apparaissent en avril 2016. Les DAOs ne poursuivent pas explicitement d'objectif d'intelligence collective mais elle lui apportent des enseignements précieux. Leurs règles favorisent les relations économiques directes entre développeurs, créateurs et consommateurs, et mettre l'accent sur l'expérience de l'utilisateur plutôt que sur son attention. La valeur économique créée est répartie entre tous ces participants, fondateurs, investisseurs, partisans, dépositaires, opérateurs et consommateurs, en veillant à ce que chaque contributeur soit rémunéré pour ses efforts.[393]. Elles ne rémunérent pas les contributeurs au travers de la publicité ou du transfert de données personnelles, mais pour la valeur créée[394].

Certaines DAOs ont un intérêt particulier au titre de l'intelligence collective lorsqu'elles sont destinées à des échanges de connaissances.

Synereo et Qrator, qui veulent concurrencer respectivement Facebook et Youtube, rémunèrent les apports de contenu par des crypto-monnaies.
UjoMusic permet la rémunération d'un contenu composite. Il partage les revenus d'un téléchargement de musique entre les artistes et ingénieurs du son, selon une clé de répartition prédéfinie entre eux.
Colony et Backfeed définissent la clé de répartition en fonction des votes et distribuent des tokens pour évaluer les valeurs relatives des contributions [395].

Ces prototypes ne sont pas parfaitement au point. Une expérimentation par OuiShare montre cependant la difficulté de la mise en oeuvre de ces votes. Les participants ont peur d’être jugés, refusent d’évaluer les autres, contestent les critères, ne veulent pas y passer du temps[396].

On peut quand même retirer une règle qui complète utilement les intuitions des chercheurs : la mesure des contributions ne doit pas trop solliciter les participants.

DAO.casino introduit la mesure de l'usage

En appliquant cette règle DAO.casino, dont les contenus sont des logiciels, remplace les votes par la mesure de leur usage. Quiconque fournit un morceau de logiciel fonctionnel reçoit automatiquement des tokens[397] proportionnellement à l'usage de ce logiciel. Les développeurs de jeux indépendants sont en mesure de collaborer avec les opérateurs de plate-forme plus facilement, conserver leurs droits de propriété intellectuelle et recevoir des récompenses pour leur travail automatiquement[398].

Alis et Matryx semblent appliquer ce principe à d'autres oeuvres collectives. Elles tokenisent respectivement les magazines collectifs[399] et les processus d'innovation ouverte collaborative[400]. Ces plateformes explorent des règles de coopération pour dépasser la logique de compétition habituelle, par exemple celle d' Innocentive ou d' ARToken[401].

Ces DAOs sont encore trop récentes pour qu'on puisse tirer des conclusions, et la seule mesure de l'usage risque d'enfreindre la règle de l'équité : les procédures de sécurité, par exemple, peuvent être complexes à programmer même si elles sont rarement utilisées. Si on se limite à la mesure de leur usage, leurs développeurs vont penser qu'ils sont désavantagés par rapport au travail qu'ils ont fourni. D'autres mesures plus fines inspirées des métriques des APIs, comme celles des cartes Google Map intégrées dans la plupart des sites web, devront sans doute être adoptées. Sous cette réserve, ces DAOs pourraient prouver que la mesure des contributions est entièrement automatisable pour ne pas solliciter les participants.

Steemit teste la mesure de l'utilité

Pour justifier son approche, le fondateur de Steemit formule quelques observations :

  • les critères d'évaluation des contributions sont subjectifs
  • la définition de ces critères réside en dehors du programme lui-même
  • l'effort du vote par les membres de la communauté est trop lourd rapporté à celui de la contribution

Il pense qu'à ces votes doivent partiellement se substituer des algorithmes jugés équitables par la majorité des utilisateurs. Ces algorithmes doivent aussi résister à la fraude, qui amènerait les membres de la communauté à perdre confiance en l'équité du système.

Steemit fonde donc son algorithme sur le nombre de pouces en haut et en bas apportés par les votants. Ceux-ci sont eux-même rémunérés pour la qualité de leurs votes, calculée en fonction du rapport de ces votes aux rétributions finales des contributeurs. De plus les curateurs, c'est-à-dire les utilisateurs qui relient les contenus entre eux, et les auteurs de commentaires auxquels d'autres répondent sont également rémunérés[402].

Steemit semble avoir du mal à se développer[403], mais son expérience aura au moins montré comment permettre aux internautes de coopérer vers la création de contenus valorisables, tout en s'assurant que chacun sera équitablement rémunéré pour ses contributions[404].

Steemit mixe mesure des votes et mesure de l'usage des contributions pour alléger la sollicitations des participants tout en maintenant leur sentiment d'une répartition équitable de la valeur produite. L'alchimie de la valeur utile des contributions fait avec Steemit un progrès considérable. On pourrait pressentir que le franchissement du mur de l' invention collective sera bientôt à portée de main, mais c'est sans compter sur une nouvelle mauvaise surprise.

Qui sera le premier à franchir le mur de l'invention collective ?

Un mur de Berlin dans l'économie numérique

Les grandes avancées scientifiques doivent briser des murs. Certains murs sont techniques, comme le mur du son, d'autres sont idéologiques, comme le mur de l'héliocentrisme (le Soleil au centre et non la Terre) qui gênait l'Eglise. Le mur de l' intelligence collective est-il les deux à la fois ? C'est ce que pense Ted Livingston, patron de Kik.

Kik est un opérateur de messagerie basé au Canada. Ted Livingston voit dans la résistance au progrès des services numériques le résultat de l'économie du gratuit. Il déplore qu'un développeur soit fauché alors qu'il enregistre 600 000 utilisateurs de son application[405]. C'est à cause de la «culture libre» dont les consommateurs sont habitués en raison du modèle publicitaire qui, affirme-t-il, est perpétué par Facebook.

"Par un accident de l'histoire, les services numériques dominants d'aujourd'hui ont été organisés en grande partie autour d'une économie fondée sur l'attention et monnayée par la publicité. Ceci s'explique en partie par le slogan "l'information veut être libre" qui caractérise les premiers jours d'Internet, ce qui a encouragé les propriétaires de contenu et les plates-formes de communication à fournir leurs produits et services sans demander de paiement.

"Inévitablement, ces entreprises ont vendu plus tard l'attention et les données de leurs consommateurs aux annonceurs et spécialistes du marketing. L'approche fondée sur la publicité s'est avérée un modèle économique fiable, en l'absence de solutions de paiements en ligne universelles et sans frictions, mais centralisée par un petit nombre d'opérateurs de plateformes.

"Les services numériques sont détenus et contrôlés par un nombre réduit d'entreprises parce qu'elles sont les seules à pouvoir les monétiser à grande échelle grâce à la publicité. Vous essayez de vendre des produits, mais à des consommateurs qui pensent que tout devrait être gratuit. Cela mène à un avenir avec moins de choix et de liberté pour les consommateurs[406].

En caricaturant à peine, Ted Livingston décrit un mur de Berlin dans l'économie numérique. Nous serions aujourd'hui enfermés en le sachant plus ou moins dans un monde communiste dominé par une poignée d'apparatchiks du parti GAFA, qui encouragent la liberté de l'information pour mieux profiter du gratuit. Mais la vraie liberté serait de l'autre côté du mur.


Ce mur de Berlin traverse profondément nos sociétés

Cette vision avait été esquissée par Bill Gates il y a déjà douze ans. Selon le Fondateur de Microsoft, "parmi les économies mondiales, il y en a plus, aujourd'hui, qui croient au respect de la propriété intellectuelle. Il n'y a jamais eu aussi peu de communistes aujourd'hui dans le monde. Il y a pourtant certains communistes d'un genre nouveau, cachés sous différents masques, qui veulent se débarrasser des mesures incitatives dont bénéficient les musiciens, les cinéastes et les créateurs de logiciels. Ces gens-là pensent que ces mesures ne devraient pas exister. Et ce débat n'est pas prêt d'être clos[407].

Cette déclaration, jugée choquante, avait sur le moment provoqué une levée de boucliers. Elle a pourtant été ensuite relayée et argumentée par de nombreux auteurs. Jaron Lanier[408], Antonio Casilli[409], Michel Bauwens[410], Pierre Collin et Nicolas Colin[411] se sont insurgé contre la vision mortifère du travail gratuit au profit d'une poignée de plus en plus réduite d'actionnaires des grandes plateformes. Le rêve de l' "éclipse du capitalisme", prônée par Jeremy Rifkin, risque selon eux de se transformer en son inverse : l' "hypercapitalisme".

Cette vision est aujourd'hui publiquement partagée, d'autant plus que les GAFA et autres grandes plateformes ne redistribuent pas les richesses, ni au travers de salaires, ni au travers des impôts.

Dans son rapport sur le numérique et l'Europe, la Sénatrice Catherine Morin-Desailly analysait que "l’Europe est en passe de devenir une colonie du monde numérique, à la fois parce qu’elle devient dépendante de puissances étrangères et parce qu’il n’est peut-être pas exagéré de dire que le sous-développement la guette."[412].

Emmanuel Macron a annoncé au sommet européen de Talinn, le 28 septembre 2017, sa volonté d'instituer une taxe sur les GAFA. « Cette taxe est soutenue par 19 pays, ce qui montre une vraie dynamique. Je veux que nous trouvions la même dynamique que sur la levée du secret bancaire, où l'on a réussi à débloquer la situation car tout le monde a compris que c'était un sujet d'intérêt général. La taxation dans le numérique en est un aussi », a indiqué le chef de l'Etat à l'issue du sommet[413].

Un écosystème autour d'une crypto-monnaie

L'économie décentralisée pionnière

Il veut lancer un écosystème d'applications, DAOs ou non, autour d'une crypto-monnaie unique, le Kin. Kik serait l'un parmi des centaines ou des milliers de services numériques pour Kin. Les utilisateurs de Kin pourront gagner des crypto-monnaies en fournissant de la valeur aux autres membres de la communauté grâce au commerce de biens ou de contenus (audio, video, photo), à des services en ligne (groupes privés payants, jeux, applications), et surtout à des contributions : création, tri et sélection de contenu, réponse à des questions, influence[414].

Kik tentera d'attirer de nouveaux utilisateurs en convainquant davantage de développeurs et de concepteurs d'inventer de nouvelles fonctionnalités pour sa messagerie. Pour ce faire, Kik va réserver une grande quantité de Kin pour la verser automatiquement aux développeurs qui créent des produits basés sur Kik en fonction de leur utilisation réelle[415].

Selon Ted Livingston, pour traverser la frontière de l'économie du gratuit dans laquelle veulent toujours nous ramener les GAFA, il faut la force d'un écosystème d'applications solidarisées par une crypto-monnaie unique.

En réaction à ces grandes plate-formes s'est en effet construite la vision d'une économie décentralisée, fondée sur des objets connectés, des contrats intelligents et des contributeurs. Elle repose sur une technologie dérivée du Bitcoin, cette crypto-monnaie qui circule sur internet et pèse déjà plusieurs dizaines de milliards de dollars. Il s'agit de la blockchain, ou "contrat intelligent", qui permet de faire coopérer des inconnus sans plate-forme. Leurs expérimentations fleurissent, par exemple dans le transport et l'énergie.

Tesseract et Pack’n’Drive sont des plate-formes de partage de l’usage de véhicules, avec un paiement à l’utilisation, et des mini-contrats d’assurances, le tout via la blockchain. SystèmeX et La Zooz ont créé des « monnaies de la mobilité » qui permettent de recevoir un token lorsqu’on transporte quelqu’un dans sa voiture, puis d’utiliser celui-ci dans le réseau de transports collectifs, ou pour emprunter un vélo. Une place de parking appartenant à un particulier indiquera à une autre voiture, via un capteur, s’il est possible de l’occuper pendant trois heures. Innogy permet à des particuliers de mettre à disposition, devant leur maison, une borne de rechargement électrique pour voiture. C’est la voiture qui paiera avec son porte-monnaie blockchain intégré, tandis que le propriétaire de la place ou de la borne électrique se fera rémunérer au tarif qu’il aura fixé. La blockchain va permettre à des voitures connectées de trouver des personnes à covoiturer de manière autonome, de se louer toutes seules à des individus qui passent à proximité[416]

La chaîne de contrats entre ces services dessine un écosystème de transports et d'énergie disposant de sa propre monnaie. Le patron de Kik introduit donc une nouvelle idée, celle de l'effet de masse apporté par ce type d'écosystème d'applications.

Telegram, la vague montante

Après une levée privée auprès de 200 investisseurs pour un montant total de 1,7 B$, le lancement d’un certain nombre de services serait prévu pour avril-juin 2019 :

  • TON Services, un portail pour applications décentralisées similaire à Status, qu’on comparerait à un app store ;
  • TON DNS, une sorte d’annuaire comme ceux du Web assignant des noms lisibles aux nœuds, comptes et contrats intelligents — le whitepaper promet qu’« accéder à des services décentralisés serait comme visiter un site sur le World Wide Web »  ;
  • TON Storage, un « Dropbox » décentralisé à la Filecoin permettant d’exploiter l’espace de stockage libre d’ordinateurs de par le monde (les amateurs de la série Silicon Valley comprendront tout de suite) ;
  • TON Proxy, un service de proxy et VPN pour contourner la censure d’internet ;
  • TON Payments, un service de micropaiements à la WeChat, sorte de variante grand public des solutions business de Ripple. Chaque appli Telegram inclurait un portefeuille à cryptomonnaies (« le wallet TON-Telegram deviendra instantanément le wallet à cryptomonnaies le plus adopté au monde », dit le whitepaper)[417].

Atouts et menaces pour Kin

Le lancement de Kin est laborieux. Les pouvoirs publics en ont gêné le lancement, en particulier au Canada et en Chine[418][419][420], ils peuvent aussi en gêner le développement. Facebook, concurrent directement visé, pourrait profiter de son écrasante supériorité financière pour lancer une contre-offensive. Même si les briques technologiques sont opérationnelles, il ne faut pas négliger le temps nécessaire à trouver une ergonomie simple et intuitive pour les utilisateurs, "élégante" pour reprendre l'expression de Mark Zuckerberg. Or Kik, opérateur de messagerie, manque sans doute de culture DAO. Selon le journal Recode, la croissance de Kik serait en panne[421], et son positionnement s'affaiblit face à ses concurrents Whatsapp ou Telegram. Kik est peut-être tout simplement en train de jouer à quitte ou double[422]. Blockchain Capital, Pantera Capital et Polychain Capital, qui ont contribué ensemble à 50 millions de dollars, ont reçu une réduction de 30 pour cent sur leurs kin. Ils peuvent vendre 50% de leurs avoirs à tout moment, ce qui pourrait être déstabilisateur pour l'ensemble[423]. Enfin, et malgré ses efforts, Kik traîne toujours la suspicion d'être un repère de prédateurs d'enfants[424][425], ce qui est une épée de Damoclès suspendue au-dessus de sa réputation.

Les chances de Kin sont minces mais il dispose encore d'atouts importants.

Ted Livingston ne cache pas s'être largement inspiré de Steemit pour permettre aux contributeurs de contenus tels que des articles, images, vidéos, commentaires ou votes d’être rémunérés équitablement avec une crypto-monnaie[426]. Les règles de la coopération sont donc déjà rodées.

Kik enregistre 15 millions d'utilisateurs actifs[427], il était valorisée plus d'un milliard de dollars lors de son dernier tour de table et dispose encore d'une crédibilité financière supérieure à celles des DAOs existantes.

Or il existe aujourd'hui des centaines de crypto-monnaies associées à des centaines de services aussi différents que Filecoin pour le partage de capacité de stockage dans le cloud[428], IMMLA pour le transport multimodal de marchandises[429], BitJob pour les jobs d'étudiants [430], ou TokenStars pour financer les futurs champions de tennis [431]. De plus ces crypto-monnaies risquent de péricliter faute d'opportunités d'échanges suffisamment nombreuses. Elles pourraient donc trouver un intérêt à se fondre dans l' écosystème plus large que présente Kin.

Ted Livingston pourrait donc ainsi être le premier à combiner les règles d'une bonne coopération et l'effet de masse de l'écosystème.

Le franchissement du mur

Pour franchir le mur du son, il fallait combiner plusieurs caractéristiques essentielles des commandes, de la voilure et du nez de l'appareil. Cette combinaison n'a pu être validée qu' a posteriori. Imaginons que les caractéristiques essentielles de l' invention collective soient celles de la valeur utile proposée par Steemit et l'effet de masse proposé par Kin.

Malgré un démarrage laborieux, il n'est pas interdit d'imaginer qu'une première vague d'applications autour de la messagerie Kik soit bientôt proposée, qui rémunèrent contributeurs et organisateurs en Kin. Viendront ensuite des applications commerciales simples, qui permettent aussi de gagner des Kin en achetant une pizza, en répondant à des enquêtes ou en louant les capacités de son ordinateur[432]. Des jeux videos en ligne existants sont adaptés pour permettre aux joueurs d'acheter des options du jeu (armes, pouvoirs, équipements) avec des Kin.

A partir du moment où le nombre d'opportunités de gagner et de dépenser des Kin atteint un certain seuil selon un modèle jugé équitable, s'enclenche la spirale vertueuse auto-entretenue de l'écosystème. Comme chaque contributeur reste intéressé au succès collectif, le processus ne cale pas de lui-même. Pour la première fois de l'histoire, le mur de l'invention collective serait franchi, ouvrant alors des perspectives immenses... mais pas seulement à Kin.

C'est une loi du genre. Ceux qui ont vu le film L'étoffe des héros se souviennent peut-être des noms prestigieux du X-1 et de Chuck Yeager pour être le premier appareil et le premier homme à avoir franchi le mur du son en 1947. Personne ne se souvient, en revanche, du constructeur à l'origine de cet exploit, Bell Aircraft Corporation qui sera rapidement dépassé par son concurrent Lockheed. Plus récemment Google a dépassé Alta vista, Facebook a dépassé Friendster. De même, Kin aura grâce à sa masse été le premier à franchir le mur de l’invention collective, mais il sera sans doute rapidement dépassé.

Ruptures économiques et sociales

Vers une coopération écosystémique

Kin ne sera peut-être pas le premier à franchir le mur de l' invention collective, mais la cristallisation fulgurante de nombreuses tendances convergentes est néanmoins probable. Poursuivons la description d'un scénario prospectif pour l'illustrer. Inspirés par l'expérience de Kin, d'autres opérateurs de l'économie du partage peuvent tenter l'aventure et se tokeniser. D'abord les challengers : Twitter, Medium, SoundCloud ou Telegram[433], qui ne craignent pas de désorganiser le marché.

Les leaders peuvent aussi lancer des expérimentations. Ainsi Spotify, qui avait déjà racheté Mediachain pour blockchainiser la répartition des royalties aux artistes [434], étend ce principe aux utilisateurs qui apportent de la valeur à la communauté. Pour fidéliser les siens, Facebook les récompense proportionnellement à leur degré d'interaction passé. Chacun reçoit des "Facebook coins" pour chaque post, chaque photo partagée, chaque clic[435]. Une vingtaine de crypto-monnaies de taille internationale émergent[436].

Pour toucher la prime des premiers entrants, ces opérateurs peuvent ensuite multiplier les offres pour attirer les développeurs. Leurs écosystèmes grossissent avec des applications adaptées au règlement en tokens comme le partage de capacités d'ordinateur[437], d'informatique de réseaux[438] ou d'énergie électrique[439], la co-propriété d'oeuvres d'art[440], de parcs immobiliers ou d'installations solaires[441], les jeux sur smartphone[442] les paris sur les prochaines élections[443] ou sur les résultats sportifs[444].

Vers une coopération universelle

Plusieurs mécanismes convergent pour faire grandir cet écosystème.

D'une part, l'émission de crypto-monnaies (ICO, Initial Coin Offering) fait tomber la barrière entre investisseurs professionnels et acheteurs de tokens de la même façon qu’Internet a fait tomber la barrière entre journalistes professionnels d’une part, et blogueurs et utilisateurs de Twitter d’autre part. Internet a permis a chacun de devenir journaliste amateur. Désormais, des millions de gens deviennent investisseurs amateurs"[445]. Les créations de crypto-monnaies se multiplient et leur circulation fertilise l'économie de la contribution.

D'autres part, les crypto-monnaies remplissent mieux leur rôle que les monnaies classiques, car elles s'appuient davantage sur la valeur utile des contributions. Leur minage s'est d'abord fondé sur la proof of work, qui correspondait à un gâchis volontaire de puissance informatique, puis sur la proof of stake pour amoindrir ce gâchis, les proof of spacetime, capacity ou movement[446] pour valoriser les ressources-clés du service (partage de disque dur, capacité de calcul, co-voiturage), elles se rapprochent progressivement de la proof of utility. La monnaie rejoint sa vocation originelle : être au plus près des réalités de la production de valeur[447], jusqu'à représenter la valeur utile que procure subjectivement un bien ou un service à son utilisateur.

Enfin l'intelligence collective obéit à des lois naturelles : pour appréhender par exemple les liens entre nous et nos « amis », mais également les liens entre tous, y compris de nos amis entre eux ("holoptisme"), notre cerveau nous limite à 12 personnes. Le Consultant Jean-Michel Cornu hiérarchise ainsi les organisations de l'intelligence collective : relation interpersonnelle à deux, équipe projet de 3 à 12, communauté d'équipes projets jusqu'à quelques milliers, écosystèmes de communautés jusqu'à 100 000. Le réseau d'écosystèmes permet une coopération sans limite du nombre de personnes[448].

Vers une coopération intensive

Coopération augmentée

AB tasty, adblock radio, adatomik,... liste des startups de l'IA françaises : http://franceisai.com/startups/

Santé

Aimerginghealth prévient à chaque étape les risques générés par l’intelligence artificielle elle-même ; faisant ainsi de A.I. merging health une entreprise qui développe des solutions éthiques dans le domaine de l’IA. outils de détection et de prévention automatisés des risques dans le domaine de la santé. détecter des risques pour la santé des personnes et faire émerger de nouveaux critères d’anticipation permettant de prévenir ces risques. Ce calcul informatique permet alors de créer des alertes à destination des patients ou des professionnels de santé, et de générer des outils pour l’aide à la décision permettant d’anticiper et de réduire ces risques.

Arterys est une start-up qui développe des outils pour accompagner les médecins dans leurs diagnostics. Leur premier service permet de visualiser le flux sanguin dans le corps humain, Arterys développe également des services en oncologie et en neurologie. Les données sont enregistrées dans le cloud d’Arterys en vue d’être analysées, traitées et comparées au moyen de l’AI afin de fournir au praticien un maximum d’informations nécessaires à son diagnostic.

Babyprogress propose des outils de diagnostic permettant, à partir des données issues de l’imagerie médicale, de reconstruire en 3 D le fœtus et le canal de naissance, afin de simuler numériquement le passage de l’enfant lors de l’accouchement.

DreamUp Vision utilise ces algorithmes pour le dépistage des maladies de l'œil dues au diabète.

Kap Code s’engage dans le développement de solutions digitales innovantes pour l'amélioration de la prise en charge des pathologies chroniques ainsi que la détection de signaux sanitaires sur les réseaux sociaux.

Ecologie

Carbon Bee détecte la flavescence dorée dans les vignes. Cette maladie virulente est d'autant plus dramatique qu'elle nécessite l'arrachage des plans.

Prevision.io : A partir d’un sous-ensemble de bâtiments où les consommations sont précisément mesurées, notre moteur peut généraliser à n’importe quel bâtiment et connaître en détail ses consommations, sans l’installation coûteuse de nouveaux capteurs. Les consommations d’énergie représentent un coût important pour vous ou vos clients, mais sont difficile à prédire, étant dépendantes de la météo et des comportements. Prevision.io peut projeter la facture de la fin du mois ou de l’année en cours. Notre moteur analyse l'historique de vos magasins, ainsi que les évènements locaux et nationaux pour prédire, jusqu'à plusieurs mois dans le futur, des chiffres précis d'affluence dans chacun de vos magasins. Vous pouvez connaître avec précision quel produit, à quel moment, sera le plus demandé et optimiser parfaitement votre organisation et votre approvisionnement. Notre moteur analyse l'historique de vos magasins et de vos entrepôts et prédit les tendances de consommation.

Education

Cogiflex repère les difficultés de l'élève pour adapter les contenus.

Lalilo permet à l’enseignant de savoir avec précision où se situent les difficultés de ses élèves en matière d’apprentissage de la lecture et pouvoir ainsi mieux individualiser sa pédagogie.

Appel à projets du Ministère de l'Education Nationale : Reposant sur l’intelligence artificielle, ce projet est composé de deux dispositifs : CoachElève et AssistProf. CoachElève permettra un diagnostic et des conseils personnalisés pour optimiser le parcours de chaque élève dans toutes les disciplines. Il prendra également en compte des aspects tels que le bien-être et l’orientation de l’élève, pour une approche globale de sa réussite scolaire. AssistProf permettra aux professeurs d’avoir à la fois une vision générale de l’avancement de leur classe et un suivi personnalisé de chaque élève. A partir de différents indicateurs, l’outil assistera l’enseignant dans l’élaboration de réponses adaptées aux difficultés rencontrées[449].

Echange d'informations

Dawex monétise les data. Profitez de la place de marché pour monétiser ou acquérir vos données dans le monde entier. Ou utilisez la plateforme en mode privé pour valoriser et échanger vos données avec vos partenaires (filiales, clients, fournisseurs, ...) en toute sécurité et confidentialité.

Honestica ambitionne de créer une plate-forme numérique, où médecins et patients pourront en toute confiance stocker, partager puis analyser ces données.

Khresterion. La mise en situation avec les experts au cours des différents ateliers, permet d’expliciter les connaissances tacites. Cette capacité repose sur les fonctionnalités logiques du moteur de raisonnement qui permet de travailler dans des cas réels où l’absence d’information, la contradiction ou la recherche de solutions représente des situations courantes. Le modèle collectif ainsi produit représente un modèle de connaissance augmentée.

Service client

Alkemics est une plateforme intuitive qui aide marques et distributeurs à collaborer, collecter et partager leurs données produit en un seul lieu sécurisé

Angus.ai transforme les caméras en système d'alerte pour aider les clients.

Alan est une assurance santé simple des entreprises et des indépendants.

Antvoice décèle les intentions de chaque internaute. Nous calculons et attribuons un score d’appétence pour chaque relation, entre un individu et un objet (produit, marque, sujet, personne, etc.)

Batvoice analyse les émotions à partir de la voix. L'intelligence conversationnelle au service de la relation client. Vendez plus, retenez vos clients et améliorez votre service.

Datapublica permet aux Directions Marketing, Commerciales et Financières de bénéficier de la puissance de nos algorithmes prédictifs pour développer leurs ventes et accélérer leur génération de cash.

Deepomatic rend les images du web actionnables. Ce sac à main si élégant que vous voyez au bras d’une vedette sur une photo en ligne : où le trouver ? Ce chapeau qui ressemble exactement à celui de vos rêves : comment s’en offrir un à un tarif abordable ?

Facten est une plateforme de "Sales and Marketing automation". Grâce à une technologie unique ("Big Data" et traitement du langage naturel), nos clients peuvent, en quelques clics, trouver des prospects hyper qualifiés dans n'importe quel pays.

Linkfluence est une start-up française spécialisée dans le social listening. Elle capte, écoute, analyse et valorise les données publiques auprès des entreprises. Chaque jour, elle envoie près de 216 milliards de mails, publie près de 28 milliards de messages sur Facebook et plus de 700 millions d'images sur Snapchat.

OWI comprend avec précision les questions formulées par vos internautes sur votre site internet et trouve la meilleure solution. En fonction de vos choix et de l'évaluation de la valeur potentielle sur cet échange, il y répond instantanément, ou propose une mise en contact avec un conseiller, selon le canal souhaité

Maintenance - Logistique

Akheros détecte le comportement incongru d’un composant afin de prévenir des attaques ou des dysfonctionnements pouvant mener détournement de tout ou partie d’un système.

Carfit : Un petit boîtier placé sous le volant collecte des données de vibrations et en déduit les besoins de maintenance

Lokad : Nous aidons les entreprises à exploiter leur chaîne logistique, leur stock et leur capacité de production au-delà des limites imposées par les méthodes classiques. Notre technologie repose sur les domaines du Big Data et de l’apprentissage automatique

Mise en relation

Clustree est une plateforme qui met à profit l’intelligence artificielle au service des RH avec un objectif bien précis : rendre les recrutements moins sujets aux stéréotypes. Concrètement, la startup se base sur l’analyse de millions de parcours professionnels pour suggérer des matchings pertinents entre talents en recherche de nouveaux postes, entreprises, et opportunités de carrières.

Bayes Impact propose à chaque inscrit à Pôle emploi une stratégie adaptée à sa situation, à partir de l’analyse détaillée de son profil. Le programme utiliserait toutes les données existantes sur le marché du travail.

Julie Desk est un assistant à intelligence artificielle qui organise l'ensemble de vos RDV par email pour vous faire gagner du temps.


Management

Dialoog favorise le dialogue en entreprise, en fournissant outils et accompagnement aux dirigeants pour consulter leurs collaborateurs. Nous travaillons aujourd’hui pour de grands groupes et des cabinets de conseil. Notre différence, c’est l’intelligence artificielle que nous développons pour synthétiser les réponses à des questions ouvertes.

Lili.ai gives your team members visibility over their task prioritization impacts. With increased awareness, teams are better armed to achieve organizational agility.

Divertissement

Hugging Face permet à ses utilisateurs de poser des questions à l’application. Cependant, Hugging Face ne réagit pas comme un chatbot classique d’une marque sur Facebook Messenger ou d’un assistant virtuel comme Siri ou Alexa. En effet, l’application n’a pas été conçue pour faciliter la vie de l’utilisateur mais pour le divertir. Après quelques questions d’usage pour que l’utilisateur puisse se présenter et définir le nom et l’apparence de son nouveau compagnon, Hugging Face offre l’opportunité à ses utilisateurs de s’engager dans une conversation divertissante. Et pour cause, si l’utilisateur demande à l’application de planifier un rendez-vous ou de chercher un renseignement sur Internet, l’intelligence artificielle pourra par exemple effectuer la tâche à contrecoeur ou même dire à l’utilisateur de la remplir lui-même. Le but de l’application est de se rapprocher des conversations réelles entre adolescents sur un ton décalé.

Oeuvres individuelles

Entraînées dans ce mouvement, les applications collaboratives prennent de l'ampleur. Les professeurs, experts et programmeurs sont rémunérés en fonction de l'utilisation de leurs cours[450], conseils[451] et logiciels[452]. Sur le modèle de Steem, d'autres DAOs rémunèrent des contributeurs de contenus de plus en plus variés : photos, videos, articles, commentaires, votes.

  • Photo : KodakCoin vise à rémunérer équitablement les photographes et à leur donner l'opportunité de participer au décollage d'une nouvelle économie adaptée à leurs besoins, avec une gestion des droits sécurisée intégrée[453]
  • Message : La messagerie cryptée Telegram aurait le projet d'émettre ses propres jetons, des TON (Telegram Open Network) pour 500 millions de dollars en prévente puis pour un montant colossal, "entre 3 et 5 milliards de dollars" selon le site TechCrunch. Les jetons émis par Telegram serviraient à réaliser des paiements et micro-transactions à l'intérieur de la messagerie[454]
    • stockage: TON Storage becomes truly decentralized, because it does not need to rely on any centralized cluster of servers for storing files
    • capacité de calcul: perform some specific computations (e.g., 3D rendering or training neural networks), often requiring specific and expensive hardware
    • capacité de réseau:tunnels for ADNL network traffic might register, and those needing them might choose one of these nodes depending on the price, latency and bandwidth offered.[455].

Oeuvres individuelles classées

Les crypto-monnaies comme CCCoin se répartissent d'elles-même entre créateurs et curateurs de contenus sous licence creative commons[456].

Oeuvres collaboratives

Les revenus des "oeuvres collaboratives" se répartissent également selon des clés de répartitions prédéfinies, sous forme de rémunération[457] ou d'actions de start-up[458].

Oeuvres dérivées

Les chaînes créatives d'articles illustrés, brochures, films et autres "oeuvres dérivées" s'organisent autour de DAOs comme CreativeChain[459]. Les applications collaboratives explorent une multitude de modes de rémunération entre créateurs, développeurs et contributeurs d'oeuvres[460], de projets[461] ou de start-up[462].

Oeuvres hybrides

Aujourd'hui le meilleur joueur d'échecs au monde n'est ni un homme, ni une machine, mais la collaboration d'une équipe d'hommes équipés de machines. L'intelligence artificielle ne construit pas ses propres nomenclatures ni n'élucide les problèmes auxquels elle est confrontée. L'intelligence humaine a besoin de la rapidité des outils d'IA pour manipuler la connaissance comme les moteurs de recherche, analyseurs d'images, simulateurs ou traducteurs automatiques. Les oeuvres hybrides hommes/IA se multiplient.

Oeuvres collectives

De proche en proche cette économie de la contribution attire des contenus qui intègrent de plus en plus d'intelligence collective : encyclopédies spécialisées, brainstorming, projets d'entreprise, études de marché ou design.

Chaque contribution, aussi petite soit-elle, est valorisée dans une oeuvre collective, aussi massive soit-elle. A ses débuts, l'économie du gratuit ne valorisait que la page d'accueil des sites web qui généraient le plus de visites. Aujourd'hui le moindre "like", la moindre hésitation de la souris de l'utilisateur sont valorisés en tant que marqueurs de l'attention. De même dans l'économie de la contribution, les "smart contracts" peuvent identifier la moindre contribution au pro rata de son utilité pour les travaux collectifs. Au même titre que l'économie des communs (Wikipedia, Linux) a défini ses règles de diffusion dans les Creative Commons, l'économie de la contribution définit les règles de la co-propriété massivement partagée.

"how we decide to structure the algorithm and the incentive mechanisms that we put into the system because, in the end, you get your reward.(...) we have to actively pursue a specific goal and to agree on how to design these new systems"[463]

Mode de rétribution

Prix à remporter

Canya.io et Bounties Network sont des places de marché de la gig economy.

ETHlance est une place de marché décentralisée pour freelance, payable en Ether.

Bounty Token rémunère les réponses sur une plateforme de questions/réponses.

BountySource, Commit ETH et Bounty0x proposent des primes pour programmer ou debugger de l'open source.

Fundrequest organise un concours de la meilleure solution, rémunérée en token

Any user can create a request based on a feature they want to see or a bug they’ve encountered. They can also add a monetary reward to the request. After validation by the Ethereum blockchain, a smart contract is generated for the specific issue. Any developer can propose a solution to an issue. All proposed solutions get evaluated, and the most suitable solution is determined. After the issue is solved, all funds are transferred. The developer that came up with the best solution will be notified, and is then able to collect his reward.

Gittoken se positionne face à FundRequest de la manière suivante

Our view is that (FundRequest) is super useful for repositories that want help solving specific problems but may not be as useful for forming an ecosystem around a project or informing the community of the value they collectively believe a project has (while distributing this value fairly among contributors) which we think is important.

Gitcoin met en relation programmeurs et tâches, en indiquant un prix en Ether[464].

Knowledge.io permet aux annonceurs de proposer des prix aux contributeurs.

Advertisers can incentivize users to contribute reviews or other content based on their Knowledge Score and offering Knowledge tokens as a reward (...)A fun and easy way to compete for knowledge, gain recognition for it, and be rewarded[465].

Estimation, vote, peer review

The Blockchain can be a powerful lever for tracing the origin and course of creative ideas and contributions of individual members of a collective, allowing the contributions of each co-creator to be recognized — or even rewarded.(...) Tokens thus facilitate the setting up of an incentive scheme within a community of co-creators whose contributions, once evaluated, are rewarded by dedicated “tokens”.(...)Any type of transaction can be recorded in the Blockchain, including votes. Enough to prioritize and value individual contributions based on their collective evaluation(...)The difficulty of making contributions traceable: not being able to assign parentage to contributions inevitably creates frustration or even discouragement among participants. Not to mention that if participants create value, it would be equitable for them to receive fair compensation for their contributions.(...)This would provide a “nudge” function, allowing the various actors to control their personal data, to be properly attributed their contributions and, in so doing, to be recognized and even rewarded in a fair and equitable manner[466][467].

DAOstack has the goal of making available in a simple interface the tools to establish governance mechanisms among participants willing to enter into co-opetition or cooperation (to attain) collective intelligence.
Matryx project offers a system of scientific challenges with rewards for researchers according to the quality of their contributions[468].

Collaborative innovation (CI) has become a genuine asset whose value is driven by an exponential need for supply-demand matching. In spite of its huge potential, CI outcomes are slow to take off[469]

TRUSTinFACT is a next generation digital platform that boosts the full value of CI worldwide. It is based on a new sustainable digital paradigm, “Fair return on Trusted Sharing”, powered by Blockchain that can apply to any human activity, not only CI. TRUSTinFACT is a multi-actor, agile, tailored & trusted by design Platform (in compliance with GDPR) that optimizes CI supply-demand matching, allows end-to-end nudge & incentivized co-creation and provides high ROI driven by “reverse funding”. TRUSTinFACT is currently gathering its founding members. TRUSTinFACT should be launched by the end of 2018

Calcul algorithmique

Assembly App Coin semble être la première "startup décentralisée" en 2014[470]

Qurito calcule l'utilité de la contribution

QURITO’s can be earned in two prominent ways; User Activity (Q/A, Polls, Forums) and Web Analytics (based on Social Media and Search Engine Traffic). For example, a user posts a Question, which over the course of time may receive an influx of views, answers, likes and favorites. As a result, the user who posted the question, or the users who provide answers, may receive QURITO’s based on predefined parameters and algorithms that will be designed, tested and finalized by the team. The same holds true for Polls, Surveys, Forums, and any other features within the platform. The greater the contribution and traffic, the more QURITO’s that will be rewarded[471].

QURITO’s can be earned in two prominent ways, User Activity on: -Questions & Answers(Questions Answers, Likes, Dislikes, Comments, Favourites Answers Likes, Dislikes, Favourites), -Polls(Participating & Hosting), -Forums(Create & Participate) Web Analytics based on Social Media and Search Engine Traffic

Ellcrys calcule la rétribution en fonction des rangs du contributeur, du projet et de sa communauté

To encourage contribution to open source, a developer contributing to a project on the network will be rewarded with Ellies each time their pull requests are accepted by a project's community. How much Ellies they are rewarded with will be determined by factors such as their rank on the network, the project and communities rank and more.

Lunyr est un Wikipedia rémunéré et publicitaire.

With help of an Ethereum-based token, an economic incentive is proposed to contributors. They are rewarded for their work and are therefore incentivized to further increase the value of the ecosystem. Submitted content is peer-reviewed. Therefore, content is only added to the network after being successfully reviewed. Reviewers are incentivized by token rewards[472].
The number of LUN that an individual contributor is rewarded is based on the percent of total CBN they hold by the end of each two­ week period. Smart contracts ensure that the distribution will be handled with transparency and fairness[473].

Matryx a le projet d'une rémunération automatique

Not all bounties need to be as high stakes as the Poincaré Conjecture’s million dollar prize. If I instead wanted to 3D model a spaceship, I could put out a bounty for users to submit their best designs. The first stage of the bounty would be highly competitive; only a subset of all submissions would make it to the next round. The next stage would consist of users remixing the best design(s) from the prior round to create an even better spaceship. This stage would be collaborative; each remixer would be on the same ‘team’ as the previous designer. These batches would repeat until the best design was found. Every contributor in the submission chain shares the bounty[474].
Reputation is currently an auxiliary component to give contributors and bounty posters a public view of how they valued contributions. An automated system that can assign subjective value to the contribution in a bounty is a goal to be worked towards[475].

Hey Foundation [476]

L'usine à inventer mondiale

Les grandes entreprises utilisent ces plateformes décentralisées comme des versions évoluées des outils de l' innovation ouverte, mais qui mesurent dorénavant la qualité des contributions dans une organisation coopérative plutôt que compétitive. Ces plateformes leur apparaissent comme des fournisseurs foisonnant d'inventions moins chères et plus abouties que lorsqu'elles sont développées en interne.

“I don’t think that what’s happening—with a few companies essentially owning AI, hiring every AI researcher, and buying every AI startup— is best for humanity,” he says. “It means that eventually human-level AI will come from these big corporations.” Making that undesirable, Goertzel’s reasoning goes, is the fact that those companies might train their AIs towards finding new ways of lining their makers’ pockets—for instance, by perfecting targeted advertising—rather than tap into their power for tackling serious issues like climate change. Government-funded AI research is also problematic, as the resulting AI would be in thrall to powerful lobbyists or self-serving bureaucrats[477].

Les services numériques ne sont pas les seuls à pouvoir profiter des ICO. C’est aussi le cas des protocoles, sur lesquels reposent par exemple les plateformes numériques actuelles. Les protocoles clefs, en particulier celui à l’origine d’Internet (TCP/IP) et du web (HTTP), sont nés du travail de chercheurs. Or la grande majorité des chercheurs qui ont créé ces protocoles en ont tiré très peu de gains financiers directs. La captation de valeur s’est faite au profit des Google, Facebook, etc. Avec le système de tokens, les créateurs d’un protocole peuvent le monétiser directement, et en tirer d’autant plus de bénéfices que d’autres construisent des business par-dessus ce protocole[478].

Ces protocoles clefs sont Ethereum, Tezos, Iota, Qtum et leurs concurrents[479]. Ces sous-jacents techniques gagnent en puissance, bénéficient de l'effet de réseau et du régime de la concurrence monopolistique pour renforcer progressivement leur position face aux business. Les GAFA NATU ont émergé à leur époque au milieu d'un large écosystème, mais Internet était gratuit. Aujourd'hui les protocoles n'étant pas gratuits, ils s'imposeront en tant que plate-forme à inventer du monde. Les applications en deviennent les interfaces spécialisées par type de projets.

Ruptures sociales

Dès lors que le compte de création collective est créé, les chercheurs Philippe Beraud et Franck Cormerais anticipent des conséquences sociales considérables pour une économie plus humaine, plus durable et plus innovante.

"En faisant des ouvrages et des oeuvres les supports d’une médiation qui assure la communication avec autrui, la création collective devient la condition d’une désaliénation sociale où le dialogue permet de retrouver un sens de l’homme et d’une économie humaine (Perroux, 1970) et où la reconnaissance permet de qualifier les différentes manières d’être ensemble (Ricoeur, 2004).

"L’économie de la contribution, en se construisant comme une économie de la durée, ouvre donc sur la vision d’une « société du plein développement humain » (Perroux, 1969), qui confère une autre légitimité à l’innovation[480].

"Dans le cadre d’une mobilisation générale des ressources cognitives, l’économie de la contribution devrait s’imposer de plus en plus comme un modèle d’innovation qui permet de repenser les relations entre technologies informationnelles et travail, telles qu’elles se déploient dans l’interconnexion et l’interopérabilité des réseaux qui structurent l’évolution des formes nouvelles d’activités professionnelles[481].

Une étape historique

L'économie de la connaissance a débuté avec l'écriture, elle s'est développée avec les bibliothèques, l'imprimerie, l'encyclopédie et les organisations collaboratives, mais la jonction avec l'économie industrielle s'est heurtée jusqu'à présent au mur de l'invention collective.

Ce mur vieux de 5000 ans est sur le point d'être franchi. Ce franchissement permettra de construire une mega-plateforme à inventer autour des protocoles clefs comme Ethereum, Tezos ou Iota. S'ouvrira alors une nouvelle période économique post-Google. Une économie de la contribution, du cerveau d'oeuvre, de l'invention collective, de la co-propriété et de l'utilité, qui animera le cerveau mondial pour mieux résoudre, de manière massivement collective, les grands problèmes de l'humanité.


Paradoxes économiques résolus par l'utilité

Le travail gratuit

L'impasse actuelle

Les prismes comptables du travail et du capital ont structuré la politique pendant deux siècles. Dès lors, notre modèle se noie dans la singularité du travail gratuit.

Le Ministre du travail et de l'emploi s'interroge par exemple sur les pratiques collaboratives et le travail gratuit des internautes, qui soulèvent les questions essentielles de la rémunération, du rapport au temps, et de la protection sociale des travailleurs à l'ère numérique[482].

Les GAFA et autres plate-formes monétisent en effet les contributions bénévoles à leur unique profit. L'économie numérique est donc une forme de dépassement de la théorie de la firme : il y est possible de faire « travailler » les utilisateurs d'une application, comme par le passé on faisait travailler des fournisseurs ou des salariés. L'absence de contrepartie monétaire à l'activité des utilisateurs explique en partie les gains de productivité spectaculaires de cette économie[483].

La montée en puissance de ce modèle est anticipée par de nombreux auteurs. Soit pour s'en réjouir, comme Jeremy Rifkin, qui prévoit le triomphe des communaux collaboratifs. Soit pour le déplorer, comme Jaron Lanier, qui prévoit la concentration des richesses dans les mains de quelques-uns et le chômage de masse pour les autres.

Dans les deux cas, le travail gratuit est l'aboutissement ultime de l'opposition séculaire entre valeur travail et valeur marchande qui, dès lors, semble indépassable.

Le prisme de la valeur utile permet de bondir hors de cette impasse.

Le cas de BlaBlaCar

Pour le blogueur Evenstrood, BlablaCar « a réussi en l’espace de 5 ans à créer un esprit communautaire et humaniste autour du covoiturage et à le détruire, récit d’un inscrit de la première heure qui vomit ce qu’est devenue la dernière ». Selon lui, le covoiturage est « un état d’esprit, alliant à la fois un volet économique (réduction du coût du voyage), à un volet écologique (ne pas prendre de multiples voitures pour un seul et même voyage) à un volet social (échange et liens entre les personnes) ». Evenstrood était « heureux de contribuer à ce qui semblait être un pied-de-nez à la société de surconsommation, un pied-de-nez au ‘tout profit’ ».

Mais « le site communautaire à la limite de l’esprit hippie s’est vu cadenassé par des développements de fonctionnalités toutes plus sécuritaires les unes que les autres et la tenue de discours de peur digne des partis extrémistes pour forcer le passage à son mode payant (…) en gagnant des inscrits, le site et son équipe en ont perdu les fondements du covoiturage, basé sur la confiance d’autrui et le partage. (…) Il est mort le temps utopique où nous croyons tous, nous la génération Covoiturage.fr de la première heure, qu’il était né ici un site communautaire qui ne pensait pas à son propre profit. »[484].

Ce billet peut paraître vindicatif, mais il est caractéristique des déçus des plateformes de services de partage.

Le cas d'Oculus

Le mécontentement atteint son paroxysme avec l’affaire Oculus. Cette startup fabrique des lunettes en 3D pour des jeux videos en immersion virtuelle totale. Elle a fait appel au crowdfunding pour se financer. Dans les semaines qui ont suivi, elle a été rachetée pour 2 milliards de dollars par Facebook. Tonnerre d’indignations !

Un contributeur sur cinq déplore que son rêve ait été trahi. Ce rêve était celui qu’Oculus devienne « LA société de référence de la réalité virtuelle ». Oculus aurait dû rester indépendante des acteurs dominants, un nouvel univers virtuel aurait dû émerger grâce au soutien collectif de la communauté. Rien de tout cela n’a fait l’objet d’un contrat ni même d’une promesse orale. Les contributeurs s’estiment pourtant lésés, et les arguments rationnels que certains essaient d’avancer n’entament pas leur ressentiment.

Un contributeur sur huit pense que Facebook va ruiner les jeux virtuels avec la publicité, que son inclinaison à collecter des données personnelles va s’étendre aux jeux videos, que son modèle va « infecter » celui d’Oculus, qui va y perdre sa liberté et son âme. Rien de tout cela n’est fondé sur des déclarations d’intention de Facebook ? Les contributeurs croient pourtant voir clair dans le jeu du repreneur et l’accusent par avance de projets inavouables. Etonnant ! Les contributeurs ne sont ni co-fondateurs, ni salariés, ni actionnaires, ni détenteurs d’engagements contractuels et pourtant ils revendiquent des droits dont même les salariés ne disposent pas !


Le cas du Huffington Post

Le Huffington Post voulait à l'origine devenir le Wikipedia du journalisme. Le jour où le journal a été vendu 315 millions de dollars à AOL, l'enthousiasme de départ des milliers de chroniqueurs bénévoles s'est transformé en un déluge d'indignations ! Eux qui avaient pourtant cédé leurs droits gratuitement, réclamaient leur part. Le même sentiment de trahison s'observe en fait à chaque fois qu'une plate-forme sort de la sphère communautaire pour entrer dans la sphère commerciale[485].


Le don/contre-don

Pour résoudre ces dilemmes, il faut revenir à l'intention initiale des contributeurs qui apportent un travail gratuit ou de l'argent "communautaire". A quoi veulent-ils que leur travail -ou leur argent- soit utile ?

Les contributeurs veulent d'abord être utiles à leur communauté de manière bénévole. C'est la logique du don / contre-don de Marcel Mauss. Le don oblige celui qui le reçoit à un contre-don, c'est-à-dire à partager les fruits récoltés grâce au don : « Les sociétés ont progressé dans la mesure où elles-mêmes, leurs sous-groupes et enfin leurs individus, ont su stabiliser leurs rapports, donner, recevoir, et enfin, rendre. (…) C'est là un des secrets permanents de leur sagesse et de leur solidarité » [486].

L’échange don / contre don est la forme la plus archaïque du contrat. Il est au fondement de nos sociétés et de notre morale. Il est perpétué par nos traditions avec les cadeaux d’entreprise, les fêtes de mariage, les invitations à dîner, le verre offert, la tournée, le bouquet de fleurs, le coup de main ou une simple politesse, comme la porte que l’on tient ouverte pour le suivant.

Le don ne peut pas être refusé sans blesser, et doit être rendu sous peine de déclaration de guerre[487] . Dans ce contexte, le don est un acte généreux mais non gratuit, qui « oblige » son bénéficiaire. On peut parler de « don contractuel » [488] . La réciprocité est obligatoire, mais pas forcément individualisée. Elle peut être « élargie » à la communauté, comme l’illustre le don de sang[489] . Dès lors, participer sans compter fait ressentir au donateur son appartenance au groupe. Le don est ainsi l’acte primordial qui fonde la communauté[490]. .

Extension commerciale du don

Les oeuvres d'art sont aussi perçues comme des dons à la société. Mauss approuve lui-même, dans l’Essai sur le don, l’institution des droits d’auteur, car il conçoit que ce n’est que justice qu’un artiste reçoive des compensations pour sa contribution au domaine public. Le sens commun est en effet heurté lorsqu’un marchand d’art réalise un bénéfice important qu’il ne partage pas avec l’artiste. C’est pourquoi le scandale de la plus-value des peintures, sculptures et objets d'art, du vivant des artistes et de leurs héritiers immédiats, a inspiré une loi française de septembre 1923, qui donne à l'artiste et à ses ayant droit un droit de suite, sur ces plus-values successives dans les ventes successives de ses œuvres[491].

Les contributions sur les plate-formes évoquées sont de cette nature. Mais dès l’instant où elles considèrent ces contributions comme des « dons gracieux » et non des « dons contractuels », elles s’exposent inévitablement à des manifestations de profond ressentiment.

De manière plus générale, la mobilisation de ce tiers paradigme a une portée critique considérable puisqu’il permet d’indiquer d’une part que les hommes n’ont pas une conscience de la réalité de leurs échanges et d’autre part que ce système d’échanges représente une richesse économique et sociale largement inexploitée. Malinowski écrivait ainsi à propos des Trobriandais : « Ces hommes n’ont aucune conscience des lignes directrices de leurs structures sociales. Ils connaissent les mobiles qui les poussent, les fins qu’ils poursuivent dans leurs actions individuelles et les règles qui conditionnent celles-ci, mais la manière dont tout ceci prête forme à l’ensemble de l’institution collective dépasse le niveau de leur entendement. Aucun indigène, même le plus intelligent, ne se fait une idée claire de la Kula en tant que vaste institution sociale organisée, ni, à plus forte raison, de son rôle et de ses implications sociologiques » (op. cit., p.141). Le même type de formule, à la lettre, peut sans aucune difficulté être appliqué à la conscience des dirigeants : ils ne connaissent ni ne reconnaissent la valeur des échanges sociaux qui nourrissent l’organisation, le travail et la compétence. [492] .


Revenir à l'intention initiale

Les contributeurs veulent donc être utiles bénévolement pour leur communauté, mais être utiles aux sociétés commerciales de manière rémunérée. Dans le sens communautaire, le travail des contributeurs est « gratuit » car son prix est nul. Dans le sens commercial, il n'est « pas gratuit » car il n'est pas désintéressé.

Il ne s'agit pas d'un simple jeux de mots. L'incompréhension largement partagée de ce fait social continue à faire prospérer des idées fausses sur l'économie collaborative, à commencer par celles qui sont véhiculées par le livre de Jérémy Rifkin sur la fin du capitalisme.

Pour être plus précis l'intention initiale des contributeurs pourrait donc se formuler de la manière suivante : « je suis prêt à apporter ma contribution autonome à un projet, y compris de manière désintéressée, mais si quelqu'un en retire un profit, je veux en recevoir une part équitable ».

Le prisme de l'utilité permet ainsi de distinguer les deux sens du mot « gratuit ». Il faudrait donc parler de travail « à toutes fins utiles », c'est-à-dire qui puisse être contractualisé par une licence à réciprocité comme #FairlyShare.

L'utilité surcompense la menace de l'emploi automatisé

L'automatisation menace l'emploi

L'automatisation porte la menace de la destruction de l'emploi. Comment en effet ne pas constater la disparition des ouvriers spécialisés sur les chaînes de montages, remplacés par des robots ?

Une équipe de l’université d’Oxford a mené en 2013 une étude visant à quantifier la part des emplois potentiellement automatisables[493]. L’analyse est basée sur une décomposition analytique des emplois en activités élémentaires (incluant connaissances, compé- tences, capacités requises) effectuées par l’équivalent britannique de l’INSEE, et dont le potentiel d’automatisation est évalué à l’aune des tendances technologiques discernables à moyen / long terme. Sur cette base, les emplois, répartis en 702 catégories, se voient affecter une probabilité d’automatisation allant de 0 à 1. Les résultats ont fait apparaître que 47% des emplois aux Etats-Unis connaissent un risque élevé (plus de 70%) d’être automatisés à l’horizon de 20 ans (...) l’analyse montre quelques résultats frappants :

  • la fragilisation des emplois industriels peu qualifiés se poursuivra ;
  • plus largement les bas salaires, associés aux faibles niveaux de qualification, sont les plus exposés, dans l’industrie comme dans le secteur tertiaire (services à faible contenu cognitif) ;
  • mais des emplois intermédiaires sont également à risque. Il s’agit notamment des fonctions administratives en entreprise, des métiers juridiques, ou de nombreuses fonctions d’encadrement intermédiaire, constitués majoritairement d’activités facilement automatisables[494].

Selon de nombreux analystes, la numérisation rapide va perturber l'économie. Du fait que les ordinateurs deviennent plus puissants, les entreprises auraient moins besoin de certains types de travailleurs. Le progrès technologique devrait laisser derrière lui beaucoup de gens. S'il n'y a jamais eu de meilleur moment pour être un travailleur avec des compétences spéciales ou un bon niveau d'éducation, il n'y aurait jamais eu de pire moment pour être un travailleur avec des compétences « ordinaires » , parce que les ordinateurs, les robots et autres technologies numériques acquièrent ces compétences à un rythme extraordinaire[495].

La technologie a toujours menacé l'emploi

Or ces inquiétudes récurrentes se sont toujours avérées mal fondées.

En 1800, 67 % de la population active française travaillait dans l'agriculture. La mécanisation de celle-ci avec les moissonneuses, et sa chimisation avec les engrais, ont fait chuter ce chiffre à 3% en 2000[496].

En 1812, Lord Byron, dans une déclaration à la chambre des communes, déclarait que les machines représentaient un danger pour l'humanité parce qu'elles allaient détruire les emplois. C'était le temps des luddites, ces bandes d'ouvriers du textile qui mettaient à sac les usines[497]. L'adoption de l'eau courante, du gaz et de l'électricité dans les foyers s'est faite aux dépens de l'emploi des domestiques, ce qui fait dire à un journaliste en 1880 : « toute cette explosion de science mène droit à l'écrasement de ce qui était la vie normale de l'homme. L'électricité, qui décuple la vie, lui enlève aussi de son charme... Les vieux domestiques fidèles et classiques deviennent rares : ils n'ont même plus besoin d'exister. Un bouton pressé les remplacera »[498].

Le Time Magazine du 24 février 1961 titre "L'automatisation sans emploi". L'article considère que le nombre d'emplois perdus au profit de machines plus efficaces ne constitue qu'une partie du problème. Ce qui inquiète de nombreux experts de l'emploi est plus que l'automatisation peut empêcher l'économie de créer suffisamment de nouveaux emplois. Tout au long de l'histoire industrielle, la tendance a été celle d'une plus grande production avec une force de travail plus petite. Mais un grand nombre des pertes d'emplois de l'usine était alors compensé par une augmentation des services ou par des emplois de bureau. Aujourd'hui l'automatisation commence à éliminer aussi les emplois de bureau. Dans le passé, les nouvelles industries ont embauché beaucoup plus de personnes que celles qui avaient été débauchées. Mais cela ne vaut pas pour la plupart des nouvelles industries actuelles. Toujours selon cet article, celles-ci présentent relativement peu d'emplois pour les travailleurs non qualifiés ou semi-qualifiés, seulement pour la classe des travailleurs dont les emplois seront éliminés par l'automatisation[499]

Déjà en 1964, le Président Lyndon Johnson s'inquiètait de l'accélération des technologies et de l'automatisation et de leurs effets sur l'emploi. La commission en charge du rapport conclut que l'automatisation ne menaçait pas l'emploi : "Les changements technologiques sont un déterminant important des lieux, industries et personnes affectés par le chômage. Mais le niveau général de la demande pour les biens et services est de loin le facteur le plus important pour déterminer le nombre qui sont affectés, combien de temps ils restent au chômage, et la difficulté pour les nouveaux entrants de trouver un métier sur le marché du travail. En fait, la technologie détruit des métiers, pas le travail"[500].

Compensation des emplois détruits

Si aucun des métiers détruits par la technologie n'avait été compensés depuis 1800, il n'y aurait en effet plus que des chômeurs, ce qui n'est pas le cas. Selon les données américaines, les créations de nouvelles activités ont été à l’origine de 50 % des emplois nets créés (emplois des nouveaux établissements, diminués des emplois des établissements ayant cessé leur activité, comparés à l’expansion des emplois dans les établissements existants, diminués des suppressions d’emplois dans les établissements existants) aux États-Unis au cours de la période de prospérité des années quatre-vingt-dix (Monthly Labour Review Statistics, 2001)[501].

Pour mieux comprendre ce phénomène de compensation, on peut analyser le secteur de la banque-assurance depuis 1978.

Ce secteur était attendu en 1975 comme la première victime de l'informatisation : traitement des chèques, transfert entre banques, place de compensation, carte de crédit, distributeur de billets, relevé de compte bancaire, virement de salaire, prélèvement mensuel de la facture de téléphone, paie, comptabilité, bureautique, courrier interne, messagerie, archives et documentation ont en effet été ensuite quasi-intégralement automatisés[502]. Le rapport Nora-Minc de 1978 anticipait ainsi des destructions d'emploi qui auraient dû représenter sur dix ans jusqu'à 30% du personnel[503].

Or il s'avère que, non seulement ce macro-secteur n'a pas détruit les emplois que facilitait pourtant la pyramide des âges, mais qu'il s'agit au contraire de celui qui a été le plus dynamique. Depuis la remise du rapport Nora-Minc, la banque-assurance a créé 160 000 emplois nets, soit une augmentation de 25%[504].

Alternatives Economiques. 1er juin 2015


De même aux Etats-Unis, les distributeurs automatiques de billets ont été introduits dans les années 1970, et leur nombre dans l'économie américaine a quadruplé d'environ 100.000 à 400.000 entre 1995 et 2010. On pourrait naturellement supposer que ces machines auraient pratiquement éliminé les caissiers de banque dans cet intervalle. Mais l'emploi de caissier de banque des États-Unis a en fait augmenté légèrement, passant de 500 000 à environ 550 000 au cours de la période de 1980 à 2010. Avec la croissance de distributeurs automatiques de billets, que font-ils à la place ? On observe en fait que deux forces ont travaillé dans des directions opposées. Tout d'abord, par la réduction du coût d'exploitation d'une succursale de banque, les distributeurs automatiques de billets ont indirectement augmenté la demande pour les caissiers : leur nombre par succursale a chuté de plus d'un tiers entre 1988 et 2004, mais le nombre de succursales de banques urbaines a augmenté de plus de 40%. Deuxièmement, la technologie de l'information a fait reculer la routine des tâches de traitement de la trésorerie, ce qui a permis à un plus large éventail de personnel de la banque de participer à la relation client. Les banques ont progressivement reconnu la valeur de ce personnel, non en qualité de caissiers, mais plutôt de vendeurs, pouvant offrir aux clients des services bancaires supplémentaires tels que les cartes de crédit, des prêts et des produits d'investissement[505].

Mécanisme de compensation

Cet exemple souligne une réalité économique qui est aussi fondamentale que négligée : les tâches qui ne peuvent pas être entièrement substituées par l'automatisation sont en général complétées. La plupart des processus de travail font appel à un ensemble de facettes : travail et capital ; créativité et répétition ; maîtrise technique et intuition ; transpiration et inspiration ; respect des règles et application judicieuse. Typiquement, ces facettes jouent chacune un rôle essentiel ; l'amélioration de l'une ne supprime pas la nécessité de l'autre. Ainsi, l'amélioration de la productivité dans un ensemble de tâches va presque nécessairement augmenter la valeur économique des tâches restantes.

Une représentation iconique de cette idée se trouve dans la fonction de production O-ring étudiée par Kremer (1993). Dans ce modèle, l'échec d'une quelconque étape de la chaîne de la production conduit le processus de production à l'échec. Inversement, des améliorations dans la fiabilité de toute étape augmente la valeur des améliorations dans toutes les autres. Intuitivement, si n - 1 maillons de la chaîne ont une certaine probabilité d'échec, le fait que l'étape n soit peu fiable a peu de conséquence. Si en revanche les n - 1 étapes sont fiables, alors la valeur de la fiabilité de l'étape n augmente aussi. De manière analogue, lorsque l'automatisation ou l'informatisation rend certaines étapes d'un processus de travail plus fiable, moins coûteux, ou plus rapide, ce qui augmente la valeur de l'humain restant sur les autres maillons de la chaîne de production[506].

Emplois détruits ou enrichis

Comme les distributeurs automatiques de billets n'ont pas entièrement remplacé le métier des caissiers, ils ont non seulement provoqué un besoin de services nouveaux sur la partie non remplacée, mais aussi une qualité de services supérieure. Dit autrement, ils ont apporté des effets utiles nouveaux. Ainsi, les gains de productivité qu'ils ont introduit ont été plus que compensés par ces effets utiles, ce qui a résulté d'une part par une création nette d'emplois et d'autre part par un enrichissement du métier de caissier.

Autre exemple, celui des infirmières auxiliaires autorisées. L'informatisation de la profession médicale aurait dû détruire les emplois de ces infirmières, que l'on croyait n'avoir pas les compétences nécessaires pour manipuler de nouvelles machines sophistiquées. Au lieu de cela, le développement des lasers et endoscopie de pointe ont permis de réaliser une chirurgie faiblement invasive à court séjour clinique, qui se sont multipliés au cours des trois dernières décennies, ce qui a provoqué indirectement la création d'emplois et l'augmentation des salaires pour ces infirmières[507].

Dernier exemple : nous avons deux fois moins de robots qu'en Italie, cinq fois moins qu'en Allemagne. Nous pensions à l'époque que le robot était l'ennemi de l'emploi ; la comparaison avec ce dernier pays suffit à montrer que ce n'était pas vrai[508].

Bilan destruction/création[509]

Durant les trente glorieuses, période de grands progrès techniques, le nombre d’emplois global n’a cessé d’augmenter ? Comment expliquer qu’aujourd’hui un pays comme l’Allemagne, qui a un taux d’équipement en robots deux fois supérieur à la France (par nombre de salariés), ait aussi un taux de chômage nettement inférieur ? Une réponse à cette énigme avait été apportée par l’économiste et démographe Alfred Sauvy dès les années 1980. Dans La Machine et le Chômage, il s’en prenait à l’illusion du « chômage technologique ». Si, à court terme, la machine diminue l’emploi dans un secteur (comme ce fut le cas dans l’agriculture), elle a aussi des effets positifs à long terme. La baisse des coûts des produits alimentaires entraîne en effet une augmentation du pouvoir d’achat des consommateurs, qui vont alors transférer leur consommation vers d’autres secteurs : les produits industriels ou la santé. C’est ce qu’il appelait la théorie du déversement. Voilà pourquoi les enfants des agriculteurs des trente glorieuses ont quitté « un à un le pays pour s’en aller gagner leur vie loin de la ferme où ils sont nés » (comme dit la chanson de Jean Ferrat), et gonflé les rangs des classes moyennes.

Depuis le livre d’A. Sauvy, bien d’autres études ont exploré les relations complexes entre emploi et chômage. L’une des plus célèbres a été menée par d’éminents économistes, Olivier Blanchard et Robert Solow, qui ont montré que sur le long terme, il n’existe aucune correspondance entre innovation et chômage[510]. Une étude de 2011 a tenté de prendre en compte trois effets de l’automatisation :

  1. son effet sur la productivité du travail : elle est augmentée par l’automatisation ;
  2. ses conséquences à court terme : suppression d’emplois dans les secteurs concernés ;
  3. ses conséquences à long terme : transfert de revenus dans d’autres secteurs.

Résultat : les données empiriques confirment bien l’existence de trois effets, mais le bilan global en terme d’emploi s’avère finalement positif [511]

Il existe ainsi un lien très fort entre le degré de robotisation et le maintien (comme au Japon ou en Allemagne) ou la renaissance (comme au Royaume-Uni) d'une industrie automobile puissante. Selon nos calculs à la Fondapol, un plan de robotisation accélérée sur cinq ans avec le rétablissement d’une filière nationale de production permettrait d’ajouter jusqu'à 0,3% de croissance annuelle du PIB.[512]

Le nombre de robots industriels pour 10 000 ouvriers dans l’industrie manufacturière était de 122 en France contre 131 en Espagne, 135 aux États-Unis, 159 en Italie et 261 en Allemagne 2. Entre 2003 et 2011, notre pays est passé du quatrième au huitième rang mondial dans ce domaine. Ce chiffre, loin d’être anecdotique, illustre l’absence d’investissement des entreprises françaises dans des outils et des méthodes de production innovantes

Sur les cinq dernières années, la France a généré l’une des plus faibles croissances de la productivité du travail des grands pays développés (0,2 % contre 0,5 % pour l’Allemagne et 0,7 % pour le Royaume-Uni). Ceci provient en partie de l’échec croissant d’un système scolaire qui recrache chaque année un jeune sur six sans diplôme autre que le brevet. La France est ainsi le seul pays de l’ensemble de l’OCDE 4 qui a vu la proportion de jeunes de 15 à 19 ans suivant une formation décroître entre 1995 et 2011 et dont la proportion de jeunes de 20 à 29 ans suivant une formation a stagné sur la même période. Résultant des problèmes évoqués ci-dessus, un manque d’investissement et une main-d’oeuvre moins productive car moins bien formée, le produit intérieur brut (PIB) par habitant – qui exprime la richesse créée en une année par tête – est en baisse de 4 % depuis son plus haut historique de 2007. Début 2014, il est revenu au niveau de janvier 2006. Nous venons donc de perdre huit années, huit années durant lesquelles notre richesse par habitant, et par conséquent notre niveau de vie, n’a pas progressé alors qu’il évoluait positivement chez nos voisins. [513]

Impossible prédiction

En revanche, il est souvent impossible de prédire quels métiers vont disparaître.

Le métier de courtier en assurance est un des exemples les plus emblématiques de métier qualifié touché par la révolution digitale. Plusieurs innovations technologiques ont permis des gains de productivité majeurs dans le secteur : la distribution et gestion de portefeuille en ligne, ou l’accès et comparaison facile de l’offre de plusieurs assureurs via des sites spécialisés et accessibles par tous. Plus encore, le cœur de l’activité de courtage peut maintenant être géré de manière automatique avec le courtier en ligne (Assur3D), tandis que le logiciel backoffice de courtage Pro CRM tire parti du Big Data pour comparer instantanément un très grand nombre d’offres. Des logiciels prédictifs permettant d’anticiper l’évolution des taux ont également vu le jour[514].

Certes, le métier de courtier ne se résume pas à ces tâches, et d’autres aspects ont pour l'instant échappé à l’automatisation. Mais le contact avec les clients pour comprendre au mieux leur besoin et la négociation des tarifs avec les assureurs échapperont-ils aux outils d'aide au diagnostic et aux comparateurs de prix ? Le rôle d’intermédiaire entre l’assureur et l’assuré en cas de contentieux échappera-t-il à la "blockchainisation" ?

Cet enjeu, estimé à un impact potentiel de 1 800 emplois en France, est imprédictible : l'analyse rationnelle conduit à anticiper une perte sèche d'emplois. L'analyse historique conduit à estimer une floraison de nouveaux services et de redynamisation du métier.


L'utilité réduit l'écart entre valeur comptable et valeur économique

Une entreprise vaut plus que la somme de ses composantes telles qu’on les saisit dans son bilan comptable. La plupart du temps ne figurent pas dans les livres comptables les actifs ou ressources immatériels de l’entreprise. Ainsi la réputation, la solidité amont d’un territoire de fournisseurs avec lequel on a des relations de long terme reposant sur la confiance. Cela peut-être aussi le réseau de la clientèle fidélisée par l’excellence de vos prestations ou par une politique active visant à obtenir des renseignements approfondis sur les consommateurs pour avoir une conception à l’écoute du marché[515].

Or, comment un bilan comptable rend-il compte de la satisfaction de la clientèle ? Du bien-être des salariés ? De la créativité, de l'inventivité ou de la capacité à innover d'une entreprise ? En rien. Pourtant, l'avenir de cette entreprise dépend de moins en moins de sa puissance financière, et de plus en plus de ces critères.

La part croissante des actifs immatériels dans la valeur globale des entreprises est un fait aujourd’hui communément souligné qui marque l’empreinte de plus en plus profonde de l’économie de la connaissance dans nos sociétés. Cependant, cet état de fait, généralement admis, n’est encore qu’imparfaitement pris en compte dans nos systèmes juridiques, comptables et fiscaux. L’examen des ratios « Book to Market » ou « Price to Book » est, à cet égard, révélateur. Ces ratios mesurent l’écart entre la valeur comptable (« In the Book ») et la valeur de marché (« Price on the Market ») tels qu’ils peuvent facilement être mesurés pour les sociétés cotées en bourse. Selon l’interprétation que les analystes financiers donnent communément à cette équation, un ratio « Book to Market » supérieur à 1 dénote une sous-évaluation de la valeur de marché de l’entreprise et un ratio inférieur à 1 une surévaluation (et inversement pour le ratio « Price to Book »).

Le ratio "Price to Book" est de plus en plus souvent supérieur à 4, par exemple pour Apple, Google, Iliad (Free), Amazon, Facebook ou IBM. De plus, les tendances observées ces dernières années montrent l’accentuation de cet écart entre les valeurs mesurées sur le marché et les valeurs enregistrées dans les livres de compte notamment pour ces valeurs dites « technologiques ». Cet écart ne peut s’expliquer uniquement par un phénomène spéculatif de marché.

Les adaptations des normes comptables, en particulier avec la réforme des normes internationales IFRS en 2005, n’ont pas permis de résoudre ce hiatus qui nuit d’autant plus à la pertinence des états financiers que le rôle des actifs immatériels est aujourd’hui essentiel dans la chaîne de création de valeur.

Cette difficulté est accentuée par le fait que le capital immatériel de l’entreprise n’est pas un ensemble homogène répondant à une définition unique, suivant des règles de droit semblables et appréhendées par la comptabilité d’une seule et unique manière. Par exemple la clientèle, qui est une valeur résiduelle dans le système comptable français, est considérée sous l’angle de son support (base de données) par les fiscalistes américains. Une marque « acquise » pourra faire l’objet d’une activation (pour le coût d’acquisition), alors qu’une marque « créée » en interne ne sera pas immobilisée.

Les investissements immatériels ont acquis une reconnaissance économique, mais il leur reste toujours à acquérir une reconnaissance comptable, pour que l’on puisse véritablement parler d’actifs économiques immatériels.

Ce problème peut trouver des réponses dans la prise en compte du contexte d’exploitation des actifs immatériels considérés, c’est-à-dire de son usage. La norme ISO 10668263, qui définit les exigences pour l’évaluation monétaire d’une marque, va dans ce sens. Elle prend en effet en compte du contexte d’exploitation des actifs immatériels considérés, c’est-à-dire de son usage. Cette approche globale, dont l’exigence peut être généralisée à l’évaluation de l’ensemble des actifs immatériels, contribue à renforcer la cohérence des analyses et améliore quantitativement et qualitativement l’information produite sur l’entreprise. Elle permet notamment d’appréhender le patrimoine de l’entreprise d’une manière systématique et ainsi d’intégrer l’ensemble des actifs immatériels dans l’analyse de la chaîne de valeur[516].

Les métriques de l'utilité soutiennent cette approche. Elles peuvent partiellement se fonder sur des grandeurs comptables comme le taux d'investissement en R&D pour mesurer la créativité. Mais aussi sur des grandeurs non comptables, par exemple le nombre de brevets rapporté à l'investissement en R&D, pour mesurer l'inventivité. Ou encore la part du chiffre d'affaires réalisé par des produits de moins de 3 ans pour mesurer la capacité à innover[517].

L'utilité converge avec d'autres tendances

L'économie de la contribution

Dans L’Abeille et l’économiste, Yann Moulier-Boutang analyse le modèle de création de la valeur qui est propre au Web, celui de la pollinisation : de la même manière que le calcul de la valeur créée par les abeilles ne peut se résumer à la seule production de miel mais doit prendre en compte le travail de pollinisation qu’elles effectuent (pour ⅓ de la production agricole mondiale), sur le Web la valeur est issue de la multiplicité des interactions, des traces et des clics des utilisateurs du numérique, qui modifient en permanence les services et l’architecture générale du réseau. Ainsi bascule-t-on d’une économie de l’échange et de la production à une économie de la pollinisation et de la contribution[518].

L'économie de la connaissance

« Quand on partage un bien matériel on le divise, quand on partage un bien immatériel on le multiplie », explique Serge Soudoplatoff, qui rappelle aussi que l’économie de la connaissance est une économie de flux, contrairement à l’économie du capital, du travail et des matières premières, qui est une économie de stock. L’économie de la connaissance est également une économie d’abondance, qui n’est ni basée sur la rareté ni sur la spéculation, en principe du moins, car dans les faits la tentation de spéculer sur la connaissance est grande, qu’il s’agisse d’un diplôme ou d’un brevet[519].

A ce titre, les pratiques du crowdsourcing s'enrichissent de métriques de plus en plus fines. La manière la plus simple de faire appel à la créativité de la multitude consiste à organiser un concours, puis à sélectionner un vainqueur. Mais cette approche, qui peut être stimulante, génère aussi le gâchis du travail cumulé de tous les perdants. Il faut reconnaître qu'organiser des collaborations est un art plus subtil, surtout lorsqu'il faut rémunérer le travail accompli. Les nombreuses startups qui s'y emploient mesurent l'utilité ajoutée des contributions individuelles ce qui ouvre des opportunités à la coopération face à la compétition. En favorisant l'abondance plutôt que la rareté, elles explorent les nouvelles pratiques d'une véritable économie de la connaissance.


La réforme du droit du travail

L’accord d’entreprise doit-il devenir la norme sociale essentielle, en rendant subsidiaire un Code du travail réduit «aux normes sociales fondamentales» ? Mais comment surmonter alors la résistance bien connue des partenaires sociaux interprofessionnels ? Quelle norme s’appliquerait en cas d’échec de la négociation dans l’entreprise ?[520]

Il s'avère que le Code du Travail est centré sur le salariat, qui est lui-même lié au rapport de subordination du salarié à son employeur. Or ce lien de subordination disparaît avec le développement de l'économie de l'utilité.

Ce lien se reconstitue-t-il par celui de dépendance économique ? La question est légitime, puisque c'est ce qu'a considéré un tribunal californien récemment à propos des chauffeurs d'Uber, en avançant les arguments suivants:

  • Le modèle économique et le fonctionnement de l'entreprise reposent intégralement sur l'activité de ses chauffeurs;
  • Uber contrôle totalement les outils à disposition des conducteurs via l'application pour smartphone, et elle peut aussi leur en supprimer l'accès si leur notation n'est pas jugée suffisante, ce qui revient donc à les mettre à la porte sans autre forme de procès;
  • La startup fixe le prix de la commission reversée aux chauffeurs pour chaque trajet sans négociation au préalable[521].

Pourtant la subordination s’entend en France, aux termes d’un arrêt de la Cour de cassation, au sens juridique : la seule dépendance économique ne suffit pas en droit français[522]. On peut de plus parier sans prendre beaucoup de risque qu'Uber et autres employeurs distants vont changer leur règles du jeu pour échapper à tout risque de requalification, par exemple en limitant le nombre d'heures travaillées pour un employeur unique.

Le vieux débat autour du Code du travail va donc progressivement se vider de sa substance et se déplacer sur un autre terrain : si les sécurités qui étaient à la charge de l'employeur disparaissent, qui les prendra en charge ? Le portage salarial, les assurances privées ou l'Etat ?


L'éthique hacker

Pekka Himanen, dans L’Éthique hacker, analyse le changement de paradigme qui est à l’oeuvre dans le monde du travail : à l’éthique protestante, fondée sur le devoir et la recherche du profit, s’oppose une éthique hacker, qui est construite autour d’un désir personnel d’agir et de travailler sans recherche première de gratification financière. Cette nouvelle éthique n’est pas confinée au domaine des hackers : elle envahit tout le reste de la société. Le fait que les innovateurs et les créatifs reprennent le pouvoir dans les entreprises, renouant avec la tradition de l’entrepreunariat de la fin du 19è siècle, où les grands capitaines d’industrie étaient des ingénieurs et des inventeurs, en est une preuve éclatante. Parce que le modèle des startups repose souvent sur la créativité de leurs dirigeants et la commercialisation d’un prototype technologique innovant, il remet en cause la course à la performance financière sur l’esprit entrepreunarial qui a cours depuis les années 1980. À cet égard, le fait que l’invention et la créativité remettent à leur juste place les indicateurs financiers me semble davantage correspondre aux valeurs de la France et de l’Europe. C’est en effet la création sous toutes ses formes, qu’elle soit artistique, artisanale ou industrielle qui dessine les contours de la singularité européenne[523].

Les menaces de l'économie de l'utilité

Le système capitaliste qui s'est développé depuis deux siècles a rendu des services inestimables, mais il portait en puissance des dangers que nous subissons faute de les avoir suffisamment anticipés. Il faut donc, dans la mesure du possible, anticiper les menaces que porte le nouveau système en cours de développement.


Limites de la mesure

Tâches simples et mesurables

Les plates-formes numériques ne peuvent porter que sur des échanges d'informations et de services, la production de biens matériels continuant à être assurée par les entreprises. Si l'on s'en tient au seuls services et informations, les tâches pouvant potentiellement être externalisées par les entreprises à des travailleurs indépendants sont en réalité extrêmement réduites. Seules les tâches très simples et mesurables peuvent l'être, ce qui est le cas des plateformes comme Amazon Mechanical Turk (traduction de texte, classement d'images, réalisation de sondage, écriture de texte). Le marché peut alors jouer son rôle d'évaluateur de la productivité des travailleurs indépendants. Mais, dès qu'il s'agit de tâches complexes, les donneurs d'ordres sont confrontés à des difficultés de mesurabilités et d'évaluation de la qualité, si bien que le paiement à la tâche s'avère complexe à mettre en œuvre. Ces difficultés augmentent ce que les économistes appellent les coûts de transaction. Autrement dit, l'entreprise comme forme d'organisation collective fondée sur le salariat possède des avantages qui lui sont propres lorsqu'il s'agit de production collective. Lorsque les tâches sont peu mesurables, la seule forme de paiement est le salaire au temps, l'entreprise contrôlant le travail de ses salariés, et donc la qualité des tâches effectuées. L'analyse de l'entreprise fondée sur les compétences spécifiques montre par ailleurs le rôle décisif du savoir et des connaissances comme source d'avantage concurrentiel. Chaque salarié génère des externalités de connaissances en direction des autres salariés, et la compétence globale de l'entreprise, dans ces conditions, est supérieure à la somme des compétences individuelles de ses salariés. De plus, La transmission des connaissances n'est pas seulement horizontale, elle est aussi intertemporelle, les salariés les plus anciens transmettant leurs connaissances aux nouveaux. Enfin, la répétition des opérations à l'intérieur de l'entreprise crée des routines, de la confiance et des mécanismes d'apprentissage collectif également sources d'avantages concurrentiels. Seules les activités qui requièrent une connaissance Individualisée codifiée sont susceptibles d'être externalisées, contrairement aux activités exigeant une connaissance collective tacite[524]

Pilotage contre pilotage automatique

Au temps de la « gouvernance » au contraire, plus de vrai gouvernail mais des mécanismes d’ajustement en fonction d’indicateurs qui déterminent la marche à suivre. Dans le premier cas, le navire filait sous le cap choisi ; dans le second, on s’en remet plutôt à des outils, plus ou moins automatiques, afin de préserver ou de retrouver l’équilibre naturel des choses, c’est-à-dire le plus souvent du marché, par des mesures de légitimité « scientifique ». C’est « l’utopie d’un monde plat, tout entier régi par les forces immanentes du marché ». Si la loi n’y disparaît pas, on la voit ployer sous l’impératif d’utilité(...) Le problème ne tient pas, en soi, à l’usage de ces instruments de mesure d’efficacité, y compris dans le secteur public. Il résulte bien plutôt de la surestimation de leur rôle et de leur statut. De moyens d’aide à la décision, ils sont devenus des fins impérieuses sans souci de la réalité qu’ils sont supposés exprimer et organiser. Ce que dénonce Supiot, c’est précisément la complète déconnexion entre les chiffres et la réalité, dont le traitement de la crise grecque fournit une terrible illustration. Le nouveau dogme doit être mis en œuvre quoi qu’il en coûte, même si ses effets se révèlent contreproductifs, voire désastreux[525].

À partir du XVIIIe siècle, apparaît l’idée de construire une « machine à gouverner ». La quantification nous mettrait ainsi en mesure de gouverner par les nombres. Le XXe verra trois étapes dans la mise en place d’une gouvernance par les chiffres :

La première guerre mondiale, qui empruntera les méthodes scientifiques du taylorisme pour la guerre, afin de toucher au maximum les ressources (humaines) de l’ennemi, c’est-à-dire tuer le plus de personnes possible. La première guerre mondiale montrera l’efficacité redoutable des méthodes de gestion utilisées pendant la guerre, qui constituera un coup d’envoi à leur extension dans l’ensemble dans de nombreux champs de la société. Le Gosplan de l’URSS, qui fera fonctionner la société entière par le calcul. Des données chiffrées sont mesurées, permettan de déterminer, par le calcul, les besoins du pays, et à partir de cela, des directives administratives sont renvoyées à la moindre unité de production. C’est, selon Supiot, ce qui expliquera l’effondrement de l’URSS. L’ultra-libéralisme contemporain, qui, en partie grâce à la cybernétique et à l’informatique, verra l’émergence de nouvelles méthodes de management : au lieu de donner des ordres direct du haut vers le bas, on donne des objectifs chiffrés, et doit ajuster sa performance en conséquence. Ainsi, dans la période contemporaine ultra-libérale (ou anarcho-capitaliste), la loi est placée sous l’égide du calcul, découlant de théories telles que la théorie des jeux, le dilemme du prisonnier, ou la théorie de l’agence, issues de l’école de Chicago[526]

Limites du big data

D'abord une première série de menaces a été largement identifiée à propos du big data :

Les métriques sont biaisées. Les métriques de réputation mesurent le pouvoir qu'a l'internaute de voir les autres relayer les messages qu'il émet sur le réseau. L'influence procède toujours d'un ratio entre le nombre de personnes que l'on connaît et le nombre de personnes dont on est connu. Elle mesure la force sociale d'un nom, d'un portrait ou d'une image. La concurrence pour faire reconnaître ses arguments est devenu compétition pour assurer sa propre visibilité dans l'espace numérique. Le Web social de Facebook, Twitter, Pinterest, Instagram, etc., s'est ainsi couvert de chiffres et de petits compteurs, des « Gloriomètres », pour reprendre une expression de Gabriel Tarde[527].
Sans population à laquelle les comparer, les signaux numériques parlent avant tout pour eux-mêmes. Ces mots-dièses partout répétés valent-ils une opinion ou sont-ils juste l'effet mimétique d'une contagion sans importance ? Ces protestations qui se coagulent autour une page Facebook méritent-elles d'être prises pour un engagement politique ? Le nombre de fans qu'une entreprise capitalise sur sa page Facebook a-t-il une quelconque valeur ? [528].
En dépit de l'amplification des mesures, nous ne savons pas mieux prévoir les crises financières, les tremblements de terre, les scores des matchs de football et les résultats électoraux[529].
Les métriques sont falsifiées. En l'absence d'une véritable régulation du secteur–qui ne se met en place que progressivement–, il est très facile de manipuler les mesures d'audience, et les chiffres diffèrent sensiblement selon les instituts. Les médias d'actualité ne cesse, par exemple, de créer des jeux concours attractifs afin de gonfler leurs chiffres. Soumis aux pressions concurrentielles d'un marché publicitaire qui paie peu, les sites d'informations cherchent à attirer de l'audience à travers des contenus divertissant « attrape-clics » (pratique qualifié de clickbait)[530]. Le marché des faux comptes Facebook ou Twitter permet aux entreprises en mal de réputation de gonfler artificiellement le compteur et de se prévaloir d'une notoriété qu'elles ont ont fait acheté. Hôteliers, commerçants et vendeurs de toutes sortes font appel à des petites mains pour rémunérer de faux avis de consommateurs (10 à 30 % des avis de consommateurs sur Internet son des faux).[531].

Biais des algorithmes

Les algorithmes surestiment les tendances : Google, qui prétendait pouvoir prédire les épidémies de grippe avec Google Flu grâce à la combinaison des mots-clé comme "fièvre" et "toux" avec la géo-localisation de l'internaute, a fini par jeter l'éponge en septembre 2015. Ses anticipations étaient exagérées[532].
Les algorithmes sous-estiment les exceptions. Tous ceux qui sont mal notés dans les bases de données, sans revenus, sans potentiel, endettés ou ayant un historique négatif, disparaissent du jeu des opportunités : il n'accéderont pas à un bon taux de crédit, ne bénéficieront pas de coupons de réduction, ne recevront pas les informations, etc. De façon très conservatrice, le calcul algorithmique reconduit l'ordre social en ajoutant ses propres verdicts aux inégalités et aux discriminations de la société : les mal notés seront mal servis et leur note en deviendra plus mauvais encore[533].
Sans doute est-ce à travers cette manière d'entériner l'ordre social en reconduisant les individus à leur comportement passé que le calcul algorithmique exerce sa domination. Il prétend leur donner les moyens de se gouverner eux-mêmes; mais, réduit à leur seule conduite, les individus sont assignés à la reproduction automatique de la société et d'eux-mêmes[534].


Manque de maturité des pratiques

Mauvaise compréhension

En fait, les dangers sont liés d'une part à une mauvaise compréhension des métriques. Il règne une large confusion entre représentation et réalité, et entre mesure et signification. Mais on aurait tout à fait pu faire les mêmes reproches au tableau de bord du Nautilus de Jules Verne. Un capteur de vitesse de vent y serait inutile, tout comme un manomètre (capteur de profondeur) qui n'aurait pas été étalonné en surface ou gradué.

Les dangers sont liés d'autre part à une mauvaise compréhension des algorithmes. Ces algorithmes sont capables d'identifier dans un vrac géant de mesures des corrélations entre certaines d'entre elles. Il y a là aussi une confusion entre prévision et prédiction, et entre corrélation et causalité. Un compteur de vitesse sur un navire permet de prévoir l'heure probable d'arrivée, non de prédire si l'on va être ralenti en route pour laisser passer un iceberg. Les marées se produisent avec une régularité d'horloge, pourtant il n'y a pas de lien de causalité entre les deux.

Mauvaise utilisation

Les dangers sont aussi liés à la mauvaise utilisation des métriques. L'expérience tragique du Titanic l'a déjà démontré : il ne sert à rien de recevoir de nombreux messages d'alerte d'autres navires signalant des dérives d'icebergs si le capitaine Edward John Smith ne ralentit pas la vitesse de son paquebot dans une zone dangereuse. Il ne sert non plus à rien de recevoir une alerte des vigies si la manoeuvre d'évitement est fatale à cause de la décision malheureuse de stopper les machines, ce qui rend le gouvernail inopérant[535].

Les dangers sont ensuite liés à la manipulation des métriques. Mais la compétition économique s'est prêtée de tout temps à ces jeux de feintes. Le Lisbonne de la fin du XVème siècle est la capitale européenne d'où les navigateurs partent pour explorer le monde. Les rumeurs les plus folles circulent, sur les routes, les vents, les récifs, les criques, les îles. Dans ces conditions, une corporation surplombe les autres, celle des cartographes. Qui détient les cartes, détient les clefs du Grand Ailleurs. Métier noble, objet de tous les fantasmes et de toutes les convoitises. Il y a les cartes secrètes que seul le roi et sa flotte ont le droit de connaître; il y a les cartes mensongères destinées à tromper l'ennemi au motif qu'un bon naufrage vaut mieux qu'une bataille navale[536].

Les dangers sont enfin liés aux changements. A la fin du XIXème siècle, il vaut mieux être dans la marine à vapeur qu'à voile. Il vaut mieux être fabricant d'hélices que de roues à aubes, être chaudronnier que charpentier. Une révolution industrielle ne présente pas une chance identique pour tous, et les changements apportent leur lot de spéculations, de dominations et de prédations.

Manque d'expérience

Mesurer le travail hors ligne ?

Ouishare a lancé en 2016 une expérience avec backfeed, un système de gouvernance distribué, pour mesurer les contributions au collectif afin de mieux récompenser les plus actifs des participants.

L’expérience a été courte et difficile. D’abord parce que l’outil utilisé était nouveau et nécessitait de former les utilisateurs en face à face, ce qui a réduit considérablement le nombre d’expérimentateurs (une dizaine). L’enjeu de l’outil était qu’il permette de mesurer les contributions provenant des différents outils que le collectif utilise. Or, beaucoup de contributions dans Ouishare, notamment parce que beaucoup sont bénévoles, échappent aux outils. Donner de la visibilité à des contributions bénévoles ou non mesurées par les outils utilisés nécessitait de se poser la question de leur mesure, de leur quantification, de leur évaluation… et donc de la surveillance des contributions. “Et les gens n’aiment pas ça”. La mesure introduite par l’expérimentation n’était pas dans la culture du collectif reconnaît Francesca Pick.

Un outil de ce type nécessitait également de documenter les actions. Comment mesurer le travail de bénévoles qui aident à installer ou démonter un événement et en assurent la logistique opérationnelle par exemple ? “Les outils en ligne sont trop souvent conçus comme s’il n’y avait pas de travail hors ligne”, pointe avec justesse Francesca Pick. Celui qui nettoie le bureau doit-il renseigner dans le système d’information qu’il l’a fait et le temps qu’il y a passé ? A l’inverse, ceux qui participaient en ligne voyaient leurs contributions mesurées automatiquement, sans leur accord explicite.

La réaction à l’évaluation n’est pas la même pour tout le monde. Beaucoup de participants voulaient comprendre comment la valeur était mesurée. Les contributions ne sont souvent qu’une facette de l’organisation qui n’explique pas tout de la manière dont sont prises les décisions. En mesurant les contributions, les gens ont finalement eu encore plus peur de contribuer et d’être jugés. D’autres étaient très réticents voir ont refusé d’évaluer les autres membres du collectif. Sans compter que tout le monde ne voit pas les critères de ces mesures de la même manière. Comment par exemple évaluer un salaire ou une rémunération ? L’auto-évaluation ou l’évaluation par les autres demande enfin du temps et de l’énergie que tout le monde ne peut ou ne veut pas apporter…

Filtrer les tâches à évaluer ?

(...)Chez Cocoon Projects, explique Claudia Pellicori (@pellicors), la gouvernance est basée sur la mesure des contributions. Bien sûr, les gens n’aiment ni évaluer ni être évalués. C’est pour cela que la méthode utilisée semble un peu différente. A ce que j’en comprends, visiblement, Cocoon projects demande à ceux qui participent de cette organisation liquide, sur quelles tâches ils souhaitent être évalués et celles auxquelles ils contribuent (l’une ne recoupant pas nécessairement l’autre). Tous les participants évaluent les tâches réalisées et distribuent une valeur à ceux qui ont partagé la réalisation de cette tâche. Ce fonctionnement permet d’avoir un retour plus important des autres estime Claudia Pellicori. Bien sûr, là encore, ce n’est pas simple. Il est plus simple de mesurer d’abord des tâches granulaires, petites et de courte durée, que de commencer à vouloir mesurer des activités ou des projets complexes. Mais peu à peu cette méthode porte ses fruits, car apporter un retour aux gens permet d’évoluer.

Mesurer les résultats de l'équipe ?

Pour Mourad Kolli, du réseau Thanks & Share, la valeur qu’il faut mesurer et évaluer, c’est l’équité, car c’est elle qui permet aux choses de durer. Dans ce réseau, les membres n’évaluent pas les personnes, mais les résultats du travail d’équipe. L’enjeu n’est pas seulement de regarder si les objectifs ont bien été réalisés, mais si chacun a bien apporté sa contribution.

Décider de son propre salaire ?

Pour Chad Whitacre (@whit537) de Gratipay, c’est la gratitude qu’il faut tenter de mesurer. Mais les expérimentations autour du salaire libre par exemple se sont révélées difficiles. Les gens devaient évaluer les autres sans aimer cela et la communauté passait son temps à se juger les uns les autres, ce qui ne favorisait l’empathie. Chez Gratipay chacun était invité à décider de son salaire et à se responsabiliser sur ce qu’il avait à faire ! Pourtant, cette expérience n’a duré que 2 ans. Au bout d’un moment, l’argent est devenu une source de tension. Certains en faisaient trop. D’autres pas assez. De nombreux facteurs extérieurs influent sur la performance des gens au travail. Reste que l’enjeu était de renforcer la confiance dans l’équipe, et rendre les gens responsables des finances participe de la confiance qu’ils s’accordent les uns les autres.[537]


Baser l'évaluation sur la réputation ?

Le fondateur de Backfeed, Matan Field, assure s’être inspiré des kibboutz pour imaginer sa plateforme collaborative “prête à l’emploi”. Le protocole blockchain prend la place de l’autorité et organise toute la vie de la société. Chaque salarié peut créer et rejoindre des projets, soumettre librement des contributions. Il se voit automatiquement attribuer un score de “réputation” en fonction de son niveau de participation (contribution ou commentaire jugé utile). Plus sa réputation est élevée, plus il aura un pouvoir de notation sur ses pairs. Car c’est aussi la communauté qui, à la majorité, décide de la rémunération de chacun. La fin des évaluations annuelles et des sempiternelles demandes d’augmentation auprès de son “chef”. Tout est transparent et gravé dans le marbre de la blockchain, librement consultable.

Selon Backfeed, le système permet à la fois l’émergence de consensus et l’émergence de points de vue alternatifs, en encourageant notamment les “bifurcations” dans les projets.[538]


Baser l'évaluation sur l'apport à l'équipe ?

Chez Poult un système équitable de participation et d’intéressement a été mis en place : les collaborateurs perçoivent 7% du résultat d’exploitation en intéressement ; l’ouverture du capital est de plus fortement revendiquée auprès de l’actionnariat, sans être acquise pour autant. Mais dans le discours, il semble qu’il vaille mieux éluder la question de la valeur ajoutée, car se la poser revient à re-individualiser et à mécaniser l’homme. Ainsi la seule manière d’évaluer la contribution de chacun à l’entreprise serait de se référer à ses pairs : des équipes de rémunération de 15 personnes (pour 90 cadres) ont été formées pour décider des évolutions de salaire en évaluant le niveau d’engagement des collaborateurs au service du collectif. L’on observe donc un déplacement significatif des critères de rémunération ; autrefois l’expertise, l’expérience, l’ancienneté, la place hiérarchique, aujourd’hui le niveau d’engagement et de collaboration [539].


Se noter entre pairs ?

Dans l'expérimentation de Backfeed par Ouishare, non seulement les gens craignaient de soumettre des contributions, mais ils se sentaient aussi mal à l’aise à l’idée d’évaluer les contributions des autres par une simple note. Les informations manquaient, et il n’existait pas de consensus quant aux critères d’évaluation. Quelle était la bonne échelle de notation ? Quels étaient les critères ? Et que se passerait-il si nous changions d’avis après avoir soumis une évaluation ? “J’avais le sentiment que nous devions d’abord nous mettre d’accord sur certains sujets clés avec le reste de l’équipe avant de commencer à l’utiliser” explique Ana Manzano. Cependant, après y avoir réfléchi, elle ajoute : “J’ai en fait réalisé que c’était une excuse pour ne pas utiliser l’outil, car je ne voulais pas reconnaître que j’avais simplement peur d’être évaluée”. Et voilà où réside le véritable défi. Evaluer ses contributions et celles des autres est un immense défi, particulièrement sur le plan psychologique. Il faut énormément de maturité, d’auto-critique, et de détermination pour faire face aux défauts des autres et travailler quotidiennement dans un tel système. Des expériences de nouvelles pratiques de management qui intègrent une remise en question constante (par exemple l’holacratie ou les méthodes agiles) nous ont montré que ce type de système demande beaucoup d’efforts sur le plan individuel et ne convient pas à tout le monde. [540]

Evaluation permanente

Le "google-monde"

On est aujourd’hui dans le “Google-monde” : la qualité n’est plus qu’une propriété émergente de la quantité. C’est le modèle des moteurs de recherche ; cela ne tient compte que de l’opinion du plus grand nombre. Or par définition elle n’a pas accès à l’invention, au nouveau, puisqu’on ne remarque pas l’absence d’un inconnu (c’est ce que l’éditeur Jérôme Lindon disait de Beckett). Sur ce fond-là, les problèmes financiers font le reste[541].

Toute politique, donc tout financement, passe par les grilles d’évaluation. Elles symbolisent l’objectivité et la transparence, ce seraient des outils démocratiques permettant de trouver un commun dénominateur. Or (...) le fondement et le modèle de toutes ces grilles sont les grilles de notation financière, celles-là mêmes des agences de notation qui dévaluaient la note de la Tunisie au lendemain de la chute de Ben Ali. Qui décide des critères ? Qui juge, comment, pourquoi ? Hannah Arendt a raison de dire que le jugement, goût inclus, est la faculté politique par excellence : nous sommes là en pleine politique.

L’évaluation s’étend à tout, du risque financier et assurantiel au risque atomique, et du traitement de l’art au traitement fait aux Roms, tous les domaines, tous les métiers, tous les instants. Car c’est toujours à plus d’évaluation que conduit l’évaluation. L’évaluation, il ne s’agit pas de s’en passer, tout court. Il s’agit, et d’urgence, de comprendre à quels effets pervers conduit celle qu’on nous oblige à pratiquer[542].


Big brother

Chine

Le gouvernement prévoit de collecter massivement les données de ses citoyens afin de leur donner une note évaluant à quel degré ils sont dignes de confiance. Conséquence, les mieux notés auront un accès facilité aux services, quand les mauvais élèves seront sanctionnés. La liste des punitions est détaillée dans un document du gouvernement chinois datant du mois dernier, évoqué par le Washington Post. Interdiction de voyager en première classe, voire de partir à l'étranger, impossibilité d'envoyer ses enfants dans les meilleures écoles ou d'accéder à une promotion, les sanctions prévues peuvent être sévères[543].

Uber

Uber utiliserait les faiblesses psychologiques de ses chauffeurs pour les manipuler.[544]

La rémunération au succès

Au niveau individuel, la fixation d’objectifs est devenue une pratique courante dans les entreprises. Tantôt fixés par l’employeur dans le cadre de l’exercice de son pouvoir de direction, tantôt contractualisés, ces objectifs servent souvent de paramètre de calcul de la rémunération, mais peuvent également participer de l’objet du contrat de travail. Dans tous les cas, la portée juridique conférée aux objectifs opère un certain transfert du risque économique sur le travailleur, conformément aux vues développées dans le cadre de la théorie de l’agence. Et elle a toujours pour corollaire l’établissement de procédures d’évaluation des performances des salariés[545]

Pour augmenter leur productivité, les entreprises sont sur tous les fronts, y compris celui de l'évaluation quantitative de la performance de leurs salariés. Mais en ressources humaines, tous les indicateurs ne sont pas pertinents et les salariés ont souvent du mal à être réduits à une simple équation. « L'excès de mesure est nuisible quand il isole les gens et les dissuade de travailler en équipe, sur le long terme », relève Alain Vellard, responsable d'un centre de R&D France Télécom (600 salariés). Et cela, quelle que soit la taille de l'entreprise. « Bien sûr, il faut un outil de mesure, mais le pire c'est quand les salariés se sentent fliqués, perdent tout esprit d'initiative, et ne font que ce qu'ils doivent faire, dit Christophe Blanchot, gérant de l'entreprise Yziact (8 salariés, 250.000 euros de chiffre d'affaires), qui conçoit et fournit des solutions de sécurité en réseau. Quand la case est trop étroite, personne n'est incité à prendre des risques, et donc personne ne prend un client qui demande un devis si cela n'entre pas exactement dans ses attributions. Ni le commercial parce qu'il se bat sur une grosse affaire, ni le technicien, parce que c'est du commercial. Là c'est du perdant-perdant. » Dans ce cas, les salariés font exactement ce que l'on attend d'eux, mais pas plus et pas mieux. Le secteur le plus touché par les dérives de ce culte de la performance reste les chaînes de distribution. Le taux de transformation (différence entre le nombre de visiteurs et le nombre de clients) est l'indicateur majeur. Dans certaines enseignes, notamment chez Gap ou H&M, le chiffre d'affaires à réaliser dans la journée est annoncé chaque matin pour « motiver » les vendeurs. Une pression que certains peuvent juger saine et efficace, mais qui a aussi ses effets pervers : pousser le client à l'achat même sans réel besoin, bâcler la phase de conseil pour finaliser plus rapidement une vente, et surtout transformer ses salariés en bons petits soldats au comportement moutonnier sans aucune créativité[546]

Tyrannie du chiffre

Au niveau de l’État, la gouvernance par les nombres a pris la forme de ce qu’on appelle le New Public Management – la nouvelle gestion publique – qui consiste à étendre à l’administration publique les règles et méthodes de l’entreprise privée, au nom d’une science générale des organisations. Cette extension s’est notamment traduite en France par l’adoption en 2001 de la loi organique relative aux lois de finances (LOLF), toute entière indexée sur l’idée de mesure de la performance et l’objectif d’équilibre des comptes.

Au niveau européen, l’asservissement des États à la réalisation d’objectifs chiffrés a d’abord été introduit en 1992 par le traité de Maastricht, dans le contexte de la création d’une monnaie unique. Le dernier pas vers l’asservissement des États à la réalisation d’objectifs chiffrés a été franchi avec l’entrée en vigueur le 1er janvier 2013 du Traité sur la stabilité, la coordination et la gouvernance au sein de l’Union économique et monétaire. L’article 3 de ce traité est un modèle parfait de gouvernance par les nombres. Il fixe un objectif d’équilibre ou d’excédent budgétaire, immédiatement traduit en indicateurs chiffrés, prévoit un calendrier de réalisation de ces objectifs ainsi qu’une procédure d’évaluation de sa mise en œuvre.

Au niveau international enfin, la gouvernance par les nombres se donne à voir sous deux formes principales : d’une part, sous la forme des objectifs chiffrés assignés aux États par des institutions internationales (plans d’ajustement structurels du FMI, PNUD, « Objectifs du Millénaire ») ou par des conventions internationales (objectifs de réduction des gaz à effet de serre du protocole de Kyoto) ; d’autre part sous celle des évaluations chiffrées émises par les agences de notation sur les performances et les perspectives financières des États et des entreprises, ainsi que sur la confiance qu’on doit accorder aux titres financiers qu’ils émettent.

(...) le principe de démocratie (s') oppose à l’utopie d’une mise en pilotage automatique des affaires humaines. En témoignent les conséquences que le Bundesverfassungsgericht a tiré du constat du « déficit démocratique » de l’Union européenne, dans sa décision du 30 juin 2009, relative à la ratification du traité de Lisbonne. Le second est la dynamique de la notion d’obligation de sécurité de résultat pesant sur l’employeur dans la jurisprudence récente. La Cour de cassation a endigué la montée des nouvelles techniques d’évaluation et de direction par objectifs mises en œuvre dans les entreprises en admettant que, indépendamment de toute intention de nuire, un harcèlement moral pouvait être inhérent à certaines méthodes de gestion. Et elle a reconnu au juge le droit de suspendre la mise en œuvre de modes d’organisation du travail susceptibles de compromettre la santé mentale des salariés.

Un exemple très récent de décision rendue sur cette base est le jugement par lequel le TGI de Lyon le 4 septembre 2012, a interdit à la Caisse d’épargne Rhône-Alpes Sud de mettre en œuvre un système de gestion des performances du personnel fondé sur le benchmark.[547]

Aveuglement systémique

Selon la pratique des KPI, les indicateurs doivent de manière générale répondre à plusieurs impératifs : être biens définis en amont et régulièrement mis à jour pour correspondre aux réalités du marché. Il faut ensuite s'accorder sur les indicateurs les plus critiques. Plus les indicateurs sont nombreux, plus la concentration est diluée, et plus les interprétations peuvent être nombreuses et stériles. Ces indicateurs doivent également être très explicites, de telle sorte qu'aucune erreur d'interprétation ne puisse être commise notamment par les managers, et même par les employés eux-mêmes si l'objectif à atteindre dépend de l'organisation dans son ensemble. Idéalement enfin, ces indicateurs ne doivent mesurer que l'action de l'entreprise elle-même, de telle sorte qu'on ne mesure pas les progrès liés par exemple à l'environnement macro-économique ou tout autre choc significatif provenant de l'extérieur[548].

Or cette pratique est un piège mortel, comme l'illustre le cas de Kodak.

Quand Kodak a fait le difficile effort d'effectuer sa "transformation numérique", son objectif était de réinventer son métier, c'est à dire la manière d'imprimer des photos. En application de la logique des KPI, sa stratégie s'est donc orientée selon le prix et la performance de trois composants critiques : le capteur d'image (CCD), qui détermine la résolution et des appareils numériques ; la mémoire flash, qui détermine le nombre de photos pouvant être stockées ; et l'écran LCD qui permet la qualité de la prévisualisation. Avec l'amélioration de ces composants, les photos ont été plus faciles à prendre et à imprimer, ce qui a conduit à une augmentation des ventes des appareils photos et des imprimantes domestiques.

Cependant, passé un certain seuil de qualité et de miniaturisation, ces composants ont été intégrés dans le téléphones, détruisant le marché des appareils photos. Les capacités des mémoires flash ont été multipliées par cent et la résolution des écrans est devenue "rétinienne", le besoin d'imprimer s'est tari. Les KPIs qui ont fait son succès ont aussi creusé sa tombe. L'erreur de Kodak est de ne pas avoir vu les progrès des autres composantes de son écosystème, ce qui est inhérent à l'emploi de KPIs[549].

Réalité de ces menaces

L'économie de l'utilité sera-t-elle meilleure que l'économie traditionnelle ? On peut en douter lorsque s'annonce le torrent de menaces énoncées ci-dessus. Pourtant, aucune d'entre elles n'est inéluctable. Chacune se rapporte d'une manière ou d'un autre à l'éternelle confusion entre la carte et le territoire. La géographie de la France ne se résume pas à la superposition des cartes des villes, du relief, des cours d'eau, de la géologie et des cultures. De même l'économie ne se résume pas à sa représentation chiffrée, et la supposée tyrannie des chiffres est en réalité celle de ceux qui oublient que leur jugement doit s'exercer entre deux représentations quantifiées, selon deux intentions contraires, de la matière à juger. En revanche, l'économie de l'utilité apporte une granularité plus fine, des angles de vue complémentaires bref, elle éclaire la connaissance et réduit les zones grises sur lesquelles prospèrent l'obscurantisme et les idéologies radicales.

Depuis le début du XIXème siècle, le capitalisme a sans doute accru les écarts de richesse, il a probablement prolongé la domination économique des pays développé, il a des effets écologiques désastreux. Pourtant, nous vivons beaucoup plus longtemps qu'il y a deux siècles, les grandes famines et épidémies sont limitées et la moitié de l'humanité est sortie de la misère. Le bilan est globalement positif, mais nous avons poussé notre navire économique au bout de ses capacités. Disposer d'une girouette et d'une boussole est largement suffisant pour faire du cabotage. En revanche, pour effectuer une traversée de l'océan, il faut des cartes marines et des instruments de navigation précis. De même, les seules mesures des valeur travail et valeur marchande sont une approximation de l'économie. Mesurer l'utilité enrichit considérablement notre tableau de bord. La vertu de l'utilité est dans sa capacité à éclairer les capitaines de l'économie.

L'économie de l'utilité est une économie durable

L'économie responsable

Les Nations Unies

L'ONU s'est fixé 17 objectifs en 2017[550], autour de thématiques essentielles :

L’humanité

Nous sommes déterminés à éliminer la pauvreté et la faim, sous toutes leurs formes et dans toutes leurs dimensions, et à faire en sorte que tous les êtres humains puissent réaliser leur potentiel dans des conditions de dignité et d’égalité et dans un environnement sain.

La planète

Nous sommes déterminés à lutter contre la dégradation de la planète, en recourant à des modes de consommation et de production durables, en assurant la gestion durable de ses ressources naturelles et en prenant d’urgence des mesures pour lutter contre les changements climatiques, afin qu’elle puisse répondre aux besoins des générations actuelles et futures.

La prospérité

Nous sommes déterminés à faire en sorte que tous les êtres humains aient une vie prospère et épanouissante et que le progrès économique, social et technologique se fasse en harmonie avec la nature.

La paix

Nous sommes déterminés à favoriser l’avènement de sociétés pacifiques, justes et inclusives, libérées de la peur et la violence. En effet, il ne peut y avoir de développement durable sans paix ni de paix sans développement durable.

Les Etats

Le Royaume-Uni redéfinit dans le Companies Act de 2006 une responsabilité inclusive pour le chef d'entreprise[551]

Les investisseurs

Le monde des investisseurs s'est engagé dans cette voie.

Le CEO du plus grand investisseur mondial, Larry Fink, appelle à résister contre les forces puissantes du court-termisme. [552]

STEVE WAYGOOD, chef des investissements chez Aviva Investors, a remarqué que « le manque de durabilité est l’échec le plus important des marchés financiers », reconnaissant là une faille à combler. Il a dit apprécier que les accords de Monterrey, Doha et Rio se concentrent davantage sur le rôle que doit jouer le monde des affaires dans le développement durable[553].

Jusqu’à présent, la lutte contre le changement climatique butait sur une sorte de cercle vicieux : beaucoup d’entreprises et d’acteurs financiers étaient sceptiques et attendaient des décisions politiques pour agir ; les gouvernements, eux, attendaient une mobilisation des entreprises. La donne a nettement changé. Désormais la plupart des gouvernements s’engagent. De nombreuses entreprises intègrent l’action climatique dans leurs activités. Des sociétés d’assurances, des banquiers, des agences de notation s’engagent à intégrer le climat dans leurs décisions d’investissement. De plus en plus de fonds d’investissement et de fonds de pension décident de décarboner leur portefeuille. Ce mouvement est puissant et il va encore s’amplifier[554].

Les grandes entreprises

Au sein de We Mean Business, quelque 300 grosses compagnies et investisseurs ont pris des engagements forts en faveur du climat. 36 entreprises prévoient de se fournir à 100% en énergie renouvelable, avec une échéance allant de 2015 à 2050. D’autres ont choisi de lutter contre la déforestation en supprimant de leur chaîne d’approvisionnement le soja ou l’huile de palme. Siemens, leader mondial de l’éolien en mer, a pour objectif d’avoir une empreinte carbone nulle en 2030. Mais le mouvement est bien plus large. Sur la plateforme NAZCA de l'ONU, on recense 1 158 entreprises engagées volontairement à réduire leurs émissions de gaz à effet de serre ou à améliorer leur efficacité énergétique. Tout comme 340 investisseurs[555].

Les startups

Le monde des entrepreneurs s'est également engagé avec l’entrepreneuriat social, la création de valeur partagée, le capitalisme conscient, le commerce équitable ou l’économie sociale et solidaire.

Ces initiatives, souvent contrariées par le système économique classique dans lequel elles évoluent, sont facilitées par le développement de l'économie de l'utilité.

L'économie de la sobriété[556]

Les métriques de l'utilité permettent une consommation plus sobre en ressources énergétiques et matérielles.

Mesurer transforme les comportements

L’introduction d’une mesure modifie le comportement, par un effet “weight watchers”. Elle positionne la vigilance, et induit un maintien. Le seul fait de mesurer son poids tous les jours -et d’en parler avec ses collègues- attire l’attention, fait passer dans le registre conscient des gestes inconscients, et, dans l’ensemble, aboutit à un meilleur contrôle de son propre poids. De même, la mise en place de mesures de pollution, même dans des zones peu éduquées, crée une vigilance, et engendre des efforts collectifs réduisant effectivement les dégâts causés à la Nature. Le constat en a été fait dans certains pays d’Afrique. Dans l’industrie, le repérage de tel indicateur de performance -un rendement, un taux de défaillance…- transforme les comportements et suscite, comme par enchantement, un mouvement pour l’améliorer. Dans ce sens, on peut dire que l’esprit scientifique est porté par le fonctionnement social de la mesure[557].

L'expérience de Chicago

Dans la ville de Chicago, l’utilisation de capteurs serait utile à plusieurs fins :

  • l’éclairage de rue pourrait être amélioré en plaçant des capteurs sur chaque lampadaire, permettant d’ajuster l’intensité de la lumière selon l’heure du jour et l’activité des piétons et des voitures. Chicago pourrait ainsi économiser 200 000 dollars par mois en coût d’énergie et de fonctionnement ;
  • les bâtiments de la ville pourraient être munis de capteurs surveillant le chauffage, la ventilation, la climatisation et l’électricité : c’est ce que l’on appelle la construction intelligente. 350 000 dollars pourraient ainsi être économisés chaque année en simple réduction de la consommation d’électricité ;
  • des capteurs sur tous les véhicules de Chicago (police, pompier, ambulance, bus d’école, etc.) fourniraient des informations qui réduiraient le coût de l’assurance de 30 dollars par véhicule et le coût de maintenance de 8 dollars par mois par véhicule. De plus, le bruit, la pollution ou les conditions météorologiques seraient mieux connus. La circulation pourrait être plus facile et les coûts seraient réduits de 800 000 dollars par an. Aussi, 10,4 millions de dollars de chiffre d’affaires annuel ne seraient pas perdus à cause des conditions météorologiques ;
  • l’optimisation de la circulation baisserait les émissions de CO² de 200 000 tonnes par an. Des vidéocaméras pouvant identifier la plaque d’immatriculation et envoyer par mail une amende en cas de stationnement interdit ou non-respect du parcomètre par exemple permettraient une économie de 1,3 million de dollars supplémentaires, tandis que les vidéosurveillances avec reconnaissance faciale en temps réel pourraient faire éviter 420 crimes par an et rendre la répartition des policiers à travers la ville plus efficace.

L'expérience de Copenhague

La ville de Copenhague pourrait retirer des économies du développement des objets connectés et du Big data :

  • l’éclairage intelligent, avec des diodes électroluminescentes et des capteurs sur les lampadaires, réduirait les coûts d’électricité de 1,2 million de dollars par mois pour la ville ;
  • des capteurs sur les places de parking et des applications sur smartphone indiqueraient aux conducteurs où se garer : cela éviterait certains embouteillages et 3 600 litres d’essence pourraient être économisés chaque mois tandis que les émissions de CO² seraient ainsi réduites de 234 tonnes ;
  • par des poubelles dotées de capteurs, les camions seraient informés de la nécessité de leur passage. L’optimisation de leur itinéraire éliminerait 4 930 tonnes de CO² chaque année. Les déchets inappropriés dans les poubelles seraient aussi signalés. Avec la construction intelligente des établissements publics (capteurs surveillant et contrôlant l’électricité, le chauffage, la ventilation et la climatisation), Copenhague éviterait de dépenser 700 000 dollars par mois ;
  • une plateforme WiFi pour toute la ville servirait aux touristes, les services de santé et la municipalité, et la publicité générerait 110 000 dollars mensuels. L’analyse des données WiFi donnerait des informations en temps réel sur le trafic et aiderait à l’organisation de la ville. Chaque voiture gagnerait 33 minutes par mois et Copenhague économiserait 1,5 million de dollars en essence pour les bus par an. Un compteur communiquant connecté au WiFi baisserait la consommation en eau de 5 % par ménage, ce qui reviendrait à 354 millions de litres d’eau non consommés. Le WiFi, les capteurs et autres dispositifs pourraient soutenir la prévention et la gestion des fortes pluies et des inondations. La perte de 2 200 véhicules pourrait être épargnée


Perspectives pour la France

Le principal levier de création de valeur concernera les économies d’énergie, à hauteur de 10 % des 56 Mds d'euros de dépenses actuelles, soit 5,6 Mds en 2025. Viendront ensuite les gains de temps, grâce au développement d’un marché d’équipements d’électroménagers et de domotique plus autonomes et porteurs de services. L’INSEE estime que les tâches ménagères requièrent aujourd’hui environ 20 heures par semaine et par personne, qui pourraient être réduites de 20 % et générer un potentiel économique allant jusqu’à 20 Mds d'euros en 2025

Le transport génère des inefficacités importantes : perte de temps (5,5 Mds d'euros « gaspillés » dans les embouteillages), consommation d’énergie (83 Mds de dépenses d’utilisation) et accidents, dramatiques pour les personnes mais aussi coûteux (22 Mds de coûts liés, en sus des blessures et décès). La multiplication des capteurs et des systèmes d’assistance à la conduite, la coordination entre les véhicules et la voirie, le développement de la multi-modalité vont permettre une réduction de ces inefficacités d’ici 2025 : jusqu’à 100 % pour les embouteillages (5,5 Mds), 40 % pour les accidents (8,8 Mds) et 5 % pour la consommation d’énergie (4 Mds) ;

La santé (16 à 35 Mdse de 2020 à 2025) : les objets connectés impactent très fortement le domaine de la santé en permettant, notamment, un meilleur suivi des maladies chroniques (diabète, asthme, hypertension artérielle, etc.) et une meilleure observance des traitements. Sur les 66 Mds de coût des affections longue durée65, jusqu’à 10 % pourraient être économisées par un meilleur monitoring des constantes et des parcours de soin (6,6 Mds). La non-observance des traitements, dont le coût est évalué jusqu’à 9 Mds par an, pourrait être réduite de 80 % en 2025 (7 Mds) par l’usage de systèmes de suivi comme des piluliers connectés. Le développement de capteurs à faible coût devrait permettre d’améliorer l’efficacité des politiques de prévention dont l’impact sur les coûts de santé est estimé à 2 Mds en 2025. L’hospitalisation à distance, notamment pour les soins de suite et de réadaptation, est également un domaine valorisé à 3 Mds en 2025 pour un budget actuel de 7 Mds.

Les smartgrids devraient permettre de réduire les coûts de transport et de production de l’énergie électrique de 1,2 Md en 2025. Le développement des objets connectés peut améliorer la productivité dans le secteur manufacturier en diminuant les temps d’arrêt des machines équipées de capteurs, en améliorant le suivi des inventaires ou le positionnement des objets dans les chaînes de production. Sur 400 Mds de coûts de fonctionnement de l’industrie manufacturière, il est estimé que 4 % (16 Mds) pourraient être économisés en 2025 (5 % de gain de productivité pour 80 % des usines). Enfin, l’équipement des camions, des palettes et des colis avec des puces RFID et les dispositifs de localisation devraient favoriser un meilleur pilotage des chaînes logistiques, évalué à 3 Mdse en 2025 (10 % des coûts de transport routiers pour 60 % de la flotte équipée en télématique[558].

La découverte des hydrocarbures de la mer du Nord a ouvert de formidables perspectives à la Norvège des années 80. Ce capital naturel de la Norvège représente 12% de sa richesse. A richesse par habitant comparable, le capital naturel de la France n'est que de 1% contre 86% de capital immatériel[559]. L'économie de l'utilité ouvre aujourd'hui de fortes opportunités aux pays comme la France qui disposent d'un capital immatériel prépondérant.

Projets pour l'avenir

Les data centers consomment énormément d’énergie pour refroidir leurs serveurs. Pour renverser cette logique, l’entreprise Qarnot Computing fabrique des radiateurs numériques qui contiennent des processeurs et se branchent simplement sur les prises internet. L’entreprise chauffe ainsi gratuitement des logements ou bureaux et vend la capacité de calcul nécessaire pour atteindre la température voulue par l’usager[560].

L'utilité résout le manque d'intégrité du modèle actuel

Pourquoi l'économie s'est financiarisée

En 1807, la société par action est une "constitution civile des français". Créer une société nécessite une validation par le Conseil d'Etat de l'intérêt public de son projet et la moralité de ses actionnaires. Cet vérification de l'intérêt public est international.

Lamartine décrit une "nouvelle féodalité", idée reprise par Durand en 1947, qui parle de "multiples souverains".

Le New Jersey permet la création de la holding en 1896, ce qui lui vaut la réprobation des autres états.

La liquidité des actions conduit à une dissociation

  • entre la valeur de l'entreprise et celle du capital : "l'hypothèse d'une valeur financière objective ne tient pas", selon Orléan
  • entre la propriété de l'entreprise et celle de l'action : "L'actionnaire d'une entreprise de chemins de fer ne peut pas monter dans le train sans billet". Berle et Means observent que les dirigeants ne sont plus les propriétaires

Milton Friedman soutient en 1970 que "la responsabilité sociale de l'entreprise est de faire du profit", bien que le profit ne fasse pas partie de son objet social. "L'entreprise doit maximiser la valeur pour les actionnaires, l'Etat doit redistribuer. Le chef d'entreprise qui n'aurait pas cette ligne de conduite dépenserait à tort de l'argent qui ne lui appartient pas", confirme-t-il quelques années plus tard.

Jean Tirole considère que Friedman prend implicitement l'hypothèse que l'entreprise internalise les externalités négatives[561].

Le manque d'intégrité de l'économie financiarisée

Notre modèle économique est une approche simplifiée de l'économie du bien-être. Celle-ci, centrée sur la notion d'utilité subjective, est longtemps restée purement théorique sur de nombreux points. Cette simplification a permis les indéniables progrès apportés depuis deux siècles, mais n'est pas sans autres lourdes conséquences. Notre modèle manque en effet d'intégrité.

Il ne finance pas ses racines. En remontant en amont du capital-risque : la preuve de modèle économique, la preuve de marché, le lancement de produit, la preuve de concept, l'invention, la recherche, la formation, la société ou la paix doivent être financés autrement, bien qu'ils constituent le socle nécessaire de l'économie marchande.

Il fragmente les responsabilités de ses acteurs, ce qui leur permet de ne pas les assumer entièrement, comme l'ont pointé du doigt les scandales du naufrage de l'Erika[562] ou des subprimes.

Il néglige les capitaux intangibles (innovation, confiance dans les institutions), le capital humain (dynamique collective, compétence relationnelle), les capitaux liés aux services publics fournis gratuitement (santé, instruction), aux services civils (travail domestique, éducation), les interactions entre facteurs sociaux, économiques et environnementaux, les seuils d'irréversibilité (au-delà desquels la dégradation d'un capital ne peut plus être réparée ni compensée par l'investissement)[11], les biens publics et les biens communs et par conséquent les externalités qu'ils induisent, notamment à long terme[563].

Il s'intéresse essentiellement à ce qui est susceptible d'appropriation et de transaction. Les indicateurs comptables comme le PIB apprécient les valeurs ajoutées exclusivement pour les conséquences marchandes dont les ventes constituent un enrichissement à court terme, mais indépendamment de leurs causes ou des effets induits. Le PIB s'accroît ainsi du coût des accidents, des hospitalisations, reconstruction, et réparation, mais il ignore les dégradations du patrimoine collectif, qu'il soit physique, culturel, écologique ou social[563]. Le PIB, essentiellement quantitatif, est adapté à une économie de pénurie (années 50), mais ne convient pas à une économie de la qualité et de la diversité.

Par ailleurs, si nous nous trouvons dans un cycle de croissance faible du PIB, la qualité des services offerts n'a jamais autant progressé et cette réalité est mal appréhendée par l'appareil statistique classique[564].

Elargir le périmètre de l'économie financiarisée

Notre modèle devrait donc être plus inclusif pour que toutes ces friches économiques deviennent valorisables. Grâce à son approche intégrale, l'économie de l'utilité promet justement d'étendre considérablement l'économie au-delà du périmètre auquel nous sommes habitués. Ainsi, les modèles économiques serviciels ne sont pas seulement un formidable levier de création de valeur pour les entreprises. Sous certaines conditions, ils peuvent être un moyen de concilier, par la dématérialisation de la production de la valeur, la croissance de l'activité économique avec le développement durable[565].

La France et l'économie de l'utilité

Les leçons de la fin du XIXème siècle[566]

En 1889, une crise financière mondiale ravage l’économie

Tout commence avec l'équivalent des subprimes de l'époque : des prêts immobiliers un peu trop faciles à obtenir. À partir de 1850, le secteur du bâtiment s'enivre à Vienne ou Berlin, et surtout à Paris dont la métamorphose nous a légué les immeubles haussmanniens en pierre de taille. La spéculation bat son plein, ce qui alimente une bulle financière grossissante[567]. Dans le même temps la mécanisation fait chuter les coûts de productions agricoles américains.

Les fondamentaux de la crise sont en place, il ne reste plus qu'un déclencheur. En 1871, l'Angleterre décide subitement de s'approvisionner en blé américain. Les prix agricoles européens s'affolent. En mai 1873, c'est le krach en Europe centrale. Plusieurs banques font faillite, les autres retirent leurs capitaux. La panique se propage dans le monde. Les compagnies ferroviaires, startups internet de l'époque, tombent en premier, suivies pendant six ans par une cascade de défaillances. La France, déjà affaiblie par cette crise et la guerre franco-prussienne, privée du poumon industriel de l'Alsace-Lorraine, est en outre saignée par la lourde indemnité exigée par l'Empire allemand. Les profits non agricoles sont divisés par deux[568]. Même la nature s'en mêle : le phylloxera détruit 85% de nos vignobles. Déflation, surproduction industrielle, baisse de la consommation et des salaires : notre activité économique reste atone jusqu’en 1880. On espère alors une amélioration. Les bourses de Paris et de Lyon reprennent des couleurs[569]. Hélas, la débâcle reprend dès le 2 janvier 1882. Après une chute de 50% de son cours en quinze jours, la banque d’affaires Union Générale, Lehman Brothers de l'époque, fait faillite, entraînant avec elle les bourses de Paris et de Lyon[570]. La fermeture de la bourse de Paris n’est évitée que grâce à un prêt exceptionnel de la Banque de France. Le secteur de la construction s'effondre[571]. Les filières du lin et de la soie sont sinistrées, et les tissages mécaniques remplacent irrépressiblement la main d’oeuvre. Dans le bassin de Saint-Etienne, la production d’acier chute de 68% et un employé sur quatre est licencié. La France déplore plus de 8000 faillites par an[572], ce qui en-traîne un peu plus l’économie dans la spirale du chômage et de la chute des salaires. La contraction du marché intérieur, la baisse des transactions et des transports limitent les recettes de l'Etat. Le Plan de relance Freycinet, lancé en 1878 avec ses cinq milliards d'investissements pour la réalisation de grands équipements (chemins de fer, canaux, ports), se révèle insupportable pour le budget[573]. Le service de la dette atteint 30% des dépenses de l'Etat en 1888[574]. Malgré le soutien massif de l’Etat, des colosses industriels s’écroulent, comme la société de Terrenoire. Les capitaux fuient l'industrie et la France. Des spéculations malheureuses aggravent le marasme, comme celle de la tentative d'accaparement du marché mondial du cuivre par le Comptoir d'Escompte de Paris, qui provoque sa faillite en 1889.

La faillite du Comptoir d'Escompte

Le désastre qui vient de frapper le Comptoir d'Escompte attire l'attention sur les banques de dépôts. Ces institutions sont relativement nouvelles en France. Le plus ancien de nos établissements de dépôt était le Comptoir. Il n'avait que 40 ans de carrière.(...) Jusque vers le milieu de ce siècle on thésaurisait les économies. Rien n'est plus connu que le bas de laine des paysans, cachette enfouie au fond d'un tiroir dans laquelle le père de famille prévoyant accumulait des écus et des pièces d'or. Ce numéraire était ainsi stérilisé pendant des années.(...) Ces usages tombent en désuétude. On verse maintenant dans les grandes banques, et on est délivré du souci de conserver chez soi des sommes qui peuvent toujours être volées. Les principales banques de dépôt établies dans notre pays se sont constituées de 1860 à 1870. De cette période datent le Crédit Industriel, la Société de Dépôts et Comptes Courants, la Société Générale, le Crédit Lyonnais, pour ne citer que les plus importantes. (Mais) il est des banques qui se laissent entraîner à commettre la faute la plus grave à laquelle elles puissent succomber : celle d'immobiliser les fonds de leurs dépôts. On fait des avances à des industries, on achète des valeurs de bourse, on s'engage dans des placements à long terme. Qu'il se produits une demande de retraits un peu considérable, on n'a rien pour y répondre. C'est la faillite.. (...) Les banques de dépôt anglaises (...) se refusent obstinément à employer l'argent de leurs dépôts autrement qu'ne placements à court terme sur du papier de premier ordre. Il importe que les maisons françaises se pénètrent de ce principe : on leur demande simplement d'être prudentes, et , en finances, la prudence c'est l'honnêteté, surtout quand on travaille avec l'argent d'autrui[575]

.

Le plus grave est sans doute que la durée de la crise française s'oppose à la très nette reprise de nos voisins. L’écart des performances se traduit par notre perte de compétitivité sur les marchés extérieurs[576]. Il s’avère de plus que nos capitaux sont attirés par la croissance de la Russie, de l’Empire Ottoman ou de l’Amérique latine. Mais, faute de pouvoir fournir les équipements nécessaires à des conditions compétitives, notre in-dustrie ne profite pas des commandes induites[577]. D'autres pays moins solides tombent comme des dominos. L’Argentine fait défaut en 1890, suivie par l’Uruguay en 1891 et le Portugal en 1892. La Grèce est également sur le point de couler en 1894[578] lorsque la France et l'Angleterre lui lancent une bouée financière en échange d'un dur programme d’austérité. Écoeuré, Emile Zola écrit dans L'Argent : "La déroute est fatale, le jour du massacre viendra, où il y aura des morts à manger, des titres à ramasser pour rien dans la boue et dans le sang. L'épidémie périodique, dont les ravages balaient le marché tous les dix à quinze ans, les vendredis noirs, ainsi qu'on les nomme, semant le sol de décombres. Il faut des années pour que la confiance renaisse, pour que les grandes maisons de banque se reconstruisent, jusqu'au jour où, la passion du jeu ravivée peu à peu, flambant et recommençant, l'aventure amène une nouvelle crise, effondre tout, dans un nouveau désastre." Les grand-pères de nos grand-pères se souviendront longtemps de cette longue période d'angoisse et de sacrifices qu'ils baptisent déjà "la Grande Dépression".

La France ne résiste pas à l’invasion commerciale américaine

L'épouvantail de l'époque n'est pas l'industriel chinois mais le fermier américain.

Dès 1860, les moissonneuses à cheval et autres machines agricoles sont déjà largement répandues aux États-Unis, et les gains de productivité dans l'agriculture y sont sensiblement plus grands qu'en Europe[579]. La petite paysannerie française, héritière de la distribution des terres du Clergé pendant la Révolution et du morcellement des héritages[580] , dispose quant à elle de surfaces peu adaptées à la mécanisation[581].

Simultanément, les innovations modernisent rapidement le transport maritime. Grâce à l’invention d’Augustin Normand, en 1842, l’hélice en trois pales supplante définitivement la roue à aubes et améliore nettement la vitesse. Le passage à la coque entièrement métallique se généralise dans les années 1860. Les réparations sont moins fréquentes et la durée de vie d’un navire prolongée, ce qui compense le coût plus élevé des matériaux. Le fer est bientôt remplacé par l’acier qui permet de réduire les épaisseurs et le poids. À partir de 1884, les turbines remplacent peu à peu les machines à vapeur à mouvement rectiligne alternatif. Elles réduisent la consommation du combustible et libèrent de la place dans les cales pour le fret. Les escales charbonnières s’espacent. En 1880, le tonnage transporté par les vapeurs dépasse celui des voiliers. Entre 1870 et 1900, le tonnage mondial transporté par bateaux à vapeur sera multiplié par 5,5 [582].

La mécanisation agricole se conjugue donc avec la baisse des coûts du transport. Dès que son prix devient compétitif, en 1871, le blé américain envahit brutalement l’Europe. La contagion s’étend ensuite aux autres produits agricoles puis manufacturés. Les États-Unis sont en effet devenus un marché intégré constitué d'une masse importante et homogène de consommateurs. S’additionnent les nouvelles technologies et les innovations organisationnelles pré-tayloristes, qui donnent lieu à l'émergence de firmes géantes. Les coûts de production baissent de manière spectaculaire. Grâce aux progrès des transports ferroviaire et maritime, ces firmes étendent main-tenant leur empire outre-mer[583].

Les marchés domestiques nationaux européens restent limités pour bénéficier d'économies d'échelle comparables. La quasi-totalité des plus grandes capitalisations boursière ou tailles en effectifs sont américaines. L’inondation des pays européens industrialisés par les produits américains se propage irrésistiblement[584] . Notre riposte est molle. L'industrie française n'est pas compétitive sur le marché mondial, comme en témoignent la faiblesse de ses exportations et leur cantonnement aux produits de luxe traditionnels. Elle est gravement pénalisée par la petitesse de son marché[585] , entretenue par les réflexes protectionnistes et par le manque d’harmonisation technique, alors que les États-Unis disposent de normes depuis 1880[586] . Elle est handicapée par une double lacune, relevée par tous les Consuls de France à l'étranger : l'absence dramatique d'une organisation à l'exportation, de soutien bancaire[587] et de talents commerciaux. Le négoce français ne peut donc compter sur les agents nombreux et formés dont disposent l'Angleterre pour des raisons historiques, et l'Allemagne grâce à son effort d'éducation[588].

À ces difficultés s’ajoutent celles de notre sidérurgie, d'autant plus inquiétantes que ses concurrents connaissent une croissance soutenue et que, sous la pression allemande, l'industrie européenne se cartellise. Les producteurs français, affaiblis et de taille modeste ne peuvent défendre leurs positions devant les menaces allemande et britannique. À chaque renouvellement du cartel des rails, la part de la France se trouve réduite. Ainsi, non seulement les innovations de machines agricoles, de transports ou de gestion stimulent les exportations américaines mais, de plus, la France semble n’avoir aucune chance de redresser sa position par la conquête de marchés extérieurs[589]. Impuissante, elle s’angoisse devant ce qu’elle appelle déjà l’ « invasion commerciale américaine ».

La France doute d’elle-même

Aucun Président de la République Française n’a jamais démissionné à cause d’un scandale. Seule exception, Jules Grévy, contraint de quitter le pouvoir le 2 décembre 1887[590] . Depuis deux mois, en effet, le pays s’indigne. Une enquête de presse a révélé que son gendre, installé à l’Élysée, trafique de son influence pour obtenir des investissements dans ses entreprises en échange de décorations officielles. Cette affaire facilite l’élection en janvier 1889 du Général Boulanger, à Paris et dans plusieurs départements. Il s’agit du chef d’un mouvement populiste, repère d'une troupe hétéroclite de mécontents, de la gauche radicale à la droite bonapartiste ou monarchiste. Sa popularité est telle que le risque d’un coup d’État, qui pourrait mettre en péril la République et la paix, est pris très au sérieux[591].

L'anti-parlementarisme

Les élections de 1885 sont marquées par un renforcement des extrêmes, c'est-à-dire par un retour en force des conservateurs et une forte poussée des radicaux. La Chambre, formée de trois tendances - la conservatrice, l'opportuniste et la radicale - est ingouvernable. De là, l'instabilité ministérielle. À la chute de Ferry en 1885, se succèdent, jusqu'en 1889, pas moins de 7 gouvernements (Brisson, Freycinet, Goblet, Rouvier, Tirard, Floquet, Tirard). L'opinion s'exaspère de ces changements perpétuels de cabinets, et l'instabilité ministérielle offre ce qui allait être le terreau du boulangisme : l'antiparlementarisme.

La critique porte le plus souvent sur le coût de fonctionnement du Parlement, la corruption des parlementaires, leur absentéisme et le vote godillot. Les adversaires de Boulanger dénoncent un antiparlementarisme plébiscitaire et césarien, qui ne vise qu’à renverser la République pour faire le lit d’un homme providentiel. Mais Boulanger et son proche entourage s’en défendent, et l’on peut estimer que le discours de campagne boulangiste s’assimile plutôt à un antiparlementarisme fondamentalement populiste, adossé à la rhétorique protestataire des petits contre les gros. Il ressort de cet inventaire une extraordinaire capacité du mouvement boulangiste à utiliser l’antiparlementarisme, dans ces différentes et fluctuantes acceptions, comme un thème récurrent et systématique de remise en question des élites républicaines[592]

Une caractéristique du boulangisme est de rassembler tous les mécontents du parlementarisme, que ce soit les monarchistes qui y voient une occasion de renverser le régime, des républicains convaincus (radicaux souvent) qui refusent la corruption et demandent des mesures sociales, ou des nationalistes en quête de revanche sur l'Allemagne. Il faut voir dans le boulangisme un mouvement à la fois hétérogène en ce qu'il rassemble des personnes aux tendances politiques différentes mais également homogène en ce qu'il réunit les opposants au parlementarisme absolu. Le juriste français Raymond Saleilles l'explique très bien en affirmant que « le phénomène du boulangisme n’a pas d’autre explication que le besoin d’un pouvoir fort et d’une volonté de la part du gouvernement. On ne peut expliquer autrement pourquoi tant de gens honnêtes et même sérieux, sans parler de républicains absolument sincères n’ayant jamais rêvé de coups d’État, se sont laissés entrainer dans le mouvement ».


Les résistances à l'innovation: l'insécurité

La résistance face aux nouvelles techniques est constante.

En apparence, l'un des atouts de la nouvelle énergie (l'électricité) résidait dans sa sécurité : plus de risques d'asphyxie ou d'explosion comme avec le gaz. Cependant, l'administration mit en avant les nouveaux dangers qui accompagnaient l'électricité. Ces angoisses sont à la base du premier véritable texte consacré à l'énergie électrique : le décret du 15 mai 1888. (Ce) décret est devenu rapidement un cadre trop étroit et "bientôt, au lieu d'être un guide, il devint une gêne pour l'exploitant". [593]

Les résistances à l'innovation: la nostalgie

Je suis prêt à reconnaître, avec un autre confrère, que « la bicyclette est la plus noble conquête de l'homme sur le cheval ou plutôt sur le cocher ! ». Mais je ne puis me retenir de faire l'observation que les cyclistes des deux sexes, en pédalant a des allures de plus en plus outrancière par les grandes routes, les chemins les plus modestement vicinaux, les simples sentiers de la campagne, ont enlevé considérablement de son charme à la dite campagne pour le paisible promeneur piéton. C’est là une vérité malheureusement indiscutable, et dont les affiches tapageuse des marchand de vélo lui rappelle importune réalité. Or, maintenant que les véhicules automobiles vont entrer dans la carrière rural avec des vitesses de 30 à 40 km heures, juger un peu de ce que deviendra le plaisir de la promenade à pied ! [594]


Les résistances à l'innovation: la crainte du chômage

Sous la Restauration, ce sont les ouvriers du Languedoc lainier en crise qui se soulèvent contre la « grande tondeuse », machine redoutable parce qu’elle périme en quelques années leurs anciens savoir-faire. En 1819, à l’annonce de l’arrivée de l’une de ces machines dans la ville de Vienne (Isère), les ouvriers dénoncent ce procédé qui offre le « pernicieux moyen de tondre, lustrer et brosser mille aunes de draps par douze heures, étant conduite par quatre hommes seulement ». Lorsque la machine arrive finalement, la population s’assemble, s’en empare, la brise avant de jeter les débris dans la rivière.
Mais les troubles ne concernent pas que les travailleurs du textile. Aux lendemains des révolutions de 1830 et de 1848 en France, des imprimeurs typographes se rendent en cortège dans les imprimeries afin de détruire les presses mécaniques récemment installées dans les ateliers. D’autres métiers expriment leurs plaintes avec violence : les bonnetiers de l’Aube dans les années 1840, les scieurs de long, mais aussi les travailleurs ruraux qui se soulèvent à plusieurs reprises contre les batteuses mécaniques, premières machines agricoles à pénétrer les campagnes au milieu du XIXe siècle.
(...) Les travailleurs utilisent toutes les ressources disponibles dans la société civile pour construire la légitimité de leur cause et de leurs actions auprès du pouvoir. Ils mobilisent des argumentaires complexes pour justifier le rejet des mécaniques, ils rédigent des lettres de menace et de justification, des pétitions. Leur argumentation s’articule autour des notions clés de « bien commun », de « bon droit », « d’équité ». Comme l’écrit un typographe dans une brochure publiée pour justifier les destructions lors de la Révolution de juillet 1830 : « Les machines, plus voraces que les monstres terrassés par Hercule sont contraires à l’humanité, aux droits de la nature et de l’industrie et à l’intérêt général des membres de la société » (Les Justes alarmes de la classe ouvrière au sujet des mécaniques, par un vieux typographe victime de l’arbitraire, Paris, 1830). Ils font appel à « l’intérêt général » et profitent des contextes révolutionnaires pour légitimer leurs actions. C’est ainsi qu’après février 1848 les troubles augmentent en France, les ouvriers se plaçant désormais sous la protection de la République et de ses symboles.
Par ailleurs, loin de refuser en bloc le « progrès technique », ce qui aurait peu de sens pour des techniciens et ouvriers hautement qualifiés, les travailleurs élaborent plutôt des formes « d’économie politique » alternatives à celle qui s’impose peu à peu chez les économistes libéraux et les réformateurs sociaux. La main-d’œuvre imagine toute une panoplie d’instruments et d’arguments pour réguler le changement technique et négocier avec les autorités et les élites les transformations industrielles en cours. Il peut s’agir d’appels à la taxation des nouvelles méthodes mécaniques, de commissions chargées d’étudier les effets des machines, ou, plus fondamentalement encore, après 1830, d’un appel à l’association et à l’organisation des ouvriers eux-mêmes pour tenter de maîtriser le changement technique et le mettre au service des classes populaires.

Les résistances à l'innovation: la crainte d'une nouvelle féodalité

(...) Comme l’affirme le journal La Réforme en 1848, ceux qui se laisseraient « entraîner à l’holocauste des machines se tromperaient sur leur véritable ennemi ». Pour le journal républicain, la technique industrielle n’est pas responsable de la misère : l’ennemi des ouvriers « c’est le gouvernement féodal-industriel ». La reconnaissance de la souveraineté populaire et du suffrage universel doit naturellement supprimer les effets néfastes des mécaniques.
Viennent enfin les interprétations des mouvements socialistes naissants, en quête de légitimité, celles des phalanstériens, du communiste Étienne Cabet puis de Marx lui-même. Pour ces auteurs, les bris de machines sont d’abord la preuve du manque d’organisation des travailleurs, comme l’écrit Marx dans le Capital : « Il faut du temps et de l’expérience avant que les ouvriers, ayant appris à distinguer entre la machine et son emploi capitaliste, dirigent leurs attaques non contre le moyen matériel de production, mais contre son mode social d’exploitation ». Pour la pensée socialiste naissante, ce sont les formes de la propriété et de l’organisation du travail qu’il faut changer pour domestiquer les mécaniques. Dans le mouvement ouvrier en voie d’institutionnalisation à la fin du siècle, la question des machines continue d’être discutée et débattue mais il revient désormais aux syndicats d’organiser la phase de transition en négociant des conditions acceptables en termes de salaire ou d’organisation du travail. [595]

Le succès de ce mouvement de pensée prospère sur le clivage autour de la propriété privée :

L'argument banal et commode des avocats du braconnage, c'est que la chasse, en tant que privilège ou simplement en tant qu'exercice d'un droit de propriété, est un reliquat détestable, une tyrannique survivance des antiques aux pressions féodale : à évoquer le fantôme des anciennes tyrannie, assez escrimaient en parole sonore contre le spectre renaissance de la féodalité, on a toujours partie gagné auprès d’une catégorie de mal content, d’aigris… Ou de badauds. Cette catégorie là, pour être nombreuse, n’est encore, heureusement, qu’une minorité dans notre France[596]


Riche en progrès techniques, la fin du XIXème siècle illustre particulièrement cette résistance.

Les grèves de fiacres

Violent avec son cheval, le cocher peut aussi l’être avec les piétons et même avec ses clients. Les conflits sont légions entre le conducteur et ses passagers. En 1878, un guide de l’exposition universelle conseille aux visiteurs de « [se] faire remettre le numéro des cochers, et de ne souffrir de leur part ni insolence, ni exigences illégitimes". À la fin du xixe siècle, les cochers et leur syndicat tentent d’ailleurs de lutter contre cette image noire de la profession. Lors des conflits qui les opposent à la direction de leurs compagnies de transport, les syndicats de cochers tentent de diffuser une image plus positive auprès de la population parisienne. Ils accusent les compagnies de leur donner de mauvais chevaux et de leur imposer un rythme de travail trop élevé. D’autres insistent sur l’analogie de leur situation avec celle de leurs chevaux : le cheval et son cocher sont deux victimes de l’avarice des grandes compagnies. Les rapports de police tendent à montrer que ce discours n’est pas sans efficacité, et que lors des grèves les parisiens, pourtant réduits à la marche, accusent plus les compagnies que les cochers.

Mais en dehors de ces exceptions, dans la majorité des textes, parmi la plupart des auteurs, c’est bien l’image négative qui persiste. Une phrase, attribuée à Chateaubriand et à d’autres auteurs, revient fréquemment qualifiant Paris, d’« enfer des chevaux ». Dans cet enfer, les cochers et les charretiers représenteraient évidemment les démons. L’historien nord-américain, Nicholas Papayanis, qui a consacré une thèse à l’histoire des cochers parisiens, résume bien l’opinion des parisiens à l’égard de ceux-ci : « Ils croyaient […] que la majorité des cochers étaient des gens sournois, hostiles au public, malhonnêtes, et généralement ivres"[597].


La défiance vis-à-vis des grands magasins

On entend répéter communément que la création des grands magasins a été un avantage pour les consommateurs par ce que ces vastes établissements peuvent se procurer les produits à des conditions exceptionnelles de bas marché dont leur clientèle est appelée à profiter. Cette opinion ne semble reposer que sur un examen superficiel des faits. Dans une marchandise il n'y a pas seulement à considérer la modicité du prix ; la qualité a sa grande importance. Or, il est incontestable qu'autrefois la petite industrie fabriquait des produits meilleurs, plus solides, mieux soignés que ce qu'on achète à présent dans les immenses bazars commerciaux. Les articles coûtaient peut-être plus cher, mais il duraient plus longtemps et avaient meilleur air. Toute compensation faite on était mieux servi et on ne saurait affirmer que les grands magasins aient opéré une révolution heureuse. Mais la fondation de ces établissements a eu de funestes conséquences sociales : elle a fait disparaître quantité de fabricants et de commerçants qui ne peuvent soutenir cette écrasante concurrence.[...] Appuyés sur un capital très considérable, pouvant s'approvisionner par grandes masses et dicter ainsi la loi aux fabriques, secondés par une publicité dans laquelle ils prodiguent les millions, disposant d'un personnel nombreux et choisi, possédant un outillage parfait, rien de fait obstacle à leur essor, et le chiffre annuel de leurs opérations est colossal. Mais tandis qu'ils dressent des bilans dont se félicitent leurs actionnaires, d'innombrables faillites annoncent la chute des petites maisons qu'ils ruinent, et les géants commerciaux ne tarderont pas à être les seuls maîtres du marché, après avoir détruit jusqu'au dernier leurs humbles et trop faibles compétiteurs[598].


La défiance vis-à-vis des transports mécaniques

Le cheval constitue une importante partie de la richesse publique. En dépit des machines, des moyens de locomotion dont la mécanique perfectionne chaque jour le fonctionnement, l'homme ne saurait se passer de cette utile auxiliaire. Comment, en effet, sans lui, faire les travaux de nos champs, transporter cette infinité de matériaux pour la construction de nos maisons et de nos édifices ? Comment exploiter nos carrières, nos mines, nos forêts, tracer nos routes, creuser nos ports, établir nos chemins de fer, etc. ?[599]


La défiance vis-à-vis des prophètes de la modernité

Pierre Giffard est le Rédacteur en Chef du journal Le Vélo, "quotidien de la vélocipédie et de la locomotion automobile". Il collabore aussi avec Le Petit Journal et organise la course cycliste Paris-Brest-Paris. Il écrit dans La Fin du Cheval :

Les esprits grognons ont beau marmotter que c'est une mode, qui passera comme le café, suivant l'expression classique, l'apparition de la reine Bicyclette constitue vraimenet un bienfait social. (...La bicyclette) devient le cheval du pauvre, en attendant qu'avec le torrent toujours grandissant des conversions, elle devienne le cheval de tout le monde, la monture égalitaire[600]


Il organisera ensuite la course Paris-Rouen pour les automobiles. Son article du 6 août 1894 déclare :

Dans quelques temps nous aurons tous notre voiture mécanique pour nous promener et faire nos courses et nos voyages. Les modèles proposés coûtent encore relativement cher, mais on arrivera à les fabriquer à infiniment moins de frais. Les chevaux seront vexés, mais s'ils ne sont pas contents, on en fera du boeuf à la mode[601]

Sa vision de 1899 est prophétique :

Nous voici à la frontière d'un siècle qui verra l'homme se séparer du cheval. Ce sera la fin d'une collaboration qui dure depuis des milliers d'années [...J. L'apparition de la bicyclette d'abord,et ensuite de l'automobile, a enseigné au "roi de la création" que, sur la route comme sur les voies ferrées, la mécanique, miraculeusement simplifiée, est prête à le déposséder du rôle prépondérant qu'il a joué jusque-là dans l'histoire de la Terre[602]

Mais Pierre Giffard s'était fait un ennemi qui raconta ensuite :

dans les premières semaines de 1900, j'apprends que Giffard se présente aux élections à Yvetot. L'occasion était bonne pour moi de le combattre, mais j'étais fort gêné pour trouver quelque chose qui puisse le faire échouer. Me promenant un jour dans le salon de l'automobile club, j'aperçus sur une table un livre que je me mis à feuilleter. Il était intitulé la fin du cheval et signé…de Pierre Giffard. Fort bien écrit, ce livre m'intéressa immédiatement. Mais bientôt, l'idée me vint qu'il serait peut-être beaucoup moins goûté par les futurs électeurs du candidat député, propriétaire, pour qui le cheval était une source appréciable de revenus. Aussi je n'hésitai pas un seul instant et pris la décision de faire remettre sans aucun commentaire le livre de Pierre Giffard aux futurs électeurs en aussi grand nombre que je le pourrais.(...) Ce fut magique et, lors du scrutin, ce qui s'annonçait comme un succès confortable se transforma en une défaite retentissante[603].

Le french bashing

En cherchant à supprimer l'alcoolisme (ce qui est impossible), en le contrariant, en le gênante avec transe, on ne supprimera pas pour cela, dans notre génération fatiguée, surmenée, névrosée, cette appétence, ce besoin impérieux qui la possède d'absorber par des moyens artificiels l’oubli des ennuis de l’existence, de se distraire des misères de cette vie « qui n’est pas toujours drôle »,– oh non ! Prenons donc garde quand mettons le veto administratif et le blocus fiscal sur la police, l’absinthisme et leurs congénères, nous ouvrions plus grand la porte à l’éther, à la morphine, au hashish, à ce chandoo d’opium qui, de l’Indochine, a déjà immigrés chez nous… J’ai dit. Mais qu’on y pense un peu ![604]

Il expliqua le téléphone, son principe d'acoustique, son application, dont nous venions de voir un des merveilleux effets. Deux artistes, dans une salle de la gare de Poissy, avait joué sur le violon et sur la flûte, des airs que nous avions entendus à Paris. À ce moment cela semblait tenir du merveilleux ; aujourd'hui on y est habitué et, comme le télégraphe, le téléphone est entré dans nos habitudes de chaque jour.

L'idée première du téléphone est due à un Français, M. Bourseul, qui l'émit il y a trente-cinq ans. Naturellement, on n'y fit point attention. Mais elle nous revînt d'Amérique en 1878, cette idée, rapportée par M. Bell et on s'en occupa.

C'est ainsi que nous sommes, nous autres Français[605].


Au même moment, la faillite de la Compagnie de Panama provoque la ruine de 85.000 souscripteurs[606]. Il s’avérera que les 20.000 morts de ce chantier de la honte ont été complaisamment masquées par une presse « arrosée » et que les fonds du projet ont été levés grâce à des lois sur mesure, votées par plus d’une centaine de parlementaires corrompus[607][608].

Les conséquences de ces scandales sont lourdes pour la IIIème République[609] .

Tout d’abord, le discrédit durable de sa classe politique, qui provoque le terrorisme anarchiste. Les attentats à la dynamite se succèdent face aux présidents et ministres. La France vit dans cette hantise[610] , qui verra son apogée avec l’assassinat du Président Sadi Carnot en 1894.

L’antisémitisme populaire ensuite, encouragé par les milieux catholiques, qui attribuent exagérément à la « finance juive » la responsabilité de la faillite de la banque Union Générale[611][612][613]. Il est exacerbé par l’implication de banquiers d’affaire dans le scandale de Panama. Il culminera lors de l’affaire Dreyfus.

Le climat social, enfin, continue à se déliter. En juillet 1889, le coup de grisou le plus meurtrier de l’histoire provoque 200 morts à Saint-Étienne, alors que Zola dénonce la dureté de vie des mineurs dans Germinal : "C’est bien vrai qu’on nous attelait comme des chevaux à la besogne, et ce n’était guère juste, dans le partage, d’attraper les coups de bâton, d’arrondir toujours la fortune des riches, sans espérer jamais goûter aux bonnes choses. Le plaisir de vivre s’en va, lorsque l’espoir s’en est allé"[614] . En réponse, Jules Delafosse, député boulangiste, n'hésite pas à associer socialisme et terrorisme. Selon lui, "[Le socialisme] pré-pare le peuple des travailleurs à l'action prochaine. Il a ses journaux qui attisent les haines, avivent l'esprit de destruction, dénoncent aux ignorants et aux faibles l'oppression bourgeoise et l'injustice sociale, vulgarisent les procédés et les méthodes, et enseignent nettement l'assassinat ; pour instrument, enfin, il a la bombe ou le paquet de dynamite"[615] . Cette démagogie est à son tour vivement dénoncée par l'écrivain Alexandre Weill, qui écrit: "j'ai dit il y a bientôt deux ans aux veules républicains du gouvernement: « Si vous n'expulsez pas Boulanger, il vous expulsera ! » Il s'en est fallu de bien peu qu'il ne soit parvenu, non à expulser les républicains, mais la République! Toute sa force était dans la faiblesse de nos gouvernants, et cette faiblesse n'est pas un mal aigu, une fièvre chaude, mais un mal chronique, une fièvre putride."[616]

Pour avoir une idée approchante de l’atmosphère de l’époque, il faudrait imaginer la conjugaison quasi-simultanée du 11 septembre 2001, de la faillite de Lehman Brothers, du 21 avril 2002 (Le Pen au deuxième tour), de l’affaire Elf, du tsunami et de l’affaire Madoff. On peut comprendre que l’ensemble soulève en vrac les pires défiances anti-politiques[617] , anti-presse, anti-sémites, anti-socialistes et anti-bourgeoises[618] .

Chronologie récente

2 avril 2013: Le Canard Enchaîné, à paraître le lendemain, explique que Jérôme Cahuzac a indiqué aux juges qu'il avait bien possédé un compte en Suisse, transféré à Singapour, et dans lequel se trouvent environ 600 000 euros. Dans l'après-midi, l'ancien ministre publie sur son blog un billet dans lequel il reconnaît tous les faits.

6 et 13 décembre 2015: à l'issue du premier tour, la gauche connait une forte baisse par rapport aux élections de 2010, tandis que le Front national triple presque son score et que la droite connait une progression modeste. La possibilité d'une victoire du FN dans plusieurs régions conduit le PS à retirer ses listes pour le second tour en Nord-Pas-de-Calais-Picardie et en Provence-Alpes-Côte d'Azur.



La France célèbre alors le centenaire des États-Généraux de la Révolution "l'une des dates les plus glorieuses, les plus grandioses, non seulement de notre histoire nationale, mais de l'histoire de l'humanité"[619]. Le souvenir de ce passé idéalisé n'en rend que plus cruelle encore la conscience du dévoiement de son héritage. La France semble alors ne plus pouvoir se défaire des démons de son propre doute.

Les nouvelles technologies abondent

Lors de l’exposition universelle de 1889, chaque technique foisonne de propositions. Radiguet, O'Keenan, Sappey et 20 autres exposants présentent leur système de pile électrique[620] , alors que 250 chercheurs ont déjà donné leur nom à leur propre pile[621]. Il en est de même pour les accumulateurs, moteurs, dynamos, transformateurs, interrupteurs, disjoncteurs, compteurs, systèmes d’éclairage, de distribution ou de trans-mission de signaux, dont le téléphone[622] . D’autres domaines que celui de l’électricité arrivent aussi à maturité parmi lesquels l’architecture, la métallurgie, les chaudières à vapeur, les machines outil ou la chimie[623].

De plus, ces techniques se combinent entre elles pour former de nouveaux secteurs. Le mariage de la métallurgie et de l’électricité donne ainsi naissance à l’électro-métallurgie pour la fabrication de l’aluminium[624]. De nouvelles branches industrielles poussent par ramification. La chimie de synthèse trans-forme le pétrole en différentes matières plastiques, qui débouchent à leur tour sur les colorants, fibres textiles, engrais chimiques ou produits pharmaceutiques.

Les technologies se conjuguent aussi avec les savoir-faire et expertises existants. Ainsi la pratique ancienne d’épuration du fer en fusion par soufflage bénéficie des progrès des fours et de la chimie. Les procédés Bessemer, Thomas et Gilchrist industrialisent la production d'acier de qualité à coût réduit. Ils ouvrent l’ère de la mécanisation et de l’architecture métallique, dont le symbole est la Tour Eiffel[625]. La production mondiale d'acier sera multipliée par 16 entre 1880 et 1913[626].

L’intérêt économique et la pérennité des techniques sont cependant rarement évidents au départ. Le tramway électrique a été testé dès 1881 mais les fils aériens, jugés inesthétiques, contraignent les industriels à trouver d’autres solutions. Après une longue étude des tractions animale et électrique, l'ingénieur A. Witz conclut en 1893 "qu'à tous les points de vue la traction électrique des tramways au moyen des accumulateurs [batteries rechargeables] s'impose à Paris et, sans doute, dans bien des grandes villes'[627]. Cet avis sera largement partagé puisqu’en 1898, 9 tramways électriques sur 11 seront munis d'accumulateurs. C’est pourtant une troisième solution qui finira par être adoptée. Il s’agit du câble enterré dans un caniveau, qui évite le problème d'esthétique tout en conservant l'intérêt du fil électrique.

Les techniques ne trouvent pas toujours d’application immédiate. Le moteur à cycle à quatre temps, inventé en 1862 par Alphonse Beau de Rochas[628] , attendra 21 ans son prototype par Etienne Lenoir. Elles peuvent aussi se heurter à l’administration publique. L'attitude étroitement juridique du Conseil d'Etat ou la réticence des maires à accorder des concessions à long terme gênent l’adoption de l'électricité alors même que les inventions françaises sont en pointe[629]. Après le sacre de son ampoule électrique, l'américain Edison veut s’implanter en France. Mais les tergiversations de la Ville de Paris, prisonnière des concessions de la Compagnie du Gaz et de celle des Omnibus, découragent Edison qui finit par s’entendre avec les allemands du futur géant AEG[630]. Autre exemple, à propos du tramway, on lit dans le journal La Lumière Electrique : « En France, on est toujours porté à critiquer et à dénigrer, et on a cru voir dans ces retards une défaite pour l'application de l'électricité aux chemins de fer. Mais en bonne justice on devrait s'en prendre aux autorités municipales et non aux électriciens. Nous espérons que l'on n'entendra plus les lazzis malséants qui ont accueilli les tentatives infructueuses qui ont eu lieu ces jours derniers »[631].

La presse grand public, quant à elle, s’intéresse surtout à ce qui est spectaculaire. Dans son numéro du 1er janvier 1889, parmi tous les sujets technologiques possibles, Le Petit Parisien se distrait avec le rêve de l’hibernation humaine en relatant les travaux de Henri de Parville :

Il est venu à des gens d'imagination étrange l'idée de rechercher les moyens d'économiser notre existence au point de la suspendre par moments et de reprendre la vie courante au bout d'un nombre respectable d'années [632] ».

Dans un autre numéro, il donne du crédit à l'invention de la "locomotive parlante".

voici une nouvelle invention du célèbre Edison qui promet bien de l'agrément aux personnes qui habitent la place de l'Europe et le boulevard Péreire. Quelles nuits les malheureux vont passer quand le nouvel instrument aura été adopté par les chemins de fer français ! Il s'agit d'une locomotive « parlante », qui dit - ou plutôt "hurle" - en anglais, en frnçais ou en allemand, ce qu'elle annonçait jusqu'ici en sifflant. Le "linguagraphe" - c'est là le nom de cette invention - va révolutionner, d'ici peu, tout le système des signaux dans le service public des chemins de fer. Le linguagraphe est un appareil de petite dimension, composé d'un certain nombre de tuyaux, de fils de bronze et d'un clavier. Si, par exemple, le train s'approche d'un tunnel, le machiniste fait jouer le phonogramme "tunnel" et, d'une voix de tonnerre qui va jusqu'à une lieu de distance, la locomotive hurle le mot "tunnel"[633].

On trouve aussi du crédit à la "nourriture artificielle".

M. Berthelot, prenant la parole pour annoncer le jour « peut-être prochain » ou les progrès de la chimie réaliseront la fabrication économique des matières alimentaires. Ce jour là, les chimistes, empruntons l’azote à l'atmosphère, le phosphore à la terre, l’hydrogène à l’eau, le carbone à la houille et aux végétaux, combinerons ces éléments de toute nutrition venir à réaliser, à « synthétiser » une variété indéfinie de nourriture. Ce jour là, prophétise M. Berthelot, la culture du blé, l’élevage des bestiaux, l’agriculture, en un mot, pourras dire qu’elle a vécu…[634]

Ainsi, les nouvelles techniques abondent mais le chemin jusqu’à leur succès commercial nécessite de patients efforts avant de les transformer en véritables innovations.

La société anonyme

La loi de 1867 permettra l'essor notable des SA, qui ne représentaient jusque-là qu'une portion négligeable du nombre des sociétés créées en France. Avant cette date, l'État s'était en effet montré très restrictif et, entre 1807 et 1867, seulement 651 sociétés anonymes ont été autorisées en France. Il s'agissait de sociétés de capitaux héritées de l'Ancien Régime, comme la compagnie des mines d'Anzin, la compagnie des mines d'Aniche ou Saint-Gobain, ou de sociétés importantes où l'intérêt public était en cause, comme les sociétés de canaux et d'assurances, puis de chemins de fer. Les sociétés anonymes industrielles étaient par ailleurs peu nombreuses (essentiellement dans la sidérurgie et la construction mécanique). Plutôt que d'entreprises nouvelles, il s'agissait de la transformation ou du regroupement de sociétés existantes qui avaient besoin d'élargir leurs capitaux sociaux et qui avaient déjà fait la preuve de leur bonne gestion et de leur solidité. La nécessité de l'autorisation du Conseil d'État était en effet motivée par la crainte exprimée par les milieux d'affaires et les pouvoirs publics de voir se constituer de grandes entités anonymes susceptibles de mettre en péril l'épargne du public par une spéculation non contrôlée[635].

Le monde révèle ses nouvelles richesses

La cartographie

En 1889, le monde ne contient quasiment plus de régions inexplorées. En revanche il se redécouvre d’une autre manière, moins extensive et plus scientifique. « Un grand mouvement porte aujourd'hui les esprits vers l'étude de la géographie; partout les peuples civilisés s'attachent, avec une activité merveilleuse, à pénétrer les secrets de la terre ».

Cet intérêt est stimulé par la recherche plus systématique d’opportunités économiques. « Des nécessités commerciales et industrielles sans cesse plus pressantes ont contribué pour une large part à développer les voyages de reconnaissance et à leur donner en même temps un caractère moins spéculatif ». Simultanément, les explorateurs disposent de moyens techniques mieux maîtrisés pour se déplacer, mesurer les reliefs ou analyser les sols. Ils ont « trouvé dans les progrès généraux de la science, de l'instruction, des moyens de transport, un ensemble de ressources qui leur faisaient autrefois défaut ». Ils sont accompagnés par les ingénieurs, qui « ne cessent d'interroger la terre et d'en reconstituer l'histoire; la paléontologie et l'application du microscope à la pétrologie aident efficacement à connaître les masses sédimentaires ou éruptives ». Cette moisson d’informations permet de les agréger et de les représenter de manière plus spécialisée que les anciennes cartes de Cassini[636], qui faisaient référence jusque là. Ainsi, les « travaux topographiques se poursuivent sans relâche. Abandonnant les anciennes méthodes de figuré du terrain, on a recours à des procédés plus exacts et plus expressifs, à des systèmes de hachures, de courbe de niveau, d'estompage ». Les cartes se spécialisent en fonction des « nécessités diverses de la science, de l'industrie, du commerce, de l'administration, ainsi que la variété des formes sous lesquelles la statistique traduit les résultats de ses recherches ». La quantité accrue de ces travaux, conjuguée aux progrès de l’imprimerie, en fait baisser le coût d’accès et facilite ainsi la diffusion de la masse des informations collectées. « La vulgarisation des études géographiques a été singulièrement aidée par la découverte de procédés nouveaux pour la confection et la reproduction des cartes : la galvanoplastie, la zincographie, la photographie, ont rendu de précieux services  »[637].

La statistique commerciale

Boucicaut fait établir des statistiques quotidiennes de vente, par produit et par chef de rayon[638]

La monnaie

Les dépôts bancaires, aujourd’hui composante principale de la masse monétaire, restent très modestes jusqu’aux années 1870, et ne dépassent les espèces métalliques que vers 1900. En outre, ces dépôts sont très peu utilisés pour effectuer des paiements : la plupart des chèques servent à retirer du liquide du compte de leurs détenteurs, et les virements sont rares. En revanche, les effets de commerce ont un usage quasi-monétaire au sein du commerce et de l’industrie : les commerçants qui en ont reçu dans l’attente du paiement de leurs marchandises les utilisent fréquemment pour régler leurs fournisseurs. Les montants d’effets créés chaque année sont du même ordre de grandeur que la monnaie métallique dès les années 1830(...)L’instrument principal du crédit à court terme est l’effet de commerce, dont le socle juridique est encore renforcé par la Révolution, spécialement lorsqu’il est écrit sur papier timbré (c’est-à-dire vendu et taxé par l'État… et enregistré de ce fait dans les statistiques mentionnées précédemment)12. Consenti par un commerçant à son client, en général pour 60 à 90 jours, il est protégé par un privilège sur les marchandises qu’il sert à payer, et jusqu’à 1867 par le droit de faire emprisonner pour dette un débiteur récalcitrant. Il est endossable, et peut dès lors circuler aisément. Il est enfin volontiers escompté(...) Les banques se multiplient, et acquièrent peu à peu un rôle essentiel dans le financement, par la liquidité qu’elles garantissent aux détenteurs d’effets et par leur capacité à accumuler l’information sur les débiteurs et donc à les sélectionner. Au début du siècle, le système bancaire est très dispersé, et les banques ne se distinguent souvent pas des commerçants aisés employant leurs liquidités disponibles en effets de commerce. (...) La Banque de France, créée en 1800, joue très vite un rôle de refinancement du système bancaire, auquel elle accorde le réescompte d’effets (ou éventuellement des avances contre dépôt de titres choisis). (...) Le système bancaire se caractérise donc à la fin du siècle par une grande variété d’institutions : les banques locales subsistent avec difficulté face à la concurrence des établissements de dépôts sur le marché de l’escompte des effets commerciaux; les banques régionales et les banques d’affaires parisiennes soutiennent l’industrialisation en facilitant le financement à long terme; la Banque de France, tout en maintenant une activité d’escompte direct, se concentre de plus en plus sur le réescompte d'effets préalablement escomptés par des banques, sur la résolution des crises (comme en 1882 et 1889), et sur le maintien de la convertibilité métallique de la monnaie. Elle apprend ainsi son métier de Banque centrale avant d’en avoir le titre. (...) Les émissions de titres sont organisées et placées initialement par les banques, mais ce sont bien les marchés boursiers qui sont désormais au centre du crédit. En 1914, les titres cotés à la Bourse de Paris représentent une valeur équivalente à quatre fois le PNB français. C'est en Bourse que sont déterminés les taux d'intérêt sur la dette publique, véritable thermomètre du marché, mais aussi les taux à court terme, grâce au marché des reports sur les opérations à terme. C'est là que l'information est synthétisée, la liquidité produite, le crédit accordé ou refusé.(...)Dans une perspective schumpétérienne, l’innovation technologique dépend de la spéculation financière pour se diffuser, car la spéculation permet aux innovateurs, aux spéculateurs et aux banques « d’encaisser » par anticipation une partie des gains économiques qui vont résulter de l’innovation, et les pousse ainsi à se lancer sans attendre. Le processus peut se dérouler à l'échelle d'une entreprise, d'un petit secteur, ou d'une région, mais il prend une tout autre portée lors des grands mouvements nationaux (ou internationaux) comme les vagues d'investissement dans les canaux (années 1820), les chemins de fer (années 1840-60) ou l'électricité (après 1890). Devant de tels défis, le crédit s'accroît – crédit bancaire, crédit par achat de titres, crédit aux acheteurs de titres –, le tout porté par la confiance générale dans le potentiel de l'innovation[639]

L’économie repart avec une vigueur impressionnante

En 1890, la production de Singer dépasse 9 millions de machines à coudre[640] , dont l’usage se généralise dans la confection[641]. La vague d’innovations technologiques et organisationnelles, qui permet la mécanisation et la production de masse, conduit à une hausse de la productivité du travail de 2% par an[642]. Au génie de l’artisan succède la science du chercheur comme moteur du développement industriel[643]. Les industries déjà matures sont soutenues par la demande : le textile, le cuir ou les charbonnages progressent de 1 à 2,5% par an.

Dans la sidérurgie, la qualité des aciers s’améliore et leur prix baisse grâce à la large adoption des nouveaux fours Martin et des convertisseurs Bessemer. La production métallurgique sera multipliée par 3 en vingt ans[644][645], grâce à l'émergence des cycles et de l'automobile[646]. La France restera le leader mondial de ce dernier secteur jusqu'en 1910. Les nouvelles industries : la presse et l'édition, l’électricité, la trans-formation des métaux, la chimie fine, le caoutchouc atteignent quant à eux des taux de croissance annuels de 4,5% à 8,5%[647]. Dans le secteur de la construction électrique, l'industrie française qui avait pris du retard par rapport à l'Allemagne dans les années 1880, commence à la rattraper. Avec des profits massifs, les grandes entreprises deviennent des placements sûrs[648], ce qui soutient l’investissement industriel. Grâce à un fort esprit d'entreprise, les créations sont deux fois plus nombreuses que les disparitions d'entreprises[649].

La région parisienne est la première à être portée par ce dynamisme, mais pas seulement. Dans le département des Deux-Sèvres, par exemple, 53 usines sont créées dans cette décennie alors que la moyenne n’est que de 22 créations entre 1870 et 1950[650] . Les Alpes bénéficient de l'explosion de l'hydro-électricité qui permet l’implantation d'industries modernes comme l'électro-métallurgie et l'électrochimie[651]. Le commerce international se renforce, grâce au rail et aux infrastructures de transport maritime et fluvial. La mondialisation, que ne freinent pas quelques tentations protectionnistes[652], crée une interdépendance accentuée par la circulation des capitaux[653]. Le volume du commerce mondial sera multiplié par six entre 1860 et 1914.

Une classe moyenne émerge, qui s’accompagne d’un début de consommation de masse, ce qui favorise l’innovation marketing. Dans la parfumerie, des produits de grande diffusion sont mis au point, tandis qu'émerge l’industrie des cosmétiques, Roger-et-Gallet par exemple[654]. On voit apparaître les grands magasins, comme les Galeries Lafayette, créées en 1890 pour les classes modestes. Le luxe se démocratise, l'abondance de la production incite à l'achat. La presse spécialisée soutient le lancement des nouveaux produits. L’essor de la presse à grand tirage et du livre populaire fait naître une nouvelle forme de culture de masse, à la faveur d’une alphabétisation volontariste impulsée par les lois de Jules Ferry. La croissance économique provoque une amélioration des conditions de vie[655]. La mortalité infantile baisse de 30%[656] en 20 ans grâce à l'amélioration des conditions de la grossesse, à la stérilisation et à la désinfection, à la lutte contre les taudis ou à l'extension du tout-à-l'égout, rendu obligatoire en 1894. En 1900, 80 % des maisons parisiennes sont alimentées en eau potable et 53 % sont équipées de meubles de toilette[657]. L’espérance de vie augmente de six mois tous les ans[658]. Les conditions de travail sont meilleures et le temps de travail est limité à 8 heures. Les salaires des ouvriers deviennent comparables à ceux des employés de la fonction publique[659] . Malgré l’inflation, le niveau de vie des classes populaires s’accroît de plus de 1% par an. La consommation de pain baisse au profit des viandes, des laitages et des produits maraîchers[660], même dans les familles ouvrières[661]. La part de l'alimentation dans le budget des français se réduit au profit de celle des vêtements. De nombreux magasins se spécialisent dans le vêtement à la fois élégant et bon marché. Les « trains de plaisir » qui emmènent les Parisiens aux bains de mer sont un succès populaire dès 1890[662]. Ainsi, pendant toute cette période, l’économie et les conditions de vie s’améliorent de manière considérable.

En 1900, la France est à l’apogée de son rayonnement dans le monde

L’électricité est sacrée reine de l’exposition universelle de 1900. Paris, « Ville Lumière », est la « capitale électrique » du monde. Les attractions les plus populaires sont la fontaine lumineuse, la première ligne du métropolitain, le cinématographe des frères Lumière, le trottoir roulant, qui circule à 8 km/h sur plus de 3 km, l’éclairage nocturne et les fêtes de la lumière, qui sont aussi un hommage au siècle des Lumières[663] . Et sur-tout le Palais de l’Electricité, « au faîte duquel la statue de l’Électricité haute de plus de 6 mètres, debout sur un char traîné par des hippogriffes, s’appuyait sur une radieuse étoile. Elle dominait superbement tous les palais où s’étendait sa domination et semblait convier le monde à son triomphe»[664] .

Cette exposition est un énorme succès. Presque toutes les têtes couronnées d'Europe s'y pressent. Elle est le reflet de la nouvelle force de la France et la vitrine d'un Paris modernisé[665] . 83.000 exposants sont présents et on comptera 50 millions de visiteurs, soit 2 personnes sur 100 dans le monde ! La capitale est à la pointe de la technologie[666] . Toutes ces extraordinaires inventions, que montre l’Exposition universelle de 1900, entraînent une confiance dans la science. Les Français de la Belle Époque ont le sentiment d’avoir réalisé d’immenses progrès[667]. La « fée électricité » porte la promesse d’un monde plus agréable. Emile Zola anticipe ses bienfaits dans Travail : « Le jour doit venir où l’électricité sera à tout le monde comme l’eau des fleuves, comme le vent du ciel. Tu la retrouveras partout, la grande et souveraine énergie, sans laquelle tant de rapides progrès n’auraient pu s’accomplir. […] Dans tous les édifices publics, dans toutes les maisons privées, mêmes les plus modestes, on distribuait sans compter la lumière, la chaleur, le mouvement. Il suffisait de tourner des boutons, et la maison s’éclairait, se chauffait, la cuisine se faisait, les diverses machines se mettaient en marche. »

L'industrie parisienne propose donc l'image d'une éclatante modernité. Elle est complémentaire d'une industrie produisant des articles de luxe, qui allient la modernité en restant fidèle à ses traditions. La supériorité des articles parisiens, aussi bien dans la haute couture que dans la confection, reste peu contestée malgré le développement de la confection en atelier. La société parisienne évite les excès du modèle de consommation de masse standardisé de type américain[668] . Les arts décoratifs et l'art nouveau sont à l'honneur. En peinture, l'Impressionisme triomphe[669]. Des artistes viennent de partout et se rencontrent dans les cafés et les parcs[670]. Paris devient ainsi la « capitale des arts et des lettres », qui consacre les créateurs du monde entier[671] .

Avec le développement du train et des bateaux à vapeur, l’émergence de Paris comme principale destination, mais aussi la côte Normande en été et la Riviera en hiver, une activité jusqu'ici inconnue prend son essor : le tourisme moderne. Théâtres, hôtels, restaurants emploient un personnel croissant, stimulent le bâtiment, l'industrie du meuble. Le commerce de luxe, haute couture, parfumerie, grands vins et œuvres d’art sont autant d'exportations invisibles.

Les progrès ne sont pas pour autant débridés. Ce qui frappe le plus dans la conception des réseaux techniques parisiens c'est la volonté de préserver l'environnement et de créer un cadre de vie agréable. La lutte contre l'insalubrité est devenue prioritaire. Les locomotives à vapeur et les fils aériens sont refusés. Des jardins et des parcs sont sauvegardés et aménagés[672].

Apparaît l'image mythique d'une France heureuse, dont l'harmonie des conditions naturelles, le génie de son peuple et le « bon goût » rendent les produits indispensables, même s'ils sont plus chers[673] . Jamais le monde n'a tant regardé vers Paris.

La confiance est recouvrée. L'économie paraît à nouveau capable de rendre à la France son rang et de refaire le retard accumulé au cours des années difficiles[674] . Le nouveau siècle s'ouvre dans une atmosphère d'opulence, de calme et de sécurité, qui entrera dans l'Histoire sous le nom de « Belle Epoque »[675].

La fin du XIXème siècle nous parle d’aujourd’hui

L'homme instrumenté

Les révolutions industrielles réinventent toutes les composantes de l’instrumentation (pour lesquelles les révolutions précédentes ont beaucoup recyclé les racines grecques) : instrumentation de mesure (chronomètre, manomètre), d’observation (téléscope, otoscope), de représentation (radiographie, cartographie), de la pensée (géologie, cardiologie) ou d’action (machines). Cet alliage peut être celui de l’ homme instrumenté (le capitaine Nemo devant le tableau de commande du Nautilus) ou instrumentalisé (Charlie Chaplin dans les Temps Modernes).

L’instrument mécanique a provoqué l’alliage de la « personne mécanique » physiquement plus forte (vapeur), rapide (bicyclette), automatique (machine-outil). En remplaçant les tâches physiques répétitives (moisson), il a valorisé les compétences intellectuelles et développé des valeurs comme la rationalité (organisation), la productivité (taylorisme) et la protection (paternalisme).

L’instrument informatique provoque l’alliage (Michel Volle, Les valeurs de l'Iconomie 2016) de la « personne informatisée » (p.22) mentalement plus forte (pilotage p.29), rapide (calcul p.140), automatique (sudoku p.31). En remplaçant toutes les tâches répétitives, il valorise les compétences créatives et relationnelles (p.164) et développe des valeurs comme le réalisme (p.207), l’efficacité (p.208) et la considération (p.209).

A la fin du XIXème siècle, toute grandeur physique est mesurée, et les progrès scientifiques laissent penser que la nature sera bientôt entièrement domestiquée par la science, comme en rêvait déjà Jules Verne vingt ans plus tôt dans Vingt mille lieues sous les mers: « Monsieur, dit le capitaine Nemo, me montrant les instruments suspendus aux parois de sa chambre, voici les appareils exigés par la navigation du Nautilus. Ici comme dans le salon, je les ai toujours sous les yeux, et ils m’indiquent ma situation et ma direction exacte au milieu de l’Océan. Les uns vous sont connus, tels que le thermomètre qui donne la température intérieure du Nautilus ; le baromètre, qui pèse le poids de l’air et prédit les changements de temps ; l’hygromètre, qui marque le degré de sécheresse de l’atmosphère ; le storm-glass, dont le mélange, en se décomposant, annonce l’arrivée des tempêtes ; la boussole, qui dirige ma route ; le sextant, qui par la hauteur du soleil m’apprend ma latitude ; les chronomètres, qui me permettent de calculer ma longitude ; et enfin des lunettes de jour et de nuit, qui me servent à scruter tous les points de l’horizon, quand le Nautilus est remonté à la surface des flots.

— Ce sont les instruments habituels au navigateur, répondis-je, et j’en connais l’usage. Mais en voici d’autres qui répondent sans doute aux exigences particulières du Nautilus. Ce cadran que j’aperçois et que parcourt une aiguille mobile, n’est-ce pas un manomètre ?

— C’est un manomètre, en effet. Mis en communication avec l’eau dont il indique la pression extérieure, il me donne par là même la profondeur à laquelle se maintient mon appareil.

— Et ces sondes d’une nouvelle espèce ?

— Ce sont des sondes thermométriques qui rapportent la température des diverses couches d’eau.

— Et ces autres instruments dont je ne devine pas l’emploi ?

— Ici, monsieur le professeur, je dois vous donner quelques explications, dit le capitaine Nemo. Veuillez donc m’écouter. »

Il garda le silence pendant quelques instants, puis il dit :

« Il est un agent puissant, obéissant, rapide, facile, qui se plie à tous les usages et qui règne en maître à mon bord. Tout se fait par lui. Il m’éclaire, il m’échauffe, il est l’âme de mes appareils mécaniques. Cet agent, c’est l’électricité."[676].

Le XXème siècle a permis l'avènement du rêve de Jules Verne : domestiquer la nature matérielle grâce à la mesure de ses grandeurs physiques. Ce rêve s'est incarné dans le tableau de bord de nos voitures, dans le poste de pilotage des avions et dans les salles de contrôle des centrales nucléaires. La nature en a été profondément transformée : les vallées ont été enjambées par des ponts, les montagnes percées par des tunnels, les fleuves endigués, les gratte-ciels ont défié la gravité. Les épidémies sont devenus rares, l'agriculture est davantage menacée par la surproduction que par les maladies végétales.

Le XXIème siècle promet l'avènement d'un nouveau rêve : domestiquer la nature immatérielle grâce à la mesure de ses grandeurs sensibles. En empruntant le sens de l'anticipation à Jules Verne, nous pouvons imaginer que l'analyse des données massives nous permettra prochainement de mesurer l'utilité de chaque production dans toutes ses composantes économiques, sociales et environnementales.

Les Compagnies de voitures publiques[677]

Disparition d'un monde ancien

Qui ne se souvient de ce fiacre monumental, de ce sapin, qui cahotait dans Paris aux jours de notre enfance ? On y montait par un marchepied de fer à six étages ; on s’installait tant bien que mal dans la boîte incommode couverte d’un velours d’Utrecht jaune, piquant comme un paquet d’aiguilles ; sous les pieds s’amoncelait une litière de paille qui ressemblait bien à du fumier, sentait le moisi et tenait les pieds humides ; les portières ne fermaient pas ; les vitres étaient cassées et portaient ... sur le cristallin une taie en papier.

Le cocher, toujours grognon, vêtu d’un carrick crasseux à sept collets, la tête enfouie sous un lourd bonnet de laine que coiffait un chapeau déformé, les pieds enfoncés dans de larges sabots, escaladait son siège après avoir allumé sa pipe, et il fouaillait ses rosses, qui flottaient dans les harnais, raccommodés avec des ficelles. On partait quelquefois, on n’arrivait pas toujours. Balançant leur tête amaigrie, remuant une queue dénudée, les chevaux s’ébranlaient au tout petit trot, mâchant un brin de foin resté fixé à leurs lèvres pendantes, et faisaient rouler cahin-caha la lourde machine, qui heurtait les pavés pointus avec un bruit de ferraille peu rassurant. Quand on était pressé, il était plus sage d’aller à pied. Si un de ces vieux fiacres qui nous reconduisaient jadis au collège apparaissait tout à coup dans les rues de Paris, il aurait son heure de célébrité, car il représenterait pour les voitures un spécimen antédiluvien des espèces disparues.

Fiacre moderne

Aujourd’hui le fiacre, qu’il soit à deux ou à quatre places, est une voiture bien construite, peu élevée au-dessus du sol, garnie intérieurement de drap bleu, close, légère, attelée de chevaux qui se reposent au moins un jour sur deux, conduite par un cocher uniformément vêtu, portant son numéro sur la caisse et sur les lanternes, lavée et brossée une fois en vingt-quatre heures, et qui offre sinon un grand luxe, du moins un comfortable suffisant. Si l’on rencontre encore par-ci par-là des rôdeurs menant, une voiture écaillée, sale, dont la tenture est déchirée, la caisse bossuée et les harnais déchiquetés, soyez persuadé que ce véhiculé dégradé n’appartient pas à la Compagnie générale. Cette dernière en effet, malgré la libre concurrence, se regarde encore, et avec raison, comme chargée de subvenir spécialement aux besoins du public parisien ; aussi n’épargne-t-elle point ses efforts pour tenir en bon état un matériel chaque jour usé et détérioré par un service que rien ne ralentit, et qui devient de plus en plus étendu.

Organisation et pointage

Son personnel, qui est presque une petite armée, se compose de 6,815 agens de tout rang et de toute fonction [3]. Lorsqu’un cocher charge à la place ou sur la voie publique, il doit inscrire sur sa feuille l’heure, le point de départ, le point d’arrivée ; à chaque station, il fait viser ce bulletin par l’inspecteur. Le soir, lorsqu’il rentre au dépôt, il remet entre les mains d’un agent spécial sa feuille et le gain de la journée, après avoir prélevé les 4 francs qui constituent actuellement son salaire quotidien ; puis il va se coucher où il veut, à son domicile, s’il est marié, le plus souvent dans un garni, s’il est célibataire.


Services support

Les laveurs s’emparent alors de sa voiture, couverte de poussière ou de crotte ; ils l’aspergent à grande eau, la brossent, la fourbissent rapidement et la remisent à son numéro d’ordre ; pendant ce temps, les palefreniers détellent les chevaux, les lavent, les étrillent, les bouchonnent, les attachent au râtelier sur une litière abondante, et les mettent à même de réparer leurs forces épuisées par la fatigue. Le lendemain matin, à l’heure réglementaire, lorsque le cocher arrive, il trouve ses chevaux pansés, nourris, attelés, sous des harnais propres, à une voiture nettoyée. Avant qu’il ne parte, un maréchal ferrant a visité les pieds de ses chevaux ; un charron a examiné avec soin les roues, les ferremens, a frappé sur les essieux, a tâté les écroux de la voiture, et un vitrier a vérifié si les glaces ne sont point cassées. Le cocher va chercher sa feuille, il monte sur son siège et se rend à la station de son choix. Et tous les jours il en est ainsi.

Intégration verticale

La Compagnie générale construit elle-même ses voitures ; elle achète le bois en grume, le fer en barres, le cuir en tas. Dans ses immenses ateliers de carrosserie, où les scies à vapeur et les marteaux-pilons ne sont jamais en repos, on se hâte, on se presse afin que les voitures mises au rebut soient remplacées sans que le public ait jamais à souffrir de retard ; on tresse les licous, on taille les caparaçons, on rembourre les coussins, on coud les passementeries ; c’est un monde d’ouvriers qui s’agite et pousse annuellement sur le pavé de Paris plus de 500 voitures neuves, estimées en moyenne 1,007 fr. 66 cent. Le chêne, l’érable, l’orme, le sapin et le peuplier sont les essences généralement utilisées par le charronnage et la carrosserie. Quelle est la durée de la vie moyenne d’une de ces voitures surmenées, et qui semblent toujours errantes comme des âmes en peine ? Dix ans au moins, douze ans au plus.

Le client au centre

Malgré la quantité considérable de voitures qui se meuvent dans Paris, les accidens sont relativement rares et ne sont presque jamais irréparables. En 1866, sur les 4,500 voitures qu’elle possédait, la Compagnie générale en a mis en circulation 3,200, qui ensemble ont fait 1,178,088 journées de travail. On voit que le repos est rare pour les chevaux et les cochers, et que ce n’est pas tout plaisir que d’être à la disposition d’un maître aussi pressé, aussi multiple, aussi exigeant que le public parisien.


Grève de 1889

Les cochers, qui travaillent 365 jours par an, réclament deux jours de repos par mois, une baisse des horaires, un salaire fixe et, sinon, la baisse du prix de location journalière de la voiture, la "moyenne".

Quelques cochers devaient demander une audience au ministre de l'intérieur pour l'entretenir de la situation fâcheuse faite à la corporation par l'élévation excessive des moyennes par les diverses compagnies[678].
Pendant ce temps-là, que faisaient les cochers ? Ils exécutaient leur plan de la veille. dans les rues, presque pas d'Urbaine, très peu de fiacres de la Compagnie Générale ; le public se rabattit sur les fiacres de petits loueurs qui circulaient encore[679].

Ces "loueurs" sont des indépendants, auxquels les cochers reprochent aussi de provoquer l'augmentation de cette moyenne.

Ceux-ci ne demanderait "pas mieux que de travailler, mais nous ne voulons pas nous exposer à voir détruire ou détériorer notre matériel. La perte serait trop grande pour nous." Au coin de l'avenu Wagram et du faubourg Saint Honoré, boulevard de Courcelles et dans divers quartiers, des voitures ont été renversées par les grévistes. [680]

L'économie au compteur

Le ministre a réuni hier les délégués des cochers et les principaux, dans cette réunion, les cochers ont pu exposer leurs prétentions, fixant un tarif maximum de 20 Fr. pendant la durée de l'exposition. On fait observer que le tarif est une chose journalière et que la moyenne varie nécessairement. Elle doit être élevée en ce moment et diminuer en hiver. Un des loueurs, déclarant qu'elle s'était abaissée en janvier à 12 Fr., chiffre auquel il est en perte, il faut que cette perte soit compensée plus tard. Les cochers contestant qu'il y ait perte, même au prix de 12 ans, on n'a pu s'entendre sur ce point. Sur un autre point, on a pu s'entendre : c'est sur celui de l'établissement d'un salaire proportionnel du moment qu'un compteur serait établi. Quand à un salaire fixe, les patrons le repoussent absolument. Mais cet idéal, ce Phœnix, le compteur modèle, n'est pas encore trouvé. Le ministre en a fait expérimenter un qui lui était recommandé particulièrement, et sur 8 km il s'est trompé de 2600 m (on rit)[681].

Le Bonheur des Dames et l'Ubérisation

Le Bon Marché

Un nouvel acteur s'invite dans une filière en tant que plate-forme de marché à services ajoutés. L'ubérisation est une forme moderne des grands magasins. Dès 1869, Le Bon Marché s'impose face aux petits commerces indépendants. Il organise la mise en relation d'une gamme d'offre élargie et d'une clientèle nombreuse, séduite par une expérience d'achat inédite : elles peuvent toucher les produits, et même les essayer. Cet endroit est conçu pour elles : on offre des cadeaux aux enfants, on retrouve des amies, on flâne sans nécessité de consommer, on s'observe, toutes classes sociales mêlées[682].

Ce nouveau mode de consommation réinvente le marketing, la publicité, les codes sociaux : mode saisonnière, soldes, vente par correspondance, satisfait ou remboursé, renouvellement des stocks. Le mythe de la "Parisienne" élégante, séduisante, indépendante fait rêver. Les équipes se féminisent, les femmes affluant de la France entière pour postuler comme vendeuse. Les épouses osent sortir de chez elles sans leur mari. Fait nouveau pour elles, une part du budget familial leur est dévolue, leur permettant une certaine indépendance économique et sociale[683].

Emile Zola décrit dans le détail les mécanismes du grand magasin, qui met en oeuvre toutes les innovations de son époque : marketing, mais aussi financière, architecturale ou électrique.

La cliente au centre

"C’était la femme que les magasins se disputaient par la concurrence, la femme qu’ils prenaient au continuel piège de leurs occasions, après l’avoir étourdie devant leurs étalages. Ils avaient éveillé dans sa chair de nouveaux désirs, ils étaient une tentation immense, où elle succombait fatalement, cédant d’abord à des achats de bonne ménagère, puis gagnée par la coquetterie, puis dévorée. En décuplant la vente, en démocratisant le luxe, ils devenaient un terrible agent de dépense, ravageaient les ménages, travaillaient au coup de folie de la mode, toujours plus chère. Et si, chez eux, la femme était reine, adulée et flattée dans ses faiblesses, entourée de prévenances, elle y régnait en reine amoureuse, dont les sujets trafiquent, et qui paye d’une goutte de son sang chacun de ses caprices"[684].

L'innovation financière

"Notre effort unique est de nous débarrasser très vite de la marchandise achetée, pour la remplacer par d’autre, ce qui fait rendre au capital autant de fois son intérêt. De cette manière, nous pouvons nous contenter d’un petit bénéfice ; comme nos frais généraux s’élèvent au chiffre énorme de seize pour cent, et que nous ne prélevons guère sur les objets que vingt pour cent de gain, c’est donc un bénéfice de quatre pour cent au plus ; seulement, cela finira par faire des millions, lorsqu’on opérera sur des quantités de marchandises considérables et sans cesse renouvelées[685].
"sa situation, au Bonheur des dames, comme celle de tous les chefs, ses collègues, se trouvait être celle d’un commerçant spécial, dans un ensemble de commerces divers, une sorte de vaste cité du négoce"[686].

L'innovation architecturale

"Partout on avait gagné de l’espace, l’air et la lumière entraient librement, le public circulait à l’aise, sous le jet hardi des fermes à longue portée. C’était la cathédrale du commerce moderne, solide et légère, faite pour un peuple de clientes"[687].


L'innovation technique

"dans ce jour mal éteint encore, s’allumaient, une à une, des lampes électriques, dont les globes d’une blancheur opaque constellaient de lunes intenses les profondeurs lointaines des comptoirs. (...) Puis, lorsque toutes brûlèrent, il y eut un murmure ravi de la foule, la grande exposition de blanc prenait une splendeur féerique d’apothéose, sous cet éclairage nouveau"[688].


Emile Zola s'émeut aussi des maux qu'apporte avec lui le Bonheur des Dames : la ruine des uns, la précarité des autres.

La ruine du vieux commerce

"Si l’ancien commerce, le petit commerce agonisait, c’était qu’il ne pouvait soutenir la lutte des bas prix, engagée par la marque. Maintenant, la concurrence avait lieu sous les yeux mêmes du public, une promenade aux étalages établissait les prix, chaque magasin baissait, se contentait du plus léger bénéfice possible ; aucune tricherie, pas de coup de fortune longtemps médité sur un tissu vendu le double de sa valeur, mais des opérations courantes, un tant pour cent régulier prélevé sur tous les articles, la fortune mise dans le bon fonctionnement d’une vente, d’autant plus large qu’elle se faisait au grand jour"[689].
"Chaque fois que le Bonheur des dames créait des rayons nouveaux, c’étaient de nouveaux écroulements, chez les boutiquiers des alentours. Le désastre s’élargissait, on entendait craquer les plus vieilles maisons. Mlle Tatin, la lingère du passage Choiseul, venait d’être déclarée en faillite ; Quinette, le gantier, en avait à peine pour six mois ; les fourreurs Vanpouille étaient obligés de sous-louer une partie de leurs magasins. (...) Les marchands de meubles, plus calmes, affectaient de plaisanter ces calicots qui se mêlaient de vendre des tables et des armoires ; mais des clientes les quittaient déjà, le succès du rayon s’annonçait formidable. C’était fini, il fallait plier l’échine : après ceux-là, d’autres encore seraient balayés, et il n’y avait plus de raison pour que tous les commerces ne fussent tour à tour chassés de leurs comptoirs. Le Bonheur seul, un jour, couvrirait le quartier de sa toiture"[690].
"Le silence recommençait, plus sinistre, et un nouvel écroulement retentissait, puis un autre, puis un autre : les Robineau, les Bédoré et sœur, les Vanpouille, craquaient et s’écrasaient chacun à son tour, le petit commerce du quartier SaintRoch s’en allait sous une pioche invisible, avec de brusques tonnerres de charrettes qu’on décharge. Alors, un chagrin immense l’éveillait en sursaut. Mon Dieu ! que de tortures ! des familles qui pleurent, des vieillards jetés au pavé, tous les drames poignants de la ruine ! Et elle ne pouvait sauver personne, et elle avait conscience que cela était bon, qu’il fallait ce fumier de misères à la santé du Paris de demain"[691].
le Vieil Elbeuf était fermé, muré ainsi qu’une tombe, derrière les volets qu’on n’enlevait plus ; peu à peu, les roues de fiacres les éclaboussaient, des affiches les noyaient, les collaient ensemble, flot montant de la publicité, qui semblait la dernière pelletée de terre jetée sur le vieux commerce ; et, au milieu de cette devanture morte, salie des crachats de la rue, bariolée des guenilles du vacarme parisien, s’étalait, comme un drapeau planté sur un empire conquis, une immense affiche jaune, toute fraîche, annonçant en lettres de deux pieds la grande mise en vente du Bonheur des dames. On eût dit que le colosse, après ses agrandissements successifs, pris de honte et de répugnance pour le quartier noir, où il était né modestement, et qu’il avait plus tard égorgé, venait de lui tourner le dos, laissant la boue des rues étroites sur ses derrières, présentant sa face de parvenu à la voie tapageuse et ensoleillée du nouveau Paris."[692]


La précarité des emplois

"les vendeurs acceptaient leur situation précaire, sous le fouet de la nécessité et de l’habitude. Depuis leur débarquement à Paris, ils roulaient sur la place, ils commençaient leur apprentissage à droite, le finissaient à gauche, étaient renvoyés ou s’en allaient d’eux-mêmes, tout d’un coup, au hasard de l’intérêt. L’usine chômait, on supprimait le pain aux ouvriers ; et cela passait dans le branle indifférent de la machine, le rouage inutile était tranquillement jeté de côté, ainsi qu’une roue de fer, à laquelle on ne garde aucune reconnaissance des services rendus. Tant pis pour ceux qui ne savaient pas se tailler leur part !"[693]
"depuis son entrée au Bonheur des dames, elle était surtout blessée par le sort précaire des commis ; les renvois brusques la soulevaient, elle les trouvait maladroits et iniques, nuisibles à tous (...)Était-ce humain, était-ce juste, cette consommation effroyable de chair que les grands magasins faisaient chaque année ?"[694]


La mondialisation

"Il en gardait une rancune, il voyait en Robineau l’instrument d’une bataille décisive, livrée à ces bazars des nouveautés, qu’il accusait de ruiner la fabrication française"[695]

Utopies

Parfois, elle s’animait, elle voyait l’immense bazar idéal, le phalanstère du négoce, où chacun aurait sa part exacte des bénéfices, selon ses mérites, avec la certitude du lendemain, assurée à l’aide d’un contrat. Mouret alors s’égayait, malgré sa fièvre. Il l’accusait de socialisme, l’embarrassait en lui montrant des difficultés d’exécution(...) il l’écoutait en la plaisantant, le sort des vendeurs était amélioré peu à peu, on remplaçait les renvois en masse par un système de congés accordés aux mortes-saisons, enfin on allait créer une caisse de secours mutuels, qui mettrait les employés à l’abri des chômages forcés, et leur assurerait une retraite. C’était l’embryon des vastes sociétés ouvrières du vingtième siècle."[696]

De nombreux parallèles

Sur de nombreux points, le portrait de la France d’aujourd’hui ressemble à celui de 1889 : un climat politique lourd ; une défiance généralisée contre les pouvoirs du gouvernement, de l’argent, du patronat, de la presse ; une succession de scandales qui nous indignent ; une série de krachs qui se propagent à toutes les bourses du monde puis à l’économie réelle; la faillite de grandes banques d’affaires ; la défaillance en domino d’États comme la Grèce; l’invasion commerciale massive par les puissances émergentes ; l’éclosion d’empires industriels étrangers qui défient nos ateliers ou usines ; la faiblesse de nos exportations; une fuite de capitaux qui s’investissent en dehors de notre territoire ; une tentative de relance par l’investissement qui se solde par un budget intenable et finalement par des plans de rigueur ; une dette nationale qui culmine à plus de 85% du PIB ; un décrochage de compétitivité en comparaison de l’Allemagne ; la grimpée irrépressible du chômage et de la misère ; un climat social délétère qui oppose les classes entre elles ; une envie de révolte qui soulève les populismes de tous bords ; la peur sourde des attentats terroristes ; le sentiment que nos fierté et identité nationales se sont perdues, que notre destin nous échappe.

Tout observateur de la vie économique constate tous les jours que les menaces sont innombrables et que notre avenir semble avoir été largement hypothéqué pendant les 30 dernières années. Pourtant, le scénario d’un rebond économique est toujours possible malgré ces difficultés, pour les raisons suivantes :

  1.  En 1889, notre pays souffre d’une crise multiple : boursière, économique, de surendettement, de compétitivité, politique, sociale et identitaire, encore plus lourde que celle que nous traversons actuellement. Pourtant, grâce à la puissance de l’innovation, notre pays se retrouve à l’apogée de sa prospérité et de son rayonnement dans le monde en seulement dix ans. Notre économie dispose ainsi d’un précédent historique de rebond par l’innovation.
  2. Ce rebond historique est provoqué par l’arrivée à maturité de nouvelles technologies : métallurgie fine, chimie fine, photographie, moteurs, électricité, etc. De même aujourd’hui, les technologies matures abondent surtout dans les technologies de l’information, de la connaissance et des communications, mais aussi dans les biotechnologies, les nouveaux matériaux, la chimie verte et les technologies pour l’environnement, les énergies renouvelables, les nouvelles technologies pour les transports, le bâtiment et la santé, etc.
  3. En 1889, l’innovation est catalysée par l’Exposition Universelle, lieu d’échange des idées, des connaissances, des bonnes pratiques. Aujourd’hui, le web 2.0 entretient non seulement un niveau spectaculaire d’échanges et de discussions, mais il facilite et enrichit de plus les rencontres physiques, agrège et diffuse les savoirs, identifie les talents et organise les collabo-rations.
  4. En 1889, la vague des innovations modernise tous les secteurs économiques. Par exemple la confection se mécanise avec la machine à coudre, l’alimentation s’approprie le froid artificiel, les grands magasins codifient la distribution et l’agriculture utilise les engrais. De même aujourd’hui, l’audiovisuel se diversifie, l’imagerie médicale améliore les soins, le commerce en ligne ouvre de nouveaux débouchés, la publicité se réinvente, etc.
  5. En 1889, de nouveaux secteurs prometteurs apparaissent autour de la photographie, l’électricité ou la pétro-chimie. Aujourd’hui, les émergences foisonnent avec les nanomatériaux, les matériaux intelligents, l’ingénierie des systèmes complexes, la dépollution, les technologies de l’hydrogène, la mécatronique, la photonique, la robotique mobile, etc.
  6.  Aujourd’hui comme en 1889, la mémoire des drames humains provoqués par la crise entretient le sentiment de la responsabilité sociale et environnementale pour maîtriser le pro-grès ce qui, en retour, est aussi générateur de croissance.
  7.  En 1889, la France est déjà l’héritière d’un art de vivre particulier, né à la Renaissance, mais dont elle industrialise les produits au travers du luxe, de la mode, de la gastronomie, de l’architecture ou du tourisme. De même aujourd’hui, la rencontre féconde de notre culture et de la plus grande modernité est porteuse d’une effervescence d’innovations, dont la vente privée est un des exemples.
  8.  En 1889, l’innovation est portée par un regain d’esprit entrepreneurial, mesurable par les créations d’entreprises ou le nombre de brevets. Aujourd’hui, cet esprit revient avec force et se constate avec le succès de l’auto-entrepreneuriat, la multiplication des réseaux professionnels et des formations à l’entrepreneuriat, ou encore la vocation d’emblée internationale des entrepreneurs.
  9. En 1889, la cartographie modélise le monde à partir de ses mesures géographiques, géologiques, hydrographiques ou paléontologiques. Aujourd’hui, le nouveau monde en cours de cartographie est celui de la connaissance, qui révèle progressivement des gisements de talents, de supports pédagogiques, de connaissances, de modèles économiques, d’aides à la décision, de visibilité sur les infrastructures et l’environnement. Les nouvelles mesures sont fournies par le big data et l'internet des objets.
  10.  Le monde qui vient est porté par des tendances sociétales fortes comme le souci de l’environnement, la demande de santé, l’arrivée d’un milliard de nouveaux consommateurs, une nouvelle gestion de la connaissance et du travail. La France est particulièrement bien dotée dans ce nouveau monde grâce à ses talents, son attractivité, son rayonnement, sa puissance industrielle dans le luxe, la santé ou les infrastructures.

Crise, métamorphose, prospérité

Les révolutions industrielles progressent par phases :

  • Tout d’abord, une période d’installation, marquée par la spéculation, l’explosion de nouvelles technologies et la prédominance du capital financier. Cette phase est souvent caractérisée par l’émergence de bulles financières qui fournissent le capital nécessaire aux nouvelles infrastructures pour se développer et se déployer
  • une phase de transition et de transformation, souvent caractérisée par une instabilité économique et politique et par l’éclatement des bulles spéculatives.
  • puis, une période de déploiement, âge d’or économique et social porté par une adoption de la nouvelle technologie par tous les pans de l’économie et par un État plus actif.

Cette théorie s’applique également à la révolution numérique en marche depuis 40 ans : à ce jour, un nombre encore restreint de secteurs économiques (essentiellement des secteurs « immatériels ») ont réellement connu une transformation digitale. Nous serions donc au point de bascule de l’ère numérique : de l’éclatement récent des bulles spéculatives devrait naître une période prospère. Cette dernière sera marquée par la diffusion du numérique dans l’économie réelle, générant des gains de productivité et de nouveaux gisements de valeur. Contrairement à l’informatique et à l’Internet, dont la diffusion se limitait au « non physique », les objets connectés vont permettre au numérique de conquérir le dernier territoire sur lequel il n’avait encore d’emprise : le monde réel, celui des produits et du tangible.

Les travaux de Carlota Perez nous éclairent sur un autre aspect des révolutions technologiques : la période de déploiement d’une technologie s’accompagne systématiquement d’une transformation radicale de la société. Ainsi, au cours du XXe siècle, l’ère de la production de masse dans les pays occidentaux a été marquée par l’avènement d’une classe moyenne qui a permis le développement d’une société de consommation, où « bien-être » rimait avec « possession ». Or, la société de l’ère du numérique reste encore à inventer. On voit cependant se dessiner certaines exigences : davantage de liberté dans l’organisation du temps et des activités professionnelles, moins d’attachement à la possession de biens matériels, plus d’attention pour la durabilité. Michael Porter voit également dans les objets connectés une opportunité de répondre aux grands enjeux sociétaux, parce qu’ils permettront des avancées considérables en terme d’efficacité, de sécurité et de qualité tout en préservant les ressources de notre planète[697]

Le tissu économique français face aux nouveaux usages[698]

Une révolution industrielle se déroule en deux temps. D'abord la maturation des techniques, jusqu'à ce qu'elles soient facilement implémentables, puis la multiplication des usages. Aujourd'hui, à la vague informatique des années 80 succède un tsunami numérique des usages - nouvelles façons de travailler et de consommer, nouveaux modèles d'affaire - que l'informatique a rendu possibles. Les enjeux ne sont donc pas de donner un coup de jeune à des vieux business models, mais à inventer de nouveaux usages.

La force de la concurrence monopolistique

Or il s'avère que l'entreprise qui invente le produit qui permet un nouvel usage va se créer un petit monopole sur ce produit : le marché obéit en effet au régime de la concurrence monopolistique.

Ce régime est illustré par le commerce de proximité ou la vente de glaces sur une plage. Lorsque deux glaciers s'installent aux deux extrémités d'une plage, chacun est en situation de monopole de son côté : les vacanciers ne traverseront pas toute la plage pour acheter une glace de l'autre côté. En revanche, ceux qui sont au milieu iront chez le moins cher des deux : il y a donc aussi une zone de concurrence.

Ce régime est celui de l'économie informatisée. Sur le marché des systèmes d'exploitation, par exemple, Microsoft est concurrencé par Apple, Google, Linux. Pourtant, ces leaders sont en situation de monopole sur une grande partie de leurs marchés. Il en est de même pour les plate-formes comme Facebook, Amazon ou Uber. Ces situations de monopole leur permettent dès lors d'intégrer une chaîne de valeur complète, de la production à la relation avec le client. Fondée autant sur les usages que sur les technologies, la troisième révolution industrielle redéfinit ainsi entièrement le paysage concurrentiel.

Nos faiblesses

Dans ce contexte, la France présente des faiblesses. Premièrement, son tissu économique et sa croissance sont organisés autour des grands groupes du CAC 40. Or, ceux-ci ont du mal à imaginer des usages qui ne soient pas centrés autour de leur propre industrie. Deuxièmement, notre culture de l'innovation est principalement orientée vers la technologie, ce que soulignait avec justesse le Rapport Morand dès 2009. BPI France traîne encore par exemple le lourd héritage de l'ancienne ANVAR, agence de valorisation de la recherche, et non des usages. Troisièmement, tandis que la croissance des champions américains est financée par du capital-risque, les carences de notre modèle de financement contraint nos champions nationaux BlaBlaCar ou Criteo à chercher leurs capitaux outre-atlantique.

Nos atouts

Notre pays dispose néanmoins d'atouts solides. La formation des ingénieurs les dispose une multi-disciplinarité appréciée dans les filières fertiles en nouveaux usages. Pour les data sciences, il est par exemple nécessaire de combiner une base académique sur les statistiques, des modèles émergents comme le machine learning, ainsi que la pratique de l'informatique. Il en est de même pour l'économie collaborative ou les objets connectés, dans lesquels nos startups sont particulièrement prometteuses. Notre histoire porte d'ailleurs la marque de cette innovation à la française. Le cinématographe s'appuie sur l'usage des techniques de la pellicule photo d'Eastman et de la machine à coudre de Singer, tous deux américains. Les industries automobile et aéronautique, dont la France a été le pionnier, ont été fondées sur l'usage des moteurs à explosion allemands. La carte à puce de Roland Moreno était un usage original du micro-processeur. Il s'avère de plus que les inventions d'usages ont été consacrées en 2012 par la guerre des brevets, gagnée par Apple contre Samsung. Les brevets clés, valorisés en milliards de dollars, étaient en effet des brevets d'usage, par exemple la fonctionnalité de zoom en écartant deux doigts. Enfin, les organismes publics disposent de grandes bases de données dont l'Etat peut décider de mettre le contenu à la disposition du public pour le valoriser au travers de nouveaux usages. On souligne souvent le retard français, mais quelques initiatives vont indéniablement dans la bonne direction :

  • le Crédit d'Impôt Recherche a été complété en 2013 par un Crédit d'Impôt Innovation, qui l'ouvre au soutien de quelques innovations d'usage
  • les plans Big Data et Open data, destinés à valoriser les données publiques par les usages, on été lancés dès 2011
  • France Brevets et le Fonds souverain de brevets, dotés de 200 millions d'euros pour acquérir des inventions françaises, sont soumis à des obligations de rentabilité, ce qui va mécaniquement les orienter vers les brevets d'usage

Ces initiatives dessinent une politique économique orientée vers l'Iconomie, dans laquelle les données publiques, les sciences de l'ingénieur, l'inventivité et l'innovation à la française sont mieux valorisées au travers des usages.

L'invention

Le positionnement enviable de la France

Nous avons vus que l'invention et le brevet sont devenus des actifs "à toutes fins utiles", stratégiques pour les entreprises voire pour des enjeux de souveraineté. La France se positionne très bien sur cet échiquier : troisième inventeur mondial selon Thomson Reuters[699][700], terre historique des plus grands inventeurs depuis la machine à vapeur jusqu’à la carte à puce, de l’automobile au micro-ordinateur, de l’avion au protocole d’internet, du cinéma à l’imprimante 3D. Elle dispose d’un vivier d’ingénieurs multidisciplinaires et de l’un des plus gros fonds souverains. Son inventivité bénéficie naturellement d’une image positive.

Le potentiel de la France est important, ce qui lui ouvre des opportunités substantielles.

Quelques inventeurs français

  • Denis Papin (machine à vapeur)
  • Augustin Normand (hélice à trois pales)
  • Clément Ader (avion)
  • Edouard Belin (fax)
  • Charles Bourseul (téléphone)
  • Charles Cros (phonographe)
  • Joseph Cugnot (automobile)
  • Blaise Pascal (calculatrice)
  • Charles-Philippe Lebon (moteur à explosion)
  • Lucien Gaulard (transformateur)
  • Maxime Guillaume (moteur à réaction)
  • Joseph Monier (béton armé)
  • Roland Moreno (carte à puce)
  • Nicéphore Niépce (photographie)
  • Frères Lumière (cinématographe)
  • Louis Pasteur (vaccin)
  • Louis-Guillaume Perreaux (moto)
  • Gustave Ponton d’Amécourt (hélicoptère)
  • Pierre et Marie Curie (radioactivité)
  • Lucien Rouzet (radio TSF)
  • Barthélémy Thimonnier (machine à coudre)
  • Gustave Trouvé (voiture électrique)
  • François Gernelle (micro-ordinateur)
  • Louis Pouzin (protocole d’internet)
  • Alain Carpentier (cœur artificiel)
  • Christophe Fourtet (réseau bas débit pour objets communicants)
  • Jean-Claude André (imprimante 3D)


La France récolte insuffisamment de fruits de ses inventions

Les États ne recueillent pas tous pareillement les retombées des découvertes qui ont eu lieu sur leur sol. La France, par exemple : on y a découvert le pompage optique, mais elle ne domine en rien l’industrie du laser. C’est dans sa démosphère (la sphère de ses ressortissants), sur son territoire et avec son argent que l’on a découvert la magnétorésistance géante et excellé dans le domaine des cristaux liquides, mais la France ne domine en rien leurs applications industrielles (écrans LCD, mémoires de masse…). S’il y a tout un art de contribuer à la noosphère, il en existe aussi un autre qui consiste à en recueillir les retombées, et il est tragique que des États sachent créer de tels nuages sans jamais en recevoir la pluie eux-mêmes. La France est spécialiste de cette erreur[701]

L'Europe et l'économie de l'utilité

Les contradictions de l'Europe

Divisés sur les objectifs comme sur les moyens, les pays européens sont en train de rater la nouvelle révolution industrielle, laquelle engendre une nouvelle hiérarchie des nations[702].

La concurrence interne par les normes

Il est réellement essentiel de bien comprendre ce qui s’est passé à Maastricht. Sous l’apparence d’un renforcement des souverainetés partagées, s’est effectivement mise en place une Europe des égoïsmes et de la prédation fondée sur l’affirmation du principe de concurrence fiscale et sociale entre les peuples européens. On peut effectivement parler de prédation car le pays membre de l’Union ayant les impôts les plus faibles ou les réglementations les moins contraignantes attirera toujours les capitaux et les individus talentueux qui sont extrêmement mobiles[703].

La concurrence par les normes fiscales et sociales instaure la prédation comme principe supérieur d’organisation des sociétés humaines[704].

L’Irlande mène, depuis, une politique de concurrence fiscale violente avec un taux d’impôt sur les sociétés (IS) à 12,5 %, un comportement qui officialise le droit des pays membres de l’Union à se conduire en prédateurs de la valeur ajoutée économique produite dans les autres États[705].

Le discours de Juncker n’est qu’un écran de fumée pour cacher l’essentiel : la continuation de la concurrence fiscale et sociale au sein de l’Union. La preuve en a été donnée par le refus du Luxembourg, avec trois autres pays bénéficiaires, de toute taxation européenne des GAFAM car certains d’entre eux utilisent ce pays comme base de défiscalisation de leurs profits réalisés dans les autres pays de l’Union[706].

La méfiance contre les positions dominantes

La Direction de la concurrence doit mettre fin aux abus de position dominante, mais en pratique elle veut mettre fin aux positions européennes fortes en présumant qu’elles conduisent potentiellement à des abus[707].

Le veto des états pro-GAFA

La France a fait une proposition de taxation des géants du Net en septembre 2017, sur la base du chiffre d’affaires réalisé en Europe, quinze ans après le début du phénomène de pillage et dix ans après le début de l’industrialisation du processus de pillage. La présence digitale (nombre d’utilisateurs, volume de données collectées, etc.) pourrait être une base alternative. Plusieurs pays européens freinent le mouvement ou s’y opposent ouvertement ! C’est notamment le cas de l’Irlande, du Luxembourg, de Malte et de Chypre lors d’un sommet européen dédié au numérique à Tallinn (Estonie). La position de ces quatre pays est peut-être liée au fait que les grandes plateformes numériques américaines y ont basé leurs sièges[708].

L'absence de vision stratégique

La dimension stratégique est absente du cerveau des institutions européennes depuis l’origine[709].

L'erreur de diagnostic

La stagnation de notre économie est le résultat des politiques mises en place en 1997-1999 sur la base d’un diagnostic radicalement faux : l’entrée supposée dans un monde postindustriel et post-travail[710].

La RGPD

L’Union européenne a bien préparé un règlement général sur la protection des données (RGPD) mais ces données continueront d’être traitées par les GAFAM [711].

Le RGDP est utile mais il aurait dû s’inscrire dans une stratégie d’ensemble obligeant tous les utilisateurs de données européennes à les stocker en Europe sans possibilité de les faire circuler hors de l’Union européenne, sans le consentement explicite des personnes ou entreprises concernées[712].

La stratégie de Lisbonne

L’échec de la « stratégie de Lisbonne » (qui ne doit pas être confondue avec le récent traité de Lisbonne) illustre jusqu’à la caricature les blocages européens. Adoptée par le Conseil européen en mars 2000, la stratégie de Lisbonne visait à faire de l’Union européenne à l’horizon de 2010 « l’économie de la connaissance la plus compétitive et la plus dynamique du monde[713].

L'Europe (...) conçoit un environnement réglementaire ouvert aux Chinois et aux Américains, au moins autant qu’aux Européens, et ne se préoccupe ni de faire émerger des leaders industriels ni de maîtriser les applications de ces technologies par une politique adaptée de brevets et de normes[714].

Les solutions

C’est en unissant les nations européennes qu’elles s’imposeront ensemble dans la nouvelle révolution industrielle[715].

Le droit de la concurrence

Il est donc essentiel que l’iconomie soit régulée par les États afin de garantir les principes démocratiques. Ces États doivent lutter contre les monopoles[716].

(...) l’apparition d’entreprises gigantesques, comme évoqué précédemment, qui développent des positions de monopole devant impérativement être régulées, voire contrecarrées si cela conduit à amoindrir l’ouverture des marchés et la qualité des services rendus[717].

Il est donc impératif que l’Union européenne affermisse sa doctrine de la concurrence ouverte dans l’iconomie entrepreneuriale si nous voulons éviter de devenir toujours plus des colonies numériques des États-Unis[718].

Il est également essentiel de faire muter la doctrine actuelle de la concurrence pour 1/ analyser les questions de concurrence en Europe sur la base du seul marché pertinent qui fasse sens : la totalité du marché unique lui-même inscrit dans le marché global, et 2/ mettre en place une politique de contrôle des positions dominantes globales dans les technologies nouvelles et de contrôle des données afin de casser les monopoles mondiaux et notamment ceux des GAFAM[719]

Elle doit permettre un fonctionnement efficace de marchés ouverts à une libre concurrence, mais son objectif ne peut être de casser les positions d’excellence acquises par des entreprises européennes sur ces mêmes marchés ou d’empêcher le renforcement des acteurs stratégiques européens sur le marché global. Il est notamment souhaitable d’accorder plus de poids à l’évolution dynamique des parts de marché et aux possibilités de leur contestation par des innovations radicales issues parfois de petites entreprises. Il faut donc juger des questions de concurrence en concurrence dynamique, intégrant le rythme des innovations et l’ensemble des biens et services de substitution présents et en développement, et non pas en concurrence statique, fondée sur une lecture des rapports de force constatés[720].

le droit de la concurrence et l’ouverture des marchés, dans une vision dynamique, prennent une place centrale dans la régulation de cette iconomie[721].


Les plate-formes iconomiques

L’économie des plateformes régulées joue un rôle clé dans le développement de l’iconomie. Elle contribue à faire émerger l’économie de coproduction d’utilité par des écosystèmes faisant interagir un très grand nombre d’utilisateurs : nommons-la économie de coproduction d’utilité du très grand nombre. Elle s’oppose à l’économie de masse de la deuxième révolution industrielle qui produisait des biens et services standardisés pour des récepteurs passifs. Dans l’économie de coproduction d’utilité, les utilisateurs sont des coproducteurs actifs[722].

L’Europe doit se doter des GAFAM et BATX qui lui permettraient de tirer parti de son principal atout dans l’iconomie entrepreneuriale : ses données, sa puissance financière et sa capacité d’innovation technologique. Elle peut encore y parvenir en concentrant ses moyens sur un projet stratégique industriel ambitieux et en se dotant d’un droit de la concurrence offensif[723].

La bonne santé de la balance courante de l’Allemagne cache le déclin numérique et stratégique du pays : la productivité du travail progresse légèrement moins vite en Allemagne que dans le reste de la zone euro depuis quinze ans et elle est très inférieure à celle de la zone euro en dehors de l’industrie manufacturière. La French Tech impulse une dynamique forte qui rend l’alliance des deux pays très attractive[724].

Les industries stratégiques

Une stratégie européenne complète devrait comporter un volet de recherche sur l’intelligence artificielle, la robotique et la cybersécurité et un volet industriel visant à faire émerger des groupes européens puissants dans ces domaines[725].

Une stratégie volontariste visant à organiser une montée en puissance rapide de nos industries robotique, informatique et d’édition de logiciels et à favoriser le rééquipement de notre système productif en robots industriels modernes et en imprimantes 3D doit être mise en place afin d’améliorer simultanément notre compétitivité-coût et notre capacité d’innovation de produit. Les sommes nécessaires pour accélérer la modernisation et le redéploiement de notre économie dans cette direction sont relativement réduites, de l’ordre de 3 milliards d’euros par an pour une initiative robotique et logicielle, fortement centrée sur l’intelligence artificielle, avec un volet d’impression 3D. Des créations massives d’emplois qualifiés s’ensuivraient[726].


La formation iconomique

Créer un service national du numérique envoyant des jeunes formés dans les entreprises pour expliquer toutes les possibilités des nouvelles technologies. Une formation adaptée pourrait être donnée à 100 000 jeunes par an pendant deux mois avant de les envoyer en mission pendant dix mois en passant deux ou trois semaines dans chaque entreprise de plus de 10 salariés[727].

Le réseau d’universités et de centres de recherche de haut niveau, qu’il faut constituer au sein de la Fée européenne, comprendrait au moins une vingtaine d’universités compétitives en mesure d’intégrer le top 100 du classement de Shanghai des universités. Chacune d’entre elles aurait des effectifs de 20 000 à 30 000 étudiants, et rassemblerait des universités de recherche, des universités technologiques et des grandes écoles sur la base de projets stratégiques ambitieux financés par le budget de la Fée. Ces universités iconomiques seraient totalement dédiées à la recherche scientifique et technologique d’excellence avec sur chaque campus des parcs de start-up et d’usines numériques et des laboratoires d’entreprises[728].

Mise en oeuvre

Une volonté stratégique

Il faut commencer par vouloir ensemble et agir pour un Bien commun partagé. Tel est le principal enjeu du quinquennat d’Emmanuel Macron[729].

L’enseignement du dernier demi-siècle est que la volonté stratégique des hommes prime sur les moyens disponibles, et que la puissance économique ne résulte qu’en partie des dotations de départ : c’est la volonté des acteurs, ordonnée selon un plan stratégique précis, qui fait la différence[730].

Il suffit, pour s’en convaincre, de noter la transformation du Japon et des Tigres asiatiques (Corée du Sud, Hong Kong, Taïwan et Singapour) de pays sous-développés il y a cinquante ans en puissances technologiques et économiques majeures aujourd’hui[731].

Je précise que rien de ce que j’écris n’est contraire à l’ordolibéralisme allemand qui est sous-jacent dans le concept d’économie sociale de marché. (...) Le problème central de l’ordolibéralisme est qu’il est a-stratégique. Il s’ordonne par des règles et non par une vision de l’avenir (...) Il s’agit donc d’ajouter ici un zeste d’inventivité et une bonne dose de vision stratégique à l’ordolibéralisme allemand ! [732].

Une structure fédérale

La structure fédérale, permise par traité intergouvernemental en dehors du traité de Rome, saut qualitatif envisageable uniquement sur la base d’une plateforme élaborée par l’Allemagne, la France et le Benelux, se doterait d’un « souverain » économique décidant à la majorité qualifiée[733].

Trois décisions immédiates

Trois décisions peuvent être prises rapidement (comme évoqué au chapitre 2), sans quoi l’Europe, et pas uniquement la zone euro, court un risque d’éclatement. 1/ D’abord, à défaut d’adopter une stratégie de puissance, l’Europe doit élaborer une politique stratégique autonome pour s’imposer dans la troisième révolution industrielle, dans le cadre d’une alliance avec les États-Unis d’Amérique. 2/ Ensuite, il y a urgence à définir un mécanisme démocratique de fixation des frontières externes de l’Union. 3/ Enfin, sans freiner le processus de réformes réformes structurelles, il est impératif de fixer des règles minimales d’harmonisation des politiques fiscales et sociales[734].

Ces trois décisions ne pourraient être prises que sur la base d’un coup de force franco-allemand menaçant de quitter l’Europe si satisfaction ne leur était pas donnée[735].

L'action publique française

Réviser la doctrine de l'action publique[736]

L’action publique est désastreuse pour l’innovation. L’ URSSAF et la Gendarmerie Nationale n’ont pas vu que poursuivre Uber et Clic and Walk malgré les appels à la tempérance de la Commission Européenne gêne la croissance par effet d’insécurité réglementaire. La Loi pour une République Numérique (LPRN), qui impose le contrôle administratif de la « loyauté » des plateformes, n’a pas vu qu’elle ne serait qu’une contrainte encombrante de plus. Le gouvernement n’a pas vu qu’empêcher la cession de Dailymotion ferait fuir de France les investisseurs internationaux. L’Union Européenne, en suivant son agenda de Lisbonne, n’a pas vu que l’investissement dans la recherche génère moins de croissance que l’innovation d'usage. L’INSEE n’a pas vu que les entreprises créatrices d’emploi ne doivent plus leur succès aux secteurs porteurs mais à leur transformation numérique. Le Ministère de la Recherche n’a pas vu que le Crédit Impôt Recherche soumet les PME à une forte incertitude fiscale. Complexité, incohérence, lourdeur administrative et manque d’évaluation sont dénoncés par France Stratégie et la Commission Européenne.

Pour éclairer cette action publique, il faut d’abord décrire le mécanisme de destruction créatrice de la transition numérique.

La première phase est celle d'une augmentation de la productivité, avec l'automatisation, la robotisation et le "low cost" comme Easy Jet ou Free Mobile. La seconde phase est celle d'une augmentation de la taille des marchés par la baisse des coûts de transaction. C'est ainsi qu’ont émergé l'économie de la co-production avec Youtube, l'économie du partage avec AirBnB ou Drivy, et l’ubérisation avec Amazon face aux libraires ou les VTC face aux taxis. La troisième phase est celle d'une augmentation des ressources, qui sont autant de créations de richesses. La création de nouvelles matières premières se développe avec le big data. La création de valeur contributive que préfigure Wikipedia pour les savoirs s'étend à l'innovation et aux décisions collectives. La création de valeur coopérative que symbolisent les maquettes 3D partagées pour la conception des Airbus s'étend à la production et à la maintenance. La création de valeur relationnelle que révèlent les étoiles d’Uber ou BlaBlaCar pour noter chauffeurs et passagers s'étend au leadership et aux services à la personne.

Grâce à ce mécanisme en trois phases, l'économie organisée du XXème siècle se métamorphose en l’économie augmentée du XXIème siècle. La révolution industrielle a favorisé le travail d'exécution, dont l'usine et le taylorisme sont les emblèmes. Des postes prédéfinis sont à pourvoir par des employés, raison pour laquelle nous avons fini par établir un lien direct entre industrie et emploi. A l'inverse la révolution numérique favorise le travail d'initiative, qui nécessite des compétences de créativité, autonomie, agilité, discernement, convivialité, qualités relationnelles et contributives. Ces ressources humaines, au plein sens du terme, enrichissent la production automatisée. La part des services dans les produits, devenant prépondérante sans retour à l’artisanat, transforme le modèle de l’ « industrie et services induits » en modèle de l’ « industrie servicielle ».

On peut donc voir les plateformes numériques comme la métamorphose des usines. Moteurs de cette transformation et sources de toutes les peurs, elles représentent selon le récent Agenda européen pour l’économie collaborative des perspectives d'embauche massive. On peut voir les data comme la matière première et les outils numériques comme les machines de ces usines. Ils « augmentent » les ressources humaines, les savoir-faire, l'intelligence collective et relationnelle à la faveur de la compétitivité par la qualité.

Dans ce contexte, quel est le rôle de chacun ? Celui des grandes entreprises est de se numériser au même titre qu’elles s’étaient mécanisées il y a un siècle. Celui de l’industrie est d’intégrer davantage de services dans ses produits. Celui des startups est d’inventer les usages de ces nouvelles ressources. Celui des professionnels est d’apprendre à utiliser ces nouveaux outils. L’Etat, quant à lui, doit faciliter cette spirale vertueuse. Garantir par exemple certains risques privés ou défiscaliser le remploi des plus-values des entrepreneurs dans les startups, comme le propose le rapport Tirole-Ekeland-Landier. Ouvrir les données publiques, comme le prescrivent la Directive européenne PSI et la LPRN. Favoriser les modèles de co-propriété et de rémunération des contributions aux plateformes, noter la loyauté de ces plateformes, encourager dans l'enseignement la prise d’initiative et le travail collectif, flécher les parcours d’apprentissage aux nouveaux métiers, comme le préconise le Conseil National du Numérique. Mais pour ne pas nuire à cette spirale en sortant de son rôle, l’Etat doit reconnaître et assumer son manque de vision micro-économique. L’action publique pour l’innovation doit ainsi préférer la clarification des règles existantes à la réglementation additionnelle, la définition de seuils à l’interdiction, la notation au contrôle administratif, le soutien de l’écosystème entrepreneurial à l’identification des pépites, et l’enrichissement des services publics à leur simple mise en ligne. L’expérience des révolutions industrielles montre que cette dynamique conduit invariablement à la croissance et à l'emploi, tandis que la volonté de les contrôler ou les administrer se solde toujours par de lourds retards de compétitivité.

Engager les réformes structurelles

Professions réglementées et ubérisation

Besoins de réforme

Les réformes en cours des marchés des produits et services, et les initiatives de simplification de l’environnement des entreprises, pourraient avoir des effets importants sur la productivité et la compétitivité. En particulier, les réglementations des services (conditions d’exercice de certaines professions, réglementations sur les horaires d’ouverture, autorisations d’implantations, mise en concurrence des industries de réseaux…) sont moins favorables à la concurrence que dans beaucoup de pays de l’OCDE (Graphique 1) alors que ceux-ci interviennent dans l’ensemble des processus de production du secteur manufacturier et que la valeur ajoutée des services représente une part élevée et croissante des exportations françaises (50% en 2009). Par exemple, les conditions d’entrée et d’exercice des services juridiques, comptables et d’architecture sont plus restrictives que dans de nombreux pays de l’OCDE4 (Graphique 2), ce qui suggère d’importantes marges de manœuvre pour développer la concurrence tout en préservant la qualité de ces services[737]

Valoriser l'utilité ajoutée

Utilité sociale des associations

Les associations sont de plus en plus souvent invitées à fournir une évaluation comptable des contributions volontaires des bénévoles pour rendre compte de leur utilité sociale[738]. Les financeurs, en particulier, veulent pouvoir mesurer l'effet de levier de leur apport grâce à la capacité de l'association à mobiliser ces ressources bénévoles[739]. Cette qualité essentielle est d'ailleurs entérinée par les Nations Unies comme l'un des cinq critères d'identification d'une institution sans but lucratif[740].

Cette approche est cependant encore bridée par ses références constantes à la valeur comptable. La pratique retient en effet comme critères de valorisation la qualification du bénévole, le temps passé et le barème horaire lié à cette qualification[738]. Pour mieux éclairer le financeur de la portée sociale de son apport, on comprendrait mieux que l'utilité soit jugée, au moins partiellement, par les bénéficiaires eux-mêmes, et non par la seule quantité de ressources mises en oeuvre.

Valoriser la richesse de la contribution

Identifier les contributeurs

Le Ministère de la Culture veut faciliter la gestion des droits des auteurs, dont les contributeurs ou co-producteurs à une valeur utile.

Il développe à cette fin un dispositif d'identification unique des auteurs sur la base de l'ISNI (International Standard Name Identifier). Les métadonnées qui concernent les auteurs d'œuvres de l'esprit sont en effet indispensables à la traçabilité des œuvres, leur visibilité, leur compréhension, leur conservation, leur partage, ainsi qu'à toute l'économie du numérique. Le mot « auteur » est entendu au sens de personnes physiques et morales prenant part à la constitution d'une ressource, qu'elles soient créateurs, contributeurs ou interprètes, dans tous les domaines culturels : patrimoine, industries culturelles et création artistique contemporaine[741].

Identifier et mesurer les droits d'auteurs facilitera ainsi leur rémunération équitable.

Mesurer les contributions

Le lien entre travail et distribution des richesses a toujours guidé l’ensemble des politiques publiques, tant il a longtemps paru évident que c’est par le travail, et notamment par l’emploi, que chacun recevait une partie de la production de valeur collective. Ce lien est aujourd’hui à questionner. En effet le taux d’emploi de la population active a connu une diminution importante ces vingt dernières années. L’accès aux richesses produites se fait donc par d’autres canaux (revenus complémentaires ou de remplacement) ou bien ne se fait pas. Audelà de la question du chômage, c’est également la capacité distributive du travail qui a subi les conséquences de cette situation : avoir un travail rémunéré aujourd’hui ne garantit pas que l’on ait un accès suffisant à la valeur produite. Ainsi le phénomène des travailleurs pauvres a pris une proportion importante dans un certain nombre de pays. C’est d’ailleurs pourquoi la baisse du taux de chômage que connaissent certains pays n’a pas enrayé la progression importante des inégalités. De plus une part importante de la richesse produite par les plateformes numériques, notamment via la valorisation de l’activité des internautes, fait l’objet d’une distribution qui déborde peu le cercle des actionnaires : les plateformes créent très peu d’emplois proportionnellement à leur valorisation financière et elles fragilisent parfois la vie privée des consommateurs. Ceci se traduit entre autres par une accumulation de richesses entre un nombre toujours plus restreint de personnes. Le Conseil estime donc qu’il est nécessaire de penser à nouveaux frais les relations entre le travail et la distribution de la valeur produite. Il faut choisir de nouveaux modèles, construits autour d’une conception rénovée de l’emploi, de l’outil fiscal ou d’un schéma alternatif de distribution[742].


Rémunérer les contributions?

Comment les outils traditionnels de régulation économique doivent-ils prendre en compte le fait que les données sont devenues des intrants essentiels de la société numérique ? Pour quelques observateurs, l’exploitation des données et des contributions des internautes donne lieu à une concentration des richesses et de l’information. Afin de rétablir cette situation, il faudrait rémunérer chacune de nos contributions sous forme de redevance ou de micro-paiements53. Pour d’autres, il faudrait à tout le moins acter l’existence d’un marché des données : afin de mieux encadrer son fonctionnement par des outils de régulation économique et de reconnaître aux individus la possibilité de gérer leurs données en tant qu’élément patrimonial. Certains contributeurs considèrent à l’inverse que rémunérer les internautes pour leurs contributions éditoriales déprécierait la valeur de leur geste et donnerait lieu à un marché qui hiérarchiserait ceux qui ont des compétences culturelles suffisantes pour produire des choses originales et les autres. D’autres s’élèvent contre l’hypothèse d’une propriété des données : car elle renverrait aux individus la responsabilité de gérer et protéger leurs données, ne générerait que des revenus anecdotiques et renforcerait les inégalités entre ceux qui peuvent protéger et valoriser leur données et ceux qui par manque de temps, d’argent ou autre, seraient fragilisés. Un autre champ de pensée invite à donner plutôt aux individus les moyens, juridiques et techniques, de maîtriser les données qui les concernent (qui peut les utiliser, pour quelles finalités), et d’en retirer les mêmes utilités que celles qui sont consenties à des tiers [743]

Enrichir l'utilité des services publics

L'efficience de l'Etat, mission impossible ?

Pour mesurer l’efficience, il faut des instruments de mesure. Ce qu’on ne peut pas mesurer a du mal à exister. Fort heureusement, nos décisions peuvent en général s’appuyer sur un instrument de calcul fondamental, les prix. Ces derniers permettent notamment de comparer ce qui a été obtenu par rapport à ce qui a été investi. La réalisation d’un profit indique que les ressources, loin d’avoir été gaspillées, ont permis de générer un surplus pouvant être alloué à autre chose.

Or dans le domaine public, les calculs sont difficiles ou impossibles à faire. C’est un monde où les prix résultant d’échanges libres n’existent pas. On ne peut pas mesurer la valeur d’un jugement ou d’une scolarité en fonction de ce que les utilisateurs sont prêts à payer, ces prestations étant financées par l’impôt. D’où la difficulté à calculer l’efficacité de ces services, faute de pouvoir comparer les gains qu’ils génèrent pour les individus aux coûts de production des prestations. Est-ce un problème ? Oui, quand on se situe dans un pays comme la France où le périmètre de la sphère publique ne cesse de croître dans tous les domaines.

Plus encore, vouloir appliquer des critères d’efficience peut conduire à l’inverse de l’objectif voulu. En santé, par exemple, la doxa veut que le système devienne efficient et cesse de générer des déficits. L’objectif est noble mais les moyens proposés peuvent être pires que le mal. En effet, faute d’avoir des prix, l’efficience du système se mesure à toutes sortes d’indicateurs sortis des manuels théoriques de management. Or, on ne peut jamais être sûr que la méthode employée est la bonne, à savoir qu’elle fournit le niveau de soin voulu par les patients pour un coût collectif qu’ils peuvent supporter[744].

C'est pourquoi les services non marchands dispensés par l'Etat sont très mal comptés dans la création de richesse. Qu'il s'agisse de services collectifs comme la sécurité, ou de services publics comme la santé ou l'éducation, ils sont comptabilisés dans le PIB sur la base des dépenses publiques allouées à leur fonctionnement, sans tenir compte de leur qualité[745].

Renverser l'équation

L’introduction du numérique au cœur des services publics a permis une dématérialisation d’un grand nombre de démarches et de services. Mais cette dématérialisation ne peut se réduire à la simple “mise en ligne” des services publics. En effet la conception même des services publics numériques doit être modifiée en prenant davantage en compte les attentes des utilisateurs et en favorisant la coconstruction des services. Il s’agit donc de renverser les modes habituels de conception des services publics, pour partir davantage des besoins des usagers que du mode de fonctionnement et de traitement des administrations. Cette nouvelle méthode de conception des services publics numériques, inspirée par le design, permet de sortir d’une logique qui considère le service public comme un simple instrument, et de consacrer de nouveaux droits pour les usagers et de nouvelles responsabilités pour l’administration. Cette approche du design doit conduire vers une administration décloisonnée, plus réactive et plus proche des citoyens via une architecture technique nouvelle : l’État plateforme - France Connect. Cette démarche de design des services publics a pour objectif de rendre les services publics numériques plus efficients et plus inclusifs. Elle peut en outre concourir aux politiques de redistribution, en ciblant mieux les besoins et en favorisant une gestion en temps réel des ressources et dispositifs[746]

Valoriser les activités porteuses de richesse collective

Au sein des organisations - entreprises, État, collectivités, associations et collectifs alternatifs - les individus peuvent être amenés à ressentir le besoin d’exercer, pendant un temps voulu ou de manière permanente, une activité différente de leur activité principale et/ou source de leurs revenus principaux. Des activités très diverses telles que l’engagement dans une mission humanitaire à l’étranger, l’enseignement de modules dans une université, ou encore la participation à une entreprise en création, sont déjà prévues par la loi. Elles sont vectrices d’épanouissement personnel et bénéficient souvent aux organisations, tant en termes de compétences acquises qu’en matière de gains de productivité, de cohésion des équipes, etc.

  • La participation à des projets de création et de développement d’entreprises, de fab labs,
  • de coopératives, etc. ;
  • l’engagement dans une association ;
  • la participation à des activités de recherche librement accessible ;
  • la production de biens communs ;
  • la réalisation de missions de médiation numérique, de solidarité, etc[747]


Enrichir l'utilité des données

Pour améliorer l'utilité des informations numériques, le Ministère veut aussi développer des métadonnées de sécurité, de traçabilité et de gestion temporelle.

La donnée isolée ne présente en effet que peu d'intérêt en tant que telle. Sa véritable valeur dérive de son agrégation, de son recoupement, de son analyse et de la réutilisation qui en est faite[748]. Pour réutiliser des données, il est nécessaire de savoir qui les a produites, dans quel contexte et avec quel degré d'expertise, à quel moment, si elles ont été mises à jour ou au contraire s'il existe un risque d'obsolescence, etc. L'ensemble de ces informations qui permettent la traçabilité des données sur laquelle repose la confiance sont désignées par le terme d'« informations de provenance »[749].

Ce n’est pas son volume que l’Open data apporte par exemple au Big Data mais la fiabilité : les données publiques deviennent des données de référence. Pour la startup en stratégie électorale LMP,qui développe des modèles prédictifs, les données fournies par l’INSEE sont ainsi un carburant indispensable à son activité[750].

Pour enrichir les données, il est également souhaitable qu'elles soient interopérables. Un des intérêts du Big Data est le croisement de données. Il serait par exemple intéressant de regarder la relation entre le nombre d’accidents de la route et l’usage des transports publics dans un secteur donné pour observer s’il existe un lien de causalité entre les deux éléments. Si ces deux jeux de données disposent d’infrastructures différentes, il est impossible d’étudier cette relation en temps réel. Le grand défi à relever pour que la révolution du Big Data réponde à ses promesses est de trouver une architecture interopérable à travers notamment l’adoption de normes communes. L’Organisation internationale de la normalisation (ISO) et plus particulièrement le Comité Technique Commun sur les technologies de l’information (JTC1) est en train de dresser un état des lieux afin d’avancer des solutions sur cette question[751].

Développer le modèle Freemium

De nombreux services doivent être gratuits en qualité de biens publics, de biens communs ou pour être accessibles au plus grand nombre. En revanche, ces services peuvent être complétés par des fonctionnalités premium pour assurer une réciprocité équitable, en particulier lorsqu'ils servent des intérêts commerciaux.

Services spécialisés

Les opérateurs doivent pouvoir proposer à leurs abonnés des services spécialisés. Le recours à ces services se justifie pour le développement de services innovants qui nécessitent une qualité garantie, que ce soit pour des raisons de sécurité, de confidentialité ou encore de temps de latence. La définition de ces services doit permettre aux opérateurs de suppléer les limites de l’internet best effort par le recours à des services à la qualité garantie. Il existe déjà des services spécialisés. À l’avenir, d’autres services pourraient nécessiter des garanties en termes de qualité de service. Opérations chirurgicales à distance, partage d’imagerie médicale en continu, voitures autonomes… pourraient rentrer dans cette catégorie.

Les services spécialisés, offerts par les opérateurs, ne font pas partie de l’internet. La télévision ou la téléphonie, proposées dans les box triple play, sont autant de services spécialisés : ils sont délivrés sur des canaux dédiés, fonctionnent en vases clos et ne pâtissent pas d’un réseau qui peut être temporairement surchargé ou inaccessible. S’agissant de services premium, l’opérateur gère le service de bout en bout et peut garantir une qualité de service (QoS). Ce n’est pas le cas sur l’internet commun, qui est caractérisé par son fonctionnement en meilleur effort (“best effort” : le réseau ne garantit pas la qualité de l’acheminement des données)[752].


Mérite des fonctionnaires

La "logique d'entreprise" défendue par Trump se veut un électrochoc salutaire : les fonctionnaires devront faire plus avec moins et seront jugés sur leurs résultats[753].

Le mérite des fonctionnaires de la ville de Suresnes est jugé sur la base de l'assiduité, de l'adaptation au changement, de la prise d'initiatives et du respect des délais. Pour les encadrants, aussi, les critères de l'évaluation ont été affinés : conduire le changement, maintenir une attitude contrôlée et positive en toutes circonstances mais aussi agir pour prévenir l'absentéisme. Simultanément, pour éviter qu'un manager n'achète la paix sociale en attribuant de bonnes notes à l'ensemble de ses troupes, il est lui-même noté sur sa capacité à sanctionner positivement ou négativement. Rémunérer les agents au mérite doit permettre un dialogue managérial approfondi tout en améliorant le fonctionnement de tous les services[754].

Le principe de la rémunération au mérite a été adopté par l'Allemagne dès 1997. Il y est possible d'octroyer un bonus s'élevant au maximum au salaire de base ainsi que des primes mensuelles à hauteur de 7 % de ce salaire[755].

Ce principe pose cependant le problème de sa mise en oeuvre. Au Danemark, en Grande-Bretagne ou aux Etats-Unis, la grande majorité des employés du secteur public (58%) ne voit aucune corrélation entre travail effectué et prime obtenue, et plus de la moitié des personnes interrogées (56%) n’est pas d’accord avec le processus de répartition des primes. Cette position négative n’est pas étonnante puisque presque 40% ne savent pas exactement ce qu’il est attendu d’eux.

Pourtant, plus de la moitié des personnes interrogées (52%) serait prête à travailler plus si elle obtenait un complément de salaire.

Ainsi, les résultats escomptés ne peuvent être atteints que lorsque des objectifs clairs et mesurables sont définis. Cela rend nécessaire un consensus préalable sur la signification du mot rendement. Il est également important que le but des prestations fournies soit déterminé de manière individuelle, pour que les plus faibles aient une chance de recevoir une prime lorsque leur rendement augmente. La transparence du système de rémunération est garantie lorsque chacun voit la relation entre le travail et le salaire au rendement, chaque employé devant comprendre pour quel travail il est récompensé[756].

Ainsi, les problèmes soulevés par la rémunération au mérite sont aujourd'hui solubles en pratique par l'avalanche d'indicateurs apportés par le numérique, et qui permettent de constituer des objectifs mesurables et transparents.

Multiplier les effets utiles

Innovation d'usage

Il était traditionnellement admis que l’innovation, qui implique la création et la diffusion de nouveaux produits, procédés ou méthodes, peut être un élément essentiel de nouvelles sources de croissance. Sans être un objectif en soi, l’innovation fournit les fondements de la création d’entreprises et d’emplois, et de l'augmentation de la productivité[757].

Cette manière de présenter l'innovation a abouti à l'échec de la stratégie de Lisbonne. Il aurait en effet fallu être plus précis. L' innovation d'usage est créatrice d'emplois, dans la mesure où elle apporte de nouveaux effets utiles. Elle s'oppose à l'innovation technologique qui, bien que nécessaire à l' innovation d'usage, est destructrice d'emplois lorsqu'elle augmente la productivité sans apporter de nouveaux effets utiles.

Une innovation d'usage change la manière d'utiliser le produit ou de consommer le service, pour les innovations d'offre, ainsi que la manière de fabriquer, d'inventer ou de réaliser une prestation pour les innovations de processus. Par exemple, le Velib' modifie la manière d'appréhender et d'utiliser le vélo, que l'on ne possède plus mais que l'on loue pour quelques heures, souvent à la place de prendre le métro ou le bus.
L’innovation d’usage joue un rôle essentiel, dont il ne faut pas sous-estimer l’impact économique. Même pour les innovations technologiques, une analyse des usages constitue un facteur essentiel pour stimuler leur adoption et leur utilisation, seules génératrices de revenus. La recherche, lorsqu’elle aboutit, génère une invention qui ne saurait être assimilée à l’innovation. Pour que les entreprises soient innovantes, de nombreux autres éléments fonctionnels et facteurs organisationnels doivent intervenir, notamment le marketing, le design, la créativité[758].

De très nombreux indicateurs ont été alternativement introduits comme variables explicatives de la croissance de la PGF. Parmi les très nombreux indicateurs essayés sans succès comme variables explicatives, signalons (...) la part de la production de TIC dans le PIB, le taux d’investissement en TIC, la part des TIC dans l’investissement total, la part de l’investissement privé dans l’investissement national, le taux d’investissement global (en volume ou en valeur), le taux d’investissement public, les dépenses de R&D rapportées au PIB[759]

BPI France a opportunément élargi son périmètre d'intervention à l'innovation centrée sur l'utilisateur. En constatant que sa grille d'analyse l'empêchait de soutenir un des fleurons de l'entrepreneuriat français Blablacar[760], la banque a en effet dû revoir intégralement sa doctrine. Elle s'est alors souvenue du rapport Morand-Manceau[761], diffusé 6 ans plus tôt. Celui-ci exhortait les pouvoirs publics à ne plus associer innovation avec recherche et technologie, mais à ouvrir leur vision à l'innovation d'usage.

Favoriser la réutilisation

La portabilité, découlant du droit à l’autodétermination informationnelle, consiste en la restitution aux individus des données collectées dans le cadre de l’utilisation des services, pour leurs usages personnels ou pour le partage vers d’autres services. L’objectif est notamment de permettre à l’utilisateur de ne pas être enfermé dans un écosystème captif et de faire lui-même usage de ses données.

  1. Rendre possible à tout moment l’export de leurs données par les utilisateurs de services numériques, par eux-mêmes ou au travers d'un service tiers, dans des délais raisonnables. Ceci implique de permettre la portabilité effective de ces données.
  2. Veiller en particulier à l’accessibilité du service d’export à travers une API et une interface web à l’ergonomie adaptée pour des utilisateurs ne disposant pas de compétences techniques particulières : possibilité de visualisation (données tabulaires, images…) ;
  3. Inclure dans le périmètre de la portabilité : les données générées par l’individu à l’occasion de l’utilisation d’un service, volontairement ou non, consciemment ou non ; générées ou reconstituées par le service, et qui présentent une valeur d’usage pour ce dernier (favoris, mails, contacts, métadonnées des photos, playlists, traces d’usages, d’achats, de communications, graphe social etc.).
  4. Préciser les conditions d’usages, incluant les limites aux réutilisations, lorsque l’opérateur a, par son traitement, enrichi les données. La mise en place d’un référentiel de ces CGR (conditions générales de réutilisation) faciliterait l’usage des données.
  5. Afin d’assurer l’appropriation de la portabilité par les utilisateurs, les acteurs concernés devront notifier de façon claire l’existence de ces fonctionnalités. Les régulateurs sont invités à publiciser l’introduction de ce droit et valoriser les usages possibles[762].

Maîtriser l' utilisation

L'économie de l'utilité donne au producteur un droit de regard sur l'utilisation qui est faite de sa production. Les licences ouvertes, qui sont au fondement des biens communs comme Wikipedia ou Linux, ont ouvert la voie grâce à une panoplie de conditions d'utilisations. Les licences à réciprocité prolongent ce mouvement.

Auto-détermination informationnelle

De même, le CNNum considère que, dans une société numérique, l’individu doit pouvoir décider de la communication et de l’utilisation de ses données personnelles. Plus qu’une approche défensive en termes de protection, il s’agit de doter l’individu des moyens d’exercer une véritable maîtrise sur ses données et de tirer parti de leur valeur d’usage.[763]. Ce principe d'auto-détermination informationnelle a été défini par le Conseil d’État français dans son étude annuelle sur le numérique et les droits fondamentaux[764].

Le projet Mes Infos : mène une expérimentation sur le modèle du Self data, c’est-à-dire le retour des données personnelles vers les individus qui en sont co producteurs. Le travail porte sur la cartographie des données et de leurs usages associés.

Le Personal Cloud : les utilisateurs déversent leurs données dans un grand nombre de systèmes commerciaux qui reposent aujourd’hui sur une logique de « silos ». Ils sont parfois pris en otage dans les conflits entre environnements concurrents qui s’interposent. Surtout, ils ne peuvent ni maîtriser l’utilisation qui est faite de leurs données, ni en retirer eux-mêmes les bénéfices. Par ailleurs, déléguer toutes ses informations à une seule entreprise peut se révéler coûteux en termes de libertés. En réponse, les « PIMS » (Personal Information Management System) proposent aux internautes de reprendre le contrôle de leurs données en devenant en quelque sorte leur propre plateforme :

  • en hébergeant leurs informations où ils le souhaitent, sur serveur cloud
  • en maîtrisant quel tiers a accès à quelles informations (particuliers, entreprises, etc.) et de choisir quels services peuvent s’interconnecter sur cette base, pour créer des services additionnels : une plateforme ne s’interpose plus en répartiteur de données[765].


Maîtrise de l'utilisation secondaire

Lorsque les individus ont consenti initialement à un partage de leurs données par le collecteur initial avec ses partenaires commerciaux, ils doivent pouvoir prendre connaissance des circuits de circulation et de revente de leurs données, au-delà du collecteur initial. En particulier, les courtiers de données doivent être astreints à une forme de transparence sur la revente des données. Cette connaissance est la condition pour rendre effectif le droit d’accès, de rectification et d’effacement. En effet, l’individu ne sait pas au moment du consentement initial évaluer avec certitude quelles informations le concernant seront connues de tiers. Bénéfice secondaire, cette transparence contribue à désopacifier les chaînes de valeur ; cela participe d’une construction de la confiance indispensable à l’économie numérique[766].

Pole Emploi n'est par exemple pas propriétaire des offres publiées. Elles restent aux mains des employeurs qui utilisent en moyenne quatre canaux pour une même embauche. Ils arbitrent entre des acteurs publics et privés. C'est important d'obtenir leur consentement et de respecter leur choix pour qu'ils gardent la main sur leur stratégie de recrutement. La question est encore plus ardue pour le partage des CV des chômeurs, truffés de données confidentielles. La piste est à l'étude, en attente d'une validation par la CNIL. Là encore, les demandeurs d'emploi resteront maître du choix des sites auxquels ils acceptent de transmettre leur candidature[767].

Clarté du consentement

Rendre effective l’expression de son consentement par l’utilisateur d’un service suppose de la part des acteurs l'utilisation d’un langage descriptif de leur politique d’exploitation des données, sans ambiguïtés et accessible au grand public. Les mesures prises pour assurer la protection de la vie privée de leurs utilisateurs appellent une mise en visibilité spécifique. Il est également impératif que cette information soit fournie au bon moment, et permette à l’utilisateur d’opérer son choix en connaissance de cause quant aux usages et destinataires futurs des données. Cela est actuellement impossible compte tenu de la profusion des sources des données, de la diversification de leur nature, de la sophistication de leurs usages dérivés, et de l’opacité des chaînes de revente de fichiers de données.

Le Do Not Track permet aux utilisateurs d’Internet de signaler leurs préférences en matière de traçage de leurs données, dans un langage universellement reconnu par tous les sites visités.

Les privacy icons permettent aux éditeurs d’apposer des petites icônes sur leurs sites web pour simplifier la compréhension de leurs politiques sur la vie privée. Il s’agit de plusieurs pictogrammes décrivant la politique d’utilisation des données personnelles du site en question, sur quelques aspects clefs : période de rétention des données, réutilisation par un tiers, partage aux annonceurs[768].

S'engager dans l'économie du bien-être

Indicateurs utiles pour la politique économique

Si on pense que l'augmentation de la croissance va déterminer la hausse du revenu, la hausse de l'emploi, l'amélioration de la santé, la qualité environnementale, alors il faut que la politique économique vise l'augmentation de la croissance. Or cette relation est de moins en moins vraie. On constate en effet une disjonction de plus en plus nette entre le PIB et le bien-être, c'est-à-dire la qualité de la vie dont la santé et l'éducation, ainsi que son maintien dans l'avenir avec une contrainte environnementale de plus en plus forte[769].

Sentiment analysis : enable government to describe quantitatively the opinion of active users on social networks with respect to the topics of interest to the Public Administration[770].

Une démarche engagée

  • Fabrice.Murtin@oecd.org OECD, Statistics Directorate, Paris 75016, France
  • yann.algan@sciencespo.fr, Department of Economics, Sciences Po, Paris 75006, France
  • elizabeth.beasley@cepremap.org, Well-Being Observatory, CEPREMAP, Paris 75014, France
  • florian.guyot@sciencespo.fr, Department of Economics, Sciences Po, Paris 75006, France
  • Kazuhito.higa@oecd.fr; OECD, Statistics Directorate, Paris 75016, France
  • senik@pse.ens.fr; Université Paris-Sorbonne and Paris School of Economics, Paris 75014, France

We build an indicator of individual wellbeing in the United States based on Google Trends(...). This opens up the possibility to use Big Data as a complement to traditional survey data to measure and analyze the well-being of population at high frequency and very local geographic level. We show that we can also exploit the internet search volume to elicit the main life dimensions related to well-being. We find that keywords associated with job search, financial security, family life and leisure are the strongest predictors of the variations in subjective wellbeing in the United States[771].

La Déclaration de Stockholm a établit des droits de l'homme à la qualité de son environnement dès 1972. Le rapport Bruntland a diffusé le concept de développement durable en 1987[772]. Décorréler la croissance du PIB avec la destruction environnementale est aujourd'hui un objectif largement accepté[773].

Pourtant force est de constater que ceci ne débouche pour l'instant sur aucune mise en œuvre réelle, faute de mécanisme de contrôle et de sanction opérationnel[774]. La diminution des postes de travail érode progressivement le capital social, c'est-à-dire l'ensemble de relations de confiance, de fiabilité, de respect des règles indispensables à toute coexistence civile [775]. Même le crédit-carbone n'implique en aucune manière de changement radical à la hauteur des circonstances[776].

Il faut dire que les difficultés ne sont pas minces. Certaines choses sont faciles à mesurer. Rien de plus simple que de mesurer directement la température : il suffit d’un thermomètre. Mais les choses se compliquent si on veut savoir quelle température il faisait il y a 200 ans. À moins que quelqu’un n’ait tenu un relevé à l’époque, nous en sommes réduits à faire des déductions en consultant des archives naturelles telles que les anneaux de croissance d’un arbre. Plus l’anneau est large, plus l’année à laquelle il correspond était chaude. Cela ne nous apprend cependant pas quelle température il faisait : nous disposons seulement d’une variable de substitution, ou de remplacement, qui nous permet de déterminer grossièrement la température qu’il pouvait faire alors. De la même façon, on ne peut pas mesurer directement le capital humain et le capital social, ni pour les individus ni à l’échelle de la société. Pour les mesurer, nous devons recourir à des variables de substitution, et chacune d’elle a ses avantages et ses inconvénients.

L’une des variables de substitution les plus couramment utilisées pour mesurer le capital humain est le temps que les individus ont passé à l’école ou le type de formation qu’ils ont reçue. La plupart des pays conservant des dossiers scolaires complets, les avantages de cette variable sont évidents. Mais ces dossiers ne nous apprennent malheureusement pas ce que les élèves ont appris. Ce qu’on leur enseigne et ce qu’ils ont réellement appris sont en effet deux choses distinctes, qu’il s’agisse des matières scolaires, des valeurs et des attitudes sociales, ou de la capacité à poursuivre son apprentissage par soi-même. Comment déterminer la valeur de cinq ans de scolarité? Elle peut différer selon l’école, de la même façon que la somme de travail nécessaire pour obtenir un diplôme n’est pas nécessairement la même dans tous les systèmes éducatifs. Une autre approche consiste à tester les individus sur ce qu’ils savent, ce que font des projets de l’OCDE tels que PISA. De telles évaluations ont beau être utiles pour effectuer des comparaisons internationales, elles ne portent que sur un éventail restreint d’aptitudes et de compétences. Et comme pour toute étude, l’échantillon retenu peut être trop réduit ou trop peu représentatif pour garantir la précision des résultats. On peut également essayer de déterminer la valeur économique du stock de capital humain d’un pays. En règle générale, on commence par établir les niveaux d’aptitudes, de compétences et de formation des individus, puis on s’intéresse à ce qu’ils gagnent. Mais cette approche pose un certain nombre de problèmes. Tout d’abord, en se focalisant sur le capital humain individuel, on risque de laisser de côté les aptitudes et les capacités collectives qui peuvent contribuer à accroître la productivité de chacun. Ensuite, cette approche présuppose que les aptitudes d’un individu se traduisent automatiquement par un niveau de revenus donné, alors que nous savons que bien d’autres facteurs – sexe, tempérament, personnalité – influent sur la valeur que les organisations attribuent aux individus[777].


Pourtant, malgré quarante années d'échecs dues à ces difficultés, le désir collectif de trouver des solutions pousse de nombreux organismes à poursuivre leurs recherches. Comme les métriques disponibles sont de plus en plus fines et nombreuses, elles permettront d'éviter progressivement les biais introduis par les variables de substitution pour aboutir à des indicateurs consensuels.

Développement durable

Indicateurs des nations

Suite à la Commission Stiglitz-Sen-Fitoussi, France Stratégie propose 10 indicateurs de croissance soutenable[11]:

  • le taux d'emploi, ratio du nombre de personnes en emploi sur le nombre de personnes en âge de travailler
  • l'effort de recherche, qui rapporte au PIB recherche fondamentale, recherche appliquée et expérimentation
  • la dette publique, celles des entreprises et des ménages rapportée au PIB
  • l'espérance de vie en bonne santé, c'est-à-dire sans limitation d'activité dans les gestes du quotidien
  • la satisfaction dans la vie, mesurée par simple interview sur une échelle de 1 à 10
  • l'écart de revenus, mesuré comme le rapport entre les 20% mieux et 20% moins rémunérés
  • la pauvreté en condition de vie, mesurée comme la rencontre d'au moins 3 difficultés parmi le manque de protéïnes, de TV, de lave-linge, de voiture, de téléphone, de chauffage ou de vacances
  • les sorties précoces du système scolaire
  • l'empreinte carbone de la consommation sur le territoire
  • la proportion artificialisée du territoire[11].

Ces indicateurs sont aujourd'hui mesurés et publiés [778], mais ne sont pas encore connectés à l'action publique [779]

Positive Planet propose une autre batterie d'indicateurs, aux termes desquels "La France est plombée par plusieurs facteurs. Elle est mauvaise en terme de transparence (...) mais aussi pour l'école. Ça, c'est un indice ravageur qui la fait baisser dans le classement", a souligné Jacques Attali, lors d'une rencontre avec la presse." Pour deux indicateurs, à savoir le taux de reproduction des inégalités à l'école et la qualité de la démocratie, la France se situe ainsi parmi les 10% les moins bons. Elle est en revanche bien notée en ce qui concerne les infrastructures et les connexions internet, ainsi que la démographie[780].

designing better policies for a digital economy and society not only requires better knowledge about the technological changes underway, but also further efforts to improve measurement, evidence and analysis, e.g. as regards growth and productivity. New areas, such as trust, data flows, the IoT and artificial intelligence, are at the next frontier for measurement. All countries need to work together to fill the data gaps and in doing so enable better benchmarking, evidence building, policy development, and the identification and prioritisation of policy review and action. At the same time, new opportunities are emerging thanks to digital technologies, e.g. through the use of big data analytics and non-official data sources. Statistics could be enriched with timelier, more granular and less costly data[781].

Indicateurs des entreprises

Le décalage entre l'entreprise et la société est de plus en plus grand, car la première est par nature sans frontière, lorsque la seconde possède de nombreuses limites, ne serait-ce que par les territoires physiques[782]. C'est pourquoi d'autres indicateurs sont proposés pour les entreprises par Positive Economy Forum. L’indice repose sur un objectif unique : mettre l’intérêt des générations suivantes au cœur de l’action des entreprises.

  • Intégrer les intérêts des générations futures grâce à une vision stratégique faisant explicitement mention des générations futures et à une politique d’investissement dynamique.
  • Contribuer à la production de richesses partagées, afin d’assurer aux générations futures une croissance inclusive et équilibrée permettant la distribution de la valeur économique produite entre tous les acteurs ;
  • Réduire l’ impact environnemental de ses opérations et de son offre de produits et de services, pour limiter au maximum la dette écologique laissée aux générations futures (réduction des consommations de ressources rares, économie circulaire, usages responsables, etc.) ;
  • Encourager le développement de la connaissance et des compétences au service de tous (formation des collaborateurs, recherche, etc.) pour permettre aux générations futures de bénéficier au mieux des progrès accomplis grâce à l’ intelligence collective ;
  • Créer les conditions d’un dialogue et d’une coopération renforcée entre toutes les parties prenantes de son écosystème, conscientes de leurs responsabilités collectives, pour assurer l’instauration d’une confiance durable au bénéfice des générations futures ;
  • Assurer et améliorer de façon permanente le bien-être de ses collaborateurs, puisque l’intérêt des générations futures passe aussi par le bien-être des générations actuelles[783].

"Business metrics like customer experience, or same-store sales year-over-year, or in IT, things like software releases -- tracking these in correlation with wellness can help satisfy human resources as well as reach the CFO and CEO with metrics that are tied to business results. Well-being means an engaged workforce, and an engaged workforce means better business outcomes," he says. In the future, Albrecht says employee engagement as it relates to well-being will be the only metric CEOs will worry about. As organizational support for well-being increases, workforce management will evolve to focus on that as the number-one gauge of an organization's health[784].

Capital humain et social des nations

L'OCDE constate que, depuis le début des années 80, les mesures du bien-être révèlent un retard par rapport à l'évolution du PIB par habitant dans de nombreux pays de l'OCDE. S'il est vrai que l'on ne comprend pas bien les raisons complexes de cette divergence, le capital humain et le capital social semblent favoriser directement le bien-être, d'où leur importance.

Le capital humain englobe les connaissances, les qualifications et des caractéristiques personnelles telles que la persévérance. Pour les individus, l’investissement dans le capital humain procure un rendement économique en augmentant à la fois les taux d’emploi et les revenus du travail. On peut démontrer ce résultat soit en examinant les niveaux d’instruction, soit par des mesures plus directes du capital humain telles que les résultats obtenus aux évaluations des capacités de lecture, d’écriture et de calcul.

Le capital social représente les réseaux, les normes, les valeurs et les ententes qui facilitent la coopération au sein des groupes ou entre eux. Il faut le distinguer des dispositifs politiques, institutionnels et juridiques plus formels qui ont un rôle complémentaire dans ce processus. L'importance du capital social dans les sociétés, et l'accès des individus à ce capital, sont souvent mesurés au moyen des taux de participation à divers types d'activités associatives et des niveaux déclarés de confiance[785].

L'OCDE, qui observe que les incertitudes gênent l'action politique, recommande depuis 2001 de mesurer le capital humain et social et leur impact sur la croissance et le bien-être, et en particulier:

  • Élargir la mesure du capital humain, en particulier la mesure des compétences qui ne se limitent pas au "savoir lire-écrire-compter" mais qui englobent aussi, entre autres, l'aptitude à travailler en équipe, à résoudre des problèmes et à utiliser les TIC
  • Améliorer la mesure du capital social au sein de groupes sociaux de même que celle de l'accès individuel à ce capital, ces deux types de mesures devant être distincts, mais articulés entre eux[786].

Le Royaume-Uni commence à mesurer le bien-être de ses habitants[12]. L'union européenne développe des critères d'utilité environnementale et sociale, suivie par l'ONU.

Mesurer l'utilité des institutions

L'OCDE constate que les activités commerciales et la vie civique reposent sur toute une série d'institutions civiques, politiques et juridiques, officielles ou non. Les institutions fixent les règles du jeu. Ces institutions, lorsqu'elles fonctionnent efficacement, peuvent permettre aux pays se trouvant à des niveaux différents de développement de gérer le changement et de parvenir à une croissance économique soutenue[787].

Loyauté des plateformes

Agence de notation

Les plateformes, lorsqu'elles animent de grandes communautés, constituent des institutions officieuses. Le CNNum suggère qu'une agence européenne de notation de la loyauté des plateformes, appuyée sur une expertise juridique et technique ainsi que sur un réseau ouvert de contributeurs, pourrait être mise en place, afin de faire jouer les leviers de réputation des plateformes et influer sur les décisions des investisseurs[788] Cette notation se baserait en particulier sur les critères suivants :

  • Le non-respect avéré et récurrent des règles de protection des données (avis du Contrôleur européen de la protection des données) ;
  • Le pouvoir d’un acteur d’évincer ou de nuire à l’innovation : maîtrise de ressources clefs, de points critiques d’accès à la visibilité, à l’information, contrôle d’une API devenue structurante, etc[789].
Le contrôle ou la notation

En décembre 2015, le projet de loi prévoit que les plateformes définissent leurs propres indicateurs de loyauté.

En Janvier 2016, la Députée Corinne Erhel fait adopter un amendement CE182 du projet initial pour expérimenter les notations.

Elle est en particulier motivée par son doute dans les indicateurs de loyauté :

Votre rapporteure doute de l’efficacité des pratiques d’autorégulation mises en place par les plateformes, si elles devaient se conformer aux dispositions prévues par la rédaction actuelle de l’article 23. En particulier, comment évaluer, via un indicateur qualitatif ou quantitatif, la loyauté des plateformes ? En outre, ces obligations, assez contraignantes, ne laissent que peu de marge de manœuvre aux plateformes pour améliorer elles-mêmes la confiance que les utilisateurs placent dans leurs services. Dans ces conditions, votre rapporteure a proposé une rédaction globale qui a pour objet de proposer un meilleur équilibre entre autorégulation des plateformes en ligne et intervention de la DGCCRF, afin d’établir une information fiable et complète à destination des utilisateurs de ces plateformes.

Elle propose donc de remplacer les indicateurs par une expérimentation à conduire par le CNNum :

"Il prévoit, à titre expérimental pour une durée de trois ans, la possibilité pour le Conseil national du numérique de lancer une plateforme d’échange citoyen, qui permettrait, en se fondant sur divers indicateurs, de nourrir la réflexion sur la loyauté des plateformes. Il me semble important, au-delà de la régulation, de développer une réflexion citoyenne sur le fonctionnement des plateformes, notamment à travers la pratique des notations auxquelles ces dernières seraient sans doute plus sensibles.
L’important est de mettre en place un dispositif suffisamment souple et efficace, qui permette à chacun d’établir des comparaisons et d’avoir une lecture la plus transparente possible."

Le débat sur cet amendement est expéditif.[790]

En juillet 2016, le texte final supprime l'évocation de la plateforme de notation.

Projet de Loi de décembre 2015[791]

« Art. L. 111-5-2. – I. – Les opérateurs de plateformes en ligne, dont l’activité dépasse un seuil de nombre de connexions défini par décret :

  • 1° Élaborent et diffusent auprès des consommateurs des bonnes pratiques visant à renforcer leurs obligations de clarté, de transparence et de loyauté ;
  • 2° Définissent des indicateurs permettant d’apprécier le respect de leurs obligations de clarté, de transparence et de loyauté ;
  • 3° Rendent périodiquement publics les résultats de l’évaluation des indicateurs mentionnés au 2°.

Les informations mentionnées aux 1° à 3° sont communiquées à l’autorité administrative compétente.

II. – L’autorité administrative compétente peut notamment :

  • 1° Procéder à des enquêtes dans les conditions prévues au premier alinéa du II de l’article L. 141-1, en particulier auprès des opérateurs de plateformes et de tout organisme participant à l’évaluation de leurs pratiques ;
  • Publier la liste des plateformes en ligne ne respectant pas leurs obligations au titre de l’article L. 115-5-1 ;
  • 3° Recueillir auprès des opérateurs de plateformes en ligne mentionnés au I les données nécessaires en vue de la publication par leurs soins, ou par un organisme désigné à cet effet, des résultats de ces indicateurs, lorsqu’elle estime que les informations mises à la disposition des consommateurs ne permettent pas au consommateur d’apprécier et de comparer les pratiques mises en œuvre.

Un décret précise les modalités d’application du présent II.

Amendement CE182, 13 Janvier 2016[792]

I. – Après l'article L. 111‑5‑1 du même code, il est inséré un article L. 111‑5‑2 ainsi rédigé : Art. L. 111‑5‑2. – Les opérateurs de plateformes en ligne, dont l'activité dépasse un seuil de nombre de connexions défini par décret,

  • élaborent et diffusent auprès des consommateurs des bonnes pratiques visant à renforcer les obligations de clarté, de transparence et de loyauté mentionnées à l'article L. 111‑5‑1.
  • L'autorité administrative compétente peut procéder à des enquêtes dans les conditions prévues au premier alinéa du II de l'article L. 141‑1 afin d'évaluer et de comparer les pratiques des opérateurs de plateformes en ligne mentionnées au premier alinéa du présent article. Elle peut, à cette fin, recueillir auprès de ces opérateurs les informations utiles à l'exercice de cette mission. Elle diffuse périodiquement les résultats de ces évaluations et de ces comparaisons, et rend publique la liste des plateformes en ligne qui ne respectent pas leurs obligations au titre de l'article L. 115‑5‑1.

Un décret précise les modalités d'application du présent article.

II. – À titre expérimental et pour une durée de trois ans à compter de la promulgation de la présente loi, le Conseil national du numérique peut mettre en place et gérer une plateforme d'échange citoyen qui permet, dans une logique participative, de recueillir et de comparer des avis d'utilisateurs sur le respect des obligations des opérateurs de plateforme en ligne mentionnées à l'article L. 111‑5‑1 du code de la consommation, de mettre en place des outils d'évaluation de leurs pratiques, et de publier des avis à destination du grand public. »

Texte adopté en première lecture, 26 janvier 2016[793]

Art. L. 111-5-2-1 (nouveau). – Les opérateurs de plateformes en ligne mentionnés à l’article L. 111-5-2 par l’intermédiaire desquels des contenus illicites sont susceptibles d’être diffusés à grande échelle à destination des consommateurs résidant en France :

  • 1° Désignent une personne physique comme leur représentant légal en France ;
  • 2° Élaborent des bonnes pratiques visant à lutter contre la mise à la disposition du public, par leur entremise, de contenus illicites, notamment par la mise en œuvre de dispositifs techniques de reconnaissance automatisée de tels contenus ;
  • 3° Définissent des indicateurs permettant d’apprécier le respect des lois et règlements relatifs aux contenus qu’ils mettent à la disposition du public ;
  • 4° Rendent périodiquement publics les résultats de l’évaluation des indicateurs mentionnés au 3°.

Les informations mentionnées aux 1° à 4° sont communiquées à l’autorité administrative compétente. »

II (nouveau). – À titre expérimental et pour une durée de trois ans à compter de la promulgation de la présente loi, le Gouvernement définit, par voie réglementaire, les conditions de mise en place et de gestion d’une plateforme d’échange citoyen qui permet, dans une logique participative, de recueillir et de comparer des avis d’utilisateurs sur le respect des obligations des opérateurs de plateforme en ligne mentionnées à l’article L. 111-5-1 du code de la consommation, de mettre en place des outils d’évaluation de leurs pratiques, d’élaborer des bonnes pratiques visant à renforcer leurs obligations de clarté, de transparence et de loyauté, de définir des indicateurs permettant d’apprécier le respect de ces obligations et de rendre périodiquement publics les résultats de l’évaluation des indicateurs mentionnés.

Article 23 bis (nouveau)

I. – Les plateformes ayant pour objet des prestations de services proposées par des professions réglementées doivent recevoir un avis conforme de l’institution chargée de l’application des règles déontologiques de ladite profession.

À défaut, la plateforme ne peut pas faire référence au titre de la profession réglementée dans sa communication auprès des consommateurs.

II. – Au titre de l’article L. 115-27 du code de la consommation, un label « qualité » attestant du respect des règles déontologiques est délivré par l’institution régissant la profession réglementée concernée.

Texte de la Commission des Lois Constitutionnelles, 6 avril 2016[794]

I. - Après l'article L. 111-7 du code de la consommation, dans sa rédaction résultant de l'ordonnance n° 2016-301 du 14 mars 2016 précitée, il est inséré un article L. 111-7-1 ainsi rédigé :

« Art. L. 111-7-1. - Les opérateurs de plateformes en ligne dont l'activité dépasse un seuil de nombre de connexions défini par décret élaborent et diffusent aux consommateurs des bonnes pratiques visant à renforcer les obligations de clarté, de transparence et de loyauté mentionnées à l'article L. 111-7.

« L'autorité administrative compétente peut procéder à des enquêtes dans les conditions prévues à l'article L. 511-6 afin d'évaluer et de comparer les pratiques des opérateurs de plateformes en ligne mentionnées au premier alinéa du présent article. Elle peut, à cette fin, recueillir auprès de ces opérateurs les informations utiles à l'exercice de cette mission. Elle diffuse périodiquement les résultats de ces évaluations et de ces comparaisons.

« Un décret précise les modalités d'application du présent article. »

II. - (Supprimé)


Texte modifié par le Sénat en première lecture, 3 mai 2016[795]

I. - Après l'article L. 111-7 du code de la consommation, dans sa rédaction résultant de l'ordonnance n° 2016-301 du 14 mars 2016 précitée, il est inséré un article L. 111-7-1 ainsi rédigé :

« Art. L. 111-7-1. - Les opérateurs de plateformes en ligne dont l'activité dépasse un seuil de nombre de connexions défini par décret élaborent et diffusent aux consommateurs des bonnes pratiques visant à renforcer les obligations de clarté, de transparence et de loyauté mentionnées à l'article L. 111-7.

« À compter du 1er janvier 2018, sans préjudice de dispositions législatives ou règlementaires plus contraignantes, les opérateurs de plateformes en ligne sont tenus d'agir avec diligence en prenant toutes les mesures raisonnables, adéquates et proactives afin de protéger les consommateurs et les titulaires de droits de propriété intellectuelle contre la promotion, la commercialisation et la diffusion de contenus et de produits contrefaisants, tels que définis aux articles L. 335-2 à L. 335-4-2, L. 521-1, L. 615-1 et L. 716-1 du code de la propriété intellectuelle.

« L'autorité administrative compétente peut procéder à des enquêtes dans les conditions prévues à l'article L. 511-6 du présent code afin d'évaluer et de comparer les pratiques des opérateurs de plateformes en ligne mentionnées au premier alinéa du présent article. Elle peut, à cette fin, recueillir auprès de ces opérateurs les informations utiles à l'exercice de cette mission. Elle diffuse périodiquement les résultats de ces évaluations et de ces comparaisons. »

II. - (Supprimé)

Texte adopté le 20 juillet 2016 [796]

I. – Après l’article L. 111-7 du code de la consommation, il est inséré un article L. 111-7-1 ainsi rédigé :

« Art. L. 111-7-1. – Les opérateurs de plateformes en ligne dont l’activité dépasse un seuil de nombre de connexions défini par décret élaborent et diffusent aux consommateurs des bonnes pratiques visant à renforcer les obligations de clarté, de transparence et de loyauté mentionnées à l’article L. 111-7.

« L’autorité administrative compétente peut procéder à des enquêtes dans les conditions prévues à l’article L. 511-6 afin d’évaluer et de comparer les pratiques des opérateurs de plateformes en ligne mentionnées au premier alinéa du présent article. Elle peut, à cette fin, recueillir auprès de ces opérateurs les informations utiles à l’exercice de cette mission. Elle diffuse périodiquement les résultats de ces évaluations et de ces comparaisons et rend publique la liste des plateformes en ligne qui ne respectent pas leurs obligations au titre de l’article L. 111-7. »

II. – (Supprimé)

Efficacité des politiques publiques

Le CNNum considère que l'ouverture des données permettra de développer de nouveaux modes d’évaluation des politiques publiques, dont le numérique rend possible l’émergence de nouvelles méthodes d’évaluation. En amont de la mise en œuvre d’une politique, les algorithmes permettent par exemple de modéliser les impacts sociaux, économiques et environnementaux d’une mesure. En aval, de nouvelles méthodes d’évaluation peuvent être développées à partir de la mise en réseau des expertises et de l’amélioration collective des indicateurs d’évaluation[797].

Henri Verdier, Directeur d'Etalab, va même plus loin. Il considère que l’ouverture des données publiques, en France, se fonde sur la Déclaration des droits de l’homme et du citoyen et son article 15 : « La société est en droit de demander compte à tout agent public de son administration. »[798].


Estimer la santé à long terme des entreprises

Capital immatériel[799]

La volatilité des marchés financiers remet en cause l'hypothèse de leur efficience. Le cours de bourse ne reflète en effet qu'occasionnellement les performances fondamentales des entreprises et leur valeur. Il ne tient pas compte de la part immatérielle des entreprises, portée par ses clients, ses salariés, ses brevets, ses technologies. Ce sont autant d'éléments absents des bilans financiers, mais qui peuvent être révélateurs de la prospérité et de la pérennité de l'entreprise. Il devient essentiel de favoriser la croissance des entreprises grâce à la promotion de leur Valeur de Référence, indépendamment de toute spéculation boursière. La Reference Value® est le fruit de la nouvelle méthode de calcul de la valeur des entreprises développée par l'agence RVS. Les objectifs du projet sont l'établissement, le contrôle et la diffusion en continu et en euros de la valeur de référence des entreprises selon un modèle de calcul normé, déposé et public, qui prend en compte leurs performances tant financières, qu'économiques et immatérielles. Le consortium Reference Value propose d'intégrer dans une méthode de valorisation d'entreprise les actifs immatériels, au même titre que les autres actifs notamment le capital Humain, le capital Marque, le capital Savoirs et le Capital Adhérents. La valeur de l'entreprise est ainsi corrélée exclusivement à des informations d'entreprise, qui sont collectées massivement à cette fin.


Empreinte sociale

Principe

Si, à côté de la performance économique, la performance environnementale est l’objet de plus en plus de considérations, l’empreinte sociale commence aussi à être mesurée. Les entreprises qui seront les mieux armées pour s’engager sur cette performance sociale, la mesurer, la valoriser et la revendiquer disposeront d’un avantage compétitif sur leurs concurrents. Non seulement l’empreinte sociale est un élément clé de la performance de l’entreprise, mais plus encore que c’est dans l’articulation de ces trois empreintes économique, environnementale et sociale que l’entreprise maximise sa création de valeur dans le long terme.


L’empreinte sociale interne des entreprises, c’est l’impact des politiques sociales menées par l’entreprise pour ses salariés en termes d’employabilité, de diversité, d’organisation du travail et plus généralement des moyens de la performance mis à disposition des collaborateurs par l’entreprise.
L’empreinte sociale externe des entreprises s’exerce à deux niveaux :
  • Les politiques de l’entreprise envers son écosystème contractuel qui visent à faire progresser ce réseau de clients, fournisseurs, sous-traitants et partenaires
  • Les initiatives de l’entreprise vers la société dans son ensemble qui visent à impacter l’écosystème favorablement

L’empreinte sociale d’une entreprise correspond à l’écart entre les Captations (C) de l’entreprise sur son écosystème (ex : les ressources humaines qu’elle emploie) et les Apports (A) de l’entreprise à son écosystème (ex : les conditions de travail de ces ressources humaines). Elle se mesure sur la base de critères aussi variés que l'Employabilité le Partage de la valeur créée, l'Anticipation des transformations, la Mobilisation des talents, la Cohésion sociale, les Relations commerciales équitables, le Soutien au développement des compétences, les Relations clients, l'Engagement pour la dynamique entrepreneuriale ou l'Ethique des affaires.

Si l'empreinte sociale est positive, il s'agit d'une l’entreprise pollinisatrice, qui enrichit et fertilise son écosystème, lui assurant à elle ainsi qu’à la société une prospérité de long terme[800]

Labels

Le label « Top Employer Global » aux entreprises certifiées au moins dans 20 pays et sur plusieurs continents. 600 pratiques et indicateurs en matière de conditions de travail ont été audités pour chacun des 28 pays qui ont été certifiés. Saint-Gobain s’est particulièrement distingué par l’attention qu’il porte à la gestion des talents et au développement des compétences [801]

Label "Great Place to work"


Caractère durable

L'indicateur BIOM mesure la part du chiffre d'affaires que l'entreprise utilise dans les dépenses répondant aux enjeux du développement durable sur son territoire. Pour le calculer, Biom work procède à un audit de l'entreprise en analysant ses documents comptables et notamment son compte de résultats détaillé, sa liasse fiscale et la balance de ses comptes fournisseurs. Ces informations sont examinées en regard de 37 référentiels publics du développement durable comme la loi sur la transition énergétique, celle relative à la biodiversité, le Code du travail, le plan santé au travail, le plan local pour l'insertion et l'emploi, celui pour l'innovation ou celui sur la prévention des déchets.
De ces différents textes sont dégagés environ 70 critères correspondant à autant de lignes comptables. Les dépenses afférentes -- masse salariale, impôt sur les sociétés ou plan de formation par exemple -- sont ensuite ajoutées et leur somme est divisée par le chiffre d'affaires total de la structure[802].

Le prisme de l'utilité réinvente notre modèle économique

Quitter notre ancien modèle

Notre système économique ignore ce qui n'est pas financièrement mesurable. Il favorise la pollution, l'organisation de la pénurie, la rente, le pouvoir de nuisance, la dissimulation ou la rétention d'information.

Nos anciens paradigmes économiques sont basés sur la rareté, la division et le malthusianisme, c’est-à-dire des paradigmes qui sont trivialement ancrés dans le matériel et non dans l’immatériel. Or ces paradigmes économiques, hérités de la révolution industrielle, ont encore la vie très dure, car ils ont envahi et normalisé notre système éducatif lui-même, formant les générations de demain avec les idées d’hier, mesurant le passé sur le futur[803].

Malthus, économiste du dix-neuvième siècle qui, dans ses Principes d’économie politique, publiés en 1820, met le mieux en évidence la manière dont les économistes ont « construit » le concept de richesse avec lequel nous vivons encore aujourd’hui. Selon lui, nous ne pourrons « aborder aucune discussion sur l’accroissement relatif de la richesse chez les différentes nations si nous n’avons un moyen quelconque, quelque imparfait qu’il soit, d’évaluer la somme de cet accroissement ». Voilà le terme important lâché : l’économiste ne cherche pas la « vraie » définition de la richesse, il cherche un moyen de permettre à chaque nation d’exhiber sa puissance et plus précisément d’exhiber, régulièrement, et de la manière la plus précise possible, la manière dont sa richesse s’est accrue (Vanoli, 2003). Pour « faire de l’économie politique une science positive fondée sur l’expérience et susceptible de donner des résultats précis, il faut prendre le plus grand soin d’embrasser seulement, dans la définition du terme principal dont elle se sert, les objets dont l’accroissement ou la diminution peuvent être susceptibles d’évaluation ; et la ligne qu’il est le plus naturel et le plus utile de tracer nettement est celle qui sépare les objets matériels des objets immatériels ». La fin a justifié les moyens : c’est parce que l’on cherchait une réalité dont les accroissements pourraient être mesurés par une science en laquelle on pourrait avoir une totale confiance que cette définition-là de la richesse a été donnée, au prix de certaines contradictions. La comptabilité nationale, conçue et mise en place dans la plupart des pays occidentaux un bon siècle plus tard, à partir de 1945 pour la France, va reprendre à peu de choses près cette conception : ce qui intéresse la comptabilité nationale, c’est la production, et plus précisément la production marchande. Il y a richesse s’il y a un produit et si ce produit est apporté sur le marché et approprié par quelqu’un, ou, depuis 1976 (année où l’on inclut dans la production la production dite non marchande), si le produit est consommé par quelqu’un même s’il ne le paye pas à son prix. Ce qui compte, c’est que quelque chose soit « produit », c’est-à-dire ait fait l’objet d’une transformation et soit approprié. Et la comptabilité nationale n’a fait que reprendre cette idée que la richesse d’une société se mesure au montant de son PIB (Fourquet, 1981)[804].

Malthus reconnaît que l’économie n’évoque que les “ richesses matérielles grossières ” mais que les vraies richesses sont d’une autre nature[805].

Quitter l'opposition Capitalisme / Communisme

Le 'rifkinisme'

Avec son livre La nouvelle société du coût marginal zéro, l'essayiste Jeremy Rifkin a proposé une première vision de l'économie numérique.

On y voit émerger un nouveau complexe communications-énergie-transports, qui donne naissance à l'économie du partage. L'Internet de l'information, déjà largement répandue, commence à converger avec un très jeune Internet de l'énergie, et un début d'Internet des logistiques. Dans ce monde du partage vous pourrez alimenter votre petite entreprise de production 3D par de l'énergie gratuite que vous aurez produite vous-même ou échangée sur Internet. Un monde dans lequel vous pourrez transporter votre produit 3D dans des véhicules électriques, qui eux-mêmes ont été alimentés par de l'énergie renouvelable. Et dans dix ans maximum, ces voitures seront sans chauffeur. Vous les réserverez sur votre mobile et elle vous localiseront toutes seules avec leur GPS. Si on peut produire des biens et des services pour rien, cela veut dire que l'exploitation de ce que la planète peut encore nous offrir est faite avec une efficacité maximale, sans gâchis. En produisant à un coût marginal zéro et en le partageant dans une économie circulaire – outils, voitures, jouets, vêtements – nous obtenons des avantages immenses en termes de pollution et de dégradation de l'environnement ! [806]. Nous entrons dans un monde partiellement au-delà des marchés, où nous apprenons à vivre ensemble, toujours plus interdépendants, sur un communal collaboratif mondial. En 2050, il se sera probablement imposé en tant qu'arbitre suprême de la vie économique sur l'essentiel de la planète [807].

Sur Internet, et plus largement dans les industries numériques, l’avènement de la société du coût marginal zéro a déjà eu lieu. La dématérialisation de l’information et donc, la possibilité de la reproduire et de la distribuer à un coût marginal proche de zéro, a profondément bouleversé le modèle économique de ces industries. L’émergence d’une offre alternative gratuite par des prosommateurs de contenus et d’information (wikipedia, youtube, etc.) ont obligé les acteurs traditionnels à s’aligner en proposant une offre gratuite. Selon Jeremy Rifkin, le coût marginal zéro dépassera largement les frontières du monde numérique. A la manière de ce qui s’est produit pour les industries numériques, le coût marginal zéro se propagerait selon lui à des secteurs ancrés dans le monde physique. Comme pour l’information hier, nous deviendrions demain des prossomateurs d’énergie et de biens, fédérés au sein de communs collaboratifs. A l’origine de ce changement de paradigme, l'avènement d'une infrastructure intelligente qui agirait comme un gigantesque système nerveux global renseigné par des capteurs de plus en plus nombreux permettant de mesurer en temps réel, énergie, flux, températures, ou niveau de matières premières : l’Internet des objets.

Premier secteur économique concerné par le coût marginal zéro, l’énergie. Pour Jeremy Rifkin, le développement des énergies renouvelables pilotées par un "Internet de l’énergie" devrait permettre à terme de bénéficier d’une énergie abondante et donc gratuite. Avec les éoliennes et les panneaux solaires qui équiperont la plupart des bâtiments, chaque unité de consommation deviendrait également productrice d’énergie. Cette production d’électricité atomisée serait échangée et distribuée via cet Internet de l’énergie. La prédiction la plus spectaculaire de Rifkin concerne l'industrie. Grâce aux imprimantes 3D, nous passerions d'après lui d’ « une production de masse à une production par les masses ». Avec les imprimantes 3D, il est déjà possible de produire et reproduire à un coût marginal faible et constant des objets dessinés et conçus sur des logiciels open source par des créateurs passionnés répartis aux quatre coins du monde.

Ce qui a fait l'essence même du capitalisme va se retourner contre lui. Dans l’hypothèse où la technologie permettrait une « productivité extrême » rapprochant le coût marginal de production de zéro, et dans le contexte d’une « concurrence acharnée » entre entreprises obligeant les entreprises à vendre à un prix au niveau du coût marginal, la mise en vente des nouvelles unités produites se ferait à un prix quasi nul. Ainsi, le profit qui fait vivre le capitalisme se tarirait. Sans perspective de profits, permettant de couvrir les coût fixes, l’initiative privée capitaliste disparaîtrait au profit d’un nouveau système d’organisation : les communs, dont la motivation ne serait plus le profit mais l’envie « d’améliorer le bien-être social de l’humanité »[808].

Cette vision de Rifkin est séduisante, mais elle est au bas mot incomplète. Aujourd'hui, les communs sont monétisés au profit des plate-formes collaboratives, ce qui conduit non à l'éclipse du capitalisme mais à un hyper-capitalisme au profit d'une minorité et aux dépens du plus grand nombre.

Paradoxalement, plus les licences sont « communistes » et plus les pratiques sont capitalistes. Une personne qui contribue aux communs ne peut pas dans l’état actuel des choses assurer sa subsistance à travers cette pratique, pour « vivre dans les communs ». La valeur est « aspirée » en dehors du commun vers la sphère de l’accumulation capitalistique[809]. Le "rifkinisme" est l'aboutissement de l'ère Google.


Quitter la méritocratie dévoyée

Le principe du mérite fait partie intégrante des normes et des valeurs des sociétés démocratiques : aujourd’hui, les inégalités sociales sont jugées acceptables (voire justes) si et seulement si elles sont censées découler des qualités individuelles (talents, efforts) et non de propriétés héritées (notamment l’origine sociale, le sexe), au terme d’une compétition ouverte. De plus, non seulement le mérite permet de réconcilier égalité de principe de tous et inégalités effectives (en équilibrant, selon le principe de base de la justice distributive, les contributions et les rétributions), mais il est aussi gage d’une certaine efficacité globale, au niveau de la société, puisque chacun est incité à exploiter au mieux ses talents.

Or, dans nos sociétés, le mérite s’exprime par le mérite scolaire, l’école étant chargée de détecter les mérites et de donner une caution aux classements qu’elle réalise, constituant alors le fer de lance de la méritocratie.[810]. Georges Pompidou, petit-fils de paysans et fils d'instituteurs reçu premier à l'agrégation - sans parler de la suite -, incarne à lui seul l'idéal de la IIIe République : la réussite par le mérite. Pour ce parcours sans faute, une voie royale : les grandes écoles[811].

Pourtant, dès la fin du XIXème siècle, le modèle élitiste mis en place sous Napoléon III par Gréard est généralisé à partir des années 1880 par Jules Ferry. Si la scolarité devient obligatoire, du moins en théorie, à partir de Jules Ferry, les passages de classe en classe sont filtrés de telle sorte que seuls les meilleurs atteignent le saint des saints le cours supérieur et le certificat d'études[812]. Le directeur de la rue d'Ulm, Numa-Denis Fustel de Coulanges, écrivait au ministre de l'Instruction publique que son école n'était « faite que pour l'élite » .

La distinction entre mérite et élitisme finit par s'estomper dans les discours, et le rôle central de l'école s'affermit. En 1895 son successeur, Georges Perrot, pouvait déclarer : « La démocratie a besoin d'une élite . [...] C'est à nous de travailler à lui fournir quelques-uns des éléments qui serviront à la constituer ». Une étude publiée en 1933 par des universitaires français concluait en ces termes : « Les examens tendent dans la société moderne - en France tout au moins - à devenir le pivot de l'organisation sociale... Le prestige du sang et de la famille est déjà à peu près annulé ; celui de la richesse, fortement compromis, cède du terrain devant le triomphal essor du parchemin »[813]. L'école parfaite n'existe pas et l'analyse historique montre que les réflexions reposant sur l'existence supposée d'un âge d'or scolaire sont vaines. Cependant, cette nostalgie s'explique par l'influence très forte qu'a exercé l'école de cette époque sur une société française qui s'est assez largement identifiée à ce modèle scolaire.[814].

En revanche, aujourd'hui encore, l'adhésion à la méritocratie est nettement moindre que l’adhésion au principe de mérite[815]. Dès lors, tandis que la méritocratie est un élitisme qui s'est substitué au principe du mérite, l'économie de l'utilité doit permettre de dissiper la confusion et de revenir à ce principe.

Réinventer notre système économique

Quelle est notre responsabilité collective dans la révolution numérique ? L'histoire nous enseigne qu'une révolution industrielle se fait sûrement grâce aux startups, peut-être avec le relai des grands groupes et sans doute malgré un Etat globalement contre-productif.

On ne sait pas quelles sont les bonnes réformes sur ce sujet. Peut-être que même il n’y en a pas. Peut-être que les choses se font seules. Notre responsabilité c’est d’abord de le comprendre, de partager ce constat ensemble. Ensuite c’est de tout faire pour que celles et ceux qui dans notre pays font cette transformation puissent le faire, et de les aider à réussir. Et enfin, c’est que tout le monde ait sa place dans cette transformation, c'est-à-dire qu’on ait le bon cadre, qu’on ait le bon système qui permet d’organiser nos préférences collectives, les bonnes sécurités qui vont avec cette transformation. Et que chacune et chacun y ait sa place[816].

La crise de 2008 nous a en effet appris que le système capitaliste était arrivé au bout de sa logique bénéfique. Après avoir sorti des milliards de personnes de la misère, il facilite maintenant la prédation sociale et écologique. La morale de Florian "Chacun son métier, les vaches seront bien gardées" n'est vraie que dans un système sain. Bien faire individuellement son métier dans le système vicié actuel nous conduit collectivement à la catastrophe. Il est à craindre que les générations futures nous jugent de la même manière que nous jugeons les "collabos" de l'occupation. Nous avons donc le devoir de réinventer un système économique sain.

Face aux limites des théories relatives au capital et au travail, la métrologie de l'utilité apparaît comme un indispensable retour à la raison[817]

Vers l'économie sans marché

Walter Lippmann, célèbre économiste Américain, visionnaire, écrivait en 1937 dans La Cité libre : « Le genre de révolution qui rendrait périmée l’économie marchande serait une série d’inventions permettant aux hommes, par leur effort individuel et sans avoir besoin de personne, d’obtenir un niveau de vie meilleur que celui auquel ils aspirent maintenant »[818].

L'économie de marché a triomphé de l'économie marxiste, mais elle succombera à son tour face à l'économie de l'utilité. Il s'avère en effet que le paiement à l'usage se développe rapidement grâce au numérique. Nous connaissons depuis longtemps les compteurs d'eau, d'électricité et de téléphone qui mesurent des mètres cubes, des kilowatt-heure, des SMS ou des méga-octets. Plus récemment sont apparus les paiements au clic ou au lead avec la publicité en ligne, les jeux videos free-to-play comme Candy Crush dont les options donnent lieu à des micro-paiements, les services freemium comme Linkedin dont le paiement est progressif et proportionnel à l'usage, les plate-formes comme BlaBlaCar dont le paiement est une commission.

Le paiement à l'usage est devenu la norme de l'économie numérique. D'abord pour des raisons économiques, puisque le coût marginal de fabrication d'un produit numérique est quasi-nul, ce qui donne de la latitude pour fixer le prix. Ensuite pour des raisons commerciales, puisque l'innovation permanente décourage l'achat et encourage la diffusion la plus rapide possible des produits. Pour des raisons techniques, puisque le cloud et les capteurs des objets connectés donnent au vendeur une visibilité grandissante sur les usages. Pour des raison organisationnelles, enfin, puisque le co-design et la co-construction se substituent à l'appel d'offre.

Le paiement à l'usage change donc d'échelle, mais aussi de nature. A la mesure de la quantité se substitue celle de la qualité subjective. Grâce à l'analyse des traces des utilisateurs, comme les mouvements de la souris, Amazon connaît déjà sa réponse avant même de lui avoir posé la question "ce commentaire vous a-t-il été utile ?". Les quelques réponses d'internautes ont pour seul objet d'éviter toute éventuelle dérive de son algorithme. Le prix de l'économie de marché était un équilibre entre une offre et une demande solvables. Il devient la représentation des effets utiles d'un produit pour un utilisateur donné à un moment donné. A prestation fixe, il y a donc par exemple autant de prix du billet que de passagers du même avion. A prix fixe, la qualité perçue de la prestation des VTC devient déterminante face aux taxis.

Cette évolution va s'intensifier dans toutes les filières, au fur et à mesure de l'augmentation de la part immatérielle des produits, jusqu'à toucher le prix de la matière première. Une usine Tesla se résume déjà quasiment à un outil robotisé de transformation de rouleaux d'aluminium en voitures. Les ressources humaines, lorsqu'elles cherchent à concurrencer l'automate, finissent par revenir au travail à la tâche, comme c'est le cas de Mechanical Turk. En abandonnant les travaux répétitifs, en revanche, elles valorisent l'expertise, les capacités d'adaptation, de décision, de créativité ainsi que les compétences relationnelles, aujourd'hui mal reconnues. La mesure de leur utilité devient plus pertinente que celle du temps de travail, ce qui finit par faire disparaître la notion même de marché de l'emploi.

Le système de l'utilité

Peter Drucker disait : “If you want it, measure it. If you can’t measure it, forget it.”

La massification des métriques de l'utilité promet de révéler le niveau de satisfaction des utilisateurs intermédiaires et finaux. Elle maximise cette satisfaction grâce à une boucle de rétroaction plus efficace sur la production.

Elle élargit le périmètre des marchés en favorisant le développement de l'offre « à toutes fins utiles » : elle facilite la marchandisation de produits intermédiaires disponibles pour l'intégration par des tiers, de biens communs ouverts à la commercialisation sous réserve de rémunération équitable des contributeurs ou de contributions à de larges inventions collectives.

Elle revalorise les capitaux immatériels appréciés de manière subjective comme la dynamique collective ou le capital relationnel, ainsi que les compétences soft comme la créativité, le dévouement, la responsabilité et la débrouillardise.

Elle impose l' entreprise hyper-coopérative comme modèle principal de production. Ce modèle, qui est à la convergence de ceux de l' entreprise élargie, de l' entreprise libérée, de l' entreprise à bénéfice public[819] ou de l' entreprise distante, bénéficie des pratiques collaboratives des plate-formes de crowdsourcing. Il s'inspire du principe de la rémunération équitable des auteurs-compositeurs, et met à disposition de ses collaborateurs des tableaux de bords leur permettant de piloter leur carrière.

Elle internalise les effets sur l'environnement, la société et la culture au cœur des modèles de rentabilité. Elle provoque ainsi une régulation économique plus intègre et plus sûre que toute régulation réglementaire.

Elle favorise une politique économique davantage en ligne avec le bien-être que ne le permet le tableau de bord trompeur du PIB et de la recherche.

Elle cristallise la responsabilité du système économique autour de la subjectivité de l'utilisateur. Davantage qu'en consommateur responsable, elle le convoque en tant que co-producteur, juge des effets utiles et citoyen du monde. Elle le questionne sur ses intentions et ses valeurs. En lui attribuant un rôle grandissant face au traditionnel duo travailleur-capitaliste, l'utilité réinvente aujourd'hui notre modèle économique pour en dépasser les limites.

Pense-bête de l'iconomie

déplacé dans Wikipedia / Iconomie

Notes et références

Notes

  1. Le mot "capital" désigne ici le capital financier d'une entreprise, et non le "capital fixe" que forment ses équipements

Références bibliographiques

  1. Vincent Lorphelin, Michel Volle et Christian Saint-Etienne. Le triomphe de l'économie de l'utilité. Le Monde du 20 juin 2015
  2. 2,0, 2,1 et 2,2 Christian Saint-Etienne. La France 3.0. Odile Jacob, 2015 p.209
  3. 3,0, 3,1 et 3,2 Allister Gray. Democratising finance: Big data homes in on insurance. Financial Times, 1er février 2015.
  4. 4,0, 4,1 et 4,2 Philippe Moati. La nouvelle révolution commerciale. Odile Jacob, 2011
  5. 5,0 et 5,1 Fabrice Gliszczynski. La SNCF fera payer ses données TGV aux géants du Net. La tribune, 12 février 2015.
  6. 6,0, 6,1 et 6,2 Olivier Passet. Augmenter les salaires, c’est l’intérêt du capitalisme productif. Xerfi Canal, 5 avril 2015
  7. 7,0 et 7,1 Benoît Floc’h. Evaluer ses profs, une démarche courante dans les grandes écoles. Le Monde, 22 février 2013
  8. 8,0 et 8,1 Question de confiance. France 3
  9. 9,0 et 9,1 Sophie Peters. Ils travaillent sans chef. La Nouvelle République, 7 mars 2015
  10. Gary Hamel, First, Let’s Fire All the Managers, Harvard Business Review, Décembre 2011
  11. 11,0, 11,1, 11,2, 11,3 et 11,4 Géraldine Ducos. Quels indicateurs pour mesurer la qualité de la croissance ? France Stratégie, Septembre 2014
  12. 12,0, 12,1 et 12,2 Claudia Sénik. Croissance, richesse, bien-être et bonheur. Xerfi Canal, 26 mars 2015
  13. Dominique Cardon. A quoi rêvent les algorithmes. La République des Idées, Seuil, 2015
  14. Pierre-Noël Giraud, L'homme inutile, Odile Jacob 2015
  15. Revue des outils de recueil et des métriques d’utilisabilité. L’ergonome, 13 mars 2008
  16. site web de Robin Hood
  17. Christian Chavagneux Lehman Brothers : les véritables dessous d’une faillite. Altereco, 18/03/16
  18. Zouheir GUEDRI.Le guide du big data. Corp 2015
  19. Virgile Juhan.Pour conduire sa stratégie data driven, Chauffeur-Privé a choisi Tableau. JDN, 16/5/17
  20. Audrey Chabal. L’INPI Lance Un Service De Cartographie Sur-Mesure Des Inventions Brevetées. Forbes, 16 juin 2017
  21. Derrière le rebondissement de l'affaire Gregory, l'aide d'une intelligence artificielle. Le Monde, 16 juin 2017
  22. Christophe Lagane. Data viz : Tableau Software adopte le langage naturel , Silicone.fr, 29 août 2017
  23. Raquel Gama Soares de Mello · José Eduardo Mendonça Xavier · Roberto Antonio Martins. Use of Big Data Analytics in Performance Measurement Systems. 26/09/2014
  24. Aurélien Duthoit. Comprendre les indicateurs clefs de performance (KPI). Xerfi Canal, 4/06/2015
  25. Henri Bessières.Les indicateurs clés de performance (KPI) du cloud. Journal du Net, 13/11/2015
  26. Norme ISO
  27. Michael J. Mauboussin. The True Measures of Success. HBR, octobre 2012
  28. Bernard Marr.