vendredi 24 juillet 2009

Education des enfants (bis), utilitarisme et motivation intrinsèque


Il y a quelques semaines, je consacrais un billet à l’idée de menace crédible appliquée à l’éducation de ma fille. Comme je ne veux pas que mon fils puisse me reprocher un jour d’avoir parlé de sa sœur et pas de lui sur mon blog, je me sens l’obligation d'évoquer le plus âgé de  mes rejetons…
Bon, je ne veux pas me faire passer pour un spécialiste de l’éducation, une espèce de Marcel Ruffo des économistes. Non et non !  Je suis tout aussi démuni que n’importe quel père face aux problèmes de comportements de ses bambins, et je n’ai malheureusement aucune leçon définitive à donner en dehors du fait que, comme le disait Gabin dans la chanson, « je sais que je ne sais rien ».
La seule différence avec un quidam ordinaire est que, parfois – heureusement pas tout le temps, sinon je deviendrai fou – j’interprète les choses du quotidien avec mes lunettes d’économiste, et de temps en temps, j’infère du raisonnement économique des possibilités de solution. Cela permet de faire de petites expériences en milieu naturel à peu de frais. On va voir que cela n’est pas toujours couronné de succès, loin s’en faut.
Donc, mon fils, presque 7ans, n’est pas quelqu’un de turbulent naturellement, mais d’un peu buté. Ce doit être son ascendance bourguignonne qui a percolé dans ses gênes. En clair, nous avions toutes les peines du monde à lui faire entrer dans le crâne ce qui pouvait être considéré comme de bonnes actions et ce qui pouvait être vu comme de mauvaises actions, afin de l’aider à s’autoréguler.
Nous avons donc eu l’idée, comme beaucoup de parents avant nous sans doute, de recourir à un système de bons et de mauvais points, peut être aussi vieux que l’éducation des enfants elle-même.



[J’en prends à témoin le lecteur : n’y-a-t-il pas dans la grotte de Lascaux une fresque montrant un père donnant un coup de massue à son fils qui venait de casser le squelette du T-Rex qui décorait la grotte familiale et une cuisse de mammouth à sa fille qui venait de recoudre la peau d’ours paternelle ? Et sur la tapisserie de Bayeux un Normand attribuant un crâne rempli d’hydromel à son fils qui venait de massacrer l’intégralité d’un couvent de moines franciscains ?]
… Euh, désolé, Messieurs Lascaux et Bayeux me disent que je fais erreur. Autant pour moi !]

Reprenons le fil de mon histoire. Dans ce système, encore utilisé dans de nombreuses écoles primaires, les enfants ont des points négatifs en cas de mauvais comportement et au contraire des points positifs dans le cas de bonnes actions de leur part (voir la discussion du système de sanctions et récompenses par un psychologue ici).
D’un point de vue économique, ce mécanisme de régulation m’apparaissait comme étant assez proche de la théorie de l’utilité à la Jeremy Bentham (1748-1832, au cas où comme beaucoup de mes étudiants, lecteur, tu ne puisses pas dormir sans avoir la date de naissance et de mort des personnalités citées quelque part), un des fondements de l’analyse économique, puisque la plupart d’entre nous ne jurent que par des fonctions d’utilité pour représenter le comportement des agents. En particulier, les économistes insistent sur des mécanismes incitatifs visant à amener les individus à se comporter correctement d’un point de vue normatif. Jeremy Bentham parlait d’ailleurs de la « comptabilité des peines et des plaisirs ».  Je cite un extrait de son Introduction to the Principles of Morals and Legislation (1789) glané ici :
 « La nature a placé l'humanité sous l'empire de deux maîtres, la peine et le plaisir. C'est à eux seuls qu'il appartient de nous indiquer ce que nous devons faire comme de déterminer ce que nous ferons. D'un côté, le critère du bien et du mal, de l'autre, la chaîne des causes et des effets sont attachés à leur trône. »
Bon, donc si mon fils était rationnel, il devrait chercher à minimiser ses mauvais points, à maximiser ses bons points, de manière à maximiser le nombre de bons points nets (les mauvais points étaient retirés du capital de bon points déjà accumulés, l’intéressé devant atteindre un certain niveau total pour être récompensé matériellement).
Le comportement de mon fils s’est-il significativement amélioré avec l’introduction de ce système de bâton et de carotte ?
Je ne tiens pas une comptabilité explicite de ses bêtises, de leur gravité, tout comme des choses bien qu’il a faites, et donc je ne peux pas faire une analyse statistiquement sérieuse de tout cela, mais basiquement, la réponse est non !
Non seulement son comportement ne s’est pas amélioré, mais des effets pervers du système que nous avions institué ont commencé à apparaître. Si par exemple, nous lui demandions de faire quelque chose, il demandait immédiatement combien il obtiendrait de points en réalisant ce qui lui était demandé, voir même il négociait au préalable en nous proposant de faire quelque chose moyennant attribution de points …  Bref, il avait totalement internalisé la règle, mais globalement ce n’était pas efficace.
Je pense, lecteur, que tu n’es guère surpris de ce résultat, mais je l’ai été personnellement. Après tout, je revendique le droit de rester naïf.
J’ai donc essayé de comprendre un peu ce qui s’était passé dans son esprit d’un point de vue psychologique et pourquoi, même si son comportement avait changé, il n’était pas pour autant plus satisfaisant.  Je me suis rendu compte que nous nous étions placés en fait dans une relation principal (les parents)- agent (les enfants), et que la règle que nous avions instaurée ne tombait pas du ciel.
 En y réfléchissant, je me suis souvenu d’un papier de Fehr et Gaechter (2002) sur l’efficacité économique des incitations matérielles dans le cadre d’une relation principal-agent, comme une relation employeur salarié par exemple. Cette question est fondamentale pour les économistes qui croient en grande majorité à l’efficacité des incitations dans le soutien de la motivation extrinsèque (issue de l'environnement économique) de l'agent pour accomplir certaines tâches.
Or, comme le rappellent Fehr et Gaechter, il existe une vaste littérature dans le domaine de la psychologie sociale qui montre que les incitations économiques peuvent évincer la motivation intrinsèque des individus et dès lors avoir des effets contre-productifs. La mise en œuvre de ces motivations extrinsèques se substitue aux motivations intrinsèques - la satisfaction morale que je tire de bien faire mon travail, sans considération pour les résultats liés à ce travail -, l’effet total étant nul ou, pire, négatif. Cet effet est qualifié de crowding out effect ou, in french dans le texte, d’effet d’éviction.
Imaginons que je sois un employeur et que vous soyez mon salarié. Deux solutions sont possibles : soit je vous propose un haut salaire, sachant que je ne peux que très imparfaitement observer votre performance, et je mise sur la relation de confiance, faisant l’hypothèse que votre effort va correspondre à cette confiance que j’ai mise en vous et que j’ai prouvée en vous payant cher. Il y a en fait de bonnes chances que cela fonctionne, disons avec trois salariés sur quatre. Vous allez répondre à cela en faisant un niveau d’effort élevé, et au global nous serons contents tous les deux. La motivation intrinsèque du salarié (obligation morale) a permis de soutenir la coopération.
 Soit je vous dis "je vais vous donner un salaire élevé, mais je vais vous observer. Je ne peux pas observer parfaitement ce que vous faites, mais mettons une fois sur quatre, je serai capable de savoir exactement ce qu’a été votre effort. S’il a été insuffisant, je vous sanctionnerai en déduisant de votre salaire une amende. S’il a été suffisant, ok tout va bien". Dans cette dernière situation, en dehors de salariés hyper averses au risque, il y a de fortes chances que une proportion non négligeable de salariés cherche à en faire le moins possible… Au global, il n’est pas du tout assuré que le niveau d’output soit beaucoup plus élevé dans la seconde situation que dans la première, car dans la seconde situation, j’ai tué la relation de confiance en mettant en place un système d’incitations extrinsèque (sanction liée à un contrôle), ce qui a prouvé au salarié que je ne lui faisais pas confiance. La motivation extrinsèque vient du fait que le salarié veut établir une certaine réputation ou tout simplement gagner plus d’argent.
C’est exactement cela que testent expérimentalement Fehr & Gaechter en 2002. Dans cette expérience basée sur un « gift-exchange game », un principal propose un contrat indiquant le niveau de salaire proposé et le niveau d’effort attendu. Un agent accepte ou non le contrat et décide, s’il accepte, du niveau d’effort qu’il va réaliser. C’est ce jeu qui est joué dans le traitement de base dit « traitement de la confiance » (Trust Treatment ou TT). Dans un autre traitement dit « traitement avec incitations » (Incentive Treatment ou IT), le principal propose un contrat indiquant le niveau de salaire, le niveau d’effort attendu mais également la pénalité qu’il appliquera si le niveau d’effort observé est inférieur au niveau d’effort désiré. Les décisions de l’agent sont identiques au premier traitement, si ce n’est qu’il a une probabilité exogène d’être contrôlé, et si le contrôle est positif (son niveau d’effort est plus faible que le niveau d’effort désiré), il sera sanctionné. Les résultats empiriques sont assez hallucinants, comme le montre le graphique ci-dessous* :

En abscisses le niveau d'effort choisi par les participants-agents (borné entre 0.1 et 1) et en ordonnées la fréquence de choix (par exemple, le niveau d'effort minimal a été choisi dans 30% des cas dans le traitement "confiance" et dans 43% des cas dans le traitement "incitation"). Quelles conclusions tirer de ces résultats ?
Le niveau d’effort moyen n’est pas significativement inférieur dans le traitement « confiance », et même il est légèrement supérieur. Autre résultat spectaculaire : le niveau de surplus économique réalisé en moyenne dans le traitement « confiance » est plus important que le niveau moyen dans le traitement « incitations ». La différence fondamentale, et cela peut expliquer l’intérêt du principal à mettre en place des motivations extrinsèques, est que le principal capture une plus grande part du surplus dans le traitement « incitations » que dans le traitement « confiance ».
En clair, en mettant en place notre système de bons et mauvais points, nous avions tué la motivation intrinsèque de notre bambin, et les incitations issues des motivations extrinsèques ne suffisaient pas à compenser cela…
Bon, la prochaine fois, au lieu de m'inspirer de Bentham, ou de Laurence Pernoud (rien à voir avec Bentham), je lirai Fehr et Gaechter…
*  Les prédictions théoriques  dans chaque traitement sont, en simplifiant honteusement, les suivantes. Dans le traitement "confiance", l’agent opportuniste choisit le niveau d’effort minimal, mais l’agent qui applique la réciprocité peut très bien réagir positivement à un signal en termes de salaire, augmentant son niveau d’effort quand le salaire proposé augmente. Dans le traitement "incitation", tout dépend de l’importance de la sanction. Si le coût espéré de la sanction est inférieur au coût de l’effort désiré par le principal, l’effort minimum est choisi. Dans le cas contraire, l’effort choisi est l’effort désiré.
PS : merci encore une fois à Marcel Gotlib...

vendredi 17 juillet 2009

Le désastre de l'expédition Franklin : des conséquences dramatiques des procédures d'achat de la Royal Navy



Venant de refermer le magnifique roman de Dan Simmons, « Terror » - c'est un pavé possible pour tes vacances, lecteur -, j’ai, en tant qu’économiste, été frappé  par le fait qu’un des facteurs du désastre de cette expédition polaire fut la mauvaise qualité des conserves embarquées à bord des navires, conserves qui étaient bien sûr absolument nécessaires à la survie de marins totalement inaptes à chasser ou à pêcher en milieu arctique.
Je rappelle brièvement l’histoire : Sir John Franklin, missionné par la Royal Geographical Society, embarque en mai 1845 près de 120 hommes répartis sur deux navires, les HMS Terror et Erebus. Ces deux joyaux de l’art naval britannique voguent vers l’Arctique afin de découvrir le passage du Nord-Ouest, qui fraye une route entre les îles arctiques du Grand Nord canadien et permet de relier l’Atlantique au Pacifique. Cette expédition fut un fiasco retentissant, les deux navires se retrouvant très rapidement prisonniers des glaces en mer de Baffin, et aucune trace ou presque des membres de l’expédition ne fut retrouvée, en dehors d’évidentes preuves de cannibalisme à l’issue des missions de recherche de 1850. Quelques corps furent retrouvés apparemment en 2002  par une mission archéologique (voir ici pour plus de détails), ceux-ci contenant des concentrations de plomb anormalement élevées. Ce défaut était  apparemment dû à la mauvaise qualité des conserves embarquées sur les deux navires, ces conserves devant permettre de tenir environ cinq ans en cas de problème. Le procédé de la conservation était relativement récent, et le fournisseur n’ayant pas veillé à la bonne qualité de ses conserves, leur piètre qualité entraînat du saturnisme parmi l’équipage, maladie encore inconnue à l’époque et qui provoque en particulier  des crises de folie…
Bref, assez stressant comme histoire…. L’échec de cette expédition a bien sûr frappé particulièrement les esprits. Nous sommes en pleine domination des mers par les britanniques, l’empire étant au plus haut (la reine Victoria règne depuis quelques années) et au faîte de la volonté de puissance de la Grande Bretagne.
Le plus intéressant – économiquement parlant s’entend - est que la mauvaise qualité des conserves est en fait la conséquence de la procédure économique de mise en concurrence sur les marchés offerts par la Royal Navy au 19ème siècle, procédure classique de choix au mieux offrant.
En effet, la Royal Navy avait attribué le marché au fournisseur proposant le prix le plus bas pour la marchandise demandée, en l’occurrence les fameuses conserves, notamment de viande et de fruits visant à nourrir les hommes et à éviter le scorbut.
Bien évidemment, le fournisseur ayant emporté l’appel d’offres, donc celui qui a proposé le prix le plus bas, a fourni  une marchandise de la pire qualité qui soit, d’où la déconfiture évoquée plus haut, les conserves s’avérant incapables de permettre la survie de l’équipage.
En fait, cette procédure me fait penser à un jeu que j’utilise en cours pour illustrer les problèmes d’asymétrie informationnelle entre les agents, le jeu de la course de l’acheteur (ou « takeover game »). Ce jeu est en fait une version continue du jeu d’Akerlof, décrit dans le fameux papier de 1970, the Market for Lemons.
Dans ce jeu, des vendeurs sont appariés à des acheteurs. On attribue aléatoirement des valeurs aux vendeurs (qui connaissant donc la qualité intrinsèque du bien qu’ils possèdent). L’acheteur connaît seulement la distribution possible des valeurs économiques et doit alors faire une enchère (proposer un prix d’achat) au vendeur avec lequel il est apparié. Si le vendeur accepte l’offre de l’acheteur, l’affaire devient la propriété de l’acheteur et on suppose que celui-ci est capable de la faire fructifier positivement (en clair, s’il a acheté une affaire qui vaut 100, il peut transformer cette valeur de 100 en une valeur de 150, l’hypothèse étant faite que l’acheteur  est un meilleur gestionnaire que le vendeur).
L’acheteur est, dans le cas de l’affaire "Terror", la Royal Navy et le vendeur, le fournisseur malhonnête. Il y a bien asymétrie informationnelle, dans le sens où la qualité des conserves n’est en fait découverte que bien des mois après le chargement sur les navires, les conserves ne pouvant être consommées si j’ai bien tout compris que quelque temps après leur fabrication.
La différence fondamentale est que, contrairement au jeu de course de l’acheteur décrit plus haut, les fournisseurs sont mis en compétition par la Royal Navy. Mais cela ne vient qu’accroître le problème économique que je vais souligner et qui est une des causes de la catastrophe humaine que va devenir cette expédition.
Le problème est celui décrit par Akerlof. Supposons deux qualités de conserves, une mauvaise et une bonne, seul le vendeur connaissant la qualité du bien qu’il est susceptible de vendre. L’acheteur connaissant la distribution probable des deux qualités (par exemple 50% de mauvaises conserves et 50% de bonnes conserves). Les bonnes conserves sont naturellement plus coûteuses que les mauvaises conserves à produire, et on peut supposer que l’acheteur connaît le coût de production de chaque qualité, donc le prix minimum. Si le vendeur propose un prix élevé, et si l’information était symétrique, cela signalerait les conserves de bonne qualité, de même si le vendeur propose un prix faible, cela signalerait les conserves de mauvaise qualité. Mais le vendeur peut proposer un prix élevé pour de la mauvaise qualité, l’écart entre prix et coût étant très grand. L’acheteur anticipant cela, il va refuser tout prix supérieur au coût de production des conserves de mauvaise qualité. Dès lors, les conserves de bonne qualité ne seront plus vendues et produites et seules les conserves de mauvaise qualité se vendront, et à un prix très bas. A la limite, si la qualité la plus basse est suffisamment mauvaise, il n’y aura plus aucun échange de conserves.
Dans un jeu comme la course de l’acheteur, si on suppose que la qualité des conserves vendues va de 0 € (des conserves pourries, totalement inutilisables) à une valeur supérieure  (par exemple 100 dans le jeu), ces valeurs étant distribués uniformément entre 0 et 100 (c’est une version « continue » d’Akerlof), l’équilibre de Nash du jeu est que l’acheteur doit proposer une enchère égale à 0 (le minimum de la distribution), ce qui rend quasi-impossible l’échange entre acheteur et vendeur (seul le vendeur ayant obtenu aléatoirement une valeur égale à 0 sera indifférent entre accepter l’enchère et gagner 0 ou garder le bien et gagner 0). En clair, théoriquement, le marché sera tué par la possibilité d’une très mauvaise qualité, et il n’y aura virtuellement plus aucun échange (une démonstration simplissime de ce résultat théorique peut être trouvée  pour les plus acharnés).
Les résultats issus de jeux en classe sont assez édifiants. Pour pallier les critiques, ces résultats sont en fait très proches de ceux observés en laboratoire (voir le papier de Holt C.A. & Sherman R., 1994, « The loser’s curse », American Economic Review).
Dans ce traitement fait avec 14 étudiants de master 1, les valeurs possibles des « conserves » sont comprises entre 0 et 100$ et il y a 7 vendeurs et 7 acheteurs. A chaque période de jeu, les acheteurs sont appariés aléatoirement avec  un vendeur, et ils leur font une offre d’achat. Préalablement, chaque vendeur se voit attribué une valeur tirée au sort sur l'intervalle 0$ - 100$; cette information étant privée. Puis l'acheteur doit faire une proposition de prix d'achat. En cas de désaccord, l’acheteur gagne 0 et le vendeur gagne la valeur de son affaire. En cas d’accord, l’acheteur gagne la valeur de l’affaire augmentée de 50% moins le prix d’achat qu’il a proposé, et le vendeur gagne le prix d’achat accepté. Les résultats concernant la valeur moyenne des enchères proposées (et pas forcément acceptées) sont données dans le graphique ci-dessous.



L’enchère moyenne observée (en bleu, enchère moyenne par période) est approximativement comprise entre 45 et 50$ (je rappelle que la valeur espérée des affaires est de 50$). Nous sommes donc très loin de l’équilibre de Nash qui voudrait que les acheteurs proposent rationnellement 0. En fait les résultats sont conformes à un comportement "naîf" (opposé au comportement stratégique supposé par le concept d'équilibre de Nash), les acheteurs proposant des prix compris entre la valeur moyenne des affaires (50$, la distribution étant uniforme) et la valeur qu'ils pourront potentiellement en tirer en moyenne (soit 50$ +50% c'est-à-dire 75$).
Le gain moyen de l’acheteur est décrit dans le graphique ci-dessous (on exclut bien sûr les acheteurs qui n’ont pas réussi à convaincre leur vendeur).
 
Le gain moyen des acheteurs ayant réussi est donc clairement négatif…
Le comportement « naïf » des acheteurs, qui leur dicte d’enchérir entre 50$ et 75$ est clairement frappé d’échec du point de vue de la maximisation de leur gain.
C’est de facto le comportement de la puissante Royal Navy, qui en fait aurait du proposer zéro plutôt que d’obtenir des conserves qu’elle a payé certes pas cher, mais qui valaient en fait moins que rien !
Bon, c’est juste une boutade du point de vue économique, car on ne voit guère l’intérêt de mettre aux enchères un marché pour lequel on n’est prêt à rien payer, mais cela illustre bien les effets pervers de l’asymétrie informationnelle, celle-ci ayant sans doute en partie conduit au désastre de l’expédition Franklin…

vendredi 10 juillet 2009

Baisse de la TVA sur la restauration, partage de gains et jeu de l’ultimatum



Je suis frappé par le fait que le sujet des conséquences économiques de la baisse de la TVA dans la restauration reste essentiellement fondé sur la base d’hypothèses comportementales très simplistes de la part des restaurateurs et des clients. Ici ou , on nous dit que 80% des restaurateurs devrait répercuter cette baisse de TVA mais sur quelle base ce chiffre est-il avancé ? Comme souvent, aucun élément solide ne me semble étayer cette estimation.
L’anecdote que je m’en vais vous conter témoigne me semble-t-il avec force de l'intérêt d'avoir des modèles comportementaux plus réalistes pour améliorer la prévision que les économistes peuvent faire de l'impact économique de telle ou telle mesure.
Certes, lecteur, tu vas penser que ma démarche est d'une grande rigueur scientifique : je vais prendre un seul cas en étant totalement partial (je suis un client habituel du restaurant dont je vais parler...).  Mais bon, comme je l'ai déjà dit, l'introspection est toujours enrichissante, au moins pour tenter de poser correctement la question.
Hier, à l’issue du déjeuner pris dans un restaurant habituel proche de la faculté des sciences économiques, au moment du paiement de la douloureuse, le restaurateur m’apprend qu’il a baissé le prix de sa formule de 50 cts d’Euros. Agréablement surpris dans un premier temps, mon sang d’économiste ne faisant qu’un tour, je lui demande pour quelle raison il a fait cela.
Il m’explique alors que, en ces temps un peu difficiles pour le pouvoir d’achat de tous, il lui avait semblé juste de partager l’allégement de taxe mis en œuvre par le gouvernement avec ses clients. Sa motivation n’était pas du tout de baisser les prix dans l’idée de relancer la demande, car il pensait que l’impact serait relativement marginal de toute façon pour lui.
Frappé par cette explication, j’ai essayé d’y réfléchir un peu. Soyons clairs, il ne s’agit pas de savoir quel peut être l’impact économique de cette baisse pour les restaurateurs, ou globalement pour l’économie française, mais plutôt de m’interroger sur le comportement des restaurateurs à l’égard de cette baisse et comment ils la répercutent sur leurs prix.
D’un point de vue purement individuel, on pourrait penser qu’il s’agit d’un gigantesque dilemme du prisonnier joué entre chaque restaurateur et ses clients. L’impact de la baisse de TVA sur la fréquentation étant potentiellement très faible, la tentation est d’absorber cette baisse pour augmenter la marge économique, quitte à éventuellement embaucher ou investir. Au niveau microscopique, chaque restaurateur peut se dire que baisser de 50 cts sa formule ou le plat du jour ne va pas fondamentalement modifier la demande qui lui est adressée. Mais au niveau global, si aucun restaurateur ne baisse ses prix, il est à peu près certain que, pour le coup, il n’y aura aucun impact sur la demande de restauration au niveau macroéconomique.
Pour autant, il semble qu'une proportion non négligeable des restaurateurs répercute au moins partiellement cette baisse de TVA sur la facture adressée à leurs clients ? Pourquoi faire cela si la plupart jugent que cette baisse n’a probablement aucun impact sur leur fréquentation ? Il s'agit en fait d'un partage de gain potentiel affecté à un seul acteur (le restaurateur) en interaction avec un autre acteur (le client) qui peut estimer pouvoir demander sa part du gâteau.
D’un point de vue comportemental, ce problème de partage du gain me semble  très proche de celui décrit dans le jeu de l’ultimatum (inventé par Selten & Guth dans les années 80). Dans ce jeu canonique abondamment étudié en économie expérimentale, un participant A propose un partage d’une somme donnée à un participant B. Le participant B peut accepter ce partage, entérinant alors la proposition faite par A ou refuser le partage proposé. Dans ce cas, chaque participant repart les mains vides.
Que dit la théorie économique sur un tel jeu ? Il suffit d’appliquer la théorie des jeux. Sachant que le participant B préfère une toute petite somme, pourvu qu’elle soit positive, à rien du tout, le participant B devrait accepter avec certitude tout partage, même très inégalitaire, tant que celui-ci lui procure un gain positif. Si on vous propose de partager 100 euros en 99 pour le participant A et 1 pour vous en tant que participant B, vous devriez accepter car vous préférez 1 euro (en cas d’acceptation, le partage est entériné) à zéro euro (en cas de refus, chacun gagne 0 euro). Le participant A jouant en premier (il propose le partage), il devrait anticiper qu’accepter est une stratégie dominante tant qu’il propose une somme positive, et vous proposer alors un partage très inégalitaire (genre 99.99 € pour lui, 0.01 euro pour vous), ce que vous accepteriez. En clair, l’équilibre de Nash d’un tel jeu est que le partage est très inéquitable et que le participant B ne rejette jamais l’offre (il pourrait le faire si on lui proposait zéro, car il serait alors indifférent entre accepter et refuser).
Quant ce jeu a été testé en laboratoire, les résultats observés ont été forts différents de la prédiction théorique.
Les principaux résultats, tels qu’ils sont résumés par l’exemple dans l’excellent bouquin de Eber & Willinger (voir ici), sont les suivants :
  •           Le participant A propose en général 40% du total au participant B,
  •           L’offre la plus souvent rencontrée (le mode) est le partage 50/50
  •           Les participants B rejettent souvent des offres inégalitaires (un partage aboutissant à 20% du gain pour eux ou moins)
Ce que montre ce jeu, c’est que les participants sont motivés par des préférences sociales – j’ai déjà évoqué à plusieurs reprises dans différents billets ces motivations, comme le sentiment de réciprocité, l’aversion à l’inégalité -  préférences qui peuvent éventuellement différer selon les cultures et les pays. Mais en fait, un invariant expérimental est que l’équilibre de Nash est rarement observé. Les résultats suivants sont ceux d’une expérimentation de terrain (field experiment) faite par exemple au Kenya et évoquée dans l’ouvrage dont j’ai déjà parlé de Charles Holt (ici)



L'écrasante majorité des offres (environ 53%) est celle d'un partage équitable du gâteau. Dès que le partage devient plus inéquitable, le taux de rejet commence à augmenter (environ 1/5 des offres de partage 80/20 sont rejetées, ces offres représentant 22 % du total des offres faites, et aucune offre plus inéquitable n'étant faite).
Bon, il y a donc des faits stylisés assez robustes sur cette question du partage du gain entre deux agents.
Appliquons cela à mon sympathique restaurateur breton. Sa formule était, avant baisse de la TVA à 10 euros. Donc le prix Hors Taxes de la formule est par conséquent de 8.36 euros approximativement. Le prix TTC (Toutes Taxes Comprises) de la formule s’il répercutait intégralement la baisse de TVA pourrait être potentiellement de 8.82  euros (8.36 € +5.5%). En clair, si le restaurateur maintient son prix à 10 euros, il gagne 1.18 euros de marge supplémentaire.
Or, sur ces 1.18 € gagnés, il donne 0.5 € à ses clients (la formule passe de 10 à 9.5€), soit un peu plus de 42%. Cela correspond presque exactement aux résultats observés de manière récurrente dans les expériences sur les jeux de l’ultimatum. Ce résultat, anecdotique, mais quand même remarquable, me semblait devoir être souligné, car une critique récurrente faite à l’économie expérimentale est la possibilité de transposer les résultats obtenus en laboratoire dans la réalité quotidienne.
Ici, en l'occurrence, la transposition est quasi-parfaite…
Je serai curieux d'avoir un bilan économique de cette mesure dans quelque temps, mais je ne serai pas étonné si les prix dans la restauration baissaient disons d'environ 4 à 5 %...

vendredi 3 juillet 2009

Mécanique newtonienne, théorème de Haavelmo et impact macroéconomique de la taxe carbone



Une fois n’est pas coutume, un billet à teneur plutôt macroéconomique à propos de la taxe carbone et de la conférence de consensus consacrée à la contribution climat-énergie qui s'est déroulée le jeudi 2 juillet.
En fait, c’est la lecture des Echos du 1 juillet qui m’a donné l’idée de ce billet. Je ne suis pas particulièrement fanatique de la presse économique, et je préfère le net pour trouver de l’information économique, mais, entre deux avions, la compagnie fournissant gracieusement ce journal, j’ai pris le temps de le parcourir. Deux articles m’ont incité à réagir, l’un de Jean Marc Vittori, sur les faiblesses des économistes en ces moments de crise, et l’autre sur la mise en place de la fameuse taxe carbone ( la « contribution climat-énergie » comme dit Nicolas Hulot qui ne veut pas parler de taxe, un peu comme quand on dit « non-voyant » pour parler des aveugles).
Le premier article ("Les économistes entre deux murs") m’a en fait agacé, et je pense ne pas avoir été le seul, l’éditorialiste des Echos nous accusant de deux maux, l’hyperspécialisation et les ordinateurs. Dixit "S'ils n'ont pas vu la crise venir, c'est que leur vision est bornée par deux oeillères : l'hyperspécialisation... et l'ordinateur".  Je ne suis pas d’accord globalement avec le ton de l’article qui nous accuse en gros d’être timoré dans l’exercice de prévision comme il a du nous accuser il y a quelques mois de nous être plantés dans nos prévisions. Par ailleurs, il nous reproche de manquer de recul, de ne pas prendre de hauteur, rigidifiés que nous serions par notre hyperspécialisation et par la débauche actuelle de technique et de formalisation dans nos calculs, débauche incarnée par les ordinateurs.
 Le second article, celui qui relatait les premières réunions de travail sur la mise en œuvre de la taxe carbone,  m’a – involontairement – amusé. Vous allez comprendre pourquoi assez rapidement.

Au-delà du fait que je trouve la critique de Jean-Marc Vittori un brin ridicule (demande-t-on à un physicien spécialiste de la physique des solides de prévoir correctement la trajectoire des balles de tennis de Féderer ? Accuse-t-on les prévisionnistes météo de se vautrer généralement sur les prévisions météo à 2 mois ?), je vais aller, juste par esprit de provocation, dans son sens pour montrer (cette démonstration a un caractère scientifique proche de zéro toutefois) qu’il n’a pas totalement  tort sur la débauche de calculs utilisés pour produire des résultats parfois assez triviaux et qu’il serait possible de produire avec un calcul de coin de table.
Je ne suis pas keynésien au-delà du raisonnable, je l’étais beaucoup plus quand j’étais étudiant, étant jeune et naïf, que maintenant, où je suis vieux et méfiant. J’ai tendance à penser que la mécanique keynésienne est justement un brin « mécanique » et suppose des agents grégaires que mes travaux expérimentaux ne retrouvent pas du tout dans le laboratoire, les comportements observés étant en général assez sophistiqués, pleins de préférences sociales, et surtout sujets à apprentissage. Les agents peuvent faire des erreurs, mais ils n’en font pas indéfiniment. Comme le disait l’immortel film des Nuls La cité de la peur, « on peut tromper 1 fois 1000 personnes, mais on ne peut pas tromper 1000 fois 1 personne ».

Je pense que c’est en fait l’erreur fondamentale du modèle keynésien, qui sous-entend un comportement extrêmement fruste de la part des ménages. Bon, c’est le point de vue global que j’ai sur la macroéconomie disons d’avant Robert Lucas ou même d’avant Milton Friedman, et que l’on enseignait encore dans beaucoup de facultés il y 15 ou 20 ans. Heureusement les choses ont changé d’un point de vue scientifique et pédagogique. Toutefois, encore une fois, je ne suis pas macroéconomiste, et bien que connaissant un peu en tant qu’amateur ce domaine,  je peux me tromper.

On va voir toutefois que ces modèles « mécaniques » (en tout cas tel que présentés dans la vulgat keynésienne) permettent de dire des choses intéressantes voire amusantes avec un minimum d’effort. Un peu comme un astronome s’amuserait à prévoir la trajectoire des planètes avec un modèle copernicien ou newtonien de gravitation universelle pour l‘approximer  en première instance, avant de passer éventuellement au modèle de relativité restreinte développé par Einstein, beaucoup plus coûteux en calculs, j’ai repris un peu cette mécanique céleste keynésienne.
La macroéconomie keynésienne construite, pour dire les choses rapidement, autour d’IS-LM, est un peu notre mécanique newtonienne à nous, économistes. Elle décrit avec un minimum de relations un modèle économique sur lequel on peut s’amuser à simuler l’impact de différents chocs exogènes ou de mesures de politique économique. C’est un peu comme le travail de gamme pour un musicien, un peu fastidieux, mais pas très compliqué…
Quand je faisais le cours de macroéconomie en première année de licence d’économie, j’aimais bien présenter le théorème d’Haavelmo. Ce théorème bien connu des étudiants en économie dit simplement qu’1 euro de dépense publique financé par 1 euro d’impôt (ou de taxe) génère en net 1 euro de revenu additionnel. Ce que j’aime bien dans ce résultat d’Haavelmo est qu’il remet en cause le bon sens qui voudrait qu’1 euro dépensé publiquement générera certes des effets positifs, mais que ces effets positifs seront exactement annulés par l’effet négatif de l’impôt levé aujourd’hui à concurrence d’1 euro pour financer cette dépense, ou de l’euro prélevé demain pour rembourser l’emprunt afférent à cette dépense (théorème d’équivalence Ricardo-Barro dans mes souvenirs). ,Le théorème  montre précisément que le raisonnement de bon sens est fallacieux. La démonstration est d’un point de vue économique simplissime en économie fermée : le lecteur intéressé peut aller voir cela sur wikipedia, c'est très bien fait et en tout points comparables à ce que je vais expliquer maintenant.

Regardons en premier l’effet d’un prélèvement fiscal sur l’économie :
Si à la période 0, on a l’équilibre entre ressources et emplois  qui s’écrit :
Y0 = c(Y0-T) + I + G               (1)
Y0 est le PIB à la période 0, T le montant des impôts, I de l’investissement et G les dépenses publiques, c la propension marginale à consommer (le supplément de revenu consommé en moyenne, compris entre 0 et 1, typiquement autour de 80% en France).
Si à la période 1, l’Etat prélève un impôt ou une taxe supplémentaire dT, l’équilibre devient :
Y1 = c(Y1-T – dT) + I + G      (2)
Si on fait la différence entre (2) et (1) on a :
dY=Y1-Y0= (-c/1-c)dT
Dit simplement, la variation de revenu issue d’une variation des taxes est égal au produit du multiplicateur fiscal (négatif car c positif) par la variation des taxes. Comme c est supérieur en général à 50%, ce multiplicateur est toujours plus petit que -1.
En deuxième, du côté dépenses publiques, on a le multiplicateur des dépenses publiques, équivalent au multiplicateur d’investissement keynésien.
Comme on s’intéresse à une variation dG des dépenses publiques G, on a le résultat classique:
dY= 1/(1-c) dG
Bon, il n’y a pas besoin d’avoir inventé l’eau chaude pour comprendre que quand je dépense 1 euro financé par l’impôt, il génère 1/1-c euro de revenu supplémentaire et l’impôt réduit lui le revenu de  –c/(1-c) euros. Si on fait la somme des deux, on obtient en net 1. C’est le théorème d’Haavelmo, toute dépense G financée par un impôt T égal à G générant in fine 1 euro de revenu additionnel.
Au-delà de l’intérêt de ce théorème, je vais l’utiliser pour simuler l’impact (macro)économique de la taxe carbone. Les prévisions ont été établies à la demande de Christine Lagarde par la DGTPE et, en tant que digne représentant de la DGEQNSPPTAS (Direction Générale des Economistes Qui Ne Se Prennent Pas Totalement Au Sérieux), je vais produire une contre-simulation.

Pour cela, je m’arme de ma calculatrice TI-30, fossile des années 80 que j’ai encore, et je fais le calcul suivant.

[lecteur, c’est juste une note d’humour, je n’utilise plus de calculatrice depuis au moins dix ans]

Le produit de la taxe serait de 9 milliards d’Euros. Le gouvernement dit vouloir reverser la totalité de cette taxe aux agents pour obtenir un effet positif. En fonction des différentes hypothèses d’affectation de cette taxe, on obtient un impact sur le PIB français compris entre 0.2% et 0.6%. Ce qui m’a amusé est en fait la phrase suivante :
« L’impact sur l’activité économique ne serait pas forcément négatif : les services de Bercy anticipent même un gain de croissance compris entre 0.2 et 0.6 point (de PIB, NDLA) à condition que le produit de l’impôt soit reversé en intégralité aux entreprises et aux ménages ». (Lucie Robequin, Les Echos, 1er juillet 2009, « les scénarios de Bercy pour la taxe de carbone »)

L’article explique en fait que, selon les scénarios (du pire où l’on affecte le produit de la taxe à la réduction des autres impôts au meilleur, où le produit de cette taxe sert à réduire les cotisations sociales employeurs et les impôts sur le bénéfice des entreprises), la France gagnerait entre 0.3 point et 0.45 point de croissance du PIB (j’ai fait des moyennes, les intéressés peuvent se reporter à l’article lui-même pour plus de détails).
Le lecteur non-averti s’imagine des dizaines d’ordinateurs tournant pendant des semaines, des discussions d’experts interminables aussi impénétrables pour moi que les règles du base-ball ou l’intérêt intrinsèque de Secret Story. Et, en gros, bien que lecteur averti, je m’imaginais sensiblement la même chose, n’étant ni macro-économiste, ni spécialiste de conjoncture.
Puis j’ai réfléchi deux minutes. L’hypothèse est celle de 9 milliards d’Euros pour le produit de la taxe carbone. Supposons que le coût de la fiscalité et de la collecte réduise de 20% le produit de cette taxe (on estime en général qu’à la louche, sur 1 euro prélevé en taxe ou en impôt, on peut dépenser 80% de cette somme en dépense publique, car il faut déduire les coûts de collecte et de redistribution du produit de la taxe). .  Bref, en net, on pourra donc dépenser 80% de cette somme de 9 milliards soit environ 7.2 milliards. On verra que ce chiffre de 80%  conduit à des interrogations.

Si on applique stricto sensu le théorème d’Haavelmo de manière naïve (l’équivalence recette dépense n’est pas respectée), l’effet négatif est  de 4 (le multiplicateur fiscal est égal à -0.8/(1-0.8), ce qui fait -4) que multiplie la perte de revenus pour les agents, soit 9 mds d’Euros, ce qui représente donc -36 milliards d’euros. Si on applique côté dépense le multiplicateur des dépenses publiques, approximativement égal à 5 en France (1/(1-0.8)), alors le supplément de revenu de ce supplément de dépense publique de 7.2 milliards d’euros est d’exactement + 36 milliards d’euros. Bref, en net on arrive à un impact nul sur le PIB (+36 – 36). Si on suppose que la taxe est intégralement reversée aux agents sans aucun coût de prélèvement, alors on reprend les calculs. Le coût fiscal de la taxe du point de vue du revenu national est toujours de 36, mais l’effet multiplicateur de la dépense est cette fois de 5 fois 9 soit 45 milliards. L’effet net sur le revenu national est donc de 45 moins 36 soit 9 milliards, soit le montant initial de la taxe, ce qui est bien normal puisque c’est précisément le résultat démontré par Haavelmo.
Si on rapporte ces 9 milliards d’impact net sur le revenu national au PIB de la France (environ 1950 milliards d’euros en 2008), on obtient approximativement + 0.37% de PIB supplémentaire. C’est à peu de choses près exactement la moyenne obtenue dans les différents  scénarios d’impact macroéconomique de la taxe carbone relatés dans l’article des Echos (entre +0.3% et +0.45%, soit en moyenne +0.37% de PIB supplémentaire).
En clair, on a  exactement en moyenne  l’impact prévu par les économistes de la  DGTPE, ce avec un modèle keynésien d'économie fermée dans sa version la plus dépouillée...

Conclusion ? De deux choses l’une.

Soit ils ont fait des calculs pendant des semaines et ont abouti à des résultats similaires à ceux qu’auraient obtenus un étudiant de première année en économie, et on ne voit pas bien pourquoi tout ça pour ça.
Soit ils ont fait les calculs avec la même TI-30 que moi en 5 mn pour pouvoir jouer à Half Life 2 en réseau sur leurs super micro-ordinateurs…