samedi 26 septembre 2009

La taxe carbone à 17 euros la tonne : bien ou pas bien ?



Le  10 septembre dernier, la présidence de la République a dévoilé la stratégie de la France dans la lutte contre le réchauffement climatique ; Un des éléments dont tout le monde, y compris moi, a beaucoup discuté, la fameuse taxe carbone, a donné lieu à un arbitrage présidentiel, le problème étant d’en fixer le niveau.
Le montant choisi fut de 17 euros la tonne de C02, sachant que grosso modo, il y a avait deux « benchmarks » possibles, celui du prix de la tonne de CO2 sur le marché européen des quotas (ETS : Emission Trading Scheme), autour de 14 euros, et le niveau considéré comme souhaitable par la Commission Rocard, 32 euros la tonne. En fait, comme je l’ai déjà dit (ici), ces 32 euros ne sont qu’une actualisation du rapport du Commissariat Général du Plan de 2001. Les 17 euros représentent, d’après la présidence de la République, le prix moyen sur le marché des quotas depuis son ouverture, d’où le choix présidentiel.
Le Président a coupé la poire en deux, plutôt en tirant du côté bas de la fourchette, estimant qu’en période de crise, les effets supposés négatifs d’une taxe additionnelle sur la croissance économique devaient être minimisés. Par ailleurs, il est vrai qu’il aurait été inéquitable que les gros industriels payent environ 14 € la tonne et que les ménages payent 32 € pour la même tonne, alors que l’industrie manufacturière et la transformation d’énergie représentent environ 30% des émissions annuelles nettes chaque année. Cela pose de toute manière un problème d’incohérence, la tonne de CO2 ayant deux prix, ce qui est d’un point de vue économique un peu curieux.
Nombreux ont été les débats autour de cette taxe, et j’y ai moi-même contribué au moins à deux reprises. Certains ont discuté de l’impact sur les comportements (comme les bloggers d’Optimum ici), d’autres ont évoqué le problème de son niveau (les bloggers de rationalité limitée )
Bref, cette taxe a été un sujet des plus abondamment discutés sur les blogs d’économie ces derniers temps, ce qui est la moindre des choses puisqu’elle est une application assez stricte du principe pollueur-payeur, qui, en France, reste assez rare.
Le point que je voulais aborder maintenant, et, à ma connaissance pas tellement discuté, concerne le coût économique de l’arbitrage présidentiel, la taxe étant d’un montant inférieur à la valeur supposée souhaitable (au minimum 32 euros, mais en fait plutôt 45 euros) par l’ensemble des experts.
Plus exactement, d’après de multiples travaux, la valeur souhaitable pour la France est de 100 euros la tonne à l’horizon 2030, puis de 200 euros la tonne à l’horizon 2050. C’est cette valeur qui, d’après les simulations économiques permet d’atteindre l’objectif de division par quatre de nos émissions de GES (Gaz à Effet de Serre) par rapport au niveau émis en 1990. Cela impliquerait, comme le rappellent Gollier et Tirole dans le Monde, de partir de 45 euros la tonne en 2010 en faisant croitre cette valeur de 4% par an. Ce taux de croissance de 4% par an est en fait le taux d’actualisation public tel qu’il a été fixé en 2005. Cela implique que la valeur actualisée d’une tonne de CO2 est toujours égale à 45 euros la tonne. Un taux d’actualisation plus fort aurait écrasé la valeur de la tonne de CO2, ce d’autant plus qu’elle est émise loin dans le temps. Si, au contraire, la valeur était fixée à un niveau constant de 45 euros quelle que soit la période d’émission de cette tonne, cela aurait impliqué que les tonnes de CO2 émises  par nos rejetons par exemple auraient un coût économique beaucoup plus faible que celles que nous émettons actuellement.
Bon, en fait, les experts (le CAS principalement dans cette note) ont proposé deux scénarios : le premier basé sur une valeur de 32€ la tonne en 2010, qui a l’avantage d’être cohérent avec la valeur retenue par le Plan pour calculer la rentabilité socioéconomique des infrastructures de transport, et le second établissant une valeur de 45 euros la tonne en 2010. Le premier scénario, s’il est cohérent avec les valeurs prises en comptes dans le calcul économique public depuis 2005, a l’inconvénient d’impliquer un taux de croissance de la valeur tutélaire de la tonne de CO2 supérieur à 4% afin d’atteindre le niveau optimal de 100 euros en 2030. Le second scénario, incohérent avec la pratique actuelle en termes de calcul économique, a par contre l’avantage de faire croitre la valeur de cette tonne au taux d’actualisation public et donc d’être « neutre » du point de vue intertemporel.
A l’issue de l’arbitrage présidentiel en faveur de 17€, la majorité, et le président lui-même, ont argué du fait qu’il était souhaitable, vu la conjoncture de ne pas partir trop haut mais qu’en contrepartie, il faudrait augmenter plus rapidement la taxe que si l’on était parti d’un niveau plus élevé considéré comme souhaitable par les experts. En fait, la question de la vitesse de progression de la taxe a été traitée avec un flou artistique digne des clichés les plus ratés de David Hamilton.
Bien évidemment, on pourrait intuitivement penser que tout cela est assez neutre, que l’on parte de bas en progressant vite ou que l’on parte de haut en progressant lentement, le coût économique pour la collectivité est identique. En fait, rien n’est moins vrai, comme un petit calcul de coin de table comme je les aime, et qu’un étudiant d’économie même peu avancé peut faire, conduit à le montrer.
Mettons nous dans le monde idéal des experts dans lequel le niveau optimal de la taxe est de 45 euros en 2010. Cette taxe progresse de 4% par an, un niveau conforme au taux d’actualisation public. Cela implique, pour prendre un exemple simple, qu’un ménage qui émettrait une tonne par an sur 21 ans (de 2010 à 2030 inclus) verrait sa taxe passer de 45 en t=2010 puis à 47€ en 2010 (+4% par an) jusqu’à environ 100 euros en 2030. Le coût total de ces 21 tonnes serait d’environ 1450€ pour la collectivité, ce coût étant compensé par la taxe touchée chaque année sur ce ménage (je fais bien sûr l’hypothèse qu’il n’y a aucune compensation telle qu’elle a été annoncée par le Gouvernement). La valeur actualisée en 2010 de la taxe et du coût des dommages est d’environ 910 euros, et la différence est donc nulle, ce qui signifie que l’on est à l’optimum de pollution.
Maintenant, envisageons le scénario d’une taxe à 32 euros en 2010. Pour arriver à 100€ en 2030, il faut progresser beaucoup plus vite, d’environ 5.8% par an et en supposant que l’accélération reste constante sur 21 ans. Si on fait progressait la taxe à cette vitesse, la valeur actualisée du total des taxes prélevées chaque année en 2010 représente environ 770 euros. Or, le coût actualisé des dommages est toujours de 910 euros. Cela implique une perte sociale en termes de bien être d’environ 180 euros.
Si on est dans le scénario présidentiel d’une taxe à 17 euros la tonne, la progression doit être encore plus rapide pour atteindre les 100 euros en 2030. Cette progression doit être d’environ 9.2% par an. La taxe passe donc de 17 euros en 2010 à environ 18.6 euros en 2011, etc. Cela représente un total de taxes payées pour mon ménage d’un peu moins de 1000 euros. La valeur actualisée de ces taxes aujourd’hui représente environ 584 euros pour ces 21 tonnes émises soit 27.8 euros actualisés par tonne émise. Le coût des dommages est toujours de 910 euros, soit 43.4 euros actualisés par tonne émise (ou un avantage de 43.4 euros par tonne en moins).
Ainsi, pour chaque tonne émise dans le cadre fixé par le Président de la République, il en coûte à la collectivité environ 15.6 euros de bien-être. En partant sur la base d’environ 300 millions de tonnes nettes émises chaque année en France (voir ici l’inventaire des émissions par le CITEPA ), cela signifie une perte en bien-être d’environ 4.5 milliards d’euros annuels, si je suppose que les émissions restent constantes.
Sur les vingt ans considérés, cela fait quand même de l’ordre d’une centaine de milliards d’euros, toujours en supposant le niveau d'émission constant …
La morale, que certains trouveront basique sans doute, c’est que, ce que nous ne payons pas aujourd’hui, nous le paierons demain quoi qu’il en soit. Et qu’il n’est en tout cas jamais neutre du point de vue de l’efficacité de dévier trop longtemps du prix optimal de la tonne de dioxyde de carbone…

samedi 19 septembre 2009

La fin de Watchmen et le jeu de l'effort minimum


Je suis depuis sa sortie en France il y a plus de vingt ans un fan indécrottable de la BD Watchmen, d’Alan Moore et Dave Gibbons, et, je crois, pour de bonnes raisons : complexité du scénario, à niveaux multiples, psychologie fouillée et profondément adulte des personnages, côté profondément politiquement incorrect  et mise en scène graphique digne de Kubrick (c’est d’ailleurs la seule BD qui ait jamais obtenu le prix Hugo, ce qui est la marque d’une certaine qualité littéraire).
Par conséquent, vu que je suis un peu féru de BD, je ne manque jamais de recommander ce livre pour toute personne adulte normalement constituée qui n’a qu’un intérêt médiocre pour la BD en tant qu’art, sans connaître, et qui pense que les fans de comics ont nécessairement moins de 18 ans, sont des inadaptés sociaux qui ne pensent qu’aux jeux vidéo, à surfer sur internet ou à regarder les émissions de télé réalité, entre autres tares.
La preuve que ce n’est pas vrai : j’ai plus de 18 ans…
Si, lecteur, tu ne connais pas l’histoire et que tu :
1) comptes lire la bd,
2) as l’intention de voir le film,
3) te fiches de l’économie – mais alors, je ne vois pas ce que tu fais là –,
(rayer les mentions inutiles, svp), tu peux quitter ce blog et passer ce billet. En effet, je vais (un peu) raconter l’histoire et surtout m’interroger sur quelques implications d’un point de vue économique.
[Bon, en même temps, tout le monde connaît l’histoire de « Madame Bovary », celle d’une bourgeoise esseulée qui finit par tromper son mari et, de remords, se suicide. Cela n’empêche pas de le lire, l’intérêt n’étant pas tellement dans l’histoire résumée à grands coups de serpe sans finesse par la brute que je suis]
Dans l’histoire, une uchronie à vrai dire, située en 1985, une bande d’ex-justiciers masqués est apparemment poursuivie par un tueur de masques, le scénario faisant mine d’être une enquête policière assez banale.
En fait, un de ces ex-vigilantes, Adrian Veidt, une espèce de Richard Branson qui se prend pour Alexandre le Grand, et doté d’une intelligence qui fait de lui l’un des hommes les plus « malins » du monde, immensément riche, conçoit un complot afin de sauver le monde.
Bon, je passe sur les détails, mais, en gros, dans la BD « the smartest man of the world » - Veidt - implante des bombes atomiques d’un nouveau genre dans la plupart des grandes villes américaines, les détruisant simultanément quasi en totalité et faisant des millions de victimes, et fait passer cette attaque pour une attaque extraterrestre. Devant cette nouvelle guerre des mondes post nucléaire, et devant tant de félonie et d’horreur, les russes proposent alors à Nixon une alliance sacrée contre ces agresseurs d’outre-espace, ce qui suspend définitivement toute velléité de conflit entre les deux superpuissances unies contre un ennemi commun à la puissance démesurée (le film trahit la BD d’une manière incroyable mais en fait assez astucieuse je trouve, bien qu’apparemment Alan Moore n’ait pas trop apprécié).
Veidt exulte, il a gagné, a rétabli la paix pour un nouvel âge de prospérité, unissant les peuples et réalisant ainsi le rêve d’Alexandre, tout du moins le croit-il – lecteur, bis repetita, si tu veux connaître la fin, va lire ce chef d’œuvre –
D’un point de vue économique, le fait que les deux superpuissances s’unissent dans un effort commun contre un ennemi redoutable peut être assimilé à un jeu décrit sous le nom de jeu de l’effort minimum, en fait appelé dans la littérature jeu du « maillon faible » (weakest-link (public good) game, inventé par Jack Hirschleifer en 1983). L’idée est la suivante : en s’alliant, les deux pays créent un bien public commun, la protection contre l’ennemi. En effet, si un des deux pays fait l’effort seul, cela ne suffit pas à créer ce bien public et aucune protection n’existe. Au niveau international, si un pays est laxiste en matière de lutte contre le terrorisme, cela diminue le niveau de protection pour l’ensemble de la communauté mondiale, ce quel que soit l’effort particulier que font les autres pays. La sécurité est en fait un bien public mondial (Todd Sandler est l’économiste qui a le plus popularisé cette idée).
L’hypothèse que fait Veidt (le méchant qui a monté le complot) est donc que, face à ce besoin impérieux de sécurité commun, les deux pays, USA et URSS – nous sommes en 1985, avant la chute du mur – vont coopérer et se coordonner sur le niveau d’effort le plus important afin de produire ce bien public. Accessoirement, il fait aussi l’hypothèse que, si cette alliance se fait, elle sera pérenne pour de nombreuses années.
D’un point de vue théorique, rien ne garantit que l’issue choisie par les gouvernements soit l’issue théorique choisie. Supposons que chaque pays doive choisir son niveau d’effort, celui-ci étant égal à 0 ou 1. Cet effort est coûteux (il coûte 1 s’il est réalisé pour simplifier). Le bien public (la sécurité mondiale) n’est produit que si les deux pays réalisent l’effort maximal, générant un gain de 2 (la somme des efforts) pour les deux pays, et n’est produit dans aucun des autres cas – d’où le terme de maillon faible, celui-ci déterminant le niveau de résistance de la chaîne. Le jeu peut être représenté ainsi :

 
En fait on est en présence d’un jeu de coordination, dans lequel plusieurs équilibres de Nash (en stratégies pures) existent : un équilibre où les deux coopèrent et produisent de facto le bien public, et un équilibre où aucun ne coopère (le phénomène habituel de passager clandestin). Il ya également un équilibre en stratégies mixtes, chaque joueur adoptant une certain probabilité de faire l’effort s’il suppose que l’autre a une certaine probabilité de réaliser l’effort (sauf erreur de ma part, la probabilité de coopérer étant de 1/3 et celle de ne pas coopérer de 2/3). C’est surtout un dilemme social, puisque qu’un des équilibres est meilleur pour la communauté mondiale (Pareto-dominant comme on dit en théorie des jeux), celui où les deux pays font l’effort –la somme des gains est de 4, supérieure à la somme des gains de toute autre issue collective.
Il y a donc une relative indétermination de l’issue du jeu. Dans Watchmen, la première fois que le jeu est joué, les pays choisissent le niveau conforme à l’optimum de Pareto, donc tout va bien. Mais on peut penser que ce jeu est répété (sans doute à l’infini, ce qui d’un point de vue théorique, donne encore une certaine indétermination sur l’issue). Plusieurs travaux expérimentaux sur le jeu du maillon faible avec répétition (mais répété de manière finie), Croson et al., 2005 et également une étude que David Masclet, Eric Malin et moi-même avons réalisée il y a quelque temps, montrent que le niveau de coopération est rarement aussi bon que celui réalisé en première étape dans Watchmen, et, surtout, que ce niveau de coopération, comme pour tout jeu de bien public tend à décroître au cours du temps, comme le montre le graphique ci-dessous :
 
Dans notre expérience, les sujets étaient par groupe de 4, pouvaient réaliser des niveaux d’effort de 0 à 20 et le niveau de bien public était égal à deux fois le niveau minimum d’effort choisi par les sujets au sein du groupe de quatre. Chaque sujet dans ce traitement devait réaliser son choix d’effort sans connaître le niveau d’effort choisi par ses partenaires. Comme le montre le graphique au-dessus, le niveau d’effort moyen au sein du groupe est clairement inférieur à 20 (l’optimum de Pareto) et décroit avec les répétitions.
Donc, somme toute, l’hypothèse faite par Veidt de la stabilité de la paix nouvellement instaurée est un peu hasardeuse… Mais comme c’est l’homme le plus malin du monde, il doit bien avoir son idée, non ?
En fait, dans l’expérience que nous avions réalisée en 2005, nous avions étudié un traitement dans lequel les joueurs devaient contribuer les uns après les autres, chaque joueur observant la contribution des précédents (le jeu d’effort minimum est séquentiel). Or, dans ce traitement, les contributions moyennes tendent, le jeu étant répété, vers le niveau d’effort maximum.
En clair, si les USA observent l’effort de l’URSS en matière de sécurité avant qu’ils choisissent le leur (ou vice-versa, peu importe l’ordre), il y a de bonnes chances que l’équilibre de la paix mondiale soit maintenu très longtemps…
Trop fort, cet Alan Moore….

samedi 12 septembre 2009

Le jeu du "bon" et du "truand"




Aujourd'hui, au lieu de vous parler de sujets totalement accessoires comme la taxe carbone ou la menace du ministre du Budget concernant les 3000 contribuables immoraux, la rémunération des banquiers, ou la crise économique, j’ai décidé de  vous parler d’un vrai sujet sérieux, en l’occurrence du film de Sergio Leone, « le bon, la brute et le truand » que j’ai revu récemment.
En fait, cela faisait longtemps que je n’avais pas parlé de cinéma et des multiples possibilités d’illustration de la théorie économique qu’il permet.
Au début du film, l’ignoble Tuco (le « truand »), incarné magistralement par Eli Wallach conclut un pacte avec Blondin (le « bon »), interprété par Clint Eastwood. Recherché dans la plupart des états de l’Ouest, les autorités promettent pour sa capture 3000$. Les deux complices mettent alors au point une arnaque dans laquelle Blondin « capture » Tuco, le remettant aux autorités locales, et empoche la récompense. Celui-ci est immanquablement condamné à être pendu haut et court, compte tenu de son passif judiciaire. Au moment fatidique où la corde enserre le coup de Tuco, Blondin, caché à quelques encablures de là, ajuste d’un tir de carabine la corde et la coupe aussi sûr que 2 et 2 font 4. Les deux partagent la somme, chacun empochant donc 1500$. Le partenariat dure un certain temps avant d’être unilatéralement dénoncé par Blondin, qui part sous les injures de Tuco avec les 3000$.
Bien évidemment, c’est l’aspect stratégique du jeu qui m’a intéressé dans cette histoire…  En effet, quelle est l’incitation de Blondin à couper la corde ? S’il la rate, il empoche les 3000$ au lieu de 1500$ et aucune rétorsion n’est à attendre puisque le pauvre Tuco serait expédié ad patres. Le jeu peut se résumer ainsi : Tuco accepte d’être capturé ou non, puis Blondin coupe la corde ou ne la coupe pas. Si on suppose que ce jeu séquentiel est répété une fois, il est improbable que le partenariat puisse exister. En effet, l’arbre du jeu sous sa forme extensive est le  suivant :
 

Théoriquement, l’équilibre du jeu est que Tuco n’accepte pas un tel partenariat s’il suppose que Blondin est opportuniste et égoïste.
Certains vont me dire que Blondin peut avoir une certaine moralité et qu’il ne veut pas tromper la confiance que Tuco a mise en lui. Ceux qui connaissent le film savent que cette explication n’est pas totalement convaincante, le « bon » se démarquant très peu du « truand » du point de vue de la moralité.
Ce jeu ressemble en fait au fameux « trust game » inventé par Berg, Dickhaut et Mc Cabe, 1995. Dans ce jeu, un « envoyeur » reçoit une certaine somme d’argent (10$ par exemple) et doit décider d’en envoyer une partie à un répondant, la somme envoyée étant multipliée par 3. Le répondant doit alors décider quelle part il renvoie à l’envoyeur. L’équilibre d’un tel jeu est comparable à celui du jeu du bon et du truand, la structure également, puisque l’intérêt du répondant étant de tout garder pour lui, la meilleure stratégie pour l’envoyeur est de garder ses 10$ et de ne rien envoyer. Cet équilibre de Nash est sous-optimal puisque le meilleur pour les deux joueurs serait que le premier envoie la totalité des 10$, ce qui générerait 30$. Peu importe le partage décidé ensuite par le répondant, les optimums de Pareto étant tous caractérisés par un gain total de 30$ avec différents partages possibles de cette somme de 0.01$ pour l’un vs 29.99$ pour l’autre en passant par 15$ vs 15$. La situation est similaire pour Blondin et Tuco, puisque l’équilibre de Nash les conduit à ne rien gagner alors que l’optimum de Pareto pour les deux serait effectivement que Tuco accepte d’être capturé et que Blondin coupe la corde.
Les expériences de laboratoire faites sur ce jeu ne donnent bien évidemment pas du tout ce résultat, que ce jeu soit répété ou qu’il soit fait en one shot. Les niveaux de confiance sont assez élevés pour l’envoyeur, celui-ci faisant parvenir plus de la moitié de sa dotation au répondant. Toutefois, la confiance n’est guère payée en retour, le répondant (qui obtient en moyenne entre 15$ et 18$ si l’envoyeur envoie entre 5 et 6$) renvoyant autour de 6$ en moyenne. En clair, les répondants se contentent de rembourser l’envoyeur… (voir le graphique ci-dessous, tiré d’un jeu en classe réalisé par Charles A. Holt sur la base d’une dotation de 10$ avec un facteur 3 qui multiplie la somme envoyée, et deux traitements, l’un comportant un design strangers (les partenaires changent à chaque période de jeu) et l’autre un design partners). En fait, le niveau de confiance, contrairement à l’intuition, semble même un peu moins bon quand les joueurs restent ensemble plusieurs périodes (partners design).
 
Si on transpose ces résultats empiriques, on comprend que Tuco accepte le deal : tout se passe comme s’il envoyait 1000$ dans le cadre du « trust game », générant ainsi 3000$, et que Blondin acceptait de lui renvoyer la moitié de la somme. Blondin est même plus généreux que les sujets ci-dessus, puisqu’il pourrait négocier sur la base d’un renvoi de 1000$ à Tuco, lui gardant 2000$.
[Blood and guts !, les sujets expérimentaux sont-ils encore plus opportunistes que des héros de westerns spaghetti ? Sujet de thèse possible, je vous l’offre en bonus].
Or, dans le film, Blondin trahit finalement Tuco (mais en ayant la delicate attention de couper la corde avant), lâchant à son truand de partenaire : “The way I figure, there's really not too much future with a sawed-off runt like you”.
Une autre explication est possible. J’ai supposé avec un brin de roublardise, que le jeu n’était répété qu’une fois, ce qui n’est pas le cas dans le film. On peut même supposer que le jeu est virtuellement répété à l’infini. Dans ce cadre, la coopération peut tout simplement émerger si on suppose que la préférence pour le présent de Blondin n’est pas trop forte. En effet, il doit choisir entre 3000$ une fois (disons « tout de suite « ) ou 1500$ répété à l’infini. Par conséquent, il choisit 1500$ répété à l’infini si son taux d’escompte est inférieur à 50% (3000$ =1500$ /a, d’où a=0.5). On retrouve en quelque sorte une conclusion classique par exemple dans les « super-jeux » de collusion (des jeux répétés à l’infini, voir Schotter, A. (1976), « infinitly repeated norm-assisted games », document de travail à ma connaissance non publié, ou Friedman, J (1977), Oligopoly and the theory of Games, North Holland) est précisément que la collusion (la coopération) peut émerger si les taux d’escompte des joueurs ne sont pas trop élevés…
Le défi qui reste à expliquer est le suivant : pourquoi Blondin est-il d’abord d’accord, répète le jeu un certain nombre de fois, puis renonce au partenariat ? C’est une forme d’incohérence temporelle. Mais heureusement qu’elle existe, car sinon le film ne pourrait prendre le tour réjouissant qu’il a à partir de cette trahison de Blondin…
PS : Jean-Edouard de Mafeco me signale (cf premier commentaire de ce post) un billet très proche qu'il a écrit sur le même thème il y a quelques mois. Le lien est ici . Je jure par mes grands dieux que je ne connaissais pas ce post ! Donc il faut que je rende à Jean-Edouard ce qui est à Jean-Edouard, il a eu en premier l'idée, que ce billet soit un hommage et un clin d'oeil à Mafeco..

samedi 5 septembre 2009

Au secours ! La taxe carbone existe déjà...



Je ne voulais par parler de la taxe carbone cette semaine, car tout le monde en parle (j’ai – je vous l’accorde – un peu l’esprit de contradiction, et j’aime bien parler de choses dont on ne parle pas car je me méfie du consensus), mais impossible de ne pas en parler tant j’entends d’âneries dans les médias divers et variés.

Et surtout tant le débat, dans le feu de l'actualité,  en créant fumerolles et brouillard digne d'un des meilleurs films de John Carpenter, escamote la masse d'analyses déjà effectuées depuis quelques années.

[ D'où  l'image qui illustre ce blog,. Je sais c'est acrobatique mais j'adore vraiment ce film et l'idée du côté fantômatique de Fog pour illustrer ce spectre de la taxe carbone me plaisait bien ]

Le débat tourne autour des multiples dimensions de cette taxe : son niveau, notamment par rapport à d’autres pays où elle existe déjà, la manière dont elle peut être collectée, et l’impact qu’elle peut avoir sur l’économie (voir un précédent billet que j’avais écrit sur cette question). Jusqu’à ce que, début septembre, alors que globalement un consensus semblait se faire sur le principe même de cette taxe, certain(e)s remettent maintenant celui-ci en cause.

Un des points du débat porte sur la valeur de cette taxe. Le Gouvernement a pour cela formé une commission, animée par l'ancien premier ministre Michel Rocard, pour l'éclairer sur ce point. La recommandation principale est de fixer cette taxe à 32 euros la tonne de CO2.

En fait cette valeur du carbone a été discutée et tranchée il y a déjà un moment… Elle a été fixée en 2001 par le défunt commissariat général du Plan à 27 € la tonne en euros constants de 2000 - si tu ne me crois pas, lecteur, tu peux aller vérifier ici -… Si on accepte que cette valeur économique du carbone représente le support pour fixer une taxe, ceci donne a peu près exactement les 32 euros la tonne de CO2 recommandés par la commission Rocard, si on actualise de l'inflation, environ 2% par an, pour  de 2000 à 2008 (je me demande vraiment ce qu’ils ont pu bien faire pour arriver 8 ans après à la même valeur que celle préconisée par la commission menée par Marcel Boiteux en 2001, il y a vraiment des commissions dont on peut douter de l’utilité…).

[Si je continue avec ce genre de réflexions, je suis bon pour émarger dans quelques années  comme chroniqueur dans "combien q'ça nous coûte-ty c't'affaire?" aux côtés de Jean-Pierre Ricard sur une chaine qui fait un max d'audience avec un programme économique d'une qualité que nous envie le monde entier]

D’ailleurs, le Centre d’Analyse Stratégique a sorti un rapport sur cette question très dernièrement en réaffirmant cette position, avec un brin d’actualisation (voir ici), et l’évolution mentionnée par la commission Rocard qui estime que la valeur de la tonne de CO2 pourrait évoluer jusqu’à 100 euros la tonne en 2030 est connue depuis longtemps.

Au-delà de mes ricanements sarcastiques sur toute cette agitation intellectuelle sur un sujet rebattu depuis des lustres, il y a bien sûr un réel problème de mise en application, notamment un aspect redistributif classique : ceux qui vont payer le feront en fonction de l’usage probablement, et ce ne sont pas forcément les plus riches (voir ici le billet d’Olivier Bouba-Olga).

Mais il faut aussi comprendre que la valeur de la tonne de carbone est en fait fixée sur la base d’un principe d’efficacité économique, et pas du tout d’équité. Cela ne signifie pas que le premier principe prime sur le second, qu’il est plus important. Simplement, selon une position classique – mais qui a tendance à changer depuis quelques années -, les économistes s’occupent avant tout des problèmes d’allocation efficace des ressources, aux politiques de se soucier d’une allocation équitable des ressources (cette position a été définie par Vilfredo Pareto au début du 20ème siècle).

Bon, je ne parlerai pas ici d’équité, me réfugiant, avec un brin d'hypocrisie intellectuelle, derrière cette position (heureusement que Piketty, Bourguignon et d’autres n’ont pas suivi ce dogme), et parlerai donc d’efficacité, plus pour tenter d’éclairer le débat que pour prendre position. D’ailleurs, je pense vraiment qu’il est en fait impossible d’être contre le principe de la taxe carbone, tout le problème étant en fait d’en fixer le niveau et les modalités de recouvrement. Si je voulais être un peu polémique, je pourrai suggérer que je préférerai la mise en place en place de quotas d'émissions au niveau des agents plutôt que l'instauration d'une taxe (après tout, Charlie Plott a montré il y a longtemps , à l'aide d'expérimentations de laboratoire, que, bien que la théorie économique considère les deux comme équivalents du point de vue de l'efficacité, les marchés de droits à polluer sont plus efficaces que la taxe).

En fait, le propos de ce billet est de montrer, avec un brin de provocation gratuite qui me caractérise, que cette taxe carbone existe déjà et peu ou prou est déjà égale aux 32 euros la tonne préconisés la commission Rocard !

Ach so, damned comme on dit dans la rubrique-à-brac ! Vous n’étiez pas au courant ? Vous doutez de ma santé mentale à présent ?

Et bien, elle ne s’appelle pas « taxe carbone » ou «  contribution climat énergie », mais « valeur tutélaire du carbone ». La valeur tutélaire du carbone est la valeur économique de la tonne de CO2 prise en compte dans les évaluations socioéconomiques des investissements publics.

Quelle est la logique économique de sa fixation ? C’est un peu complexe de rentrer dans les détails, et lecteur curieux, tu iras lire les rapports mentionnés, mais le principe est un principe microéconomique de base : la valeur tutélaire du carbone correspond grosso modo au prix optimal de la tonne de CO2. Comment est fixé ce prix optimal ? Un prix optimal correspond à un prix qui va minimiser le coût marginal total de la pollution. Ce coût total est la somme en fait de deux coûts impliqués par les tonnes de CO2 émises : d'une part le coût des dommages (le coût des atteintes à l'environnement pour la société, par exemple des dégâts économiques provoqués par les catastrophes naturelles issues de l'accélération du cycle du climat impliqué par l'accroissement de l'effet de serre), d'autre part, le coût d'évitement de la pollution (ce que cela coûte à la société de diminuer la quantité de pollution, par exemple quant un ménage s'équipe d'une coûteuse chaudière à basse consommation ou d'équipements géothermiques qui diminuent les émissions de CO2). Or, ces coûts marginaux évoluent en sens inverse. Le coût marginal des dommages s'accroit exponentiellement quand le niveau d'émission augmente, à l'inverse du coût marginal d'évitement qui croît exponentiellement quand le niveau d'émission diminue.. Le graphique ci-dessous, que l'on peut trouver dans n'importe quelle pharmacie faculté d'économie, représente cela :




Le prix optimal de la tonne de CO2 correspond au P* du graphique, point où le coût économique de la nuisance est minimum et où on est au niveau optimal de nuisance - qui ne peut donc pas être zéro comme nous le disent certains écolos, le coût d'évitement tendant virtuellement vers l'infini, ou le niveau maximum, le coût des dommages tendant à son tour vers l'infini-.
Ce raisonnement est souvent utilisé comme base pour fixer la valeur tutélaire d'une nuisance. Les différents rapports déjà mentionnés, moyennant divers arbitrages théoriques et empiriques - il s'agit d'arriver à estimer correctement coût d'évitement et des nuisances, ce sur le long terme, d'où de redoutables problèmes d'appréhension de l'incertitude sur l'évolution de ces coûts -. Je simplifie donc pour que le lecteur non initié comprenne l'intuition qui préside aux modalités de fixation de cette valeur tutélaire de la tonne de CO2, fixée donc à 32 euros à l'horizon 2010.
Par exemple, lors de la réalisation d’un bilan coûts-avantages pour un projet d’infrastructure de TGV, cette valeur de 32 euros la tonne de CO2 doit être utilisée. Supposons par exemple que le projet en question permette à la collectivité d’éviter 100 000 tonnes de CO2 chaque année. En effet, compte tenu des prévisions de trafic que je peux faire sur les années à venir à compter de l’ouverture à l’exploitation du TGV, un phénomène de report d’une partie des voyageurs qui utilisaient auparavant leur voiture ou l’avion pour aller du point A au point B sur la dite ligne de TGV peut se produire (s’il n’y a pas de report du tout, il y a très peu de chances que le projet soit rentable économiquement d’ailleurs). Concrètement, cela implique que dans le bilan ex ante de la ligne, je vais créditer le projet d’un avantage de 100 000 que multiplie 32€ soit 3,2 millions d’euros. Cela va dont renforcer la rentabilité de ce projet ferroviaire par rapport à un projet, au hasard, routier. Il est en effet à peu près sûr que j’évite plus de pollution globale avec un projet ferroviaire qu’avec un projet autoroutier.
Bon, vous me direz que tout cela ne concerne que des projets dont on n’est même pas sûr qu’ils seront réalisés. Toutefois, l’arbitrage de l’Etat doit se faire sur cette base là ! Ainsi, si le projet de TGV est plus rentable (en prenant en compte tous les impacts qu’ils portent sur la pollution, la sécurité ou sur le chiffre d’affaires des exploitants routiers et de la SNCF) que le projet autoroutier, la contrainte budgétaire du Gouvernement étant plutôt importante, le projet autoroutier sera écarté et le projet de TGV mis en œuvre.
Cette règle d’évaluation des coûts et avantages, qui intègre donc une valeur tutélaire du carbone peu ou prou égale à la valeur de la taxe dont nous discutons tous actuellement, est appliquée pour l’essentiel dans le cas de tous les grands projets d’infrastructures (ou devrait l’être), ce au moins depuis 2001. (en fait officialisée en 2004, voir ici). Donc des projets déjà réalisés ou en cours de réalisation ont été décidés sur la base d’évaluations fondées sur cette valeur tutélaire du carbone. Comme ces projets sont largement financés par vos impôts (et les miens), qu’ils soient locaux ou nationaux, nous payons en fait tous indirectement déjà cette « taxe » carbone. Il ne s’agit pas certes d’une taxe sur l’usage des biens et des services que nous consommons mais d’une « taxe » intégrée en amont dans la fiscalité directe, alors que nous parlons de l’intégrer maintenant et en plus dans la fiscalité indirecte.
Cela pose d’ailleurs un problème, puisque en fait, d’une manière ou d’une autre, nous paierons deux fois cette taxe carbone, à la source par nos impôts qui financent des projets économes en carbone, et à l’usage par des taxes qui pénalisent les émissions que nous impliquons pour la société…
Bon on peut vendre cela en insistant sur l’aspect incitatif concernant les comportements des ménages en matière de consommation d’énergie et de responsabilité environnementale, mais cela devient un peu acrobatique, et surtout c'est un autre sujet…

vendredi 28 août 2009

Billet de rentrée : retour de vacances, prévisions de Bison Futé et concours de beauté


Il est temps de se remettre au travail et, pour cela, quel meilleur moyen que de parler de ses vacances ? Tout le monde sait bien que, quand on a rien à dire, on raconte ses vacances...
En fait, plus précisément de retour de vacances…
En effet, récemment, après quelques semaines de repos bien méritées, j’ai, comme quasiment tous les vacanciers, été soumis à la torture – physique, nerveuse et psychologique – du retour de vacances impliquant de traverser la France entière du sud au nord au volant de mon véhicule favori.
Or, ces retours estivaliers (tous comme les départs) génèrent, c’est bien connu, des pointes de trafic dantesques dont on ressort accessoirement avec des envies de meurtre à l’égard de son prochain automobiliste, mais en tout cas épuisé nerveusement…
Le grand jeu de nombre d’automobilistes est donc d’éviter ces pointes –quand leur contrainte en matière d’arrivée ou de départ n’est pas trop forte.
Dans ce grand jeu impliquant des milliers de joueurs, les prévisions de Bison Futé  - voir ici -de trafic plus généralement, données par un nombre croissant de sites internet) sont censées guider les joueurs automobilistes afin d’aplanir ces pics de trafic. Notre cher icône sioux nous indique ce que seront a priori les journées « rouges », « orange » et « verte », les couleurs étant fonction de l’intensité du trafic sur le réseau en question. Rouge est synonyme de cauchemar et vert de ballade bucolique en gros.
Je me souviens que, même gamin, j’avais un problème avec cette histoire de Bison Futé. En effet, si les automobilistes utilisaient les prévisions pour modifier leur comportement en conséquence (anticiper ou reporter leur départ ou leur retour), logiquement, ces prévisions devaient s’avérer nécessairement fausses ex post. Sauf si l’on suppose que les gens sont idiots ou, plus prosaïquement, qu’ils ont une contrainte absolue en matière d’heure de départ ou d’heure de retour…
Je me disais en conséquence que les ingénieurs du trafic derrière Bison Futé étaient soit des imbéciles, leurs prédictions s’avérant nécessairement fausses du fait de n’avoir pas considéré l’interaction stratégique entre les automobilistes et l’effet de l’information sur les comportements (je ne le disais pas comme cela gamin, mais l’essentiel y était) soit diablement malins et pervers, considérant que l’erreur était un coût à subir au nom de l’intérêt général et de la minimisation des coûts de transport et des coûts d’insécurité…
Donc, il y a quelques jours, notre jeu a été d’éviter les pointes des week-ends de retour sur les axes nord sud, et notamment le samedi, les locations allant en général du samedi après midi au samedi matin. Il s’agissait en gros de décider de décaler notre départ la veille de la fin de la location ou le lendemain. Comme pas mal de personnes choisissent la première solution, nous avons choisi la seconde, celle de partir le dimanche, ce qui, soit dit en passant, a fonctionné parfaitement.
Au-delà de l’anecdote, ce raisonnement spéculatif que nous avons eu sur le comportement des autres automobilistes m’a rappelé le jeu du concours de beauté discuté par J. M .Keynes dans la  Théorie générale..., dans lequel l’objectif d’un concours n’est pas de sélectionner la fille objectivement la plus belle, mais celle qui sera désignée comme étant la plus belle par le plus grand nombre de compétiteurs. C’est un peu le même problème, puisque si on suppose les autres automobilistes rationnels, au moins autant que soi, la question est de savoir ce que les autres vont se figurer comme étant le choix le plus raisonnable.
Ce situation de raisonnement spéculatif (pas dans un sens financier, ici on spécule sur la rationalité des autres) a été testé en économie expérimentale à travers une série d’expériences construites par Nagel, 1995, Unravelling in Guessing Games, American Economic Review, 85 (5) ( voir ici pour une référence plus récente de cet auteur en collaboration avec d'autres) sur la base d’un « jeu de devinette » (très mauvaise traduction de « guessing game »). Dans ce jeu, des sujets doivent désigner un nombre compris entre 0 et 100. Le gagnant d’un prix annoncé à l’avance (x $) est celui qui donne le nombre qui est le plus proche de, par exemple, la moitié de la moyenne des N nombres donnés par les participants. Les perdants gagnent 0 et, en cas d’égalité, les gagnants se partagent le prix .
Différents niveaux de raisonnement sont possibles. Le niveau de rationalité zéro consiste pour un joueur à choisir aléatoirement entre 0 et 100 soit en moyenne 50, sans considérer le choix des autres. Un niveau de rationalité encore plus sophistiqué (niveau 1) consiste à penser que les autres désignant en moyenne 50, je gagnerai en choisissant 25 (0.5*50). Un niveau de rationalité encore plus sophistiqué consiste à penser que si les autres sont de niveau 1, et choisissent 25, je devrai choisir 12.5 (0.5*25). Etc. L’étude de ce type de jeu permet donc d’observer le degré de sophistication des comportements individuels en situation d’interactions stratégique.
Dans un tel jeu, l’équilibre de Nash consiste à donner un nombre égal à 0. En effet, si je suppose que les autres vont donner un chiffre de 50, je dois, pour gagner, donner un nombre de 25. Mais si les autres sont aussi rationnels que moi, ils vont donner un nombre égal à 25. Donc je dois en fait donner un nombre égal à 0.5*25 soit 12.5. Mais si les autres sont aussi rationnels que moi, etc. A l’issue du raisonnement spéculatif, la seule solution rationnelle est de déclarer 0.
Dans un jeu en classe que j’ai fait il y a quelque temps, 9 participants devaient faire ce choix de nombre durant 10 périodes. Le résultat est donné dans le graphique suivant :

 
Au début, la moyenne des nombres choisis par les joueur est autour de  42.5 (proche de 50), Puis, l'interaction se répétant, le nombre choisi en moyenne baisse fortement, comme si les participants réalisaient un apprentissage sur la bonne manière de raisonner dans ce jeu qui consiste à spéculer sur la rationalité des autres participants. Les décisions convergent lentement, mais sûrement, vers l’équilibre de Nash (pour la dernière période, il y a un effet « fin de jeu », mais je n’ai pas d’explication claire sur cette remontée). Ces résultats sont en fait assez proches de ceux obtenus initialement par Nagel, 1995, ce qui prouve la robustesse de ceux-ci.
Pour revenir à mon histoire de Bison Futé, car, lecteur, tu ne vois peut être pas le rapport – en fait j’espère quand même que si - le fait que la stratégie de partir le dimanche (au lieu du samedi) ait fonctionné peut s’expliquer de deux manières (ou par un mix des deux). Soit les automobilistes sont contraints d’arriver avant le lundi absolument, et cela peut expliquer le choix du samedi (niveau 0) ou du vendredi (niveau 1 de rationalité), soit en ayant un niveau de sophistication de type 2, on peut significativement améliorer sa situation. Mais si l’interaction est répétée de manière suffisamment forte avec un groupe d’automobilistes suffisamment homogènes, cette stratégie ne marchera plus, peut être dans dix ans. Cela me laisse le temps d’arrêter complètement de partir en vacances pour arrêter de me prendre la tête (au sens propre et figuré) avec ces histoires de départ/retour de vacances…

dimanche 2 août 2009

Trafic routier, travaux en ville et paradoxe de Braess

Allez, un dernier billet avant les vacances de ce blog ! De toute façon, comme je pars sur les traces de l’expédition Franklin (lecteur, si tu as raté ce formidable billet – c’est ce que m’a dit ma mère - tu peux te rattraper en allant ici), il y a peu de chances que j’ai accès au ouebe pour pouvoir pondre d’autres billets…

Il y a quelques semaines, ma bonne ville de Rennes était pleine de travaux, comme certainement nombre d’autres villes de province qui profitent de  l’arrivée prochaine des vacances estivales pour expédier un certain nombre de chantiers.
La ville, bruissant de ces multiples travaux, assortissait ceux-ci des habituelles restrictions de voirie et autres détournements qui font le plaisir de l’automobiliste au sortir de son lit quand il s’en va gagner sa croute à la sueur de son front au volant de son véhicule favori.
Comme je suis parfois un brin grincheux, j’anticipais alors une congestion routière cauchemardesque dans la ville et, un brin résolu, m’apprêtais à passer des moments interminables dans les bouchons, ce qui, soi-dit en passant, me laisserait du temps pour imaginer toutes les stratégies de torture possibles pour l’intégralité du personnel de la direction de l’équipement et des conseillers municipaux de la Ville de Rennes.
(Lecteur, si, comme moi, tu trouves la phrase précédente trop longue, je t’autorise à la couper avec l’instrument contendant qui te plaira).
Pour autant, comme j’ai pu le constater avec un peu de surprise, cette catastrophe annoncée du point de vue des encombrements n’a pas eu lieu, au contraire. Le trafic était significativement plus fluide qu’aux autres périodes de l’année. Bref, mon temps de parcours était réduit de quelques minutes par rapport à l’habitude…
Un lecteur sagace me dira vite que cette amélioration du trafic venait sans doute du fait que les étudiants n’étaient pratiquement plus là et que, du coup, le trafic local était significativement moins chargé.
C’est possible, mais rien n’est moins sûr. Des tonnes de facteurs peuvent avoir modifié l’état du système. Mais pourquoi ne pas penser au plus simple ? A savoir que la seule modification du système était ces travaux, toutes choses étant égales par ailleurs, et que cette restriction de la capacité pouvait très bien déboucher sur un nouvel équilibre du trafic caractérisé par des temps de parcours réduits !
En effet,  il n’est pas sûr du tout qu’une restriction de la capacité de la voirie –due par exemple à des travaux, mais aussi à des politiques de déplacements urbains – dégrade les conditions de circulation. Cette restriction pourrait même conduire à améliorer les conditions de circulation…
Ce résultat surprenant a été constaté dans certains cas spectaculaires, par exemple à New York en 1990. Le New York Times publia même cet encart à l’époque  :
« In 1990, 42nd Street in New York was closed for Earth Day, and the traffic flow in the area actually improved. An analoguous situation was observed in Stuttgart where a new road was added to downtown, but the traffic flow worsened. Following complaints, the new road was removed. »
(Pour les non anglophones, cela dit en gros que la 42ème rue avait été fermée dans le centre de Big Apple, et que, au lieu d’une catastrophe en termes d’embouteillages, ce fut une amélioration qui fut constatée. Au contraire, à Stuttgart, quand la ville fut dotée d’une nouvelle route, les conditions de trafic se sont tellement dégradées que les autorités décidèrent de supprimer ce nouveau barreau routier)
Ce surprenant résultat avait été en quelque sorte prédit ou avancé, mais uniquement comme une spéculation théorique, par un mathématicien allemand, Dietrich Braess en 1968. Ce résultat a été dès lors qualifié de paradoxe de Braess.
L’intuition est la suivante : supposons qu'un nombre n d’usagers ait le choix entre deux itinéraires, un des ces itinéraires étant éventuellement plus rapide que l’autre. On peut penser que le temps de parcours sur chaque itinéraire est une fonction croissante du nombre d’usagers choisissant cet itinéraire : c’est ce qu’on appelle de la congestion. Si ces usagers sont rationnels, ils vont se répartir entre les deux itinéraires de telle manière que, à l’équilibre du trafic, les temps de parcours seront rigoureusement identiques sur chaque itinéraire et aucun usager n’a alors intérêt à dévier de cet équilibre. C’est ce que, en économie des transports, on appelle l’équilibre de Wardrop, qui est en fait un équilibre de Nash.
Considérons le réseau routier suivant ultra-simple en forme de losange :

source : Rapoport et al. 2005

Sur la figure de gauche (attention, le graphique comporte une erreur, le coût fixe de transport n'est pas de 120 mais de 210!), deux itinéraires sont disponibles, pour aller de O (Origine) à D (Destination), l’un passant par A, l’autre passant par B. Sur chaque itinéraire, le temps de transport est la somme d’un temps fixe (210) et d’un temps variable qui dépend du nombre d’usagers présents sur le même itinéraire. Ainsi, s’il y a 18 usagers en tout, et que nous sommes 16 à passer par A et 2 à passer par B, les 16 sur A subiront un temps de 210 + (16)10 = 370 et les 2 sur B un temps de (2)10 + 210 = 230.
Les lecteurs un peu férus de théorie des jeux peuvent vérifier que, dans ce jeu de coordination, il y a une multiplicité d’équilibres de Nash (en stratégies pures), tous conduisant à une répartition uniforme des usagers sur ce réseau. L’équilibre du trafic est donc caractérisé par 9 usagers sur l’itinéraire A et 9 usagers sur l’itinéraire B. C’est cet équilibre qui minimise le total des coûts de transport, en d’autres termes c’est un optimum de Pareto. Pour cette répartition du trafic, chaque usager subit un temps de déplacement de 210 + (9)10 = 300.
Maintenant, supposons qu’un planificateur mal avisé décide de créer un itinéraire supplémentaire, comme sur la figure de droite ci-dessus. Il maille le réseau en raccordant le point A au point B, de sorte que 3 itinéraires sont maintenant possibles. Son intuition est que ce troisième itinéraire va permettre de décharger les deux autres et d’améliorer globalement les temps de transport. Supposons que le temps de transport de A à B soit nul, pour bien enfoncer le clou.
Tu pourras vérifier, lecteur, en guise de casse-tête en lieu et place du sudoku effectué laborieusement à la plage sous le soleil écrasant, que le nouvel équilibre conduit à ce que tous les usagers passent par le 3ème itinéraire. Le temps pour chaque usager est donc de (18)10 + 0 + (18)10 = 360. Le temps de transport total a donc augmenté et les conditions de circulation ont été dégradées par l’ajout d’un itinéraire supplémentaire. C’est dans ce sens qu’il y a paradoxe. C'est bien un équilibre de Nash car il n'y a pas de déviation profitable. Un joueur qui envisagerait de dévier sur l'un des deux autres itinéraires subirait en effet un coût de 390 (210+10(18) ou 10(18)+210)...
Bref, on connaissait bien quelques confirmations empiriques de ce phénomène bizarre qui veut qu’un meilleur maillage du réseau routier conduise à une dégradation des conditions de circulation et à une augmentation du temps de parcours, mais cela restait limité, et on pouvait dès lors parler de conjecture de Braess. Certains considéraient même le paradoxe de Braess comme une curiosité intellectuelle, mais pas plus tant l’évidence empirique était maigre.
Jusqu’à ce que l’équipe d’Amon Rapoport, de l’université de Tucson, Arizona, réalise une expérience sur ce fameux paradoxe de Braess en 2005 (une version de cette étude a été publiée en 2009 ici). En fait, la figure ci-dessus représente précisément l’expérience réalisée par l’équipe de Rapoport.
Dans un des traitements, les 18 participants choisissent un itinéraire à 40 reprises parmi les deux possibles (figure de gauche) puis à 40 reprises parmi les trois possibles (figure de droite).
Les résultats sont repris ci-dessous :
source : Rapoport et al. 2005

Ces graphiques disent simplement que les participants finissent par se coordonner  sur la répartition du trafic prévue par l’équilibre de Nash (9 sur chaque itinéraire dans le premier jeu, 18 sur le 3ème et aucun sur les deux autres dans le second jeu).
source : Rapoport et al. 2005
Bien évidemment, les gains des participants sont plus faibles dans le jeu avec réseau augmenté que dans le jeu avec réseau de base, comme le montre la figure ci-dessous.
source : Rapoport et al. 2005

En fait, ces expérimentalistes ont observé pour la première fois en laboratoire ce qui restait jusqu’à présent une spéculation intellectuelle. L’intuition géniale de Dietrich Braess s’est donc vue confirmée d’une manière que je trouve particulièrement spectaculaire d’un point de vue empirique. A nombre d'usagers constant, des routes supplémentaires peuvent très bien dégrader la situation du trafic, même sans considérer les coûts économiques de ces routes pour les collectivités qui les entreprennent.
Ce type d'expérience a été réédité par Orzen et al (2007), et Meingold and Pickhardt (2008), qui montrent par exemple qu'un péage trop élevé sur un itinéraire donné peut avoir le même type d'effet et provoquer un paradoxe de Braess, ce sur la base d'expériences de laboratoire.
Pour ma part, je suis intimement persuadé d’avoir observé en juin dans des conditions réelles, au volant de ma voiture, ce paradoxe de Braess dans cette bonne vieille capitale bretonne qui n’en est peut être toujours pas revenue…
PS : remerciements à un blogger commentateur d'un billet précédent qui m'a donné l'idée de ce billet, le paradoxe de Braess me fascinant depuis longtemps.

vendredi 24 juillet 2009

Education des enfants (bis), utilitarisme et motivation intrinsèque


Il y a quelques semaines, je consacrais un billet à l’idée de menace crédible appliquée à l’éducation de ma fille. Comme je ne veux pas que mon fils puisse me reprocher un jour d’avoir parlé de sa sœur et pas de lui sur mon blog, je me sens l’obligation d'évoquer le plus âgé de  mes rejetons…
Bon, je ne veux pas me faire passer pour un spécialiste de l’éducation, une espèce de Marcel Ruffo des économistes. Non et non !  Je suis tout aussi démuni que n’importe quel père face aux problèmes de comportements de ses bambins, et je n’ai malheureusement aucune leçon définitive à donner en dehors du fait que, comme le disait Gabin dans la chanson, « je sais que je ne sais rien ».
La seule différence avec un quidam ordinaire est que, parfois – heureusement pas tout le temps, sinon je deviendrai fou – j’interprète les choses du quotidien avec mes lunettes d’économiste, et de temps en temps, j’infère du raisonnement économique des possibilités de solution. Cela permet de faire de petites expériences en milieu naturel à peu de frais. On va voir que cela n’est pas toujours couronné de succès, loin s’en faut.
Donc, mon fils, presque 7ans, n’est pas quelqu’un de turbulent naturellement, mais d’un peu buté. Ce doit être son ascendance bourguignonne qui a percolé dans ses gênes. En clair, nous avions toutes les peines du monde à lui faire entrer dans le crâne ce qui pouvait être considéré comme de bonnes actions et ce qui pouvait être vu comme de mauvaises actions, afin de l’aider à s’autoréguler.
Nous avons donc eu l’idée, comme beaucoup de parents avant nous sans doute, de recourir à un système de bons et de mauvais points, peut être aussi vieux que l’éducation des enfants elle-même.



[J’en prends à témoin le lecteur : n’y-a-t-il pas dans la grotte de Lascaux une fresque montrant un père donnant un coup de massue à son fils qui venait de casser le squelette du T-Rex qui décorait la grotte familiale et une cuisse de mammouth à sa fille qui venait de recoudre la peau d’ours paternelle ? Et sur la tapisserie de Bayeux un Normand attribuant un crâne rempli d’hydromel à son fils qui venait de massacrer l’intégralité d’un couvent de moines franciscains ?]
… Euh, désolé, Messieurs Lascaux et Bayeux me disent que je fais erreur. Autant pour moi !]

Reprenons le fil de mon histoire. Dans ce système, encore utilisé dans de nombreuses écoles primaires, les enfants ont des points négatifs en cas de mauvais comportement et au contraire des points positifs dans le cas de bonnes actions de leur part (voir la discussion du système de sanctions et récompenses par un psychologue ici).
D’un point de vue économique, ce mécanisme de régulation m’apparaissait comme étant assez proche de la théorie de l’utilité à la Jeremy Bentham (1748-1832, au cas où comme beaucoup de mes étudiants, lecteur, tu ne puisses pas dormir sans avoir la date de naissance et de mort des personnalités citées quelque part), un des fondements de l’analyse économique, puisque la plupart d’entre nous ne jurent que par des fonctions d’utilité pour représenter le comportement des agents. En particulier, les économistes insistent sur des mécanismes incitatifs visant à amener les individus à se comporter correctement d’un point de vue normatif. Jeremy Bentham parlait d’ailleurs de la « comptabilité des peines et des plaisirs ».  Je cite un extrait de son Introduction to the Principles of Morals and Legislation (1789) glané ici :
 « La nature a placé l'humanité sous l'empire de deux maîtres, la peine et le plaisir. C'est à eux seuls qu'il appartient de nous indiquer ce que nous devons faire comme de déterminer ce que nous ferons. D'un côté, le critère du bien et du mal, de l'autre, la chaîne des causes et des effets sont attachés à leur trône. »
Bon, donc si mon fils était rationnel, il devrait chercher à minimiser ses mauvais points, à maximiser ses bons points, de manière à maximiser le nombre de bons points nets (les mauvais points étaient retirés du capital de bon points déjà accumulés, l’intéressé devant atteindre un certain niveau total pour être récompensé matériellement).
Le comportement de mon fils s’est-il significativement amélioré avec l’introduction de ce système de bâton et de carotte ?
Je ne tiens pas une comptabilité explicite de ses bêtises, de leur gravité, tout comme des choses bien qu’il a faites, et donc je ne peux pas faire une analyse statistiquement sérieuse de tout cela, mais basiquement, la réponse est non !
Non seulement son comportement ne s’est pas amélioré, mais des effets pervers du système que nous avions institué ont commencé à apparaître. Si par exemple, nous lui demandions de faire quelque chose, il demandait immédiatement combien il obtiendrait de points en réalisant ce qui lui était demandé, voir même il négociait au préalable en nous proposant de faire quelque chose moyennant attribution de points …  Bref, il avait totalement internalisé la règle, mais globalement ce n’était pas efficace.
Je pense, lecteur, que tu n’es guère surpris de ce résultat, mais je l’ai été personnellement. Après tout, je revendique le droit de rester naïf.
J’ai donc essayé de comprendre un peu ce qui s’était passé dans son esprit d’un point de vue psychologique et pourquoi, même si son comportement avait changé, il n’était pas pour autant plus satisfaisant.  Je me suis rendu compte que nous nous étions placés en fait dans une relation principal (les parents)- agent (les enfants), et que la règle que nous avions instaurée ne tombait pas du ciel.
 En y réfléchissant, je me suis souvenu d’un papier de Fehr et Gaechter (2002) sur l’efficacité économique des incitations matérielles dans le cadre d’une relation principal-agent, comme une relation employeur salarié par exemple. Cette question est fondamentale pour les économistes qui croient en grande majorité à l’efficacité des incitations dans le soutien de la motivation extrinsèque (issue de l'environnement économique) de l'agent pour accomplir certaines tâches.
Or, comme le rappellent Fehr et Gaechter, il existe une vaste littérature dans le domaine de la psychologie sociale qui montre que les incitations économiques peuvent évincer la motivation intrinsèque des individus et dès lors avoir des effets contre-productifs. La mise en œuvre de ces motivations extrinsèques se substitue aux motivations intrinsèques - la satisfaction morale que je tire de bien faire mon travail, sans considération pour les résultats liés à ce travail -, l’effet total étant nul ou, pire, négatif. Cet effet est qualifié de crowding out effect ou, in french dans le texte, d’effet d’éviction.
Imaginons que je sois un employeur et que vous soyez mon salarié. Deux solutions sont possibles : soit je vous propose un haut salaire, sachant que je ne peux que très imparfaitement observer votre performance, et je mise sur la relation de confiance, faisant l’hypothèse que votre effort va correspondre à cette confiance que j’ai mise en vous et que j’ai prouvée en vous payant cher. Il y a en fait de bonnes chances que cela fonctionne, disons avec trois salariés sur quatre. Vous allez répondre à cela en faisant un niveau d’effort élevé, et au global nous serons contents tous les deux. La motivation intrinsèque du salarié (obligation morale) a permis de soutenir la coopération.
 Soit je vous dis "je vais vous donner un salaire élevé, mais je vais vous observer. Je ne peux pas observer parfaitement ce que vous faites, mais mettons une fois sur quatre, je serai capable de savoir exactement ce qu’a été votre effort. S’il a été insuffisant, je vous sanctionnerai en déduisant de votre salaire une amende. S’il a été suffisant, ok tout va bien". Dans cette dernière situation, en dehors de salariés hyper averses au risque, il y a de fortes chances que une proportion non négligeable de salariés cherche à en faire le moins possible… Au global, il n’est pas du tout assuré que le niveau d’output soit beaucoup plus élevé dans la seconde situation que dans la première, car dans la seconde situation, j’ai tué la relation de confiance en mettant en place un système d’incitations extrinsèque (sanction liée à un contrôle), ce qui a prouvé au salarié que je ne lui faisais pas confiance. La motivation extrinsèque vient du fait que le salarié veut établir une certaine réputation ou tout simplement gagner plus d’argent.
C’est exactement cela que testent expérimentalement Fehr & Gaechter en 2002. Dans cette expérience basée sur un « gift-exchange game », un principal propose un contrat indiquant le niveau de salaire proposé et le niveau d’effort attendu. Un agent accepte ou non le contrat et décide, s’il accepte, du niveau d’effort qu’il va réaliser. C’est ce jeu qui est joué dans le traitement de base dit « traitement de la confiance » (Trust Treatment ou TT). Dans un autre traitement dit « traitement avec incitations » (Incentive Treatment ou IT), le principal propose un contrat indiquant le niveau de salaire, le niveau d’effort attendu mais également la pénalité qu’il appliquera si le niveau d’effort observé est inférieur au niveau d’effort désiré. Les décisions de l’agent sont identiques au premier traitement, si ce n’est qu’il a une probabilité exogène d’être contrôlé, et si le contrôle est positif (son niveau d’effort est plus faible que le niveau d’effort désiré), il sera sanctionné. Les résultats empiriques sont assez hallucinants, comme le montre le graphique ci-dessous* :

En abscisses le niveau d'effort choisi par les participants-agents (borné entre 0.1 et 1) et en ordonnées la fréquence de choix (par exemple, le niveau d'effort minimal a été choisi dans 30% des cas dans le traitement "confiance" et dans 43% des cas dans le traitement "incitation"). Quelles conclusions tirer de ces résultats ?
Le niveau d’effort moyen n’est pas significativement inférieur dans le traitement « confiance », et même il est légèrement supérieur. Autre résultat spectaculaire : le niveau de surplus économique réalisé en moyenne dans le traitement « confiance » est plus important que le niveau moyen dans le traitement « incitations ». La différence fondamentale, et cela peut expliquer l’intérêt du principal à mettre en place des motivations extrinsèques, est que le principal capture une plus grande part du surplus dans le traitement « incitations » que dans le traitement « confiance ».
En clair, en mettant en place notre système de bons et mauvais points, nous avions tué la motivation intrinsèque de notre bambin, et les incitations issues des motivations extrinsèques ne suffisaient pas à compenser cela…
Bon, la prochaine fois, au lieu de m'inspirer de Bentham, ou de Laurence Pernoud (rien à voir avec Bentham), je lirai Fehr et Gaechter…
*  Les prédictions théoriques  dans chaque traitement sont, en simplifiant honteusement, les suivantes. Dans le traitement "confiance", l’agent opportuniste choisit le niveau d’effort minimal, mais l’agent qui applique la réciprocité peut très bien réagir positivement à un signal en termes de salaire, augmentant son niveau d’effort quand le salaire proposé augmente. Dans le traitement "incitation", tout dépend de l’importance de la sanction. Si le coût espéré de la sanction est inférieur au coût de l’effort désiré par le principal, l’effort minimum est choisi. Dans le cas contraire, l’effort choisi est l’effort désiré.
PS : merci encore une fois à Marcel Gotlib...

vendredi 17 juillet 2009

Le désastre de l'expédition Franklin : des conséquences dramatiques des procédures d'achat de la Royal Navy



Venant de refermer le magnifique roman de Dan Simmons, « Terror » - c'est un pavé possible pour tes vacances, lecteur -, j’ai, en tant qu’économiste, été frappé  par le fait qu’un des facteurs du désastre de cette expédition polaire fut la mauvaise qualité des conserves embarquées à bord des navires, conserves qui étaient bien sûr absolument nécessaires à la survie de marins totalement inaptes à chasser ou à pêcher en milieu arctique.
Je rappelle brièvement l’histoire : Sir John Franklin, missionné par la Royal Geographical Society, embarque en mai 1845 près de 120 hommes répartis sur deux navires, les HMS Terror et Erebus. Ces deux joyaux de l’art naval britannique voguent vers l’Arctique afin de découvrir le passage du Nord-Ouest, qui fraye une route entre les îles arctiques du Grand Nord canadien et permet de relier l’Atlantique au Pacifique. Cette expédition fut un fiasco retentissant, les deux navires se retrouvant très rapidement prisonniers des glaces en mer de Baffin, et aucune trace ou presque des membres de l’expédition ne fut retrouvée, en dehors d’évidentes preuves de cannibalisme à l’issue des missions de recherche de 1850. Quelques corps furent retrouvés apparemment en 2002  par une mission archéologique (voir ici pour plus de détails), ceux-ci contenant des concentrations de plomb anormalement élevées. Ce défaut était  apparemment dû à la mauvaise qualité des conserves embarquées sur les deux navires, ces conserves devant permettre de tenir environ cinq ans en cas de problème. Le procédé de la conservation était relativement récent, et le fournisseur n’ayant pas veillé à la bonne qualité de ses conserves, leur piètre qualité entraînat du saturnisme parmi l’équipage, maladie encore inconnue à l’époque et qui provoque en particulier  des crises de folie…
Bref, assez stressant comme histoire…. L’échec de cette expédition a bien sûr frappé particulièrement les esprits. Nous sommes en pleine domination des mers par les britanniques, l’empire étant au plus haut (la reine Victoria règne depuis quelques années) et au faîte de la volonté de puissance de la Grande Bretagne.
Le plus intéressant – économiquement parlant s’entend - est que la mauvaise qualité des conserves est en fait la conséquence de la procédure économique de mise en concurrence sur les marchés offerts par la Royal Navy au 19ème siècle, procédure classique de choix au mieux offrant.
En effet, la Royal Navy avait attribué le marché au fournisseur proposant le prix le plus bas pour la marchandise demandée, en l’occurrence les fameuses conserves, notamment de viande et de fruits visant à nourrir les hommes et à éviter le scorbut.
Bien évidemment, le fournisseur ayant emporté l’appel d’offres, donc celui qui a proposé le prix le plus bas, a fourni  une marchandise de la pire qualité qui soit, d’où la déconfiture évoquée plus haut, les conserves s’avérant incapables de permettre la survie de l’équipage.
En fait, cette procédure me fait penser à un jeu que j’utilise en cours pour illustrer les problèmes d’asymétrie informationnelle entre les agents, le jeu de la course de l’acheteur (ou « takeover game »). Ce jeu est en fait une version continue du jeu d’Akerlof, décrit dans le fameux papier de 1970, the Market for Lemons.
Dans ce jeu, des vendeurs sont appariés à des acheteurs. On attribue aléatoirement des valeurs aux vendeurs (qui connaissant donc la qualité intrinsèque du bien qu’ils possèdent). L’acheteur connaît seulement la distribution possible des valeurs économiques et doit alors faire une enchère (proposer un prix d’achat) au vendeur avec lequel il est apparié. Si le vendeur accepte l’offre de l’acheteur, l’affaire devient la propriété de l’acheteur et on suppose que celui-ci est capable de la faire fructifier positivement (en clair, s’il a acheté une affaire qui vaut 100, il peut transformer cette valeur de 100 en une valeur de 150, l’hypothèse étant faite que l’acheteur  est un meilleur gestionnaire que le vendeur).
L’acheteur est, dans le cas de l’affaire "Terror", la Royal Navy et le vendeur, le fournisseur malhonnête. Il y a bien asymétrie informationnelle, dans le sens où la qualité des conserves n’est en fait découverte que bien des mois après le chargement sur les navires, les conserves ne pouvant être consommées si j’ai bien tout compris que quelque temps après leur fabrication.
La différence fondamentale est que, contrairement au jeu de course de l’acheteur décrit plus haut, les fournisseurs sont mis en compétition par la Royal Navy. Mais cela ne vient qu’accroître le problème économique que je vais souligner et qui est une des causes de la catastrophe humaine que va devenir cette expédition.
Le problème est celui décrit par Akerlof. Supposons deux qualités de conserves, une mauvaise et une bonne, seul le vendeur connaissant la qualité du bien qu’il est susceptible de vendre. L’acheteur connaissant la distribution probable des deux qualités (par exemple 50% de mauvaises conserves et 50% de bonnes conserves). Les bonnes conserves sont naturellement plus coûteuses que les mauvaises conserves à produire, et on peut supposer que l’acheteur connaît le coût de production de chaque qualité, donc le prix minimum. Si le vendeur propose un prix élevé, et si l’information était symétrique, cela signalerait les conserves de bonne qualité, de même si le vendeur propose un prix faible, cela signalerait les conserves de mauvaise qualité. Mais le vendeur peut proposer un prix élevé pour de la mauvaise qualité, l’écart entre prix et coût étant très grand. L’acheteur anticipant cela, il va refuser tout prix supérieur au coût de production des conserves de mauvaise qualité. Dès lors, les conserves de bonne qualité ne seront plus vendues et produites et seules les conserves de mauvaise qualité se vendront, et à un prix très bas. A la limite, si la qualité la plus basse est suffisamment mauvaise, il n’y aura plus aucun échange de conserves.
Dans un jeu comme la course de l’acheteur, si on suppose que la qualité des conserves vendues va de 0 € (des conserves pourries, totalement inutilisables) à une valeur supérieure  (par exemple 100 dans le jeu), ces valeurs étant distribués uniformément entre 0 et 100 (c’est une version « continue » d’Akerlof), l’équilibre de Nash du jeu est que l’acheteur doit proposer une enchère égale à 0 (le minimum de la distribution), ce qui rend quasi-impossible l’échange entre acheteur et vendeur (seul le vendeur ayant obtenu aléatoirement une valeur égale à 0 sera indifférent entre accepter l’enchère et gagner 0 ou garder le bien et gagner 0). En clair, théoriquement, le marché sera tué par la possibilité d’une très mauvaise qualité, et il n’y aura virtuellement plus aucun échange (une démonstration simplissime de ce résultat théorique peut être trouvée  pour les plus acharnés).
Les résultats issus de jeux en classe sont assez édifiants. Pour pallier les critiques, ces résultats sont en fait très proches de ceux observés en laboratoire (voir le papier de Holt C.A. & Sherman R., 1994, « The loser’s curse », American Economic Review).
Dans ce traitement fait avec 14 étudiants de master 1, les valeurs possibles des « conserves » sont comprises entre 0 et 100$ et il y a 7 vendeurs et 7 acheteurs. A chaque période de jeu, les acheteurs sont appariés aléatoirement avec  un vendeur, et ils leur font une offre d’achat. Préalablement, chaque vendeur se voit attribué une valeur tirée au sort sur l'intervalle 0$ - 100$; cette information étant privée. Puis l'acheteur doit faire une proposition de prix d'achat. En cas de désaccord, l’acheteur gagne 0 et le vendeur gagne la valeur de son affaire. En cas d’accord, l’acheteur gagne la valeur de l’affaire augmentée de 50% moins le prix d’achat qu’il a proposé, et le vendeur gagne le prix d’achat accepté. Les résultats concernant la valeur moyenne des enchères proposées (et pas forcément acceptées) sont données dans le graphique ci-dessous.



L’enchère moyenne observée (en bleu, enchère moyenne par période) est approximativement comprise entre 45 et 50$ (je rappelle que la valeur espérée des affaires est de 50$). Nous sommes donc très loin de l’équilibre de Nash qui voudrait que les acheteurs proposent rationnellement 0. En fait les résultats sont conformes à un comportement "naîf" (opposé au comportement stratégique supposé par le concept d'équilibre de Nash), les acheteurs proposant des prix compris entre la valeur moyenne des affaires (50$, la distribution étant uniforme) et la valeur qu'ils pourront potentiellement en tirer en moyenne (soit 50$ +50% c'est-à-dire 75$).
Le gain moyen de l’acheteur est décrit dans le graphique ci-dessous (on exclut bien sûr les acheteurs qui n’ont pas réussi à convaincre leur vendeur).
 
Le gain moyen des acheteurs ayant réussi est donc clairement négatif…
Le comportement « naïf » des acheteurs, qui leur dicte d’enchérir entre 50$ et 75$ est clairement frappé d’échec du point de vue de la maximisation de leur gain.
C’est de facto le comportement de la puissante Royal Navy, qui en fait aurait du proposer zéro plutôt que d’obtenir des conserves qu’elle a payé certes pas cher, mais qui valaient en fait moins que rien !
Bon, c’est juste une boutade du point de vue économique, car on ne voit guère l’intérêt de mettre aux enchères un marché pour lequel on n’est prêt à rien payer, mais cela illustre bien les effets pervers de l’asymétrie informationnelle, celle-ci ayant sans doute en partie conduit au désastre de l’expédition Franklin…

vendredi 10 juillet 2009

Baisse de la TVA sur la restauration, partage de gains et jeu de l’ultimatum



Je suis frappé par le fait que le sujet des conséquences économiques de la baisse de la TVA dans la restauration reste essentiellement fondé sur la base d’hypothèses comportementales très simplistes de la part des restaurateurs et des clients. Ici ou , on nous dit que 80% des restaurateurs devrait répercuter cette baisse de TVA mais sur quelle base ce chiffre est-il avancé ? Comme souvent, aucun élément solide ne me semble étayer cette estimation.
L’anecdote que je m’en vais vous conter témoigne me semble-t-il avec force de l'intérêt d'avoir des modèles comportementaux plus réalistes pour améliorer la prévision que les économistes peuvent faire de l'impact économique de telle ou telle mesure.
Certes, lecteur, tu vas penser que ma démarche est d'une grande rigueur scientifique : je vais prendre un seul cas en étant totalement partial (je suis un client habituel du restaurant dont je vais parler...).  Mais bon, comme je l'ai déjà dit, l'introspection est toujours enrichissante, au moins pour tenter de poser correctement la question.
Hier, à l’issue du déjeuner pris dans un restaurant habituel proche de la faculté des sciences économiques, au moment du paiement de la douloureuse, le restaurateur m’apprend qu’il a baissé le prix de sa formule de 50 cts d’Euros. Agréablement surpris dans un premier temps, mon sang d’économiste ne faisant qu’un tour, je lui demande pour quelle raison il a fait cela.
Il m’explique alors que, en ces temps un peu difficiles pour le pouvoir d’achat de tous, il lui avait semblé juste de partager l’allégement de taxe mis en œuvre par le gouvernement avec ses clients. Sa motivation n’était pas du tout de baisser les prix dans l’idée de relancer la demande, car il pensait que l’impact serait relativement marginal de toute façon pour lui.
Frappé par cette explication, j’ai essayé d’y réfléchir un peu. Soyons clairs, il ne s’agit pas de savoir quel peut être l’impact économique de cette baisse pour les restaurateurs, ou globalement pour l’économie française, mais plutôt de m’interroger sur le comportement des restaurateurs à l’égard de cette baisse et comment ils la répercutent sur leurs prix.
D’un point de vue purement individuel, on pourrait penser qu’il s’agit d’un gigantesque dilemme du prisonnier joué entre chaque restaurateur et ses clients. L’impact de la baisse de TVA sur la fréquentation étant potentiellement très faible, la tentation est d’absorber cette baisse pour augmenter la marge économique, quitte à éventuellement embaucher ou investir. Au niveau microscopique, chaque restaurateur peut se dire que baisser de 50 cts sa formule ou le plat du jour ne va pas fondamentalement modifier la demande qui lui est adressée. Mais au niveau global, si aucun restaurateur ne baisse ses prix, il est à peu près certain que, pour le coup, il n’y aura aucun impact sur la demande de restauration au niveau macroéconomique.
Pour autant, il semble qu'une proportion non négligeable des restaurateurs répercute au moins partiellement cette baisse de TVA sur la facture adressée à leurs clients ? Pourquoi faire cela si la plupart jugent que cette baisse n’a probablement aucun impact sur leur fréquentation ? Il s'agit en fait d'un partage de gain potentiel affecté à un seul acteur (le restaurateur) en interaction avec un autre acteur (le client) qui peut estimer pouvoir demander sa part du gâteau.
D’un point de vue comportemental, ce problème de partage du gain me semble  très proche de celui décrit dans le jeu de l’ultimatum (inventé par Selten & Guth dans les années 80). Dans ce jeu canonique abondamment étudié en économie expérimentale, un participant A propose un partage d’une somme donnée à un participant B. Le participant B peut accepter ce partage, entérinant alors la proposition faite par A ou refuser le partage proposé. Dans ce cas, chaque participant repart les mains vides.
Que dit la théorie économique sur un tel jeu ? Il suffit d’appliquer la théorie des jeux. Sachant que le participant B préfère une toute petite somme, pourvu qu’elle soit positive, à rien du tout, le participant B devrait accepter avec certitude tout partage, même très inégalitaire, tant que celui-ci lui procure un gain positif. Si on vous propose de partager 100 euros en 99 pour le participant A et 1 pour vous en tant que participant B, vous devriez accepter car vous préférez 1 euro (en cas d’acceptation, le partage est entériné) à zéro euro (en cas de refus, chacun gagne 0 euro). Le participant A jouant en premier (il propose le partage), il devrait anticiper qu’accepter est une stratégie dominante tant qu’il propose une somme positive, et vous proposer alors un partage très inégalitaire (genre 99.99 € pour lui, 0.01 euro pour vous), ce que vous accepteriez. En clair, l’équilibre de Nash d’un tel jeu est que le partage est très inéquitable et que le participant B ne rejette jamais l’offre (il pourrait le faire si on lui proposait zéro, car il serait alors indifférent entre accepter et refuser).
Quant ce jeu a été testé en laboratoire, les résultats observés ont été forts différents de la prédiction théorique.
Les principaux résultats, tels qu’ils sont résumés par l’exemple dans l’excellent bouquin de Eber & Willinger (voir ici), sont les suivants :
  •           Le participant A propose en général 40% du total au participant B,
  •           L’offre la plus souvent rencontrée (le mode) est le partage 50/50
  •           Les participants B rejettent souvent des offres inégalitaires (un partage aboutissant à 20% du gain pour eux ou moins)
Ce que montre ce jeu, c’est que les participants sont motivés par des préférences sociales – j’ai déjà évoqué à plusieurs reprises dans différents billets ces motivations, comme le sentiment de réciprocité, l’aversion à l’inégalité -  préférences qui peuvent éventuellement différer selon les cultures et les pays. Mais en fait, un invariant expérimental est que l’équilibre de Nash est rarement observé. Les résultats suivants sont ceux d’une expérimentation de terrain (field experiment) faite par exemple au Kenya et évoquée dans l’ouvrage dont j’ai déjà parlé de Charles Holt (ici)



L'écrasante majorité des offres (environ 53%) est celle d'un partage équitable du gâteau. Dès que le partage devient plus inéquitable, le taux de rejet commence à augmenter (environ 1/5 des offres de partage 80/20 sont rejetées, ces offres représentant 22 % du total des offres faites, et aucune offre plus inéquitable n'étant faite).
Bon, il y a donc des faits stylisés assez robustes sur cette question du partage du gain entre deux agents.
Appliquons cela à mon sympathique restaurateur breton. Sa formule était, avant baisse de la TVA à 10 euros. Donc le prix Hors Taxes de la formule est par conséquent de 8.36 euros approximativement. Le prix TTC (Toutes Taxes Comprises) de la formule s’il répercutait intégralement la baisse de TVA pourrait être potentiellement de 8.82  euros (8.36 € +5.5%). En clair, si le restaurateur maintient son prix à 10 euros, il gagne 1.18 euros de marge supplémentaire.
Or, sur ces 1.18 € gagnés, il donne 0.5 € à ses clients (la formule passe de 10 à 9.5€), soit un peu plus de 42%. Cela correspond presque exactement aux résultats observés de manière récurrente dans les expériences sur les jeux de l’ultimatum. Ce résultat, anecdotique, mais quand même remarquable, me semblait devoir être souligné, car une critique récurrente faite à l’économie expérimentale est la possibilité de transposer les résultats obtenus en laboratoire dans la réalité quotidienne.
Ici, en l'occurrence, la transposition est quasi-parfaite…
Je serai curieux d'avoir un bilan économique de cette mesure dans quelque temps, mais je ne serai pas étonné si les prix dans la restauration baissaient disons d'environ 4 à 5 %...