dimanche 12 juin 2011

Les primaires au Parti Socialiste, Jacques Chirac et le vote stratégique


Jacques Chirac a encore joué un bon tour à la classe politique en affirmant en plaisantant qu’il voterait François Hollande si Alain Juppé n’était pas candidat à droite.

Mon bon François (j'espère qu'il ne m'en voudra pas de cette familiarité, c'est un compliment sous ma plume), tout gêné devant cette soudain encombrante manifestation de sympathie et par cette affirmation devant les caméras, n’a eu de cesse d’affirmer depuis que c’était une plaisanterie, interprétation validée par l’ancien président qui a parlé depuis « d’humour corrézien » (sic).

Avec un vieux renard de la politique comme l’ex Président de la République, il n’est toutefois pas sûr que celui-ci n’ait pas eu une petite idée derrière la tête en manifestant ostensiblement les preuves potentielles de sa sympathie pour François Hollande.

Par exemple,  je ne sais pas s’il est venu à l’idée de François, le candidat « normal », que le Grand Jacques pouvait avoir l’intention de voter pour lui aux primaires afin de minimiser les chances de victoire à la présidentielle d’un socialiste confronté au candidat qui sera désigné à droite, même si ce n’est pas Alain Juppé, son chouchou à lui. Lui est-il venu à l’idée que notre ex président puisse avoir l’esprit retors à ce point ? Ayant l’esprit tordu comme nombre d’économistes, je vais supposer que, peut être (c’est une pure hypothèse de travail !), nos grands politiques peuvent avoir une vision quelque peu machiavélique des élections quelle qu’elles soient. C'est là bien sûr un exercice de pure fiction.

Plus généralement, je suis surpris de l’absence de débat concernant le mode d’organisation de ces primaires socialistes et que personne ne voit que, telles qu’elles sont organisées dans leurs grands principes, les primaires socialistes me semblent très manipulables.
Quels en sont les grands  principes ?
L'élection étant ouverte, tous les citoyens français inscrits sur les listes électorales avant le 31 décembre 2010 peuvent prétendre au vote. Les autres conditions nécessaires sont l'acquittement d'une participation aux frais d'organisation de 1 euro minimum, et la signature d'une charte d'adhésion aux valeurs de la gauche.
Pourront également déposer leur bulletin tous les mineurs qui auront 18 ans au moment de la présidentielle de 2012, ainsi que les mineurs et les étrangers non communautaires membres du Parti socialiste ou du Mouvement des jeunes socialistes.
Le mode de primaire est donc relativement ouvert, en tout cas ouvert aux non adhérents, l’euro versé au titre d’une participation aux frais d’organisation n’étant pas dissuasif pour les votants et le fait de signer une charte d’adhésion aux valeurs de la gauche me semble assez peu restrictif.

Il y des précédents célèbres à ce débat. En mars 1996, les citoyens californiens ont adopté à la majorité la proposition 198 (dite « blanket primary format »)  qui consistait précisément à adopter un mode de vote aux primaires totalement ouvert, y compris aux non-membres des partis organisant chacun une primaire (républicains et démocrates of course !). Les opposants à cette proposition ont agi pour que l’élection présidentielle soit exclue du champ d’application de cette proposition, et à l’issue de divers revers légaux les déboutant, la Cour Suprême des Etats-Unis a déclaré que la proposition 198 était non-constitutionnelle en juin 2000.
Les opposants à ce mode d’organisation des primaires ont bien évidemment mis en avant l’aspect stratégique d’une ouverture complète du scrutin, les électeurs de l’autre bord votant stratégiquement afin d’éliminer le candidat du camp opposé qui serait le plus susceptible de l’emporter contre leur propre candidat. Un  des juges de la Cour Suprême d’ailleurs déclaré, en se fondant sur la majorité des avis d’experts donné sur les effets de la proposition 198 :

« The prospect of having a party’s nominee determined by adherent of an opposing party is far from remote – indeed, it is a clear and present danger »

Pourtant, entretemps, les primaires pour la présidentielle américaine, se déroulaient, notamment pour les républicains, George W Bush étant opposé à John Mc Cain et avaient mis en évidence le danger de primaires ouvertes, avec un Mc Cain souvent victorieux dans les Etats avec primaire ouverte, et au contraire avec un Bush victorieux dans les Etats avec primaire fermée (en gros limitée aux seuls adhérents du parti républicain). Certains experts ont estimés que les votes croisés pouvaient représenter près de 25% des suffrages dans des Etats comme la Californie ou l’Etat de Washington, qui avaient adopté un mode de primaire totalement ouvert.
Mais il faut bien dire que l’évidence empirique qui permettrait de mettre en évidence un effet de manipulation en cas de primaires ouvertes reste relativement limitée, et surtout ne débouche pas sur un consensus, comme très souvent. Je ne vais pas développer ce point plus que cela, je laisse les éventuels politologues réagir à ce billet, puisque je vais évoquer une expérimentation de laboratoire dont l’objectif était précisément d’évaluer l’importance des votes croisés (ou des manipulations stratégiques de vote) en fonction du degré d’ouverture d’élections primaires.

L’article de  Cherry & Kroll "Crashing the Party: An Experimental Investigation of Strategic Voting in Primary Elections", publié en 2003 dans Public Choice cherche donc à évaluer l’importance de ces manipulations dans le cadre d’une expérience de laboratoire.  Pour ce faire, les auteurs examinent quatre possibilités de vote pour les primaires :
  • Des primaires fermées : seuls les membres d’un parti, et ce depuis un minimum de temps,  peuvent voter, et les indépendants (on affiliés à un parti) ne peuvent pas,
  • Des primaires semi-fermées : les militants votent, ainsi que les indépendants qui déclarent une affiliation au parti juste pendant les élections primaires
  • Des primaires ouvertes : le jour de l’élection primaire, chaque citoyen (militants, affiliés ou pas) choisit pour quel champ il vote et doit ensuite aller dans les bureaux de vote du parti pour lequel il s’est inscrit
  • Des primaires totalement ouvertes (« blanket primary format » : le jour de l’élection primaire, chaque citoyen vote dans un seul bureau où toutes les candidatures primaires sont disponibles, et doit déposer un seul bulletin.
Les institutions de primaires explicitées ci-dessus vont représenter des traitements expérimentaux, chaque participant à l’expérience jouant en étant régi uniquement par une des quatre possibilités d’organisation des primaires. Cela permet d’isoler clairement les effets du degré d’ouverture des primaires en termes de votes stratégiques.
Lors de l’expérience, chaque élection veut reproduire la manière dont cela se passe dans la réalité, à savoir une première étape de primaire réalisée un jour donné, puis une seconde étape d’élections générales effectuée le jour suivant. Pour simplifier les issues, il y a deux candidats pour chaque primaire, et le candidat gagnant de chaque bord affronte l’autre.

Pour représenter l’orientation politique des candidats et des votants, un nombre compris entre 1 et 100 est tiré au sort pour chaque participant, les votants et les candidats obtenant un chiffre compris entre 1 et 45 appartenant au Parti A et les participants obtenant un chiffre compris entre 56 et 100 appartenant au parti C. Ceux qui obtiennent un chiffre compris entre 46 et 55 sont dans le parti B, et représentent en fait les indépendants (le centre en quelque sorte).
Dans chaque élection, il y a 23 votants, 9 dans le parti A, 9 dans le parti C et 5 dans le parti B, sauf pour les élections primaires fermées dans lesquelles les indépendants ne peuvent pas voter, et dans lesquelles il n’y a que 18 votants.  Les positions des candidats aux primaires et aux élections générales sont connues de tous les participants (affichées par l’intermédiaire d’un écran d’ordinateur).  Le gain d’un votant est d’autant plus fort que le candidat qui gagnera au final est proche du chiffre tiré au sort pour ce votant. Plus exactement il est égal à 100 moins la valeur absolue de la différence entre mon chiffre et le chiffre du candidat gagnant. En clair, si le chiffre d’un participant est 8, et que le candidat gagnant a un chiffre de  85, le participant gagne 100 – (85-8), soit 23 points. Le schéma de paiement est donc incitatif puisqu’il incite les participants à voter pour un candidat proche de leur position politique. Chaque participant vote à 24 reprises (il y a donc 24 élections pour chaque sujet) et ce uniquement pour un mode d’organisation possible des primaires (il y en a quatre).

Le vote stratégique  - qui consiste à ne pas voter pour son candidat mais pour un autre - correspond à deux types de comportements, comme l’expliquent les auteurs. Il y a le vote stratégique positif d’une part et le vote stratégique négatif d’autre part. Le vote stratégique positif consiste à dire par exemple, si je suis un partisan de la gauche, me sentant proche d’un Arnaud Montebourg (après tout il est du Morvan comme moi et a grandi à l’orée des mêmes bois de sapin ou presque) mais à penser que, comme il n’a aucune chance lors de la présidentielle, il serait plus efficace de voter pour ce cher François (Hollande).

[Il est vrai que, statistiquement, les François ont été plus souvent à la tête de l’Etat français que les Arnaud, je laisse à Arthur le soin de compiler les statistiques avec R sur le long terme sur l'ensemble des pays de l'OCDE, quoique je ne suis pas très sûr de la significativité des données d'un point de vue statistique.]

Le vote stratégique négatif consiste, en supposant cette fois que je sois un électeur de droite, et que les primaires à gauche soient suffisamment ouvertes, à voter pour Arnaud Montebourg en pensant qu’il a toutes les chances de perdre face au candidat désigné par la droite. Cela pourrait concerner aussi les électeurs de droite en cas de primaire, qui pourraient voter pour un candidat de leur parti qu’ils jugent extrême (imaginons au hasard q’un certain Claude G. soit candidat aux primaires) car ils savent qu’il serait battu face au candidat plus modéré du camp adverse (je sais, c’est un peu pervers comme raisonnement, surtout un dimanche où notre intellect n’est plus tellement sollicité par les marathons télévisuels de Michel Drucker).

L’intérêt du design de l’expérimentation est qu’il permet d’identifier clairement les votes stratégiques de la part des participants.
Les résultats expérimentaux sont assez édifiants : la proportion de votes stratégiques dans le cas de primaires ouvertes ou totalement ouvertes est respectivement de 11% et 18% contre seulement 7% dans le cas de primaires fermées et 7.5% pour les primaires semi-fermées. Il est donc relativement net que le taux de manipulation stratégique du vote croit en raison du degré d’ouverture des primaires.

Mais le résultat le plus intéressant consiste à essayer de voir vers quel type de candidat gagnant à l’élection finale conduit chaque institution possible de primaire. Un des arguments en faveur d’un système de primaire ouverte est qu’il est susceptible de générer au final des candidats élus plus  rassembleurs (voir ce qui est dit ici), donc par définition plus modérés,  que dans le cas de systèmes de primaires fermés. Les résultats de Cherry & Kroll mettent en évidence l’absence de différence significative entre les différents systèmes possibles, le système semi-fermé semblant le plus apte à amener au pouvoir des candidats modérés, mais la différence avec les autres systèmes n’étant pas statistiquement significative.  De ce point de vue, l’ouverture des primaires n’est pas une garantie de plus grande modération finale du gagnant.

Un dernier point est le bien être général des citoyens. L’expérimentation de Cherry et Kroll mesure ce bien être simplement par la somme des distances des chiffres représentant la position de chaque votant au candidat finalement élu, et ce pour un mode de scrutin pour les primaires particulier. Le meilleur résultat est produit par le mode d’organisation des primaires semi-fermé suivi de près par des primaires totalement ouvertes, le pire étant les primaires totalement fermées, pas très loin des primaires dites « ouvertes ».

Comme il s’avère plus que probable qu’il n’y ait pas de primaire à droite, je pense qu’il est possible de dire que le système choisi par le PS s’apparente en fait aux primaires « ouvertes » telles que décrites ci-dessus.  Pour ce système, les résultats de l’expérimentation à l’instant décrite montrent l’importance des votes stratégiques et un niveau de bien être pour les votants plutôt en retrait par rapport à d’autres institutions possibles de primaires. Par conséquent, je me demande vraiment si ce système est bon et pour le PS et pour la Nation…

dimanche 22 mai 2011

Les programmes de clémence sont-ils efficaces pour lutter contre les cartels ?


Dans le dernier numéro de juin de « Que choisir ? »,  mensuel au titre puissamment évocateur pour n’importe quel économiste, surtout comportementaliste comme moi, un article à propos de la condamnation récente par l’Union Européenne des fabricants de lessive pour entente, information diffusée en fait dès avril 2011 par exemple dans Les Echos ou la Tribune ou encore ici .

Le fond de l’affaire est vieux comme le monde. Trois entreprises leaders dans le domaine de la production de lessives, Procter & Gamble, Unilever et Heinkel, se sont entendus pendant trois ans sur le prix de celles-ci dans huit pays appartenant à l’Union (France,  Belgique, Allemagne,  Grèce, Italie, Portugal, Espagne et Pays-Bas), ce bien évidemment aux dépends des consommateurs. En fait, Heinkel, participant au cartel, a dénoncé l’affaire auprès des Autorités de la concurrence, ce afin d’éviter les lourdes amendes infligées aux entreprises pour lesquelles ces autorités ont établi la participation à un cartel. Pour cet acte de bonne conduite, Heinkel est exempté d’amende, et les deux autres groupes industriels écopent d’un montant d’environ 316 millions d’euros d’amendes.  Ce montant d’amende a d’ailleurs été diminué après que les deux groupes Unilever et Procter & Gamble aient reconnu les faits. Cette affaire est symptomatique des effets des programmes dits de « clémence » qu’ont adopté de nombreux pays développés en matière lutte contre les activités anti-concurrentielles depuis une vingtaine d’années.

L’auteur de l’article de Que Choisir ? indique que ces amendes ne sont que peu de choses par rapport aux pertes subies par les consommateurs (ce qui est sans doute vrai), et surtout qu’il est choquant qu’une des trois entreprises soit exemptée de poursuite. En clair, la tonalité de l’article est celle d’un certain scepticisme à l’égard de l’efficacité des politiques anti-concurrentielles poursuivies par l’Union Européenne,  bien que l’auteur soit trop malin ou trop prudent pour le dire de manière explicite, et que la morale ne sort pas saine et sauve de cette histoire.

J’aime bien ce genre d’article, car la lecture prouve l’intérêt d’une analyse économique sérieuse qui va bien au-delà de propos issus du bon sens commun, mais qui ne tiennent en fait absolument pas la route…. avec tout le respect que j’ai pour le  journal qu’est « que choisir » !

Les cartels ne sont pas chose rare, loin de là. Par exemple, sur la période 1990-2003, l’Union Européenne a détecté 61 cartels dont la plupart ont été sanctionnés, le montant des amendes infligées aux entreprises membres de ces cartels représentant environ 8 milliards d’euros constants de 2004 (voir l’article de Brenner, 2009).

Depuis très longtemps, au moins depuis le Sherman Act en 1890 aux Etats-Unis, les gouvernements combattent les cartels. Il y des raisons économiques assez objectives pour cela, dans la mesure où une entente via un cartel implique une augmentation des prix pour les consommateurs, ce qui implique pour l’ensemble de ceux-ci une perte de bien être qui dépasse largement le gain en bénéfices des membres du cartel. En bref, du point de vue du bien être, c’est un résultat classique de la théorie de l’organisation industrielle que de montrer que le cartel diminue le bien être économique.

Toute la question, si on accepte ces prémices, est de savoir comment combattre efficacement les cartels.  Un des problèmes clés est bien évidemment que les autorités publiques puissent obtenir des informations leur permettant de connaitre l’existence de ces cartels.

Un des programmes phare de ces dernières années en la matière est l’adoption de programmes de clémence.  Ces programmes de clémence ont été mis en œuvre de manière étendue dans les grands pays développés à partir des années 90, par exemple en 1996 au sein de l’Union Européenne.  De manière courte, un programme de clémence consiste à dire que les autorités de régulation de la concurrence vont absoudre l’entreprise membre d’un cartel qui le dénonce auprès d’elles de toute poursuite et de lui éviter de payer l’amende, amende qui peut être d’un montant  substantiel comme on l’a vu ci-dessus. L’objectif de ces programmes est double, tout d’abord inciter les membres d’un cartel à trahir afin de dénoncer l’accord auprès des autorités, ce qui réduit le coût de détection pour les autorités publiques, et ensuite de dissuader la formation future de cartels, la menace de trahison étant renforcée par l’existence de ces programmes.

En raisonnant au plus court, d’un point de vue économique, toute la question est de savoir si la perte du montant de l’amende pour les autorités de la concurrence (liée à l’absolue du membre « repenti » du cartel) est compensée par les gains du programme de clémence, à savoir la moindre stabilité des cartels qui devrait se traduire par une baisse de leur durée de vie et donc par des pertes de bien être moins importantes pour les consommateurs. Sur le papier, cela ne fait pas grand doute. Mais la très grande richesse de la littérature économique sur le sujet donne un bilan pas forcément très clair sur l'efficacité finale de ces programmes (Voir par exemple l'article de Brenner en 2009 dans le International Journal of Industrial Organization).

La question clé pour les autorités de la concurrence et pour la puissance publique en générale est : Quel est l’effet des programmes de clémence par rapport à une situation de programme de lutte contre les cartels sans dispositif de clémence ?

C’est là où l’utilité des expérimentations en laboratoire est évidente. D’abord parce qu’il est assez difficile de comparer une politique de régulation avec accord de clémence à une politique sans accord de clémence autrement qu’avec un bilan avant/après correspondant au changement de politique anticoncurrentielle dans les pays où un changement a eu lieu.  Impossible ou difficile d’évaluer l’intérêt d’une telle politique dans un pays n’ayant pas encore adopté ces mesures de clémence. Comment en effet anticiper l’impact qu’un tel programme pourrait avoir ? Enfin, par essence, les cartels officient dans l’ombre, et il est donc impossible ou extrêmement difficile d’évaluer sur le terrain l’impact d’un tel programme sur le nombre de cartels existants, leur viabilité, etc. L’économie expérimentale permet alors de faire une comparaison stricte programme sans vs programme avec.

Par ailleurs, l’effet final d’un programme de clémence peut être ambigü. En effet, trois effets peuvent se produire qui peuvent rendre le résultat final ambigu. Le premier effet est évident : le programme de clémence réduit la stabilité des accords (incitation à dénoncer les coupables des cartels quand j’en suis un), ce qui réduit effectivement la durée des accords, et cela est positif si on cherche à lutter contre les cartels.

Le second effet, qui incite à ce que des cartels se forment avec un dispositif de clémence, est évident : si l’entreprise qui participe au cartel et le dénonce est exemptée de poursuite, cela peut inciter les entreprises à former un cartel, puisque le coût espéré de l’amende diminue.

Le troisième effet, également négatif, est plus alambiqué dans son fonctionnement : il est issu d’un raisonnement présent dans l’analyse économique qui suggère que, sous certaines conditions,  la collusion explicite (ou cartel) d’entreprises n’est pas un équilibre stable. En effet, il est possible pour une firme de gagner plus temporairement en trahissant l’accord qu’en respectant l’accord. Si l’accord est respecté, les firmes gagnent le profit de monopole qu’elles se partagent, alors que si elles trahissent l’accord, elles gagnent temporairement le profit de toute la demande qu’elle obtiennent si elles proposent un prix un peu plus bas que les membres du cartel.

Dès lors, le fait qu’un des membres du cartel le dénonce auprès des autorités publiques peut être in fine lié au fait qu’un des autres membres du cartel dévie de l’accord, ie ne respecte pas la parole donnée, en proposant par exemple des prix plus bas par rapport à ceux proposés par les autres membres du cartel. Cela déclenche la possibilité d'une vengeance de la part des membres du cartel qui respectent leur parole, et qui dénonceront le traitre auprès des autorités publiques.  En conséquence, la possibilité de dénoncer le cartel auprès des autorités peut dissuader les membres de trahir la parole donnée au sein du cartel en ayant des prix plus bas, ce qui au contraire renforce la stabilité du cartel !

Au global, les économistes spécialistes de cette question estiment que l’impact net (la somme des trois effets en quelque sorte) d’un programme de clémence n’est pas forcément positif.

Plusieurs études expérimentales se sont emparées de cette question de l’efficacité des programmes de clémence, en particulier de l’effet adverse qu’ils peuvent avoir sur l’incitation à trahir quand celle-ci représente une punition de comportements déviants de la part de membres du cartel.

Comment observer en laboratoire les problèmes de collusion, la formation de cartels et les ententes entre firmes ? Une manière simple consiste à faire jouer à des participants un jeu de Bertrand, c’est-à-dire un jeu dans lequel l’objectif pour chaque participant est de gagner une compétition par les prix. Dans une concurrence à la Bertrand, c’est en effet le vendeur qui fixe le prix le plus bas qui obtient toute la demande et les autres vendeurs n’obtiennent rien. Dans cette situation, la théorie économique prévoit que le prix choisi par les vendeurs,  en supposant que tous les vendeurs soient dans les mêmes conditions de vente et subissent les mêmes coûts, est égal au coût (marginal) de vente du produit, ce qui signifie que le bénéfice de chaque vendeur est nul.

Dans les expériences basées sur ce jeu, en reprenant la version popularisée par Dufwenberg and Gneezy en 2000, des sujets choisissent simultanément une valeur comprise entre x$ et y$,  le sujet qui choisit la valeur la plus basse au sein de son groupe gagne le concours et les autres ne gagnent rien du tout, et en cas d’égalité, le gain est partagé entre les gagnants du concours. Le gain est en général la valeur indiquée par le participant qui a gagné ou cette valeur moins (x-1)$, comme dans l’expérience menée par Aspeteguia, Dufwenberg et Selten en 2007. La procédure est en fait celle d’une enchère anglaise inversée.

L’expérience consiste notamment à avoir un jeu en trois étapes pour les participants : 1) ils doivent choisir s’ils veulent ou non faire une réunion, avec un principe d’unanimité –si un seul joueur ne veut pas faire de réunion,  il n’y a pas de réunion et en cas de réunion peuvent chater librement avec les autres participants pendant une certaine durée ; 2)  choisir séparément leurs prix de vente dans le cadre de la concurrence à la Bertrand décrite ci-dessus et 3) décider de dénoncer la réunion ou pas.

Trois  traitements expérimentaux réalisés par ces auteurs m’intéressent ici particulièrement : un traitement « standard » dans lequel celui qui dénonce la réunion écope d’une amende,  un traitement « clémence » dans lequel celui qui dénonce n’a pas d’amende (fixée par l’expérimentateur) et un traitement « ideal » dans lequel il n’y aucune possibilité de concertation préalable entre les participants (étape 1 du jeu) et où ceux-ci jouent directement un jeu de Bertrand. On peut dire que ce traitement, qui représente le cadre de réflexion le plus simple de la théorie économique (voir ci-dessus) est bien évidemment peu réaliste, notamment parce qu’on empêche les vendeurs d’avoir toute communication ou toute concertation, ce qui semble peu réaliste.

Quid des résultats obtenus ? Quand on compare les prix observés dans chaque traitement, on constate que les prix pratiqués dans le traitement « ideal » et le traitement « clémence » sont très proches, environ autour de 93-94$ (le prix à l'équilibre de Bertrand étant de 91$, le prix choisi par les participants pouvant aller de 91$ à 100$), alors que les prix pratiqués dans le traitement « standard » (représentant une politique  de répression des cartels sans programme de clémence) sont autour de 97$, la différence étant statistiquement significative. Surtout, dans le programme « ideal », aucun cartel ne se forme (c’est le cadre de la théorie économique la plus simple qui prédit que les cartels ne se forment pas car la déviation du cartel est toujours profitable), alors que dans le cadre standard, un cartel se forme 2 fois sur 3. Dans le cadre du traitement clémence, un cartel ne se forme qu’une fois sur deux. Last but not least, dans le traitement « standard », un cartel est dénoncé par au moins un des participants une fois sur deux, alors que dans le traitement « clémence », un cartel est dénoncé par un des participants plus de deux fois sur trois !

Que peut-on retenir de tout cela ? Que, primo, les programmes de clémence diminuent la probabilité que de nouveaux cartels se forment, secundo, que les programmes de clémence incitent les entreprises membres d’un cartel à le dénoncer et tertio, que ces programmes de clémence qui fragilisent les cartels et leur formation sont bons pour les consommateurs et plus généralement, pour le bien être.

Pour être totalement honnête, les résultats obtenus par Aspeteguia et al (2007) ont été discutés,  un des problèmes de base de leur expérience étant que le jeu de Bertrand, et donc la possibilité de collusion, n’est pas répétée. Or, la vie réelle implique de nombreuses périodes d’interaction entre les entreprises, le problème étant d’étudier la stabilité des collusions sur le long terme, c’est-à-dire au cours d’un jeu répété potentiellement de manière infinie. Les travaux expérimentaux récents de Feltovitch et Hamaguchi (2010) disponibles   tendent à nuancer les résultats précédents et l’optimisme envers les programmes de clémence, leurs résultats mettant en évidence que, au final, l’effet net sur la prévention de la formation des cartels, pourrait être assez faible, les effets négatifs compensant exactement l’effet positif.

Toutefois, pour finir sur une note pas trop ambiguë, et si le débat théorique et empirique sur ces programmes de clémence reste ouvert, aucun travail expérimental ne conduit à ma connaissance à montrer que ces programmes auraient un impact négatif du point de vue de la formation des cartels, ce qui est quand même un résultat final important...

vendredi 29 avril 2011

Opération Fortitude, jeu de transmission d'information et rationalité limitée


En lisant à l’occasion de vacances bien méritées l’ouvrage, déjà fort ancien, de Gilles Perrault sur la préparation du jour J, on ne peut qu’être frappé et plein d’admiration vis-à-vis de  l’entreprise d’intoxication industrielle, la fameuse opération fortitude, mise en place par les anglais pour tromper les allemands sur le lieu final du débarquement.

L’histoire est bien connue mais pour les gens qui ont besoin d’avoir la mémoire rafraichie et parce qu’elle est toujours incroyable à raconter, je veux bien résumer en deux mots les raisons et la nature de l’opération Fortitude.

[Les historiens sérieux de la seconde guerre mondiale voudront bien m’excuser pour toutes les approximations, résumés et inexactitudes que je vais proférer, mon objectif n’est pas de faire un billet historique mais de me servir de cette histoire pour amener un point intéressant de l’analyse économique moderne].

Les alliés pouvaient potentiellement débarquer à deux endroits : le Pas-de-Calais et la Normandie (et accessoirement la Bretagne comme troisième possibilité). Le Pas-de-Calais était de loin la plus évidente : proximité de l’Angleterre comme base arrière avec la perspective d’un parapluie aérien bien plus conséquent, distance réduite avec la vallée de la Ruhr où était localisé le cœur industriel de la puissance militaire allemande, etc. et surtout présence de ports importants nécessaires à l’acheminement de la formidable quantité de matériel et d’hommes impliquée par le débarquement. Le Maréchal Von Rundstedt était intimement persuadé que c’était la solution la plus logique pour les alliés, au point de le marteler en une doctrine en six points établie pour ses collaborateurs directs et pour les dirigeants allemands. Notamment la Normandie n’avait pas de port important qui était selon le Maréchal allemand la condition sine qua non d’un débarquement réussi.

Hitler, se fiant à son intuition, optait plutôt pour la Normandie ou la Bretagne, de même que Rommel qui ne partageait pas la vision de Von Rundstedt. Bref, il y avait avant l’opération fortitude, c'est-à-dire avant mars 1944, de fortes chances que le gros des forces allemandes aille finalement se positionner en Normandie, le Mur de l’Atlantique y ayant d’après Rommel quelques faiblesses qui étaient réelles contrairement au dispositif défensif établi dans le Pas-de-Calais.

En fait, Von Rundstedt, fin stratège toutefois (c’était l’artisan de la guerre éclair victorieuse en Pologne et en France en 1939-1940) avait toutefois négligé deux choses, l’une assez évidente, l’autre un peu moins. Dans le registre de ce qu’il pouvait difficilement deviner était le fait que les alliés avaient réussi à contourner la contrainte de disposer d’un port existant assez important. Lord Mountbatten et Churchill avaient en effet conceptualisé l’idée d’un port mobile avec par exemple des jetées flottantes. La seconde chose, plus surprenante pour un stratège tel que Von Rundstedt, est qu’il négligeait l’effet de surprise, très important aux yeux d’Eisenhower par exemple. C’est d’autant plus curieux que lui-même en avait abusé en attaquant les français là où ceux-ci pensaient qu’il n’y avait aucune chance de le faire, en passant par les Ardennes là où la fameuse ligne Maginot était virtuellement inexistante.
Cette divergence n'aurait pas été très grave dans la mesure où Hitler lui n’était pas initialement de l’avis de Von Rundstedt et que, comme il l'avait déjà fait à de nombreuses reprises, il n’aurait pas hésité à suivre son intuition et à aligner les divisions de l’armée allemande à proximité des cotes de Normandie sans se soucier de l’avis de ses subalternes (Von Rundstedt semblait d’ailleurs avoir un certain mépris pour le caporal Hitler, son Führer).
L’opération Fortitude a consisté à faire croire aux allemands que le débarquement aurait lieu dans le Pas-de Calais par différents moyens. Je ne veux pas faire un livre là-dessus, allez lire les nombreux et bons ouvrages qui existent, mais en deux mots, les alliés utilisèrent principalement le contre-espionnage et des leurres (des tanks Sherman gonflables ou de faux canons placés dans le Pas de Calais pour la reconnaissance aérienne allemande, des faux ordres de transport sur les ports anglais de Douvres, etc.), et même un faux Montgomery qui, par ses déplacements, renforce l'hypothèse d'un débarquement dans le Pas de Calais en juillet !

Pour le contre-espionnage, il s’agissait essentiellement d’utiliser des espions allemands qui avaient été retournés par les anglais pour leur faire prêcher le faux en guise de vrai auprès des autorités allemandes. Mais aussi, beaucoup plus contestable il est vrai, le sacrifice d’authentiques agents de l’espionnage anglais en possession de faux renseignements qu’ils avouèrent en toute sincérité dans les mains des tortionnaires allemands. Ou encore, dans le registre d’un jeu pervers incroyable, cet espion français qui envoyait de vrais messages aux autorités allemandes, messages auxquels elles n’accordaient toutefois aucune crédibilité dans la mesure où elles savaient que celui-ci n’était pas fiable. Par exemple, cet individu leur a envoyé le message selon lequel le débarquement aurait bien lieu en Normandie le 5, 6 ou 7 juin, message qui lui avait été donné volontairement par les alliés et auquel les allemands ne crurent pas une seconde.

Bref, le succès de l’opération Fortitude fut total dans la mesure où, à l’issue de celle-ci, i'est-à-dire quelques jours avant le débarquement, les allemands, Hitler, Rommel et Von Rundstedt, étaient persuadés que la seule option possible pour les alliés était le Pas-de-Calais. A tel point qu’ils crurent même que le débarquement du 6 juin en Normandie n’était qu’une diversion, laissant des divisions allemandes qui auraient pu arrêter la première vague dans le Pas-de Calais, ce jusque vers fin juillet 1944 !

Quel rapport avec ce blog ? Il existe en fait toute une littérature théorique en théorie des jeux qui cherche à expliquer pourquoi des joueurs qui peuvent être très rationnels peuvent tout de même être trompés dans une telle situation par des messages émis par un autre joueur. C'est le cas de l'analyse donnée par Crawford en 2003 dans un article publié dans l'AER. Ce qui est intéressant, c'est que l'on arrive à donner des fondements théoriques à l'opération Fortitude et à expliquer pourquoi l'équilibre qui fut "choisi" fut celui du côté allié d'une diversion  faite sur le Pas de Calais alors qu'on attaquerait la Normandie et, du côté allemand, de défendre coûte que coûte le Pas de Calais.

Dans le jeu tel qu’il est représenté par Crawford (2003), on a en fait une version du jeu de “matching pennies” – un jeu à somme nulle - , les alliés gagneraient plus à attaquer le Pas-de-Calais s’il n’est pas défendu par l’armée allemande (c’était la théorie de Von Rundstedt) que la Normandie.


Dans ce jeu, il n’y aucun équilibre de Nash en stratégies pures, et le seul équilibre qui existe est un équilibre en stratégies mixtes dans lequel les alliés attaquent Calais avec une probabilité de 2/5 (donc attaquent la Normandie avec une probabilité de 3/5) et les allemands défendent Calais avec une probabilité de 3/5.

Dès lors, comme l’analyse finement Crawford (2003), pourquoi l’opération fortitude n’a-t-elle pas eu comme objectif de faire croire aux allemands que les alliés allaient attaquer en Normandie puisque le gain d’attaquer dans le Pas de Calais était plus important ? Où pourquoi les alliés n’ont-ils pas fait diversion en Normandie alors que l’attaque réelle aurait lieu dans le Pas-de Calais ? Dans un jeu sous rationalité parfaite, la question ne se pose pas, car les messages sont considérés comme non informatifs par le récepteur (il s’agit de cheap talk) et n’influencent par conséquent en rien ses actions. Par conséquent, l’émetteur n’envoie pas de message et le jeu reste au stage décrit dans la matrice ci-dessus. Dès lors, la théorie des jeux sous sa forme standard ne peut expliquer l’opération Fortitude, qui n’a aucune raison d’être dans ce cadre de rationalité  parfaite. Crawford reprend donc le raisonnement en supposant une rationalité limitée des joueurs, ou, plus précisément, que chaque joueur a une certaine probabilité d’avoir une rationalité limitée ou au contraire d’être sophistiqué dans sa rationalité (ie d’avoir une rationalité parfaite). Chaque joueur connaît la distribution possible des types des joueurs (limité ou sophistiqué) mais ne connaît pas le type précis de l’autre joueur.

En fait, par un raisonnement basé sur un jeu de communication asymétrique de messages dans lequel seul l’envoyeur (les allies) génère des messages et le récepteur décide ou non de la crédibilité de ces messages (les allemands), Crawford montre qu’il existe un équilibre dans lequel les alliés envoient le message qu’ils attaquent le Pas-de Calais alors qu’ils ont l’intention d’attaquer la Normandie, alors que la situation inverse (les alliés envoient le message qu’ils attaquent la Normandie alors qu’ils attaquent le Pas de Calais) n’est pas un équilibre du jeu. Ce raisonnement est fait en supposant que les deux joueurs sont sophistiqués, et seule l’existence d’une distribution de types dans laquelle que la probabilité d’avoir un joueur « limité » est suffisamment forte suffit à fonder ce raisonnement d’équilibre. Ou que la probabilité d’avoir des joueurs sophistiqués est suffisamment faible.

L’intuition est la suivante. Supposons que la probabilité d’avoir un joueur sophistiqué côté allemand et côté anglais soit suffisamment petite, mais qu’en réalité chaque joueur soit de type sophistiqué. Les allemands sophistiqués vont toujours défendre Calais car ils prévoient que les anglais limités vont toujours attaquer Calais. Comme les anglais sont également sophistiqués, ils prévoient que des allemands sophistiqués ne devraient pas prendre en compte leurs messages, de quelque nature qu’il soit (vrai ou faux) et que seuls des allemands limités prendraient en compte leurs messages. Comme le message est peu coûteux (il s’agit de cheap talk), ils envoient quand même un message qui dépend du type de limitation des allemands (prennent pour systématiquement vrais les messages ou systématiquement faux les messages). Par conséquent, l’équilibre dans un tel jeu est que les anglais sophistiqués envoient des messages faux, et que les allemands sophistiqués défendent Calais.

En bref, il suffit que les joueurs soient suffisamment hétérogènes dans leur niveau de rationalité - Il y a une forte évidence empirique qui montre cela à travers par exemple les expérimentations menées notamment par Nagel sur le jeu du concours de beauté dont j’ai parlé ici, les sujets étant très hétérogènes dans leur niveau de raisonnement, très peu s’approchant de la rationalité parfaite -  pour que la stratégie d’envoyer de faux messages soit une stratégie qui puisse s’avérer gagnante dans des jeux où les conflits d’intérêt sont très importants entre les joueurs (comme dans une guerre).
Une manière d’étudier empiriquement les comportements dans une telle situation est de mettre des sujets dans un jeu de bluff (bluffing game) ou, de manière plus politiquement correcte, jeu de transmission biaisée (d’information), ou encore « jeu stratégique de transmission d’information », ces jeux étant inspirés par Crawford & Sobel, 1982.
Le principe de ce jeu dans sa version la plus simple est le suivant : l’émetteur observe le vrai état de la Nature, puis envoie un message à un récepteur qui doit dire s’il dit la vérité ou s’il ment. Si le récepteur ne se trompe pas (soit qu’il dise que le message est vrai s’il correspond effectivement à l’état effectif de la Nature, soit qu’il dise que le message est faux s’il ne correspond pas à l’état effectif de la Nature), il gagne 1, et 0 dans le cas contraire. Les gains de l’émetteur sont inversés, de manière à être dans un jeu à somme nulle, il gagne 1 si le récepteur se trompe et 0 sinon (les fonctions de gains peuvent être un peu plus complexes, comme dans les expérimentations de Wang, Spezio & Camerer, 2010).
Dans ces jeux de cheap talk, les expérimentations menées montrent qu’en général, bien qu’étant dans une situation de conflit extrême, les sujets tendent à dire trop souvent la vérité par rapport aux prédictions théoriques issues de la théorie des jeux standard (qui ne prévoit qu’un équilibre blablateur ou babbling equilibrium, c'est-à-dire un équilibre dans lequel ce qui est envoyé comme message par l’émetteur ne révèle absolument rien, et dont le récepteur ne tient pas compte, concept abordé plusieurs fois dans les billets du blog Mafeco, par exemple).

C’est précisément ce qui est montré par Wang, Spezio & Camerer, dans une étude expérimentale parue dans l’AER en 2010. Le principe du jeu est grosso modo le même que ci-dessus, simplement l’espace des stratégies est plus complexe, mais dans leur expérience il existe toujours une incitation pour l’émetteur à reporter un message biaisé. Non seulement, ils observent que la proportion de joueurs qui dit la vérité est beaucoup plus forte que ce que prédit la théorie, mais, de plus, constatent qu’en majorité les joueurs n’ont pas un comportement très sophistiqué. Par exemple, en utilisant pour expliquer les comportements durant les sessions expérimentales une technique d’eyetracking et une technique de mesure de dilatation de la pupille, ils observent que la majorité des émetteurs se concentre très fortement visuellement parlant sur son propre payoff et ne regardent que de manière distraite le payoff de son opposant. Du reste, ces auteurs mesurent la proportion de comportements qui peuvent être qualifiés de sophistiqués (i.e. des joueurs qui raisonnent à un niveau k assez élevé dans un modèle de type "concours de beauté") : ils obtiennent une proportion inférieure à 15% pour les émetteurs, un chiffre très proche d’une précédente étude de Cai & Wang en 2005, avec le même jeu mais dans un design très légèrement différent. Ces derniers auteurs obtenaient une proportion de comportements sophistiqués inférieure à 30% pour les récepteurs. Cela montre la pertinence du raisonnement de Crawford (2003) sur l’opération fortitude, l’équilibre « feindre d’attaquer Calais, attaquer Normandie / défendre Calais » étant possible avec une faible proportion de joueurs sophistiqués.

Pour en revenir à l’opération Fortitude, je trouve que la vérité historique, initialement assez mal expliquée par la théorie des jeux appliquée de manière standard, est éclairée de manière intéressante par la réflexion théorique de Crawford autour d’un modèle de rationalité limitée, qui s’appuie lui-même sur des résultats empiriques de l’économie comportementale pour étayer ses arguments. On me dira que c’est une explication ex post qui n’a peut être que peu de portée, mais l’idée de résoudre ce puzzle historique aux moyens d’une combinaison de raisonnement théorique et de faits empiriques est une parfaite illustration du potentiel de l’économie comportementale quand celle-ci permet d’appuyer la construction de représentions théoriques des comportements plus pertinente.

dimanche 10 avril 2011

Liens sociaux et construction des préférences prosociales (rien à voir avec le débat « Islam et laïcité »)


[Petit préambule à l'attention de toi, cher lecteur : j’ai un peu plus de peine ces temps-ci à accomplir mon billet bimensuel traditionnel, je vais essayer d’être plus régulier mais la procrastination me guette toujours, surtout avec l’arrivée des beaux jours]

Colleagues in office, partners in trade, call one another brothers; and frequently feel towards one another as if they really were so. Their good agreement is an advantage to all.”
Adam Smith, The Theory of Moral Sentiments, Part VI, section II

La question des préférences des individus est centrale en économie bien que la plupart des économistes affirment que l’économie se construit autour de préférences qui sont supposées être données. Bon, ces préférences sont censées respecter un minimum d’axiomes qui caractérisent une forme de rationalité (notamment préférer plus de quelque chose à moins de ce quelque chose toutes choses égales par ailleurs). Toute l’économie « classique » organise et construit ses lois autour de ces préférences.

L’économie comportementale va quant à elle au-delà de ce principe, dans la mesure où une des questions importantes qu’elle aborde est celle de la construction des préférences des individus, notamment des préférences prosociales (dans un sens très large, celles qui font qu’un individu donné intègre l’action ou la situation d’un autre individu dans sa fonction d’utilité, comme l'altruisme). Par ailleurs, plus classiquement, cette discipline essaie de mettre en évidence en quoi consistent précisément ces préférences prosociales.

J’entends ces jours ci, de différents horizons, beaucoup de critiques sur l’économie comportementale, dont certains minimisent les apports, agacés sans doute par l’effet de mode actuel sur cette discipline – ce que je peux comprendre – . Il ne faut toutefois pas jeter le bébé avec l’eau du bain et ce blog est là, je l’espère, pour mettre en évidence l’intérêt d’une telle approche.  C’est bien le moins que je puisse faire, sinon tout ce que j’écris depuis des mois n’aurait guère de sens.
Il faut tout de même par ailleurs ne pas oublier qu’avant cette « mode », la question des préférences pro-sociales n’était qu’un thème extrêmement marginal en économie et que la connaissance de cette dimension a fait, de mon point de vue,  un pas de géant en une vingtaine d’années. Tout n’est bien sûr pas gravé dans le marbre et certaines explications s’avéreront non pertinentes sans doute, mais l’avancée me semble réelle.

Une des hypothèses qui a eu beaucoup de succès pour expliquer le comportement des agents en situation d’interaction stratégique au-delà de l’équilibre de rationalité parfaite par exemple est l’hypothèse d’aversion à l’inégalité. Cette hypothèse dit simplement qu’un individu va être plus ou moins réticent à observer un écart positif ou négatif entre son revenu et le revenu de son voisin. Basiquement, l’idée est que la plupart des individus préfèrent un partage équitable entre eux-mêmes et l’autre qu’ un partage qui leur donne tout ou qui donne tout au voisin.
Plus exactement, si on retient l’approche développée par Fehr et Schmidt en 1999 (il y a aussi une autre approche, très légèrement différente proposée par Bolton et Ockenfels, 2000), je peux être averse à deux formes d’inéquité. La première est l’inégalité qui est à mon avantage, c'est-à-dire celle où j’ai un revenu plus important que mon voisin, alors que la seconde est l’inégalité qui est en sa faveur, c'est-à-dire celle qui est relative à une situation dans laquelle j’obtiens moins que mon voisin. Il existe des mesures assez simples qui permettent d’évaluer l’intensité de chaque composante de l’aversion à l’inégalité pour des participants donnés (pour ceux qui sont intéressés par une mesure simple, voir Blanco et al., 2010). Ce n’est pas là le sujet essentiel.

Ce qui est plus important, et en supposant que cette préférence intrinsèque de l’individu puisse expliquer son comportement dans certaines situations avec un succès meilleur que la maximisation simple de l’utilité individuelle hors de toute considération de la situation de mon voisin, est que les tenants de cette explication supposent, comme souvent en économie, que l’aversion à l’inégalité est exogène et stable pour un même individu.

Toute la question est de savoir si ces préférences pro-sociales sont stables, et donc en grande partie exogènes, ou si elles sont construites à travers l’interaction des différents membres d’une société donnée.  De nombreux économistes, influencés par les études d’économie comportementale, tendent maintenant à avancer que ces préférences pro-sociales sont construites sur le long terme, ce qui justifie le recours à une analyse évolutionnaire des interactions (voir le point de vue d’Avinash Dixit en 2008 sur cette question ici ). Cette vision des choses est souvent, et avec brio, développée par exemple par C.H. dans le blog « rationalité limitée, par exemple ici).

Plus surprenante est l’idée que ces préférences pro-sociales pourraient en fait être perturbées par le résultat de l’interaction avec d’autres individus y compris à très court terme.

Une étude expérimentale particulièrement intéressante de Sonnemans, Van Dijk et van Winden (2002), publiée dans le Journal of Public Economics, prolongée d’ailleurs par une étude plus récente en 2006 des mêmes auteurs,  traite précisément de ce problème. Les auteurs étudient comment les préférences prosociales sont influencées par le comportement d’autrui lors d’un jeu répété, ce jeu permettant aux participants de construire des liens sociaux. Ces liens sociaux peuvent être positifs ou négatifs. Pour mettre en évidence la formation de ces liens sociaux, le design de l’expérience est a priori très simple : on mesure les préférences prosociales avant, puis on laisse les participants jouer un jeu répété avec d’autres participants, et on mesure alors une deuxième fois les préférences prosociales après le jeu. Si les préférences prosociales sont invariantes, alors l’écart avant après de la mesure des préférences prosociales devrait être négligeable. La session expérimentale dure environ 2 h en tout, ce point me semblant important par rapport à ce que j’ai dit ci-dessus.

La mesure des valeurs sociales (on dirait de manière plus modernes des préférences prosociales) a été un sujet important en psychologie sociale et divers instruments de mesure ont été proposés par les psychologues sociaux depuis plus de trente ans. Une des plus simples – et des plus amusantes- a été proposée par Liebrand en 1984. Le principe de base est, pour un individu donné, de choisir entre deux options de manière répétée.  Chaque option octroie une certaine somme à soi-même et à un individu réel qui peut, dans le cadre d’une expérience, être tiré au sort parmi les participants. Par exemple, une première option est d’avoir 500  euros pour soi et 0 euros pour le voisin, contre 480 euros et 120 euros pour le voisin. D’autres choix consistent à choisir entre les deux options dans l’espace des pertes (par exemple -500 euros pour moi et 0 euros pour lui contre -480 euros pour moi et -120 euros pour lui) ou dans l’espace des gains pour moi et des pertes pour lui (480 euros pour moi ; -120 euros pour lui contre 350 euros pour moi et -250 euros pour lui).

Il est alors possible, en faisant la synthèse de tous les choix d’options fait par un individu donné, de caractériser  celui-ci en mettant en évidence un trait saillant qui résume ses valeurs sociales :
-    L’altruisme, s’il cherche à maximiser le revenu de l’autre indépendamment du sien,
-    La coopération s’il cherche à maximiser son revenu et celui de l’autre de l’autre
-    L’égoïste s’il cherche à maximiser son seul revenu
-    Le compétitif, s’il cherche à maximiser la différence entre son revenu et celui de l’autre
-    L’agressif, s’il cherche à minimiser le revenu de l’autre
-    Etc.

La figure ci-dessous représente comment le choix final  entre les options A et B peut être résumé sur un cercle (qui s’appelle donc le cercle de mesure des valeurs sociales ou « ring measure of social values »).

source : Fiedler, Glöckner and Nicklich (2008) adapté de Liebrand (1984)

Le cadran est construit autour de deux axes, l’un horizontal qui indique la somme que je gagne ou que je perds, l’autre vertical qui donne la valeur attribuée à l’autre (en positif ou en négatif).
Sur ce cadran, plus un individu a fait des choix qui l’orientent au nord, plus celui-ci est intensément altruiste. Au sud, ses valeurs sociales peuvent être caractérisées d’agressives.

C’est cette mesure qu’utilisent Sonnemans, Van Dijk et van Winden dans leur étude de manière répétée.  Lors d’une première partie, face à un participant tiré au sort, l’échelle des valeurs sociales de chaque participant est mesurée. Puis,  cette même personne participe à un jeu de bien public à deux personnes (donc une sorte de dilemme du prisonnier où les stratégies de coopération sont continues) et enfin, dans une dernière partie, l’échelle de ses valeurs sociales est à nouveau mesurée.

Pour contrôler la stabilité de cette mesure de valeurs sociales, ils mettent en place un traitement dans lequel la même chose est faite pour les participants (mesure avant après) mais, au lieu de participer à un jeu de bien public, chaque sujet participe à un jeu de décision individuelle (un jeu de recherche d’emploi dans lequel un sujet tire au hasard des salaires dans une distribution et doit décider de continuer moyennant un coût de recherche ou pas). Je donne tout de suite le résultat de ce traitement, qui n’est là que pour s’assurer de la stabilité, au moins à court terme, de l’instrument de mesure des valeur sociales : il n’y a dans ce traitement quasiment aucune différence entre les résultats de la mesure avant et après dans ce traitement spécifique. Dont acte, la mesure des valeurs sociales proposée par Liebrand semble stable...

Mais y-a-t-il une différence dans le traitement « bien public » ?  Pas de suspense, bien évidemment oui !

L’interaction répétée des individus dans le jeu de bien public, qui a comme caractéristique que les gains sont maximisés en cas de coopération a un impact fort sur la seconde mesure (ex post) appliquée aux sujets. 
En effet, les sujets qui ont gagné beaucoup (ils ne peuvent le faire durablement que si le niveau de contribution au bien public est suffisamment élevé au sein du groupe de deux  individus) ont tendance à plus « aimer » leur partenaire (ie à donner une orientation plus altruiste de leur mesure de valeurs sociales après qu’avant) et, au contraire, les sujets qui ont moins gagné (soit du fait qu’ils ont été des passagers clandestins avec leur partenaire, soit du fait qu’ils ont contribué au bien public alors que l’autre ne contribuait rien) ont tendance à reporter une baisse de leur niveau d’altruisme pour tendre vers un comportement égoïste.

C’est un résultat qui me semble important, dans la mesure où d’une certaine manière, cette expérimentation met en évidence ce que l’on suppute tous plus ou moins, à savoir qu’il y a clairement des comportements « nuisibles » qui tendent à construire des liens sociaux négatifs entre les individus , et des comportements « utiles » qui tendent à renforcer ou à créer du lien social positif entre les individus, ces liens sociaux déterminant ensuite les préférences pro-sociales des individus et par conséquent leur comportement social.


PS1 : j’avais bien dit que ce billet n’avait rien à voir avec le débat Islam et laïcité !

PS2 : juste à titre totalement accessoire, une citation de la conclusion du rapport du Rapport du Commissariat Général du Plan sur le thème « religion et intégration sociale » page 35 :
« Enfin, il paraît nécessaire de reconnaître les fonctions sociales des communautés religieuses sans que cela ne risque, aujourd’hui moins qu’hier, de conduire à une quelconque forme de communautarisme. À cet égard appartenir à une “communauté” religieuse n’est pas un signe a priori d’enfermement et d’imposition sociale et les individus ont de multiples appartenances, la religion n’étant que l’une d’entre elles. Les religions sont devenues, du fait de la sécularisation et de leur acceptation du cadre laïc, des ressources d’entraide de paix sociale également qu’il peut être bon d’utiliser davantage. Mais à ce titre, leur place dans les débats publics pourrait également être davantage prise en compte en dehors de la seule gestion des cultes »

dimanche 20 mars 2011

Catastrophe au Japon, abandon du nucléaire et comportement de surréaction

A la suite du tremblement de terre au Japon, la menace d’une catastrophe nucléaire à une échelle n’ayant guère de précédent se profile de jour en jour. Suite à cette inquiétude légitime des citoyens du monde entier, de nombreux élus et représentants de la société civile, notamment les écologistes en France, ont appelé à l’abandon de la technologie nucléaire comme élément de la production d’énergie électrique (par exemple ici  ou ).
Bien évidemment, le point fondamental (voir le billet de CH sur le blog "rationalité limitée" ici ) est que le niveau de risque n’a pas été modifié par l’occurrence de cette catastrophe. Ce n’est pas parce que je jette un dé et que j’obtiens deux fois de suite le chiffre 2 que j’ai plus de chance par la suite d’obtenir le chiffre 2. Ou a contrario moins de chances d’observer le chiffre 2. Le risque qui s’est réalisé au Japon - ou plutôt l’Etat de la Nature comme disent les spécialistes de la théorie de la décision, terme qui ici sonne malheureusement d’une manière sinistre – n’implique en rien, en l’état actuel des choses - une modification des probabilités d’avoir une autre catastrophe à ma connaissance d’un strict point de vue scientifique.
Parler à contre courant n’est pas forcément quelque chose de facile, surtout du fait que chaque jour, le bilan humain et environnemental de cette catastrophe devient de plus en plus effrayant,  mais après tout, un des rôles de l’économiste est d’avertir l’opinion sur les avantages et coûts sociaux induits par une modification des politiques publiques. Même s’ils jouent leur jeu, je trouve que le discours des écologistes est un brin irresponsable, car abandonner l’énergie nucléaire aurait certes probablement un avantage en termes de réduction des risques de catastrophe telle que nous la subissons en ce moment, mais aurait aussi surtout des coûts économiques – au sens large – extrêmement importants. Cela a d’ailleurs été heureusement souligné par une partie de la classe politique, y compris les socialistes, dont, le cas échéant, on ne peut que saluer le sang froid (je ne ferai pas cela tous les jours). Mais ce n’est pas le point essentiel de ce billet, mon objectif étant de chercher à montrer de quelle nature est cette réaction d’une partie de l’opinion publique (abandonner le nucléaire suite à l’occurrence d’une catastrophe) en pointant qu’il s’agit là d’un biais humain, trop humain, pour reprendre la formule de Nietzsche.
La réaction des écologistes en particulier, en supposant qu’elle ne soit pas dictée par de bas objectifs politiques – après tout, il est permis de rêver -, et d’une partie de l’opinion, peut s’assimiler à un phénomène assez connu en économie, mais peu étudié en fait  de manière empirique, à savoir la surréaction (overreaction dans la langue de Shakespeare).
Le problème de la surréaction est essentiel à mon avis pour comprendre la réaction de l’opinion publique et d’une partie de la classe politique, et surtout, pour éviter les conséquences négatives de décisions ou d’opinions qui pourraient être formées « à chaud ».  Il s’agit d’un biais de comportement assez classique en économie et qui a souvent été invoqué pour expliquer les bulles financières notamment.
Basiquement, un phénomène de surréaction consiste à penser que l’arrivée d’un événement négatif augmente la probabilité d’en avoir un dans le futur et, vice versa, que l’arrivée d’un événement positif augmente la probabilité d’événements positifs. Par exemple, le fait que je sois victime d’un cambriolage va renforcer de manière erronée la croyance que j’aurais sur l’occurrence de tels événements. Tout comme le fait de réaliser que de n’avoir  subi aucun cambriolage au cours des dix dernières années, alors qu’en moyenne il  y un cambriolage tous les 7 ans dans le quartier, va potentiellement renforcer ma croyance que je suis plus à l’abri d’une telle agression que les autres voisins du quartier.
Ce problème est bien identifié en économie du sport, mais également bien sûr dans les analyses sur les marchés financiers. Un phénomène de surréaction pour une action donnée consiste à avoir une bonne ou une mauvaise nouvelle concernant l’entreprise qui modifie la valeur fondamentale de cette action. Par exemple, supposons que l’on apprenne une découverte de gisements pétroliers majeurs. Cette découverte augmente la valeur fondamentale des sociétés pétrolières. Une surréaction des agents consisterait à observer une croissance de la demande des actions des sociétés pétrolières dont le prix de marché dépasserait alors la valeur fondamentale, ce jusqu’à ce que les agents, réalisant l’écart entre le prix de marché et les fondamentaux, modifient leur comportement de telle manière que cet écart finisse par disparaitre. Comme l’ont montré  de Bondt  et Thaler en 1985, ce phénomène peut expliquer que le rendement des actions surévaluées puisse être moins élevé que le rendement des actions sous évaluées, et qu’il puisse être profitable d’acheter de manière systématique des entreprises dont les actions baissent, car leur rendement est en moyenne plus élevée que des titres d’entreprises dont les actions montent. Bien évidemment, un tel phénomène bat en brèche la fameuse hypothèse d’efficience des marchés énoncée par Fama en 1970, et sujet de nombreux débats – justifiés- depuis la crise financière de 2008.

Si on observe les prix sur la bourse de New York sur la période 1926 – 1982, comme l’expliquent de Bondt et Thaler, on constate que les prix des actions des entreprises qui se sont comportées négativement sont sous-évalués (par rapport à la valeur fondamentale de ces actions) et que les prix des actions des entreprises qui ont eu des performances positives par rapport à la moyenne sont au contraire surévalués.
Pour résumer, le phénomène de surréaction se manifeste par la surappréciation de la valeur économique des gagnants et par la sous-appréciation de la valeur économique des perdants, ce sur n’importe quel type de marché, et pas seulement financier. Une explication possible de ce phénomène de surréaction vient de la psychologie des investisseurs qui vont par exemple observer que l’action d’une entreprise augmente et  considérer alors que la probabilité qu’elle augmente dans le futur (probabilité a posteriori) est plus forte que la probabilité qu’elle augmente avant que l’événement positif est été observé (probabilité a priori). Idem pour une action qui se porterait mal. Mais j’anticipe sur mon propos futur…

Quel rapport avec la position des écolos ? Précisément, l’arrivée d’un événement négatif qui diminue la valeur économique de l’industrie nucléaire les conduit à « surréagir » en considérant que la perte de valeur est beaucoup plus ample, voire que la valeur économique de cette industrie devient nulle voire négative, et par conséquent à appeler à un changement radical de politique publique. C’est très exactement un phénomène de surréaction.
Qu’est ce qui peut expliquer le phénomène de surréaction ? Il s’agit bien sûr d’un biais de rationalité, dans la mesure où un agent parfaitement rationnel ne peut surréagir, mais une fois que l’on a dit cela, on n’a pas dit grand-chose…
Comme l’ont avancé Offerman & Sonnemans en 2006, deux explications sont possibles en termes de comportements individuels pour expliquer ce phénomène de surréaction.  Au niveau individuel, une première explication est que l’agent pense que le fait d’observer un événement donné augmente la probabilité de cet événement et diminue la probabilité des événements adverses. C’est l’explication dite d’autocorrélation : l’occurrence d’une catastrophe m’incite à augmenter le risque de catastrophe dans mon esprit.  L’autocorrélation peut être positive ou négative. Si un pneus de mon véhicule vient de crever, je peux en tirer trois conséquences : soit la probabilité de crever reste la même (rationalité parfaite), soit la probabilité de crever augmente (effet de main brulante ou « hot hand effect"), soit la probabilité de crever diminue (certaines personnes supputant qu’il y a une espèce de mécanisme de balancier dans les risques, si mon pneu a crevé, alors le risque s’est réalisé, et « en moyenne » j’aurais moins de survenues de crevaison dans l’avenir). Ce comportement est appelée biais de la loi des petits nombres, ou encore "cold hand effect" - effet de « main froide »-.
[désolé pour la traduction littérale et moche de hot hand et cold hand, mais si, lecteur, tu as de meilleures suggestions, je suis prêt à les entendre]

Une autre explication est possible. De Bondt et Thaler ont avancé simplement que les individus avaient tendance à pondérer plus fortement les événements récents que les événements lointains dans le passé dans la révision de leurs croyances (« recency effect »).  Ou encore, que les agents sont relativement insensibles aux probabilités a priori. Là encore, cette explication est connue depuis longtemps par les psychologues.
Le problème est de savoir laquelle de ces explications au phénomène de surréaction est la plus convaincante. L’article de Theo Offerman & Joep Sonnemans paru dans le Scandinavian Journal of Economics en 2006 est à  ce titre intéressant car un de leurs objectifs est au moyen d’une expérience de laboratoire, de discriminer entre ces deux explications en partie alternatives.
Leur design expérimental est très simple, l’analyse des résultats qu’ils conduisent est vraiment tout à fait intéressante, et tout cela me semble éclairant, y compris pour le débat public.
Quelques mots sur le design. Une urne contient 100 pièces, 50 « justes » et 50 « faussées ». Une pièce « juste » produit lors de lancers successifs 50% de faces et 50% de pile. Une pièce « faussée » produit ces événements avec la même probabilité qu’une pièce juste, mais quand face sort lors d’un lancer, la probabilité que face sorte lors du lancer suivant est de 70% (et donc pour pile de 30%). Idem si c’est pile qui sort lors d’un lancer : l’événement pile aura 70% de chances de se produire lors du lancer suivant. Au début du jeu, une pièce est tirée au sort, et le type de la pièce n’est pas indiqué aux participants à l’expérience.
Chaque participant observe une série de 20 lancers au hasard et doit alors indiquer le niveau de probabilité estimé que la pièce soit faussée. Ce jeu est répété à 20 reprises pour chaque participant, avec l’observation des 20 lancers et l’indication donnée par le sujet de la probabilité que la pièce soit faussée. Le gain de chaque partie est d’autant plus élevé que la probabilité reportée par le sujet est proche de l’événement vrai. Un sujet indiquant 100% de chances d’avoir une pièce faussée gagne plus si la pièce est réellement faussée que s’il indique 50% de chances seulement.
Un participant qui serait rationnel au sens bayesien du terme (c’est-à-dire qui se conformerait au théorème de Bayes)  devrait reporter des niveaux de probabilité d’avoir une pièce faussée d’autant plus forts que les tirages au sort matérialisent une alternance de pile et de face faible lors des 20 observations.  En effet, la probabilité d’avoir une pièce faussée s’écrit, conformément au théorème de Bayes :



Par exemple, si j’observe 19 faces différentes (Face Pile Face etc.), la probabilité d’avoir une pièce faussée est proche de zéro, alors que si j’observe simplement deux changements (Pile Face Pile Pile etc. jusqu’à 20), cette probabilité est de 99%. Autre exemple, si j’observe que l’événement tiré au sort change 8 fois sur les 20 tirages, la probabilité d’avoir une pièce faussée est de 40%.
Prenons cet exemple précis, qui permet de bien comprendre comment il sera possible de départager l’hypothèse de hot hand effect de l’hypothèse de recency effect, ce que cherchent à faire les auteurs. La probabilité a priori d’avoir une pièce faussée est de 50%, rappelons-le, pour que la suite du propos soit claire.
Quelqu’un qui observe 8 alternances de pile ou face sur les 20 tirages et qui est sujet à cet effet de main brulante devrait surréagir en considérant que la probabilité d’avoir une pièce faussée est supérieure à ces 40% établis par un agent qui serait parfaitement bayesien. A contrario, quelqu’un qui est sujet à l’effet de l’observation récente des événements (recency effect) pondère plus fortement les événements observés (le résultat du tirage au sort) que la probabilité a priori d’avoir une pièce faussée, qui est de 50%. Donc s’il observe une série d’événements qui vont dans le sens d’une probabilité inférieure à 50%, ce qui est le cas avec 8 alternances de pile ou face, il va pondérer plus fortement cette information et reporter une probabilité inférieure aux 40% qu’un agent parfaitement bayésien considérerait comme probabilité a postériori.
Par conséquent, si je suis sujet à l’effet de main brulante, je reporte une probabilité supérieure à la probabilité a posteriori  (si celle si est inférieure à 50%) et au contraire, si je suis sujet à l’effet du caractère récent des informations, je reporte une probabilité inférieure. Ce n’est là qu’une partie du raisonnement théorique, qui en fait est plus complexe que cela dans l’article encore.

Quels sont les résultats ? En particulier, on observe en fait que contrairement à l’explication avancée par de Bondt et Thaler, les sujets sont beaucoup sujets à l’effet de main brûlante qu’à l’effet du caractère récent des observations, ce qui signifie qu’ils sont sujets au biais d’autocorrélation. Le graphique ci-dessous l’illustre de manière spectaculaire :


source : Offerman & Sonnemans, 2006

Sur ce graphique, R correspond à la probabilité (d’avoir une pièce faussée) reportée par les sujets compte tenu de B, la probabilité a posteriori d’avoir une pièce faussée en appliquant le thèorème de Bayes. Un agent parfaitement rationnel au sens de ce théorème reporterait bien évidemment R=B (la diagonale sur le graphique qui représente le benchmarck pour cette expérimentation). La courbe observée s’écarte significativement du benchmark et matérialise une probabilité reportée très supérieure à la probabilité a posteriori, ce qui va dans le sens de l’effet de « hot hand ». Dans leurs expériences, très peu de probabilités reportées sont conformes au théorème de Bayes.  Ils observent également, dans une seconde expérience, que cet effet de hot hand est moins fort quand les sujets ont déjà participé à la même expérience, c’est-à-dire que  la surréaction tend à être de moins en moins forte.
Cela suggère qu’un bon trader ne devrait pas être trop sensible au comportement passé du cours d’une action pour tenter de prévoir l’évolution future du cours, cette erreur étant beaucoup plus commune dans la réalité sans doute que celle qui consiste à ne considérer dans sa prévision que les événements récents.

En ce qui concerne la réaction de l’opinion face à la catastrophe nucléaire, aux issues toujours incertaines au moment où j’écris ce billet, pour le moment, il semble que l’on soit plus dans une surpondération d’un événement récent. Toutefois, quelque soit l’explication comportementale derrière cette réaction, les conséquences d’une telle surréaction publique qui conduirait à démanteler l’industrie de la production d’énergie par voie nucléaire serait de toute évidence extrêmement coûteuse d’un point de vue économique pour la société.

mercredi 23 février 2011

Des conséquences économiques de la téléportation sur les coûts de transport

Voilà très longtemps que je n’ai pas fait un billet sur les dimensions économiques que l’on peut relever dans les œuvres cinématographiques, parfois présentes de manière explicite, mais le plus souvent de manière totalement inconsciente dans l'esprit des scénaristes, seul mon esprit tordu ayant sans doute l'idée de les mettre en lumière...
[Certains lecteurs pensent alors fortement que c'est surtout du au fait qu'il n'y a que moi que cela intéresse ! Mais alors, quel paradoxe, car, lecteur, si tu en es arrivé à ce point, c'est que tu me lis et donc que tu es intéressé !]

J’ai revu récemment un des chefs d’œuvre du cinéma fantastique,  "la mouche",, dans la version réalisée par David Cronenberg avec Jeff Goldblum, remake d'un classique des années 50 tout aussi bon, et un certain nombre de considérations économiques évoquées dans le film m’ont amusées. C'est l'objet de ce billet.

L’histoire est assez simple à résumer en quelques mots : un inventeur génial, physicien de son état, met au point un système permettant de téléporter d’abord de la matière inerte, puis, butant sur le problème de la téléportation des êtres vivants, trouve la solution, l’expérimente sur lui-même, ce qui causera sa fin. Au début du film, le scientifique dialogue avec la journaliste scientifique incarnée par Geena Davis et lui déclare la chose suivante pour la persuader d’écrire un livre qui relate sa découverte :

« Ce sera un livre sur l’invention qui a mis fin à tous les concepts sur les transports, les limites du temps et de l’espace ».
C’est là où j’ai bisqué.
En fait, cette idée renvoie au bon sens que nous avons tous et qui consiste à considérer que le problème du transport de biens ou de personnes est avant tout un problème de distance. Si la distance était abolie, au moyen d’un dispositif comme la téléportation, alors plus de problème de transport et un coût du transport nul ou quasi insignifiant.
Cela sonnerait-il le glas d’une discipline qui m’est chère, l’économie des transports, réduite à figurer au panthéon de l’histoire de la pensée, dans les oubliettes poussiéreuses réservées aux idées qui n’ont plus aucun intérêt, à l’instar par exemple de la théorie de la valeur marxiste ou de l’écrasante majorité des ouvrages de Bernard Henry-Levy ?

Précisément, rien n’est moins faux si on regarde la manière dont le problème du transport, notamment de personnes, est abordée dans la théorie économique moderne.

Les choses peuvent être comprises de manière intuitive : le problème du transport n’est pas seulement un problème de distance consistant à aller d’un point A à un point B, c’est aussi un problème de capacité de l’infrastructure qui permet de véhiculer choses ou êtres.  Ce problème de capacité n’est pas du tout vu par le film, qui a d’autres chats, ou plutôt mouches, à fouetter et là n’est pas son propos essentiel.

Toutefois, ceci est un point central. Tirons le fil lié à la découverte révolutionnaire de Brundle, l’inventeur malheureux de la téléportation incarné par Goldblum. Imaginons que son dispositif devienne parfaitement fiable, et se généralise au point de rendre obsolètes toutes les infrastructures de transport, terrestres, maritimes, aériennes, etc. Le système de Brundle implique l’accès d’une personne à un télépod localisé en A, le transfert de cette personne vers un autre télépod localisé en B. Le point crucial est qu’il n’est possible de téléporter qu’un objet ou être vivant à la fois, c’est d’ailleurs la source de la malédiction de notre génial inventeur, la procédure durant quelques secondes, et le temps de transport total n’étant pas lié à la distance entre A et B, puisqu’il s’agit précisément de téléportation.

Il n’en reste pas moins que le système implique un goulot d’étranglement. Difficile d’envisager de construire autant de télépods (ceux-ci sont coûteux d’un simple point de vue économique) que de personnes souhaitant se déplacer, et,  par conséquent,  le système a une limite de capacité. Par exemple, cette limite pourrait être par exemple, de 60 déplacements par heure par télépod, en supposant le temps d’entrée et de sortie total égal à une minute.

Or, qui dit limite de capacité dit congestion potentielle,  i.e. la possibilité d’avoir des coûts de transport non liés à la distance qui croissent en fonction de la demande de déplacement à un moment donné et en fonction du stock des déplacements restant à écouler au moment où je me présente devant le télépod. En effet, la congestion est un phénomène dynamique, qui implique un mécanisme de file d’attente, et par conséquent le temps de transport au moment m (ou le coût si je suppose négligeables les coûts financiers du déplacement dans un premier temps) croît en raison du total des déplacements restant à écouler, produit de la demande de déplacements pour les moments m-1, m-2, etc, précédents ainsi que de la demande instantanée en m. Le problème va être précisément qu’il n’est possible de transférer qu’une personne par minute…

Cette manière de concevoir le problème des déplacements de personnes et la formation de la congestion de manière dynamique a été proposée par William Vickrey en 1969 et formalisée par Richard Arnott, André de Palma et Robin Lindsey à la fin des années 80 dans ce qu’on appelle désormais les modèles de goulot d’étranglement (« bottleneck models »). Il faut bien dire que ces modèles, qui s'inspirent de la physique et de la recherche opérationnelle, ont constitué une véritable révolution dans le domaine de l’économie urbaine et de l’économie des transports.
Initialement, ces modèles cherchent à expliquer la formation de la congestion dans le cadre des déplacements quotidiens domicile travail en milieu urbain, en particulier les phénomènes de pointe du matin et du soir. Dans la configuration théorique la plus simple, tout le monde veut arriver au même endroit en même temps, on suppose des automobilistes homogènes, tous localisés au même endroit, et devant passer par le même itinéraire pour arriver par exemple dans le centre ville où sont localisés tous les emplois. Cet itinéraire a une certaine capacité d’écoulement par période de temps, par exemple 100 véhicules par minute. Les automobilistes doivent choisir simplement à quel moment partir de leur domicile sachant qu’ils doivent arriver à un moment précis, le même pour tous, et que leur coût de transport est constitué que du temps qu’ils passeront dans le goulot d’étranglement mais aussi du coût d’opportunité du temps lié au fait qu’ils peuvent arriver en avance ou en retard sur leur lieu de travail. Il y a donc un réel arbitrage à faire pour l’usager : soit je pars très tôt, je passe facilement le goulot car il n’y a pas grand monde, mais j’arrive en avance. Soit je pars très tard, au moment où il y a plus de monde, je subis le temps perdu dans le bouchon, et je risque en plus d’arriver en retard.

La congestion se forme bien de manière dynamique : tant que la demande instantanée est inférieure ou égale à la capacité du goulot, le temps d’attente (ou de passage du goulot) est nul. Toutefois, dès que la demande instantanée devient supérieure à la capacité, la congestion commence à se former et les véhicules s’accumulent dans une file d’attente, et il devient de plus en plus long d’arriver à passer le goulot. Puis, le nombre des départs instantané baisse, et la congestion finit par se résorber. La règle à l’intérieur du goulot est bien sûr premier arrivé –premier servi.

Le graphique ci-dessous, tiré de l’excellent livre de Ken Small et Eric Verhoef sur l’économie des transports urbains, illustre le modèle et la formation de la congestion :



Source : Small and Verhoef (2007), The Economics of Urban Transportation, Routledge.

Sur ce graphique, la valeur de N(t) représente l'écart entre la capacité cumulée au cours du temps (la droite en pointillés) et la demande cumulée à partir du moment où le nombre de départs devient supérieur à la capacité d'écoulement de la route (la courbe en traits pleins). La valeur horizontale T(t) correspond au temps passé dans le goulot pour un usager partant en t.
Il est même possible de simplifier encore le modèle, en supposant qu’un véhicule qui accède au goulot passe immédiatement si la capacité en t reste supérieure au stock de demande à écouler en t, puisque ce n’est pas un élément important en fait.

Il y a quelques années (désolé, je vais encore parler de moi comme dans le dernier billet), j’ai réalisé avec quelques collègues une série d’études expérimentales sur ce modèle (une référence ici), simplifié certes à outrance dans un cadre d’expérience de laboratoire, mais dont les résultats furent assez édifiants.  Même avec un petit nombre de joueurs dans ce jeu de goulot d’étranglement, on observe la congestion de manière systématique, ce qui signifie que les participants n’arrivent pas à  se coordonner suffisamment bien pour résoudre le problème de congestion, par exemple, le joueur 1 partant à l’heure 1, le joueur 2à l’heure 2, etc, ce qui minimiserait le coût total de transport, et l’efficacité serait de 100%. Dans nos expériences, le taux moyen d’efficacité tourne autour de 60%, ce qui est lié à la congestion.  Par ailleurs les résultats observés en laboratoire sont assez proches des prédictions théoriques issues du modèle de goulot d’étranglement.

Plus récemment, l’American Economic Review a publié une étude expérimentale de Daniel, Gishes et Rapoport en 2009 sur une version plus sophistiquée de ce modèle de goulot, basée sur l’idée de bottlenecks qui s’emboitent dans un grand bottleneck (pour parler simplement, deux petites routes qui se connectent sur une grande route). Les auteurs testent l’impact d’une augmentation de la capacité d’une petite route en amont, toutes choses égales par ailleurs, sur les coûts de transport. Ils observent en laboratoire une forme de paradoxe de Braess (phénomène dont j’avais parlé ici ), qui fait que l’augmentation de la capacité débouche de manière contre-intuitive sur une augmentation des coûts totaux des déplacements.
Pour en revenir au film de Cronenberg, et pour faire le lien avec ce qui vient d’être dit, même avec la téléportation généralisée, il n’est pas sûr que l’augmentation de la capacité en télépods permette de résoudre définitivement le problème des coûts de déplacement si un phénomène du type Braess se produit (pour qu’il se produise, il suffit que l’augmentation de capacité ne soit pas trop forte). Comme quoi une innovation technologique, même révolutionnaire, ne sonne pas la fin de nos réflexions dans le domaine de l’économie des transports, et qu’au contraire, elle les stimule sans doute.

J’en suis arrivé à la conclusion que la projection du film la Mouche serait une magnifique introduction à un cours moderne d’économie des transports, en supposant toutefois que la plupart des étudiants n’aient pas rendu leur déjeuner ou leur goûter à l’issue de la projection - le film est assez gore par moments quand même - , faute de quoi, même avec du talent, il sera difficile de leur demander un effort intellectuel...

dimanche 6 février 2011

Faire le bien ou éviter de faire le mal ? Quelques enseignements des expériences en économie

Au hasard de mes pérégrinations intellectuelles assez ardues de ces derniers mois, je suis tombé sur un article de Messer et al 2007 sur l'importance des effets de contexte dans le comportement de contribution au bien public. Comme tu le sais certainement lecteur, les économistes désignent par bien public un bien qui possède deux caractéristiques, la première étant l'indivisibilité d'usage (je peux utiliser le bien sans que cette utilisation ne gêne ou ne limite l'utilisation par un autre individu) et la seconde étant l'impossibilité d'exclure des utilisateurs potentiels (je ne peux empêcher mon voisin de profiter de l'éclairage public même s'il n'y contribue en rien parce qu'il fraude fiscalement par exemple)...
[C'est une image, mes voisins sont des gens très bien au-dessus de tout soupçon. J’espère qu’aucun percepteur zélé ne lit ces lignes]

Le problème avec les biens publics est la possibilité que les individus se comportent comme des passagers clandestins, c'est-à-dire qu'ils ne contribuent pas personnellement au bien public, la contribution étant généralement coûteuse et, du fait de ses caractéristiques d'impossibilité d'exclusion ,soiten tentés d'attendre un effort des autres sans le produire eux-même. Cette possibilité de free riding avait été évoquée par Knut Wicksell, un économiste autrichien, dès la fin du 19ème siècle.

Les études expérimentales sur cette question ont été extrêmement nombreuses et tendent toutes à montrer que le comportement de passager clandestin n'est pas aussi fréquent que cela, et qu'une petite proportion des individus sont réellement des passagers clandestins. Le problème est que cette petite minorité est relativement "toxique" car les individus qui ne sont pas des passagers clandestins de manière intrinsèque vont avoir tendance, si la contribution au bien public est répétée dans le temps, à punir les passagers clandestins en réduisant eux-même leur effort ou contribution au bien public (Voir Falk, Fehr et Fischbacher en 2005, Econometrica, pour plus de détails sur ce résultat.)

Bon, ce résumé très rapide (cette question a été abordée à de multiples reprises dans ce blog) n'est là que pour mettre en scène le sujet que je veux aborder, à savoir l'importance de l'effet de contexte ou de présentation dans les phénomènes de contribution au bien public.

L'effet de contexte, bien connu en économie expérimentale, a été mis en évidence par Kahneman et Tversky il y a bien longtemps (pour une description pédagogique , je te renvoie ici lecteur) : en quelques mots, il dit que les choix économiques sont sensibles à la manière dont les choix sont présentés. (dans le jargon des économistes, on dit qu'il y a un axiome (rarement explicitement posé d'ailleurs) d'invariance de description). Un nombre d'études considérables a mis en évidence cet effet dans le cas de choix individuels, mais peu l'ont fait dans le cas de choix impliquant ce que les économistes appellent un dilemme social, c'est à dire une situation dans laquelle la coopération entre individus serait souhaitable (tous contribuer au bien public) pour la communauté mais dans laquelle la rationalité va pousser les individus vers une issue d'équilibre moins bonne du point de vue de l'intérêt général.
L'étude de Messer porte précisément sur ce problème. L'exemple donné est celui de la donation d'organes.  Le don d'organes est typiquement un bien public. En effet, deux grands types de réglementations existent au niveau international. Dans le premier type, vous êtes supposés donneurs par défaut (si vous ne dites rien, on pourra utiliser votre corps pour des greffes ou autres) et dans le second type, vous êtes supposés non-donneur par défaut (il faut dire explicitement que vous souhaitez donner vos organes pour qu'ils puissent être utilisés pour des greffes).

Une étude de 2003 de Johnston et Goldstein parue dans la revue Science (« do defaults save lives? ») montre que les pays dans lesquels le statu quo pour la donation d’organes est le consentement (par défaut vous êtes donneur et vous devez indiquer à vos proches de manière explicite si vous refusez de donner vos organes) ont un taux de donation de 85.9% à 99.9%, tandis que pour les pays dans lesquels le statu quo consiste en un non consentement (la France jusqu’à une date récente), le taux de donation s’échelonnait entre 4.3% et 27.5%.

D’autres exemples sont possibles : en ce qui concerne par exemple la qualité de notre environnement, au sens écologique, vaut-il mieux mettre en œuvre des incitations permettant de créer du bien public, via des actions positives de dépollution, ou des incitations permettant d’éviter le mal public issu de comportements pollueurs ?

Dans le cadre des politiques de lutte contre l’effet de serre, la question se pose. Par exemple, dans un rapport du Centre d’Analyse Stratégique récent (consultable ici), à propos de la politique de lutte contre l’effet de serre, on peut lire qu’un des apports de l’accord de Copenhague, décrit généralement comme un échec, a été la mise en place de mécanismes (REDD+) qui visent à la fois à préserver la qualité de l’environnement mais également à mettre en œuvre des actions permettant d’en améliorer la qualité. En particulier, on peut lire ceci :

« L’Accord inscrit explicitement la mise en place d’un mécanisme dit « REDD + » visant à lutter contre la déforestation et la dégradation mais également à favoriser les plantations, la gestion forestière et la conservation des stocks de carbone »

Sous-entendu, il est bien de se soucier de préservation de l’environnement, mais sans doute faut-il faire en sorte que des actions plus volontaristes soient mises en œuvre.

La théorie économique est a priori neutre de ce point de vue : selon la théorie microéconomique, le contexte n’importe pas (voir ce qui a été dit précédemment) et l’efficacité des incitations dans un cas (création de biens publics) doit être la même que dans l’autre cas (limiter l’apparition de mal public).

C’est précisement l’objet de l’article écrit en collaboration avec Douadia Bougherara, de l’INRA, et David Masclet, bientôt publié dans une revue internationale, et dans lequel nous cherchons à mettre en évidence un éventuel effet de contexte dans le cas de biens publics. L’idée de départ est extrêmement simple : comparer un contexte de création de bien public à un contexte de préservation du bien public, ce dans le cadre d’une expérience d’assez grande envergure.

Pour le contexte de préservation, supposons que toutes les ressources des individus soient d’ores et déjà placées dans un pot commun (le bien public) et que le maintien de ces ressources dans le pot commun a un coût d’opportunité privé pour chaque agent. En retirant une unité du pot commun, il renonce à ce qu’il retirait de cette unité du bien collectif, mais peut utiliser cette ressource pour une consommation privée. Bien évidemment, en faisant là, puisqu’il s’agit d’un bien public, il créée une externalité négative car il détruit aussi l’utilité retirée par les autres membres de son groupe par rapport à cette unité qui était placée dans le bien public.

Pour le contexte de création, c’est plus simple. Chaque individu est doté d’une certaine quantité de ressources, et chacun d’entre eux doit simplement décider du montant qu’il investit dans le pot commun, ce montant investi ayant un coût d’opportunité privé (la consommation privée que l’agent ne pourra effectuer), mais génère une utilité issue de la consommation du bien public, ainsi qu’une externalité positive, puisque les autres membres du groupe profitent également des ressources mises dans le pot commun. C’est le fameux jeu de VCM (Voluntary Contribution Mechanism) utilisé la première fois par Isaac et Walker en 1988.

Pour tout dire, il existait déjà un article de James Andreoni écrit sur le thème, en 1995 mettant en œuvre à peu près exactement le protocole expérimentale que je viens de décrire et comparant le contexte de création et le contexte de préservation. Il arrivait à un résultat toutefois surprenant : le niveau de coopération était plus élevé en moyenne dans le contexte de création du bien public que dans le contexte de préservation. Le montant investi dans le contexte où chaque sujet devait investir dans le pot commun inexistant au départ était plus important que le montant retiré du pot commun préexistant au départ. Comme le notait Andreoni, et autrement dit, les sujets préféraient faire le bien que d’éviter de faire le mal (il écrit exactement « it must be that people enjoy doing a good deed more than they enjoy not doing a bad deed »).

Dans l’article que nous avons écrit, nous avons testé la robustesse de ce résultat. Il faut dire qu’il nous semblait assez incroyable et nous avions quelques doutes sur sa solidité : comment les individus pouvaient-ils être plus disposés à détruire le bien public qu’à le créer ? Cela nous semblait plus naturel de penser que, une fois le bien public crée, une forme de biais de statu quo ou de biais de dotation serait mis en œuvre, et que les participants auraient plus de facilité à préserver le bien public qu’à le créer. En effet, c’est précisément ce que suggère le biais de statu quo mis en évidence par Thaler en 1980. Si on donne un bien quelconque aux individus, ceux-ci sont prêts à faire plus d’effort pour le conserver que si on leur demande de faire des efforts pour obtenir ce même bien.

Pour corser un peu le problème, et donner un caractère de plus grande généralité à notre étude, nous avons envisagé des jeux de bien public un peu spéciaux, dits avec seuil. Dans le contexte de création de bien public, cela signifie que si le niveau des contributions est en dessous d’une certaine valeur, le bien public n’est pas créé. Dans notre expérience, nous avons défini différents niveaux de seuil, et si le seuil était atteint, le bien public était créé à hauteur de la somme des contributions atteinte par les individus. Si par contre le seuil n’était pas atteint, les contributions étaient perdues pour les sujets. Cela signifie que si, par exemple, le seuil défini pour créer le bien public est de 60 unités, et que sur les quatre participants du groupe, l’un a investi la totalité de sa dotation en ressources (20 unités) et que les trois autres ont investi ensemble moins de quarante unités, alors le premier obtient un gain égal à zéro.

Dans le contexte de préservation, cela signifie que, au début de la période de jeu, la totalité des dotations des joueurs est placée dans le pot commun (soit 80 unités, puisque chacun des quatre joueurs dispose de 20 unités de droit de retrait), et ceux-ci peuvent exercer un droit de retrait d’au maximum vingt unités chacun. Chaque unité retirée par un joueur lui donne 1 point. Chaque unité restant dans le pot commun, pour peu que le seuil de préservation ne soit pas dépassé, donne 0.4 point à chaque participant, soit 1.6 point pour l’ensemble du groupe de 4 personnes. Par exemple, si le seuil pour lequel le bien public est préservé est de 60 unités, cela signifie que si, par exemple, deux participants sur le groupe de 4 décident de retirer chacun 20 unités et que les deux autres ne retirent rien du tout, le bien public est totalement détruit. Ceux qui ont retiré gagnent 20 points et ceux qui n’ont rien retiré gagnent zéro point.

L’intérêt d’introduire des seuils est double. D’abord, cela correspond plus à la réalité de la plupart des biens publics qui nous entourent, dans la mesure où la quantité de bien public créée par les efforts d’individus au sein d’une collectivité n’est sans doute pas de nature linéaire.Si la collectivité ne fait pas un montant minimum d’effort, le bien public n’est pas réalisé. Par ailleurs, cela modifie la nature des équilibres théoriques de contribution au bien public. Dans le jeu de contribution au bien public sans seuil, l’équilibre en stratégies dominantes est un équilibre de free riding, dans lequel les participants devraient contribuer zéro au bien (ou retirer la totalité de leurs droits). Dans les jeux de contribution au bien public avec seuil, on est en présence de jeux de coordination, dans lesquels les équilibres sont multiples : l’équilibre de free riding existe toujours, mais il existe également de nombreux équilibres de Nash dans lesquels la somme des contributions des joueurs est exactement égale au seuil de création défini (ou, dans le contexte de préservation, la somme des retraits à l’équilibre de Nash est égale au seuil de préservation). Quel équilibre sera au final sélectionné par les joueurs ?
L’équilibre de free riding ou un des équilibres permettant au bien public d’exister ? L’intérêt de l’économie expérimentale est précisément d’établir des résultats qui permettent de faire une idée de la situation qui sera finalement sélectionnée concrètement par le groupe d’individus.
Dans l’expérience que nous avons menée, et qui a eu recours à un peu moins de 400 participants, nous avons mis en œuvre les deux contextes (création vs préservation du bien public) et ce pour quatre niveaux de seuil de bien public (zéro, 28, 60 et 80). Les résultats sont nombreux mais, pour l’essentiel, et à notre grande surprise il faut bien le dire, il s’avère que le résultat d’Andreoni est robuste : les niveaux de coopération sont plus élevés dans le cas d’une création de bien public que dans le cas de la préservation de celui-ci. Le graphique ci-dessous résume brièvement le principal résultat. Plus le niveau de seuil pour le bien public est élevé, plus le niveau de coopération au sein du groupe (la hauteur des barres matérialisant le total des contributions au sein de chaque groupe en moyenne) est élevé, et ceci est vrai dans les deux contextes (création en bleu et préservation en rouge), bien que pour le niveau de seuil maximal (80), les niveaux de coopération soient plus faibles que pour le niveau de seuil immédiatement inférieur. Toutefois, assez nettement, l’écart relatif entre les niveaux de coopération dans les deux contextes est d’autant plus fort que le seuil matérialisant la création ou le maintien du bien public est élevé.

source : Bougherara, Denant-Boemont & Masclet, 2010.

Au-delà de ce résultat qui met en évidence la solidité des résultats expérimentaux concernant les comportements de contribution au bien public, un résultat intéressant et que je laisse à ta sagacité, lecteur, est le suivant. Il semble que, contrairement à ce que l’on observe pour les biens privés, il n’existe pas de de biais de statu quo pour les biens publics. Le fait que le bien public préexiste déjà ne garantit en rien que les individus vont avoir une tendance plus forte à le préserver que la tendance qu’ils ont à créer d’autres biens publics.

Etonnant, non ?