dimanche 19 décembre 2010

Leadership et coopération : une expérience naturelle

 NB : Peter Sellers essayant de donner l'exemple de la bonne humeur dans The Party, de Blake Edwards

Les frimas de décembre apportent en général deux calamités, en particulier pour l’universitaire que je suis, les intempéries (neige, verglas et autres réjouissances climatiques) et les surveillances d’examen.
Peut être ne devrai-je pas détruire les illusions de nos chères têtes blondes, brunes et autres couleurs de cheveux affichées par nos étudiant(e)s, mais, non, je ne vais pas faire mes surveillances d’examen d’un pas léger et serein, heureux d’accomplir mon devoir d’enseignant et dormant d’un sommeil sans tourments au sortir d’épreuves dont je sais qu’elles se sont passées en toute quiétude, ce afin que mes étudiants aient le maximum de chances de s’en sortir avec brio et puissent passer des vacances de Noël l’esprit tranquille.

[si la phrase ci-dessus te semble incompréhensible, lecteur, utilises la hache dont tu t’es certainement nanti pour massacrer un ou deux sapins de Noël afin de la couper, s’il te plait, là où bon te semblera. Par avance, merci]

Donc, en milieu de semaine dernière, je me rendis comme d’habitude à cette période à une surveillance d’examen. J’arrive alors à ma surveillance, en retard pour des raisons qu’il est inutile d’expliquer ici, et je constate que nous sommes deux surveillants pour une centaine d’étudiants, ce qui est conforme grosso modo à la norme. L’autre personne n’était pas enseignant-chercheur (en tout cas en activité, les universités utilisant parfois des extra retraités par nécessité, le nombre d’enseignants ne pouvant assurer leurs surveillances réglementaires n’étant pas négligeable), et était rémunérée pour cela. En ce qui me concerne, les surveillances font partie de mes obligations de service, et, comme nombre d’universitaires en France, ne sont pas rémunérées.

J’ai alors commencé à accomplir les tâches habituelles du début d’épreuve en ce genre de circonstances : contrôle des cartes étudiants, pointage des présents et vérification de l’effectif total dans chaque épreuve. Puis vint la période la plus difficile, celle de la surveillance « pure », dans laquelle le surveillant parcourt la salle d’examen, ou ne la parcourt pas, ou la parcourt de temps en temps (biffez les mentions inutiles selon votre expérience personnelle). En ce qui me concerne, j’ai quand même tendance à me déplacer fréquemment, mais pas en permanence et surtout, guidé par un souci d’équité, je fais en sorte de surveiller « sérieusement » pour limiter les risques de fraude.

L’autre surveillant était à ce moment là assis au fond de la salle et moi placé de l’autre côté de la salle. Je dépose les quelques pièces administratives obligatoires à remplir, puis me munit du paquet habituel de feuilles de brouilllons et autres copies et intercalaires d’examen que vont me demander, selon toute probabilité, les étudiants en train de composer. Puis, je me mets à parcourir la salle d’un pas décidé.
A ce moment là, le surveillant qui m’accompagne se lève, puis commence également à parcourir (mais avec un pas moins décidé que moi me semble-t-il) la salle d’examen.
A l’issue d’un ou deux tours de salle, je m’installe sur la chaire et m’assied. Je constate que mon collègue revient alors au fond de la salle et s’assied également.
Quelques instants passent, le temps de connecter mon ordinateur pour accéder à mes mails, puis, je saisis à nouveau mon paquet de copies, et me lève dans l’idée de faire à nouveau un parcours de l’amphithéâtre. Dix secondes plus tard, mon compagnon d’infortune se lève et fait à son tour un parcours alors que je continue le mien. Puis, une fois mon parcours accompli et quelques étudiants ayant satisfait leur besoin irrépressible de papier blanc et autre copie, je m’assieds à nouveau  dans la chaire. Mon collègue s’assoit alors également. Ayant remarqué ce petit manège, j’attends quelques instants pour être sûr qu’il ne s’agit pas d’une simple coïncidence, qu’il ne s’est pas simplement levé en même temps que moi avec quelques secondes d’intervalle, le hasard ayant fait que nous ayons calqué l’un sur l’autre notre cycle de surveillances. Je décide d’attendre un peu plus longtemps en position assise. Il reste coi, concentré dans la lecture de je ne sais quel magazine. Je le fixe alors et me lève à nouveau d’un air décidé. Cinq secondes plus tard, il se lève aussi et fait le même parcours que précédemment. Puis, encore une fois, je m’assieds et il s’assied également. Ce petit jeu s’est répété comme cela à au moins cinq reprises, avant que je ne sois pris par d’autres occupations relatives toujours à cette même surveillance.

A l’issue de l’épreuve, amusé par l’expérience que je venais de vivre (il n’en faut pas beaucoup pour agrémenter cet exercice ennuyeux, comme tu le  constates lecteur), j’ai essayé d’en discerner les fondements comportementaux, le résultat de ce petit jeu m’ayant semblé particulièrement net.

Comment décrire la situation ? Une surveillance d’examen est d’autant plus efficace (pour minimiser la fraude) et équitable que le niveau d’effort et de coopération des surveillants est important. Plus les surveillants parcourent la salle d’examen, plus les étudiants peuvent être concentrés sur leur travail et à même d’obtenir une copie ou autre quand ils en ont besoin. En fait, la situation est celle encore une fois du bien public. Chaque surveillant qui exerce un effort coûteux de surveillance en fait profiter les étudiants et l’ensemble des surveillants présents dans la salle, alors qu’il préférerait lire soit Ouest France soit Matthew Rabin, soit ses blogs d’économie préférés.

Dans cette situation, on retrouve les comportements habituels d’une situation de contribution au bien public : il y a des contributeurs inconditionnels, ceux qui vont parcourir la salle dans tous les sens pour dissuader la fraude ou subvenir efficacement aux demandes des étudiants. Il y a aussi les passagers clandestins, qui vont en faire le moins possible en s’asseyant pour lire leur journal et/ou manger leur sandwich pendant que les autres font le boulot, et lui, vous ne le ferez pas bouger d’un iota. Il y aussi ceux qui discutent et qui se regroupent entre free riders «  qui se ressemble s’assemble » dit le proverbe).
Puis il y a les contributeurs conditionnels, ceux qui attendent de voir ce que vous allez faire pour se décider.
En ce qui me concerne, selon mon humeur et mon niveau d’occupation, je suis contributeur inconditionnel ou conditionnel. Mais si l’autre décide de ne rien faire ou de faire très peu, j’estime qu’il ne m’est pas possible de faire pareil, où l’épreuve va tourner à la foire et à ce moment là, j’exerce un niveau d’effort important pour compenser le free riding de l’autre. Par ailleurs, si l’autre est très présent, je me relâche un peu jusqu’à ce que je constate qu’il se relâche (parfois, très rarement, cela n’arrive jamais) et à ce moment là, je prends alors le relais.

Dans ces circonstances, le rôle d’un « leader », c’est-à-dire d’une personne qui choisit son action afin de montrer ce qu’il pense qu’il est bon de faire peut être déterminant, comme je n’en ai eu une sorte de preuve lors de la surveillance évoquée ci-dessus.

Car enfin, pourquoi ce comportement de la part de ce surveillant ? Pensais-t-il que, comme j’étais enseignant-chercheur et lui simple surveillant, j’avais une sorte de contrôle ex post sur lui, le risque étant que je signale un effort insuffisant de surveillance ? Je ne sais pas trop et comme ce qui se passait était trop beau pour être vrai (c’était une sorte d’expérimentation naturelle), j’ai essayé de me souvenir ce que disait la littérature expérimentale sur le thème du leadership. Plus exactement, un leader est au départ simplement quelqu’un dont nous observons le comportement, cette observation nous aidant à former notre décision. 

Imaginons par exemple un dilemme du prisonnier séquentiel, un joueur jouant en premier et l ’autre en second. Le second observe donc l'action du premier, et on dira qu'il est le le follower, le premier joueur étant le leader.
Si le premier joueur coopère, le second joueur peut décider d’être strictement rationnel et de faire défection, ce qui lui rapporte le gain maximum. Par ailleurs, il peut aussi décider de coopérer et obtenir le gain Pareto-optimal. Mais l’argument de backward induction plaide pour montrer que l’équilibre du jeu est la défection successive des joueurs, comme dans la forme extensive du jeu donnée ci-dessous :

Cet effet du leadership a été abondamment étudié en économie expérimentale depuis une dizaine d’années, la réflexion théorique sur ce thème étant initiée par Hermalin en 1998.

Dans l’expérience menée par exemple par Guth et al., 2007, pour étudier l’influence du leadership sur les niveaux de coopération, le jeu choisi est un classique jeu de contribution au bien public. Un des traitements sert de repère (benchmark) et consiste en un jeu simultané de contribution au bien public (VCM : Voluntary Contribution Mechanism) dans des conditions standard (voir ici pour les nouveaux lecteurs ou les lecteurs ayant oublié). Dans un des autres traitements, un participant choisi au hasard (le leader) détermine son niveau de contribution au bien public en premier, ce qui est annoncé aux trois autres membres du groupe(les followers) avant que ceux-ci déterminent simultanément leur propre niveau de contribution (VCM with leadership). D’un point de vue théorique, le fait qu’un joueur annonce en premier sa contribution aboutit aux mêmes prédictions théoriques que dans le cas de contributions simultanées : la stratégie dominante est de choisir un niveau de contribution égal à zéro, on retombe sur le classique problème de comportement de passager clandestin. Ces auteurs mettent également un traitement qu’ils appellent « strong leadership » : le leader choisit sa contribution, annoncée aux trois followers, qui déterminent leur propre contribution, puis à l’issue de cela, le leader prend connaissance de ces niveaux de coopération et peut décider d’exclure un des followers pour la période suivante (chaque participant peut joueur jusqu’à 25 périodes de ce jeu). Dans ce cas, le joueur exclu gagne sa dotation et ne peut profiter de l’opportunité liée au bien public.

Par ailleurs, le leader est déterminé de deux manières : soit il est tiré au sort au début de la session, et reste leader pendant les 16 premières périodes du jeu répété de contributions (il y a 25 répétitions en tout), soit les 4 participants auront l’opportunité d’être leader pendant le même nombre de périodes (chacun 4 fois donc), la séquence des leaders successifs étant annoncée au début du jeu.
En fait, c’est encore un peu plus subtil comme design (c’est pour cela que j’ai toujours aimé ce que faisait Werner Güth, c’est à la fois rigoureux et subtil d’un point de vue expérimental), les 16 premières périodes du jeu déterminent le leader de manière exogène, et les périodes 17 à 24 donnent l’opportunité aux participants de chaque groupe de choisir de manière endogène leur leader. En fait, lors de la période 16 et de la période 20, les participants ont la possibilité de voter, soit pour dire qu’ils veulent garder leur leader (ou pas) soit pour dire qui ils souhaitent avoir comme leader parmi les 4 membres du groupe. Le graphique suivant donne les résultats sur la contribution moyenne des participants dans les traitements benchmark (control), leader and strong leader :

source : Guth et al., 2007, JPE

Les résultats sont à la fois attendus et intriguants : le niveau de contribution moyen est d’autant plus élevé que le pouvoir du leader est fort : s’il peut annoncer sa contribution et exclure (punir) un des membres du groupe, la contribution moyenne est deux fois plus forte que dans le cas du jeu simultané sans leader, et représente environ 80% de la dotation totale accordée à chaque participant (25 jetons). Pour le traitement leadership « simple » (sans pouvoir d’exclusion), le niveau de coopération moyen est un peu plus élevé, mais l’effet de leadership a tendance à s’émousser avec le temps pour converger vers le niveau de contribution moyen sans leadership. Le pouvoir d’exclusion fait clairement la différence en termes de niveau de coopération !

Ils ne constatent pas d’effet significatif concernant la détermination exogène du leader : le fait d’avoir toujours le même leader ou qu’il y ait rotation n’influence pas les niveaux de coopération. Le résultat le plus important est qu’ils mesurent une corrélation significative entre la contribution du leader et la contribution des followers, ce qui va à l’encontre des prédictions théoriques les plus simples (défection mutuelle).
Bien évidemment, ils constatent également que la probabilité d’être exclu pour un follower est d’autant plus importante que sa contribution est faible par rapport à la moyenne des contributions de son groupe. En moyenne, le leader a exclu un follower dans 20% des situations, l’exclusion étant d’autant plus forte que la déviation de la contribution du follower par rapport à la moyenne était importante (seules les déviations négatives -ma contribution est plus faible que la moyenne- augmentaient la probabilité d’exclusion).

En bref, le leadership augmente le niveau de coopération de manière essentielle, ce qui reste une forme d’énigme d’un point de vue théorique. Dans une autre étude expérimentale récente, David Levy, Kail Padgitt, Sandra Peart, Daniel Houser et Erte Xiao  (2010) montrent que cet effet positif du leadership n’est réel que si le leader est humain et pas un automate (ce n’est pas un blague, cela est paru dans le Journal of Economic Behaviour and Organization).

Moi qui pensais pouvoir envoyer ma copie conforme robotisée d’ici quelques années surveiller à ma place ni vu ni connu. Blood and Guts, je suis fait comme un rat ! A moins que l’autre surveillant ne puisse pas deviner qu’il s’agit de ma copie…

PS : l'image qui illustre ce billet n'a en fait rien à voir avec le propos, mais la tentation de rendre un hommage mérité à Blake Edwars, parti rejoindre Peter Sellers au paradis des génies la semaine dernière, était trop forte.

dimanche 28 novembre 2010

Les notes à l'école primaire : utile ou pas ?



Vingt personnalités, Michel Rocard, Daniel Pennac, Richard Descoings, Marcel Rufo et des chercheurs comme Axel Kahn ou Eric Maurin, un collègue, parmi d’autres, se sont récemment joints à un appel lancé en septembre par l’AFEV qui vise à supprimer l’utilisation des notes au sein de l’école élémentaire. Les arguments principaux sont bien connus, les notes décourageraient les élèves, mineraient leur confiance en eux et la conclusion aussi, la suppression de la note permettant de faire une école de la coopération plutôt qu’une école de la compétition (voir ici).

En tant qu’enseignant, mon avis est effectivement partagé, l’évaluation personnelle doit faire partie de l’itinéraire d’un écolier ou d’un étudiant, car il lui faut bien des éléments lui permettant de se situer dans l’absolu et éventuellement relativement à l’ensemble de ces camarades. Par ailleurs, cette évaluation ne se réduit pas forcément à une note, mais peut prendre de multiples formes. Je comprends aussi les arguments d’Eric Maurin, qui donne une lecture sans doute plus sociologique du problème, basée sur une évidence factuelle qui est incontestable. En tant qu’économiste, je me dis que les incitations doivent avoir un effet, et toute la question est donc de savoir si les incitations tirées de la notation sont plus efficaces ou moins efficaces pour la réussite des élèves que l’absence de système d’incitation ou qu’un autre système d’incitation.
Par ailleurs, soit dit en passant, la suppression des notes est également un enjeu de politiques publiques, dans la mesure où l’efficacité des politiques d’éducation –quand elle est mesurée – est souvent jaugée au travers de la variation des performances des élèves au regard de ces fameuses notes. Bien évidemment, cette approche de l’évaluation par les notes ne saurait être que très partielle, et il a été affirmé depuis bien longtemps que l’efficacité des réformes de l’éducation devait être jugée au regard de multiples critères autres que les performances en termes de notes, par exemple au travers de l’impact sur l’état général et les comportements des enfants et des adolescents (santé, tendance à l’addiction, etc.). Je cite notamment Bowles, Gintis et Obsborne en 2001 dans l’American Economic Review à propos du caractère imparfait des notes (test scores) en matière d’évaluation des performances à l’école et la nécessité d’aller au-delà :

“(Economists) need broader indicators of school success, including measures based on the contribution of schooling to behavioral and personality traits »
Il semble par ailleurs que la relation entre les notes obtenues dans la scolarité et les revenus perçus ultérieurement par les personnes devenues actives soit relativement ténue.
D’un point de vue comportemental, la question qui est posée est celle de l’impact de l’information que peuvent obtenir les individus sur leur performance actuelle sur leurs niveaux d’efforts à venir et leurs performances futures. Ou, dit autrement, quel est l’effet incitatif de ces fameuses notes sur le niveau d’effort des élèves dans le travail ?

Cette question de l’impact du feedback est au cœur des travaux portant sur l’économie des ressources humaines (je ne sais pas traduire mieux « personal economics », mais peut être dit on simplement l’économie du personnel), qui n’est pas ou peu ma spécialité. La littérature empirique, en particulier expérimentale, a été importante ces dernières années sur cette question.
J’ai déjà évoqué dans ce billet les problèmes qu’il pouvait y avoir à essayer de mettre en place un système d’incitations dans un contexte d’éducation, l’effet pervers étant que les motivations extrinsèques se substituent aux motivations intrinsèques et que l’effet net total pouvait au final être négatif. Mutatis mutandis, l’effet de motivation liée aux notes pourrait évincer le goût du travail personnel et de l’effort.

Notamment, la question de l’efficacité des notes (du feedback en général) peut être abordée à travers deux aspects : le fait que le niveau de ma note me donne une information absolue sur ma performance, et secundo, le niveau relatif de ma note par rapport à celle des autres élèves, si cette information est publique. Si elle est publique, elle peut prendre de multiples formes, ma note pouvant être comparée à une moyenne assortie éventuellement d’un écart-type communiquée par la scolarité, voir aller jusqu’à une connaissance parfaite de la distribution des notes.
D’un point de vue économique, le feedback sur la performance passée peut affecter ma performance courante soit directement, selon que  les performances passée et présente sont des substituts ou des compléments dans la fonction d’utilité des agents, ou indirectement en révélant à l’individu une information sur le rendement de son effet (effet de signal).

Cette polémique tombe à pic, puisque la littérature sur cette question est en plein boom dans le domaine expérimental. Récemment, Azmat et Irriberi,2010 ont publié les résultats de deux études qui portent en particulier sur l’impact du feedback d’une part sur les performances, mais aussi sur le bien être des évalués. Ils se focalisent notamment sur l’impact du feeback relatif sur les performances des individus. Ils observent un effet significatif des scores relatifs sur la performance finale des étudiants, et donc sur leur niveau de motivation, à l'occasion d'une expérience naturelle. Ils confirment ces résultats dans ce papier, mais mettent également en évidence les effets négatifs sur le bien être des élèves en dessous de la moyenne d'un système d'évaluation relatif par rapport à un système d'évaluation absolu.

Toutefois, l’étude la plus intéressante car la plus proche de la question posée est celle de Todd Cherry &  Larry Ellis , dans un article publié en 2005 dans l’International Review of Economics Education. Ces auteurs comparent l’impact d’un système d’évaluation absolu (mon grade ou ma note sur une échelle de 1 à 10 par exemple) par rapport à un système d’évaluation relatif . Dans le système d’évaluation relatif, mon score (ma note finale) est déterminée relativement à la performance des autres élèves. Par exemple, si je réponds à plus de questions que 90% de ma classe, j’obtiens un A. Si je réponds mieux que 75% de ma classe, j’obtiens un B, etc.  Ce système met précisément en avant une forte compétition des élèves.

C’est précisément l’efficacité de l’un ou l’autre schéma d’évaluation sur la performance finale des élèves qu’ils cherchent à mesurer. Comme ils ont 4 classes dans un cours d’introduction à la macroéconomie, ils mettent en place pour deux de ces groupes une évaluation relative (rank order grading) et pour les deux autres l’évaluation absolue (criterion-referenced grading). Le graphique ci-dessous donne la distribution des scores finalement obtenus à l’examen en fonction des deux schémas d’incitation par les notes :
source : Cherry & Ellis, 2005

Comme il est difficile d’en tirer une conclusion très nette, ces auteurs font une analyse économétrique du score en mettant comme variable explicative le traitement « rank order grading » traité comme une variable « dummy ». Les résultats sont assez explicites : le score moyen des étudiants est meilleur dans le schéma qui donne une évaluation relative à l’étudiant plutôt qu’une évaluation absolue. Ils restent prudents toutefois et insistent sur le fait que ce genre de système de notation n’est pas forcément adéquat si l’objectif est de promouvoir la coopération des élèves, le système d’évaluation absolu étant, dans ces conditions, sans doute préférable.

Pour conclure ce billet, ce n’est pas tant la notation en elle-même qui semble poser problème mais la manière dont cette notation est utilisée par les enseignants et les étudiants pour se comparer aux autres. C’est cela qui peut avoir des effets pervers. Toutefois, les effets de la compétition ne sont pas toujours mauvais (je suis désolé de rappeler une telle évidence, mais beaucoup s’emportent dans de grands débats sur les effets pervers de la compétition en oubliant quelques uns de ses mérites incontestables). Pour finir, j’emprunte à Télérama de cette semaine cette conclusion que j'ai trouvée magnifique. Un professeur de français déclare à un élève effondré par sa note de 7/20 :

« Vous n’êtes pas ce 7/20. Ce 7/20, c’est ce que valait votre travail la semaine dernière entre 8 heures et midi. Faites bien la différence. »

En voilà un qui a tout compris à la pédagogie. Raison de plus pour ne pas casser trop vite le thermomètre et réfléchir de manière pondérée aux conséquences potentielles de la suppression des notes.

dimanche 31 octobre 2010

Facebook, le prix de l'essence et le rôle de l'approbation



Je lis les journaux régionaux extrêmement rarement. J’ai toujours plus ou moins détesté cela, sans doute en réaction à cette période de mon enfance où, lors des pluvieuses journées de vacances passées dans mon Morvan natal, ma seule ressource pour lutter contre l’ennui était la lecture des strips de Superman repris par le journal La Montagne…
De manière plus générale, j’ai toujours vaguement contesté cette manière de voir l’actualité par le petit bout de la lorgnette, où on s’intéresse plus au concours de boules de l’amicale de Petaouchnouk-sur-Sèvre qu’au conflit du Darfour, et ces journaux dans lequel l’intérêt majeur d’un grand nombre de lecteurs consiste à consulter les annonces nécrologiques au cas où son voisin y figurerait.

[Je suis un peu de mauvaise humeur, perturbé sans doute par le passage à l’heure d’hiver]

Toutefois, il y a peu, ayant à ma disposition une des bibles du Breton moyen (en dehors de the Holy Bible bien sûr), en l’occurrence le journal Ouest France, je suis tombé sur cette petite histoire présente dans l’édition du 27 octobre dernier que je m’en vais vous narrer.

Il était une fois, dans une petite ville d’Ille-et-Vilaine, un gentil responsable de station service, prénommé Eric. Celui-ci était en butte, comme tous ses semblables, aux difficultés récurrentes d’approvisionnement en carburant dues aux dépôts bloqués par quelques centaines de syndicalistes – une dizaine selon la police- opposés à la réforme des retraites.

Etant d’une nature généreuse, il se dit qu’il serait souhaitable d’informer tous ces pauvres automobilistes errant comme des âmes en peine à la recherche du Graal contenant, non pas le sang du Christ, mais du bon et lourd gasoil. Il a alors l’idée de les informer en temps réel ( ?) via la page Facebook de la grande surface dont il tient la station essence. Las, loin de s’arrêter là, constatant que les prix de la concurrence s’envolent dans cette période de pénurie, les marges passant d’après lui de environ 1% à 6% pour certains, il  décide courageusement de baisser les prix des carburants qu’il propose et, cerise sur le gâteau, d’accroitre sa capacité d’accueil en embauchant des extras pour limiter la durée des files d’attente.
Résultat ? des dizaines de messages d’encouragements et de remerciements pour cet accueil amélioré et ces prix généreux sur la page Facebook de la grande surface. Eric, ému jusqu’aux larmes (bon, là je me fais un peu un film), décide alors d’organiser un challenge : si avant le mardi 26 octobre 8h, cent internautes ont cliqué « j’aime » sur la fameuse page Facebook, le prix du carburant baisse. Mais Eric va plus loin, si en plus de cela, 800 internautes se déclarent fans de la dite page, le gas oil est vendu à prix coûtant. Apothéose : si la page compte plus de 1000 fans, tous les carburants sont à prix coûtant.

En fait, à l’issue du délai, 109 personnes ont déclaré avoir « aimé » cela, et du coup Eric, bouleversé par une émotion que l’on ne  peut que déclarer légitime a décidé de fournir tous les carburants à prix coûtant toute la journée, allant bien au-delà de son engagement initial. Conséquence prévisible : rupture d’approvisionnement dès 17h45 le même jour !

Lecteur, tu te doutes que ce qui m’intéresse là-dedans est de donner un peu de sens économique à ce paradoxe : un gérant qui s’engage à vendre à prix coûtant moyennant le fait que des internautes anonymes lui ont signifié en nombre suffisant qu’ils le trouvaient sympathique ! Notes bien que nombre d’internautes peuvent l’avoir déclaré sympathique, que cela ne leur coûte pas grand-chose et qu’en plus, ils peuvent en fait le trouver réellement antipathique, mais que tout ce qui compte, c’est que in fine, un nombre suffisant d’individus aient déclaré trouver son action sympathique.

Ce que je veux dire par là, c’est que le pouvoir de rétorsion par les internautes en cas de non respect de la parole du gérant est relativement limité. Ce ne sont pas 100 internautes, qui, du reste, ne sont pas forcément des clients récurrents de la station, qui vont pouvoir punir le gérant en boycottant sa station par exemple. Par ailleurs, on peut penser qu’un objectif de construction d’une réputation par le gérant auprès de ses clients est sans doute réel, mais n’est pas forcément la motivation principale de son comportement.

La question est donc de savoir si ce type de récompense (« j’aime » sur Facebook) ou de sanction («je n’aime pas »)  symbolique a une influence sur les comportements des individus. Cette idée est vieille comme le monde ou presque, l’un de ceux qui l’a avancé de manière sérieuse étant par exemple le sociologue Emile Durkheim.

Ces sanctions / récompenses sont dites immatérielles (on parle aussi de feedback positif ou négatif dans la littérature expérimentale) dans le sens où elles n’affectent pas le bien être matériel de l’agent sanctionné ou récompensé mais uniquement son état émotionnel. Les exemples sont nombreux, tant les expressions possibles de l’approbation et de la désapprobation verbalement et facialement sont nombreuses : insultes, ostracisme social (cf. le doux procédé de l’excommunication), l’humiliation (etc.) mais aussi les applaudissements, les encouragement, sourires et autres manifestations d’enthousiasme individuel ou collectif à l’égard du comportement d’une personne.

Initialement, je pensais dénombrer par dizaines les études expérimentales consacrées à cette question pourtant simple, et force est de constater qu’il n’est pas si évident de trouver des articles qui traitent directement de cette question dans le domaine de l’économie expérimentale ou de  l’économie comportementale dans ce sens précis. Nombre d’études existent sur l’impact des sanctions/ récompense matérielles, également sur la question de l’impact de sanctions symboliques sur les contributions (notamment un papier connu d’un de mes collègues et co-auteurs, David Masclet dans Masclet et al., 2003). Toutefois, le feedback proposé  - un certain niveau de désapprobation non matériel par exemple- est toujours ex post, une fois les décisions effectives des individus rendues publiques pour l’ensemble du groupe.

La seule étude à ma connaissance sur ce sujet est celle de Lopez-Perez & Vorsatz en 2010 dans le Journal of Economic Psychology, la question posée par ces auteurs étant selon moi précisément la principale énigme issue du comportement de mon sympathique gérant de station d’essence. En quoi la présence d’une approbation ou d’une désapprobation non matérielle peut-elle influencer les choix ?

Pour étudier cela, les auteurs, après avoir construit un modèle d’aversion à la désapprobation, comparent trois traitements fondés sur un jeu de dilemme du prisonnier joué une seule fois (« one shot game »), ce afin de tester le modèle théorique construit au départ. Dans ce jeu, faut-il le rappeler inventé par Dresher et Flood en 1950, et contextualisé par Tucker en 1952, deux joueurs doivent décider de coopérer ou de ne pas coopérer (ces termes ne sont pas utilisés dans les instructions du jeu), le choix étant simultané. Si les deux coopèrent, ils gagnent chacun 180 points, et si les deux ne coopèrent pas, ils gagnent chacun 100 points. Si l’un des deux coopère et l’autre non, celui qui coopère gagne 80 et celui qui ne coopère pas gagne 260 points. L’équilibre de Nash consiste bien sûr en une défection mutuelle.

Le premier traitement expérimental est un traitement de contrôle, les participants sont appariés par deux de manière aléatoire et anonyme et jouent le dilemme du prisonnier. Dans le second traitement, fait en particulier pour tester leur modèle d’aversion à la désapprobation, les sujets doivent dire, ce avant de choisir leur stratégie, ce qu’ils pensent que leur adversaire va penser de leur choix dans toutes les configurations possibles du jeu, en clair s’il désapprouve ou approuve chaque stratégie possible. Par exemple, si on suppose que l’autre coopère, le fait que je coopère moi-même devrait être massivement approuvé par mon partenaire. Cette information sera communiquée à l’adversaire, chaque joueur ayant accès à ce jugement hypothétique des actions de l’autre par lui-même.

Dans le dernier traitement, les joueurs ont la possibilité, une fois leur décision faite, d’envoyer un message coûteux à leur partenaire (« feedback »), ce message disant que le choix fait par l’autre était soit bon, soit mauvais, soit ni bon ni mauvais. Le traitement qui m’intéresse le plus est évidemment le second traitement, fondé sur l’espérance d’être approuvé ou désapprouvé par le partenaire.

Les résultats brièvement résumés sont les suivants : le taux de coopération est plus élevé dans le traitement feedback (ce qui est dans la lignée des études expérimentales existantes sur l’impact des sanctions non matérielles sur la coopération) que dans le traitement de contrôle. Le traitement « expectations » - anticipations sur ce que mon adversaire va penser de mon action – est intermédiaire, c’est-à-dire que le taux de coopération est un peu meilleur que dans le traitement de contrôle, bien que la différence ne soit pas statistiquement significative (sur le graphique ci-dessous, le taux de participants ayant choisi "coopérer" en fonction de traitements, en bleu le traitement de contrôle, en orange le traitement "expectations" et en jaune le traitement feedback).

Source : Lopez-Perez and Vorsatz, 2010

Ainsi, seuls certains joueurs sont averses à la désapprobation, mais clairement ce n'est pas l'écrasante majorité des participants.

Au final, les automobilistes de la grande surface ont eu de la chance de tomber sur un gérant qui, foncièrement, n’est certainement pas altruiste, mais simplement sensible au regard de l’autre, motivé par un geste d’approbation de ses pairs, ce qui, il faut l’avouer est le cas de nombre d’entre nous.

dimanche 17 octobre 2010

Menace de pénurie d'essence ? Pas de panique (pétrolière) !

NB : groupe d'automobilistes désespérés demandant gentiment l'aumône pétrolière)


La situation de grève des salariés dans la plupart des grandes raffineries pétrolières, cette grève se traduisant par un blocus des sorties de carburants raffinés, augure de la possibilité de pénurie d’essence pour la plupart des automobilistes dont je suis, les stations étant graduellement dans l’impossibilité de renouveler leur stocks.

Comme l’écrivait Dante dans l’Enfer :

« Ah, qu’elle est lancinante l’angoisse de l’automobiliste en manque de carburant, en quête du graal diesel ou sans plomb, et prêt à en découdre avec l’homo cegetis simplex, qui, dès les premiers frimats, et sous le fallacieux prétexte qu’il aime la marche à pied, ne trouve rien de mieux que de défiler occasionnellement, accompagné de milliers de semblables (des dizaines selon la préfecture de police) et qui, pour se remettre de ses efforts diaboliques, dort sur les dépôts de carburant, mais que d’un œil, prêt à sauter sur le moindre briseur de grève… »

[Si quelqu’un arrive à compter le nombre de virgules de la phrase précédente, je lui envoie un carambar en PCV. Surtout j’espère que personne ne croit sérieusement que Dante a écrit cela, il s’agit en fait de Victor Hugo dans les Misérables.]

Le truc, c’est que, jour après jour, les médias n’arrêtent pas de nous marteler le message, à savoir que le risque de pénurie de carburant est réel, bien que le gouvernement répète qu’il n’y a pas lieu de paniquer, et que c’est précisément une  panique qui déclencherait la pénurie.

Bon, pour le moment, les choses ont l’air de se passer gentiment, la plupart des stations n’ont pas déclaré forfait et il ne semble pas y avoir de ruée chez les distributeurs. Toutefois, puisque j’ai l’occasion d’utiliser mon véhicule tous les jours, je dois confesser que je regarde avec un brin d’anxiété la situation dans les stations où je m’approvisionne régulièrement, attendant les messages « plus d’essence » ou jaugeant (sans jeu de mot) le nombre d’automobilistes remplissant leur réservoir, une file d’attente nourrie donnant le signal d’une panique en train de se développer. Dès lors, mon imagination sans doute beaucoup trop fertile envisage la société s’écroulant et se retrouvant dans une lutte à mort pour l’obtention d’un jerrycan d’essence, comme dans l’univers post-apocalyptique de Mad Max.

Ce genre de situation, qui se développe chaque fois qu’une paralysie des transports routiers de marchandises menace, s’applique aussi bien aux carburants qu’aux denrées alimentaires, et nous avons tous en tête la grève totale de 1993 durant laquelle nos (con)citoyens accumulèrent kilos de pâtes, de sucre et autres articles permettant de survivre en cas d’attaque nucléaire totale.

Ces phénomènes de paniques potentielles liées à un risque de défaut d’approvisionnement sur des biens de première nécessité me font toujours furieusement penser aux phénomènes de panique bancaire, phénomène brillamment décrit dans le livre de Kindleberger en 2000 sur l'histoire des crises financières et modélisé théoriquement notamment par Diamond & Dybvig en 1983. Ces paniques sont un exemple typique de prophéties auto-réalisatrices, puisque c’est précisément parce qu’un agent anticipe la panique qu’il va la déclencher en retirant son épargne (on verra là dessus avec profit la description de la révolution, avec son brio habituel, par le poète Eric Cantona)….


Traditionnellement, le phénomène de panique bancaire est modélisé comme un jeu de coordination dans lequel deux équilibres sont possibles, l’un où tout le monde panique et retire ses fonds d’une banque donnée (donc la logique premier arrivé premier servi s’applique, et tous les épargnants ne pourront être servis) et l’autre dans lequel personne ne panique (donc personne ne retire ses fonds ou les retire à la dernière période du jeu si l’horizon est fini). En clair, c’est intéressant, mais c’est un peu une réponse de Normand : « p’tet ben qu’oui y a panique, mais p’têt bien qu’non »…

L’économie expérimentale est alors d’une grande utilité dans ces situations où la théorie donne des prédictions multiples, en ce qu’elle permet de discriminer potentiellement les stratégies empiriquement adoptées par les joueurs et d’essayer de mieux comprendre leur rationalité.
Plusieurs études expérimentales ont été faites sur ces phénomènes, l’une de Madiès (2006), publiée dans le Journal of Business,  et l’autre de Schotter et Yorulmazer en 2008, dans le Journal of Financial Intermediation.

Dans l’étude de Madiès, une des expériences réalisées est la suivante. Des groupes de 10 participants doivent décider simultanément à 30 reprises (rounds) de la période de retrait de leur épargne. S’ils retirent tous en période 2, chacun gagne 45 ECUs. S’ils retirent tous en période 1, seuls 3 pourront être servis, la banque devenant illiquide au-delà de 3. Ces trois gagnent 40 ECUs et les 7 autres qui n’ont pas retiré en période 1 gagnent 0, quel que soit le moment de leur retrait. Dans ce jeu, il y a un équilibre de Nash Pareto-dominant, celui dans lequel les 10 participants retirent tous en période 2,  le bien être étant alors est de 450 ECUs. Il y a un autre équilibre de Nash risque-dominant qui implique un défaut de coordination, i.e. une situation dans laquelle les 10 participants retirent en période 1, et où par conséquent le gain est de 3*40=120 ECUs, puisque seuls 3 participants seront servis.

Les résultats sont partiellement « rassurants », dans le sens où les paniques totales (c’est-à-dire les situations dans lesquelles le groupe de 10 épargnants retirent leurs fonds en période 1) sont assez rares, et arrivent uniquement dans un peu moins de 5% des cas. Par contre, les paniques partielles (des situations où au moins un épargnant retire ses fonds en période 1) sont assez fréquentes, et sont observées dans 70% des cas en moyenne. Toutefois, l’occurrence de ces paniques partielles dépend beaucoup manifestement de la dynamique du groupe sur le « long » terme : si un groupe rencontre peu de cas de paniques au début de la session, lors des premiers rounds, le trend est plutôt décroissant au cours du temps, les paniques se raréfiant. C’est l’inverse pour les groupes qui partent d’emblée avec des taux de panique plutôt élevés, le phénomène se renforçant a contrario au cours du temps. Donc le défaut de coordination a tendance à empirer quand il est initialement assez important et au contraire à disparaitre quand il est initialement plutôt limité.

L’expérience de Schotter & Yorulmazer est un peu plus complexe, mais correspond également mieux à l’intuition, puisque, dans certains des traitements, les décisions des participants ne sont pas simultanées mais séquentielles : j’observe mon voisin retirer ou pas en période 1, donc je décide de retirer ou pas en période 2, etc. Elle correspond à l’idée que l’on peut se faire spontanément d’un problème potentiel de panique pétrolière : je suis d’autant plus tenter d’aller faire le plein si j’observe qu’il y a une file d’attente importante plutôt que si j’observe qu’il n’y a personne. Ces auteurs explorent donc l’impact de l’information qui peut être donnée aux épargnant sur le niveau de sévérité des paniques bancaires. Un point important est qu’ils envisagent également le rôle de la rémunération moyenne des dépôts - le niveau du taux d’intérêt- dans l’apparition et l’intensité des paniques bancaires.

Le résultat également rassurant est que le fait d’observer le retrait des autres épargnants a tendance en moyenne à limiter l’apparition de paniques bancaires en début de jeu, par rapport à un jeu simultané comme dans Madiès. Par ailleurs, plus la rémunération est élevée, et plus l’occurrence de paniques en début de jeu est limitée.

L’ensemble de ces expériences met en évidence un autre résultat intéressant : la suspension de la possibilité de retirer par les autorités publiques permet d’arrêter les paniques une fois qu’elles commencent à se déclencher, mais leur efficacité dans la prévention de ces paniques est assez limitée. Par ailleurs, des mécanismes d’assurance, même s’ils impliquent un problème d’aléa moral de la part des épargnants, limitent la sévérité des paniques bancaires et jouent un rôle préventif réel.

Ce qui m’inquiète pour revenir aux paniques pétrolières, c’est que le système d’assurance me semble assez limité (les réserves stratégiques de l’Etat en carburant sont assez limitées en nombre de jours d’utilisation, et c’est la seule « assurance » que je voit). Reste alors la suspension de l’approvisionnement en carburant. Ce qui veut peut être dire que je dois me préparer à prendre quelques jours de repos forcé chez moi…

samedi 2 octobre 2010

Discipline budgétaire des Etats, réforme du Pacte de Stabilité et efficacité des sanctions



Lundi dernier, les ministres des finances de l’Union Européenne à 27 ont discuté des réformes nécessaires au Pacte de Stabilité. Un des points d’achoppement lors de cette réunion a apparemment été la manière dont les sanctions financières devaient être déterminées pour les Etats membres qui laisseraient filer leur déficit public et leur dette publique en raison de politiques économiques trop laxistes. Je cite un article récent du Point publié ici pour que tout soit clair :

« Consacrée à la question de l'automaticité des sanctions et du critère de réduction de dette, cette réunion devait permettre de rapprocher les positions de l'Allemagne, qui défend une ligne dure, de celle de la majorité des Etats, dont la France, désireux de se préserver des marges de manoeuvre.
Certains s'interrogent sur le caractère trop automatique des sanctions et les critères qui doivent être retenus pour juger de l'évolution de la dette. D'autres sont réticents au principe même de sanctions financières prélevées sur les fonds européens
»

En particulier, Madame La Ministre de l’Economie et des Finances, Christine Lagarde a déclaré  la chose suivante : "La France a toujours été favorable à une gouvernance économique solide et crédible. De là à prévoir un caractère totalement automatique, un pouvoir qui serait totalement dans les mains des experts, non ». A contrario, le ministre allemand des finances, Wolfgang Schäuble, ainsi que le président de la BCE Jean Claude Trichet se sont prononcés en faveur d’un durcissement en la matière, en particulier le ministre allemand ayant milité publiquement pour des sanctions "quasi-automatiques". Plus précisément, M. Schäuble a insisté en outre sur le caractère "automatique" des sanctions à mettre en place en cas de dette ou de déficit public exagéré, la levée des sanctions devant obéir à "une majorité qualifiée inversée", c'est-à-dire que les sanctions s'appliquent sauf si une majorité d'Etat y sont opposés. J’avoue que, dans un premier temps, la position de ce monsieur m’a paru nettement plus sensée que la position française, étant persuadé que la possibilité de voter de manière discretionnaire pour des sanctions en limiterait l’efficacité voire même annihilerait totalement la simple possibilité qu’elles puissent exister.

Donc, pour résumer, certains Etats membres, dont la France, défendent des niveaux de sanctions déterminés de manière discrétionnaire par un vote ponctuel des Etats, tandis que d’autres Etats, non des moindres puisque l’Allemagne en fait partie, argumentent en faveur de sanctions automatiques ou quasi-automatiques qui ne s’appuieraient pas sur un vote politique des Etats. Nous sommes un peu dans le débat politiques réglementaires vs politiques discretionnaires (« rules rather than discretion », Kydland & Prescott 1977), l’efficacité finale du dispositif de sanction étant probablement lié à sa crédibilité. Toutefois, ce n’est pas du tout de cet aspect là dont je veux discuter aujourd’hui, mais plutôt, de manière plus basique, de l’efficacité de sanctions endogènes ou de sanctions exogènes (« automatiques ») sur la rigueur budgétaire des Etats.

Ce genre de situation dans lequel des Etats négocient les dispositifs institutionnels qui vont les gouverner dans le futur se prête à des supputations de type expérimental. Particulièrement ici, où ce qui est en jeu est l’efficacité de dispositifs particuliers de sanctions consécutives à une politique budgétaire trop laxiste de la part d’un Etat membre. En l’occurrence, il serait intéressant que les représentants des Etats de l’UE qui discutent actuellement de ces points, aient la chance d’avoir un petit exposé sur les principaux résultats de la littérature expérimentale sur l’efficacité des sanctions sur la coopération des agents. Je ne vais pas le faire maintenant, car cela m’entrainerait beaucoup trop loin, mais juste donner quelques éléments d’information sur la question suivante : est-il préférable du point de vue de l’efficacité d’avoir des sanctions automatiques qui ne seraient donc pas choisies de manière endogène par les Etats Membres, ou au contraire, vaut-il mieux que l’attribution de sanctions à un Etat membre s’appuie sur une procédure politique de vote discrétionnaire de la part de l’ensemble des Etats membres, ce en fonction des cas se présentant ?
Je vais faire une hypothèse dont je comprends qu’elle paraisse discutable (et qui me pose problème aussi), mais qui est particulièrement adaptée : le fait que chaque Etat membre respecte les règles du pacte de Stabilité s’apparente à un bien public profitant à l’ensemble des Etats membres, même s’il peut s’avérer individuellement coûteux pour un Etat membre donné. En clair, chaque Etat aurait intérêt à pouvoir jouer les passagers clandestins et à ne pas respecter les règles (faire du déficit budgétaire quand il en a besoin, ce de manière importante, au-delà des 3%) mais collectivement, l’effet serait catastrophique, l’absence de discipline budgétaire généralisée conduisant à des problèmes économiques majeurs pour la zone Euro. Exactement comme le fait qu’un Etat qui s’est engagé au niveau international à ne pas négocier avec d’éventuels terroristes le fasse éventuellement en douce, incitant les terroristes à étendre leur activité, pour reprendre l’exemple canonique de Kydland et Prescott. 

Tyran et Feld ont conduit en 2006 une expérience dont les enseignements sont, le cas échéant, intéressants me semble-t-il. Leur expérience, publiée dans le Scandinavian Journal of Economics,  s’appuie sur un problème de jeu de contribution à un bien public assorti de sanctions. Le design de l’expérience est toutefois assez différent de ce que l’on fait en général sur cette question. En effet, un grand nombre d’études expérimentales sur l’efficacité des sanctions dans les dilemmes sociaux, et j’y ai moi-même contribué, s’appuient sur des sanctions endogènes déterminées au niveau individuel par les participants qui observent le niveau de contribution au bien public des autres participants. L’article canonique sur ce genre de jeu en deux étapes, une de contribution et la suivante de sanctions, est l’article de Fehr & Gaechter, 2000.
Dans leur étude, la situation est renversée. Les participants choisissent d’abord les modalités de sanctions puis contribuent ensuite. Cette situation expérimentale correspond peu ou prou à la situation actuelle de l’Union Européenne, occupée à décider actuellement des modalités de sanctions futures qui s’appliqueraient aux Etat membres manquant de discipline budgétaire. Il est donc particulièrement intéressant d’en souligner les résultats.
Les sanctions pour contributions insuffisantes peuvent être, dans certains traitements, exogènes (c'est-à-dire déterminées par l’expérimentateur) et, dans d’autres, sont choisies de manière endogène par un vote des participants appartenant à un groupe donné. Dans ce cas, le jeu se joue en deux étapes : les participants votent d’abord pour le type de sanction qu’ils s’auto-attribuent (pas de sanction, sanction modérée ou sanction sévère) puis, une fois le dispositif de sanction collective fixé, joue un jeu de contribution au bien public classique (chaque participant d’un groupe de 3 dispose de 20 jetons et doit décider d’affecter cette dotation entre un compte privé, qui lui rapporte 1 point par jeton, et un compte public, qui lui rapporte 0.5 point par jeton, mais qui rapporte également 0.5 point aux deux autres membres de l’équipe). Une fois les contributions choisies par chaque participant, les sanctions sont appliquées. Si la contribution au bien public est égale à 20 (la totalité de la dotation), il n’y a pas de sanction. Sinon, la sanction s’applique et prend deux formes selon les traitements, une sanction modérée et une sanction sévère. La sanction modérée consiste à retirer 4 points des gains du participants n’ayant pas contribué totalement au bien public, et la sanction sévère consiste à lui retirer quatorze points. Par exemple, un participant qui contribue 0 au bien public recevra, dans le cas du traitement « sanction sévère », et si on suppose que les deux autres participants appartenant à son groupe contribuent totalement, un gain de 20 +0.5(40)-14 = 26 points.
D’un point de vue théorique, l’équilibre d’un tel jeu est l’équilibre de free riding (tous les participants contribuent zéro au bien public) dans le cas où il n’y a pas de sanction et dans le cas où la sanction est modérée. Dans le cas où la sanction est sévère, l’équilibre de Nash est a contrario un équilibre dans lequel les trois participants contribuent l’intégralité de leur dotation au bien public.
Les principaux résultats sont les suivants. Le graphique ci-dessous donne les niveaux moyens de contribution en pourcents (100% correspondant à une contribution de 20 jetons, ce qui l’optimum de Pareto si tous contribuent ce niveau), ce pour chaque niveau de sanction :

source : Tyran and Feld, 2006

Comme on peut s’y attendre, le niveau de contribution s’accroit avec le niveau de sanction. Mais en fait, si les sanctions sont imposées de manière exogène (sans vote préalable par les sujets), seule la sanction sévère est efficace pour que le bien public soit produit au maximum. La sanction modérée est quant à elle relativement inefficace, le niveau de contribution au bien public n’étant pas significativement différent du niveau issu d’une situation dans laquelle il n’y a aucune sanction.
Les résultats sont tout à fait différents dans le cas de sanctions endogènes, comme le montre le graphique suivant :

source : Tyran and Feld, 2006

Le niveau de contribution s’élève cette fois significativement même dans le cas de sanctions modérées, égal à environ 65% du maximum possible, contre seulement environ 20% dans le cas d’absence de sanctions. Dans le cas de sanctions sévères, il n’a pas de différence fondamentale entre les contributions selon que ce niveau de sanction soit voté par les participants ou fixé extérieurement par l’expérimentateur.
Je ne dirai pas cela tous les jours, mais force est de constater, eu égard à ces quelques résultats, que je suis obligé de donner raison à Christine Lagarde (arrghhh…) : il vaut mieux des sanctions déterminées de manière politique par les Etats membres que des sanctions automatiques, en particulier si le niveau des sanctions est relativement modéré (on parle en effet de 0.2% du PIB). Si les sanctions sont très fortes, ce que semble être l'option privilégiée par l'Allemagne, alors la procédure de détermination des sanctions s'avère peu importante. Que l'on ait un vote discrétionnaire pour décider de mettre en oeuvre des sanctions une fois le comportement observé, ou que l'on ait une sanction automatique dès qu'un Etat membre franchit la ligne rouge, les sanctions s'avéreront efficaces pour inciter les Etats a contribuer plus au bien public.
Toutefois, je dois souligner que, comme les sanctions sont coûteuses, la littérature expérimentale souligne un effet détrimental des sanctions : les gains des joueurs peuvent être in fine plus faibles s'il se sanctionnent trop fortement, et cela peut nuire à l'efficacité économique. Par ailleurs, j'ai déjà expliqué que ce genre de mécanismes peut provoquer un effet d'éviction des motivations intrinsèques des agents, les motivations extrinsèques (la peur du bâton) se substituant aux motivations intrinsèques (la disposition naturelles des agents à coopérer).
Le mécanisme de sanctions est donc à manipuler avec précaution et il est plus que nécessaire d'en peser les avantages et les inconvénients.

PS : l'image qui illustre ce billet est extraite de Gotlib, Rubrique à Brac, tome 4 "slowburn gag", avec toute mon admiration et mon respect.

dimanche 12 septembre 2010

Les jeux en classe, Vernon Smith et moi

NB : Vernon Smith incrédule observant l'équilibre de marché lors d'un jeu en classe

Chaque année, nous faisons ici, dans cette bonne vieille faculté de sciences économiques, un stage de rentrée durant lequel les étudiants de première année d’économie et d’AES (Administration Economique et Sociale) sont initiés aux méthodes et enjeux de l’apprentissage de l’économie. Il y a maintenant trois ans, nous avons proposé que l’ensemble des étudiants passent par notre laboratoire d’économie expérimentale, le LABEX, pour entrer dans l’enseignement d’économie de manière douce et ludique, par la participation à un jeu de marché informatisé. Ce n’est pas rien, car en quinze jours, environ 600 étudiants participent à ces sessions, la durée de la séance étant de deux heures. Toutefois, tous ceux qui ont un peu enseigné savent à quel point c’est une véritable défi d’exposer les principaux rudiments de microéconomie à un étudiant débutant. Du coup, il y a deux catégories d’enseignants. Ceux qui pensent qu’il faut le faire sérieusement, et c’est parfois un peu difficile, car il faut sans arrêt jongler entre l’abstraction et l’empirique, en donnant des exemples concrets très régulièrement. C’est un chemin difficile, et il n’est pas sûr que les étudiants finissent convaincus et éclairés. Il y a une autre voie, plus facile, ceux qui ironisent sur le caractère irréaliste des hypothèses afférentes au fonctionnement d’un marché de concurrence pure et parfaite et qui concluent que la probabilité d’arriver à l’équilibre sur ce marché est tributaire de l’intervention d’une puissance supérieure qui n’est pas de ce monde.
Je caricature un peu pour faire un brin de provoc, car on peut être aussi convaincu que cette abstraction du marché de concurrence parfaite est une pure fumisterie. Au moment où j’ai commencé mes études d’économie, il y a vingt ans environ, c’est plutôt la seconde philosophie qui était adoptée.

[On m’a soufflé à l’oreille que certains enseignants universitaires perpétraient ce genre de discours, mais bon, les rumeurs…]

Je pense réellement que les jeux en classe, quels qu’ils soient, permettent de sortir de cette impasse pédagogique (je ne veux pas me placer sur le plan scientifique ou idéologique, ce billet parle d’un problème simple qui est celui de l’apprentissage ludique mais néammoins rigoureux par des étudiants). L’énorme intérêt de mon point de vue des jeux en classe est que l’on inverse la manière dont on fait traditionnellement des cours, en particulier en économie. On expose d’abord les grands principes puis on donne des applications. Ce n’est pas un hasard si les enseignements sont structurés en cours magistraux et en travaux dirigés, séances durant lesquelles on applique la théorie exposée en cours. Avec un apprentissage de l’économie par les jeux, on commence au contraire de manière ludique et empirique en mettant les étudiants dans une situation précise dans laquelle chacun doit prendre des décisions, puis on analyse ex post les résultats (ce qui est un vrai challenge, car l’enseignant ne sait pas réellement ce qu’il va in fine sortir du jeu) et enfin l’enseignant essaye de  démêler l’écheveau des faits produits au sein du jeu avec des considérations théoriques. En bref, la procédure est exactement contraire à la manière traditionnelle d’enseigner, en tout cas en économie. Mieux vaut citer directement Vernon Smith à ce propos :

“In the Autumn semester, 1955, I taught Principles of Economics, and found it a challenge to convey basic microeconomic theory to students. Why/how could any market approximate a competitive equilibrium? I resolved that on the first day of class the following semester, I would try running a market experiment that would give the students an opportunity to experience an actual market, and me the opportunity to observe one in which I knew, but they did not know what were the alleged driving conditions of supply and demand in that market”.

En fait, Smith a confié qu’il était lui même sceptique sur les chances qu’il avait initialement d’obtenir un équilibre de marché concurrentiel, et il fut interloqué par les résultats, ce choc fondant les principes de sa révolution scientifique personnelle.

Le jeu de marché réalisé en première année de licence est donc directement inspiré du jeu de double enchère imaginé par Vernon Smith dans les années 50. Bien que ce jeu soit extrêmement connu, je m’en vais lecteur, t’en donner la recette au cas où tu voudrais agrémenter tes longues soirées entre amis d’un jeu d’un genre un peu spécial (ce jeu peut parfaitement être fait sur papier, mais les temps de réalisation sont alors beaucoup plus longs). Au début de la séance, nous expliquons aux vingt participants (en réalité, ils sont le plus souvent une trentaine, mais certains jouent à deux par machine, ce qui ne pose en réalité aucun problème) qu’ils vont être partagés en dix vendeurs et dix acheteurs ayant à acheter ou vendre un même bien sur un marché. Pour ce faire, le marché va ouvrir pendant une certaine période (disons en moyenne 2 minutes), et pendant ce temps, ils pourront acheter ou vendre 0, 1 ou 2 biens. Les propositions de prix de chaque agent sont affichées en temps réel sur l’écran de chaque participant et les transactions effectivement réalisées affichées (le prix auquel chaque unité a été achetée et vendue s’affiche dans une fenêtre spécifique). Par exemple, pour un vendeur, l’interface informatique ressemble à cela (application développée grâce à ZTree, un logiciel gratuit développé initialement par Urs Fischbacher de l’Université de Zürich) :



Tous les acheteurs et les vendeurs obtiennent une information privée, à savoir les valeurs de rachat expérimentales (qui correspondent en fait à la disposition à payer nette ou surplus des biens achetés, puisque l'expérimentateur paye à l'acheteur la différence entre la valeur de rachat et le prix acquitté par l'acheteur pour une unité donnée) et les coûts de production. Tous les acheteurs sont différents les uns des autres, de même que les vendeurs. Par exemple, les valeurs pour les acheteurs sont dans notre application :


La force du jeu, c’est que les acheteurs et les vendeurs ne connaissent pas les caractéristiques des autres participants. La seule information commune à tous est celle des prix proposés à l’achat par les acheteurs et des prix proposés à la vente par les vendeurs. Dès lors, sur le papier, il parait hautement improbable que ces participants hétérogènes arrivent rapidement à se coordonner sur l’équilibre de marché théorique. La prédiction théorique concernant l’équilibre de marché est facile à faire dans la mesure où c’est l’expérimentateur (l’enseignant) qui fixe de manière exogène les préférences des acheteurs et les technologies de production des vendeurs. L’équilibre qui peut être prévu est caractérisé par exemple, dans la première phase du jeu joué par ces étudiants, par des quantités échangées de 18 unités pour un prix d’équilibre compris entre 5 et 6 $ expérimentaux :


Le jeu implique au bout de 7 périodes de marché, un choc sur la demande (cette nouvelle situation de l’économie prévalant pendant 6 périodes), puis finalement un choc sur l’offre.
Les résultats sont spectaculaires, comme ceux de Smith, et ceux chaque fois que ce jeu est réalisé, même si de petites variations curieuses peuvent se produire d’un groupe à l’autre. L’intervalle des prix d’équilibre théorique est donné en rouge sur le graphique suivant et le prix moyen observé en bleu, ce pour un groupe particulier d’étudiants :


Le prix d’équilibre s’ajuste chaque fois au choc que l’enseignant a généré sur le marché. Il faut signaler que ce jeu se fait dans des conditions particulières, sans incitation monétaire d’aucune sorte et, bien que l’on dise aux étudiants de ne pas parler et discuter entre eux, dans ce qui peut parfois ressembler de l’extérieur à une grande foire. En dépit de cela, à l’issue du jeu, quant on leur présente les résultats, la plupart des étudiants sont je crois émerveillés par le niveau de coordination qu’ils ont réussi à avoir sans se concerter spécialement ou sans être particulièrement à la recherche du profit maximal.
Tous les jeux en classe ne donnent pas des résultats de ce type, il suffit parfois d'avoir des variations infinitésimales dans les règles du jeu pour obtenir des résultats radicalement différents et qui remettent en question la théorie. Un point est important pour tous ceux qui voudraient faire des jeux en classe : les résultats obtenus sont en général assez proches de ceux que l'on obtient dans les sessions d'économie expérimentale, sauf dans le cas des jeux tournant autour de la décision individuelle en situation de risque. Dans cette catégorie, il est important de ne pas rester trop hypothétique dans les conséquences des choix des étudiants lors des jeux. Personnellement, je les paie en bonbons en fonction des points obtenus durant le jeu !
En tout cas, cette approche pédagogique a complétement bouleversé la manière dont j'enseignais et m'a donné une motivation nouvelle. Je crois que, dans l'ensemble, les étudiants sont extrêmement satisfaits de cette méthode.
Moralité : faites des jeux en classe, ca eut payé, ca paye et ca payera...

samedi 28 août 2010

Leonard de Vinci ou l'anti-Adam Smith

(NB :  Leonardo da Vinci – à droite sur la photo -au cours d’une joute mémorable avec Adam Smith- à gauche – dans laquelle ce dernier tentait de lui expliquer le principe de la division du travail)

Séjournant en Toscane récemment, je me suis intéressé, comme beaucoup de personnes dans la même situation, à l’exceptionnelle histoire de Florence en particulier durant la Renaissance et, plus spécifiquement à l’artiste qui symbolise sans doute le plus cette période, le rayonnement intellectuel de Florence et le concept d’humanisme, à savoir Leonardo di ser Piero da Vinci (Vinci est le petit village de Toscane d’où vient le grand artiste, au moins ce billet te l’apprendra si tu ne le sais pas, lecteur).

Tout a été dit, et sans doute beaucoup de bêtises aussi, sur ce génie protéiforme qu’était Léonard, et je ne vais pas te faire une biographie, lecteur, tel n’est pas mon propos, d’autres hagiographes étant sans doute beaucoup plus compétents que moi. Mais le bonhomme m’a toujours fasciné depuis mon enfance, ne serait que pour son exceptionnel talent de dessinateur, étant un peu sensible à cet art, mais surtout parce qu’il a réuni deux caractéristiques qui me semblent quasi-impossibles à réunir, celle d’être un artiste génial mais également de se révéler un homme de science complet. Tout cela est parfaitement connu, mais ne t’impatientes pas, lecteur, j’en arrive au propos central de ce billet.

Leonardo avait quasiment toutes les qualités et tous les talents, mais s’il y en sans doute une qui lui faisait sans doute défaut, c’est la capacité à achever les œuvres qu’il commençait, ce dans à peu près tous les domaines qu’il  abordait. Pour l’anecdote, Michel Ange, jaloux à mort de son ainé, avait d’ailleurs raillé publiquement son incapacité à achever la monumentale statue équestre de Francesco Forza entreprise en 1492 et jamais achevée, alors que lui avait réussi à mener à terme son monumental David.  D’ailleurs, si l’artiste avait une renommée incontestable, il avait également, au moins à Florence, la réputation de ne jamais achever ce qu’il entreprenait.

En fait, cette incapacité à achever n’était pas le produit d’une quelconque paresse – l’homme était un bourreau de travail - ou d’un dilettantisme exacerbé, mais parce qu’il lui semblait devoir  tout réaliser lui-même, au-delà des connaissances techniques de son temps, ce dans chacune des étapes d’un projet qu’il mettait en œuvre. Devait-il réaliser une fresque, il s’intéressait autant à la composition et aux études préliminaires de celle-ci qu’au support, par exemple un mur. Si le mur lui semblait déficient, il étudiait longuement les moyens de résoudre les problèmes, s’intéressait alors à différents procédés chimiques ou physiques qui le détournaient longuement de l’objet principal. Maints projets entrepris furent comme cela inachevés. Leonardo reste encore aujourd’hui la figure absolue du génie bien sûr - peintre, sculpteur, musicien, architecte, ingénieur, scénographe, anatomiste, (al)chimiste, n’en jetez plus ! surtout quand on sait qu’il fût autodidacte  –. Mais, et c’est le point essentiel de mon billet, s’il reste le symbole parfait de l’humanisme, il représente un réel paradoxe dans la mesure où l’on rêve encore de ce qu’il aurait pu achever s’il avait accepté de se spécialiser, en particulier dans le domaine purement artistique (où son apport à la peinture est je crois pour le moins incontestable). En effet, cette difficulté à se spécialiser dans certaines tâches à réduit de manière drastique ce qu’il en reste aujourd’hui de son oeuvre.

Tout l'esprit et l’œuvre de Leonardo s’oppose en effet radicalement au principe de division du travail et de spécialisation avancé initialement par Adam Smith, puis par Ricardo, ce principe étant avec l’accroissement des opportunités d’échange une des sources du développement du capitalisme et de notre richesse matérielle.

Friedrich Engels avait d’ailleurs noté cela également, dans la Dialectique de la Nature, parlant plus généralement des grands génies de la renaissance :
"The heroes of that time were not yet in thrall to the division of labour, the restricting effects of which, with its production of one-sidedness, we so often notice in their successors."

Cette question est une question que nous nous sommes tous posés un jour ou l’autre. Nous avons en général quelques talents ou intérêts en dehors du domaine professionnel où, la plupart du temps, nous exerçons. En dehors de tout aspect ludique, avons-nous intérêt à exercer ces talents à des fins utilitaires ou au contraire à exercer totalement l’avantage  comparatif que nous avons dans un domaine ? La notion de coût d’opportunité est là pour nous montrer que, en fait, il est souhaitable que nous exercions dans le domaine où nous avons le plus grand avantage relatif. Donc Leonardo aurait du s’en tenir à la peinture et utiliser les plus grands ingénieurs ou architectes de son temps en déléguant pour mener à bien les projets qu’il mettait en œuvre dans les domaines où son avantage comparatif était moins grand qu’en peinture. Tout étudiant de premier cycle d’économie connait et comprend cela.
Le cas de Leonardo est bien évidemment à mettre à part, car on parle sans doute du génie des génies, mais  qu’en est-il des gens plus « normaux » comme vous et moi ? Pouvons-nous rester longtemps dans « l’erreur »- magnifique dans le cas de Leonardo- de ne pas comprendre les avantages de la spécialisation dans un cadre d’échange ?

Toute la question est donc de savoir si les agents économiques découvrent spontanément les vertus de la spécialisation et de l’échange tels qu’ils furent avancés par Adam Smith et David Ricardo. C’est à peu de choses près l’objet de l’expérience réalisée par S. Crockett, V. Smith et Bart Wilson, dont les résultats ont été publiés dans l’Economic Journal en 2009. Je vais essayer de résumer les principaux résultats et de donner l’intuition de cette expérience qui est en fait assez complexe.

Dans leur expérience, les participants ont des préférences exogènes sur les possibilités de consommation (il ya deux biens de consommation) et des caractéristiques en termes de technologie de production (ils peuvent produire les deux biens de consommation). Il y a deux types de sujets, les sujets appartenant à un type ayant des préférences et des technologies de production différentes de celles de l’autre groupe, tous les sujets appartenant au même village virtuel. Les sujets ne connaissant pas la distribution des types ou les préférences/technologies des autres sujets. Par contre s’ils connaissent leurs préférences, leur dotation en temps, ils ne connaissent pas toujours leurs technologie de production (cela dépend des traitements). Basiquement, les participants font au cours de chaque période de jeu, d’abord un choix de production puis un choix de consommation.  Ils peuvent rester en autarcie, ou essayer de réaliser des échanges avec d’autres participants, sachant que un des intérêts de cette expérience est précisément qu’ils doivent découvrir eux-mêmes qu’il est possible d’échanger et qu’ils ont dès lors intérêt à se spécialiser. En d’autres termes, le cadre institutionnel mis en œuvre dans le laboratoire est très souple et ne les pousse pas vers l’échange et la spécialisation. Pourquoi ne pas informer les sujets qu’il est possible d’échanger ? Ils le rappellent en citant Adam Smith lui- même : « As it is the power of exchanging which gives occasion to the division of labour, so the extent of this division will always be in proportion to the extent of that power.”. 
En clair, les processus d’échange et de division du travail, les deux processus se renforçant, doivent être découverts et validés par les agents au cours d’un processus d’apprentissage dans lequel chacun trouve son intérêt. Pour mettre en œuvre ce processus de découverte, au cours de l’expérience, les sujets peuvent donc communiquer de manière totalement libre, ce afin que chacun cherchant son intérêt propre conduise in fine la collectivité à son maximum d’efficacité (le gain obtenu avec échange et spécialisation est le triple du gain que peut obtenir un participant en autarcie).
Un exemple du type de communication réalisé par les sujets, juste pour le plaisir :
source : Crockett, Smith and Wilson, 2009, p.1183

Les traitements expérimentaux consistent essentiellement à faire varier le nombre de participants au sein d’un groupe et le niveau d’information sur sa propre technologie de production.
Comme toujours les résultats amènent des questions : dans tous les traitements réalisés, il y au moins quelques participants qui restent toujours en autarcie et qui ne découvrent donc jamais (ou refusent de découvrir) les vertus de l’échange et de la spécialisation. Il y a également des participants qui découvrent immédiatement leur avantage comparatif et le mettent en œuvre. Par ailleurs, quand les participants échangent, notamment dans les  groupes nombreux, les échanges ne sont pas multilatéraux mais plutôt bilatéraux.
Mais revenons à notre propos sur la spécialisation. Sachant que l’optimum de Pareto correspond à 100% des participants qui se consacrent à la production d’un des deux biens dans lequel chacun a un avantage comparatif (qu’ils doivent éventuellement découvrir s’ils ne connaissent pas leur technologie de production), le nombre de spécialistes (les sujets qui affectent au moins 90% de leur dotation en temps à l’activité comportant un avantage comparatif) croit en général dans le temps, au cours des périodes de répétition (il y en a quarante) mais varie beaucoup selon les traitements. En moyenne, il est de 50%, mais tend à être significativement plus faible quand la taille du groupe est importante et que les technologies de production sont initialement inconnues que quand la taille du groupe est faible et les technologies primairement connues par les participants.

La morale de tout cela, c'est qu'il n'est nullement évident de participer à l'échange et de se spécialiser, même si cela paraît conforme à son intérêt et que les individus le savent pertinemment. Comme le notent ultimement Crockett et al, 2009, leur expérience prouve que l'échange est un phénomène avant tout social et qui a d'autant plus de chances de se produire et de se consolider que l'on est dans des relations bilatérales. Donc, si Leonardo ne s'est pas spécialisé, c'est peut être qu'il n'accordait sa confiance que de manière parcimonieuse à ses contemporains, et qu'il avait sans doute une vision assez négative de la nature humaine...

vendredi 16 juillet 2010

La fin de "Lost" et le dilemme du volontaire


J’ai lu récemment un reportage dans le Nouvel Obs qui présentait des philosophes et autres penseurs académiques qui utilisaient les séries télévisées (Lost, les soprano, etc.) pour étayer leur argumentaire scientifique ou leurs présentations pédagogiques (ou encore ici pour illustrer mon propos). Je tiens à dire, cher éditeur du Nouvel Obs, que j’étais un peu déçu de ne pas avoir été mentionné, moi qui ennuie mes lecteurs avec des films improbables et autres séries télévisées plus ou moins brillantes pour illustrer mes propos économiques. Comme le disait Calimero, penseur italien bien connu dans les années 70-80, « c’est vraiment trop injuste.. »
Bah, je ne serai reconnu qu’après ma disparition (la plus tardive possible j’espère) et mon apport sera enfin estimé à sa juste valeur, au sein de la blogosphère économique équivalent sans nulle doute à l’œuvre de Pascal Obispo au sein de la pop mondiale.
[Bon, en même temps,  mon espoir est modeste…]

L’ultime saison de Lost vient d’être diffusée sur une chaine bien connue et un des ultimes épisodes m’a inspiré ce billet. Lors d’une scène cruciale, Jacob, personnage mystérieux qui est chargé de la protection de l’ile, déclare à Sawyer, Hurley, Kate  et Jack, qu’il doit trouver un volontaire pour prendre son relai, sa capacité à protéger l’ile s’achevant d’ici peu. Il leur explique que, dans le cas où aucun volontaire parmi eux ne se désignerait, le mal déferlerait sur le monde (je simplifie un peu mais je n’ai pas envie de barber le lecteur qui s’intéresse peut être à "Lost" autant que je m’intéresse à « Plus belle la vie »). Jack, comme frappé de révélation depuis quelque temps, se propose comme volontaire presque immédiatement, mettant ainsi fin au dilemme qui se pose au petit groupe des survivants réunis par Jacob.
On se dit que cette andouille de Jacob aurait pu proposer ce choix un peu plus tôt dans la série, alors que la plupart des protagonistes sont morts. En effet,  faisant cette  proposition à un moment où il ne reste grosso modo que quatre personnages, il a moins de chances d’obtenir l’accord d’un volontaire qu’au début de la série ou même simplement de cette dernière saison, les volontaires potentiels étant beaucoup plus nombreux.

Mettons nous dans la situation. Imagines toi, lecteur, au cours d'une ballade le long de la Seine lors des sessions de Paris Plage. Au sein d’une foule dense, tu réalises soudain qu’un homme est tombé à l’eau et qu’il est train de se noyer. Il s'appelle Marcel, vient de Franche Comté et rend visite à sa belle-mère...

[Cela n'a strictement aucun intérêt mais c'est pour provoquer un suspense totalement artificiel et donner un peu de chair à mon propos afin que toi lecteur, tu sois suffisamment accroché pour aller jusqu'à la fin de ce long billet].

Toutes les personnes présentes l’ont entendu crier à l’aide. Manifestement, d’après ce que tu as pu en voir, c’est un costaud, probablement autour d’1m90 et 100 kgs au bas mot.  Il y a donc un risque à tenter de l’assister : comme il semble pris de panique, il peut très bien t'entrainer avec lui en se débattant.  Vas-tu prendre le risque de te jeter à l’eau pour le sauver ou vas-tu attendre qu’une personne présente prenne cette décision à ta place ? Après tout, tu pourrais penser que, étant très nombreux, il y a forcément une personne qui se décidera avant toi et réussira sans doute à sauver l’homme en question.

C’est ce phénomène qui est décrit dans le jeu du "dilemme du volontaire" (volunteer's dilemma), présenté par Diekmann en 1986. On parle de dilemme du volontaire dans la mesure où on décrit une situation dans laquelle les gens préfèrent que quelqu’un d’autre qu’eux-mêmes soit volontaire pour faire quelque chose, mais préfèrent quand même être volontaire dans le cas où ils peuvent être sûrs que  personne ne l’est. Le lecteur qui voudrait plus de détails peut se reporter utilement à l’un sinon mon ouvrage culte en matière d’enseignement de la microéconomie, et que j’utilise régulièrement dans ce blog, Markets, games and strategic behavior, de Charles A. Holt.

[J'allume d'ailleurs des cierges pour Charlie à notre dame de Paimpont chaque dimanche que Dieu fait]

D’un point de vue plus général, y a-t-il plus de chances de trouver un volontaire au sein d’un groupe  pour faire quelque chose de coûteux individuellement quand le nombre des membres du groupe est élevé ou faible ? L’intuition pousserait à répondre que, plus le nombre de personnes est élevé, plus la chance d’avoir au moins un volontaire qui se désigne est grande.

Cette intuition est confirmée par une analyse théorique simple. Pour expliciter un peu mieux le problème, supposons une foule immense constituée de deux personnes et faisons l’hypothèse que, si la personne est sauvée, chaque personne appartenant à cette foule gagne V. Tout le monde souhaite ardemment que l’individu en détresse soit sauvé, et le sauver est donc une sorte de bien public. Si je suis le volontaire, il m’en coutera C (C peut très bien représenter un coût espéré). Si la personne n’est pas sauvée, chaque individu « gagne » L. Pour qu’il n’y ait pas d’équilibre de passager clandestin dans ce jeu (c’est-à-dire une situation dans laquelle personne ne sauve l’individu, ce qui nous ferait retomber sur un problème très classique), supposons par ailleurs que V-C soit plus grand que L, ce qui signifie que même si je supporte le coût de sauvetage, ma situation est meilleure en ayant sauvé que dans la situation où personne n’a joué les sauveteurs.

Compte tenu de ces hypothèses, deux équilibres (de Nash) asymétriques sont possibles, l’un dans lequel je suis volontaire et l’autre ne l’est pas, et l’autre dans lequel je ne suis pas volontaire et l’autre l’est. Les situations symétriques dans lesquelles il n’y a aucun volontaire et où tout le monde est volontaire ne sont pas des équilibres du jeu.

Par ailleurs, comme dans tous les jeux de coordination, il existe un équilibre symétrique en stratégies mixtes, dans lequel chaque joueur a une probabilité p d’être volontaire et une probabilité (1-p) de ne pas l’être. Supposons qu’il y ait n joueurs. En tant que joueur, pour déterminer la probabilité avec laquelle je vais accepter d’être volontaire, je dois rendre équivalent le gain que j’aurais à être volontaire au gain espéré que j’aurai à ne pas l’être. On peut montrer assez facilement que la probabilité pour chaque joueur de ne pas être volontaire est :

La probabilité d’être individuellement volontaire de manière intuitive, décroit quand C augmente, croit quand (V-L) augmente et décroit quand n, la taille du groupe augmente.
Par conséquent, la probabilité dans un groupe de n joueurs qu’il y ait aucun volontaire est  (1-p)^n, soit si on utilise l'équation ci-dessus :


La probabilité qu’il n’y ait aucun volontaire parmi les n joueurs croit donc avec la taille du groupe (quand n tend vers l’infini, cette probabilité converge vers la valeur du ratio entre C et V-L). D'un point de vue théorique, plus la taille du groupe est importante, plus la probabilité qu'il n'y ait aucun volontaire augmente, même si, à partir d'un certain seuil de taille, elle augmente de moins en moins vite.

L’évidence expérimentale est assez intriguante sur un tel jeu : la probabilité d’être individuellement volontaire telle qu’on l’observe semble bien décroitre avec n, comme le prédit l’équilibre de Nash, (première équation) mais, contrairement au modèle théorique, la probabilité qu’il n’y ait aucun volontaire ne s’accroit pas avec n (ce que dit la seconde équation).

Franzen a par exemple réalisé en 1995 une série d’expériences dans lesquelles chaque participant doit décider une seule fois d’être volontaire ou non pour réaliser une certaine tâche profitable à tous. La taille du groupe varie selon les expériences, les autres paramètres du jeu restant identiques (principalement V, C et L ; la valeur de V-L est de 100$ et la  valeur de C de 50$). L’un de ses principaux résultats est que le taux de volontariat (ratio entre le nombre de personnes qui se déclarent volontaires et le nombre de personnes présentes dans le groupe) décroit au fur et à mesure que la taille du groupe augmente. Par exemple, pour des groupes de deux personnes, ce taux est de 65% mais pour des groupes de 50 personnes, il n’est que de 20%. Ceci est conforme avec l’idée que la probabilité pour un individu d’être volontaire décroit avec n.

Par contre, quand la taille du groupe est de n = 2, la fréquence de l’évènement « il n’y a aucun volontaire » est d’environ 12%. Quand n = 50, cette fréquence est proche de zéro. Il y a donc empiriquement toujours un volontaire quand la taille du groupe est suffisamment grande. Au-delà d’une taille d’environ 10 personnes, il y a toujours quelqu’un qui se sacrifie pour le bien être commun (alors que la probabilité qu’il n’y ait aucun volontaire devrait converger vers 50$/100$ soit ½). Quand n = 4, comme à la fin de Lost, la probabilité qu’il n’y aucun volontaire pour protéger l’ile est d’environ 7% selon les résultats de l’expérience de Franzen. C'est faible mais significativement plus grand que zéro.

Bref, Jacob aurait du proposer la chose au début de la saison 1 quand le nombre de rescapés sur l’ile était très grand. Mais il faut reconnaître que personne n’aurait rien compris et surtout que cela n’aurait eu aucun intérêt narratif, car les scénaristes n’auraient pu nous tenir en haleine pendant les six saisons qu’ils ont utilisées pour faire disparaître une partie des rescapés de l’ile.
La moralité (expérimentale) à tirer de cette histoire est qu’il vaut mieux avoir à désigner un sacrifié dans une grande foule que dans un petit groupe, vous avez plus de chance de pouvoir vous défiler.

Sur cette grande leçon de philosophie économique et d'héroïsme quotidien, pleine d'un cynisme que je n'accepte moi-même que difficilement, je pense qu’il est grand temps pour moi de partir en vacances pour reposer mes neurones fatigués et te dire, lecteur, à très bientôt pour de nouvelles aventures...