mercredi 23 février 2011

Des conséquences économiques de la téléportation sur les coûts de transport

Voilà très longtemps que je n’ai pas fait un billet sur les dimensions économiques que l’on peut relever dans les œuvres cinématographiques, parfois présentes de manière explicite, mais le plus souvent de manière totalement inconsciente dans l'esprit des scénaristes, seul mon esprit tordu ayant sans doute l'idée de les mettre en lumière...
[Certains lecteurs pensent alors fortement que c'est surtout du au fait qu'il n'y a que moi que cela intéresse ! Mais alors, quel paradoxe, car, lecteur, si tu en es arrivé à ce point, c'est que tu me lis et donc que tu es intéressé !]

J’ai revu récemment un des chefs d’œuvre du cinéma fantastique,  "la mouche",, dans la version réalisée par David Cronenberg avec Jeff Goldblum, remake d'un classique des années 50 tout aussi bon, et un certain nombre de considérations économiques évoquées dans le film m’ont amusées. C'est l'objet de ce billet.

L’histoire est assez simple à résumer en quelques mots : un inventeur génial, physicien de son état, met au point un système permettant de téléporter d’abord de la matière inerte, puis, butant sur le problème de la téléportation des êtres vivants, trouve la solution, l’expérimente sur lui-même, ce qui causera sa fin. Au début du film, le scientifique dialogue avec la journaliste scientifique incarnée par Geena Davis et lui déclare la chose suivante pour la persuader d’écrire un livre qui relate sa découverte :

« Ce sera un livre sur l’invention qui a mis fin à tous les concepts sur les transports, les limites du temps et de l’espace ».
C’est là où j’ai bisqué.
En fait, cette idée renvoie au bon sens que nous avons tous et qui consiste à considérer que le problème du transport de biens ou de personnes est avant tout un problème de distance. Si la distance était abolie, au moyen d’un dispositif comme la téléportation, alors plus de problème de transport et un coût du transport nul ou quasi insignifiant.
Cela sonnerait-il le glas d’une discipline qui m’est chère, l’économie des transports, réduite à figurer au panthéon de l’histoire de la pensée, dans les oubliettes poussiéreuses réservées aux idées qui n’ont plus aucun intérêt, à l’instar par exemple de la théorie de la valeur marxiste ou de l’écrasante majorité des ouvrages de Bernard Henry-Levy ?

Précisément, rien n’est moins faux si on regarde la manière dont le problème du transport, notamment de personnes, est abordée dans la théorie économique moderne.

Les choses peuvent être comprises de manière intuitive : le problème du transport n’est pas seulement un problème de distance consistant à aller d’un point A à un point B, c’est aussi un problème de capacité de l’infrastructure qui permet de véhiculer choses ou êtres.  Ce problème de capacité n’est pas du tout vu par le film, qui a d’autres chats, ou plutôt mouches, à fouetter et là n’est pas son propos essentiel.

Toutefois, ceci est un point central. Tirons le fil lié à la découverte révolutionnaire de Brundle, l’inventeur malheureux de la téléportation incarné par Goldblum. Imaginons que son dispositif devienne parfaitement fiable, et se généralise au point de rendre obsolètes toutes les infrastructures de transport, terrestres, maritimes, aériennes, etc. Le système de Brundle implique l’accès d’une personne à un télépod localisé en A, le transfert de cette personne vers un autre télépod localisé en B. Le point crucial est qu’il n’est possible de téléporter qu’un objet ou être vivant à la fois, c’est d’ailleurs la source de la malédiction de notre génial inventeur, la procédure durant quelques secondes, et le temps de transport total n’étant pas lié à la distance entre A et B, puisqu’il s’agit précisément de téléportation.

Il n’en reste pas moins que le système implique un goulot d’étranglement. Difficile d’envisager de construire autant de télépods (ceux-ci sont coûteux d’un simple point de vue économique) que de personnes souhaitant se déplacer, et,  par conséquent,  le système a une limite de capacité. Par exemple, cette limite pourrait être par exemple, de 60 déplacements par heure par télépod, en supposant le temps d’entrée et de sortie total égal à une minute.

Or, qui dit limite de capacité dit congestion potentielle,  i.e. la possibilité d’avoir des coûts de transport non liés à la distance qui croissent en fonction de la demande de déplacement à un moment donné et en fonction du stock des déplacements restant à écouler au moment où je me présente devant le télépod. En effet, la congestion est un phénomène dynamique, qui implique un mécanisme de file d’attente, et par conséquent le temps de transport au moment m (ou le coût si je suppose négligeables les coûts financiers du déplacement dans un premier temps) croît en raison du total des déplacements restant à écouler, produit de la demande de déplacements pour les moments m-1, m-2, etc, précédents ainsi que de la demande instantanée en m. Le problème va être précisément qu’il n’est possible de transférer qu’une personne par minute…

Cette manière de concevoir le problème des déplacements de personnes et la formation de la congestion de manière dynamique a été proposée par William Vickrey en 1969 et formalisée par Richard Arnott, André de Palma et Robin Lindsey à la fin des années 80 dans ce qu’on appelle désormais les modèles de goulot d’étranglement (« bottleneck models »). Il faut bien dire que ces modèles, qui s'inspirent de la physique et de la recherche opérationnelle, ont constitué une véritable révolution dans le domaine de l’économie urbaine et de l’économie des transports.
Initialement, ces modèles cherchent à expliquer la formation de la congestion dans le cadre des déplacements quotidiens domicile travail en milieu urbain, en particulier les phénomènes de pointe du matin et du soir. Dans la configuration théorique la plus simple, tout le monde veut arriver au même endroit en même temps, on suppose des automobilistes homogènes, tous localisés au même endroit, et devant passer par le même itinéraire pour arriver par exemple dans le centre ville où sont localisés tous les emplois. Cet itinéraire a une certaine capacité d’écoulement par période de temps, par exemple 100 véhicules par minute. Les automobilistes doivent choisir simplement à quel moment partir de leur domicile sachant qu’ils doivent arriver à un moment précis, le même pour tous, et que leur coût de transport est constitué que du temps qu’ils passeront dans le goulot d’étranglement mais aussi du coût d’opportunité du temps lié au fait qu’ils peuvent arriver en avance ou en retard sur leur lieu de travail. Il y a donc un réel arbitrage à faire pour l’usager : soit je pars très tôt, je passe facilement le goulot car il n’y a pas grand monde, mais j’arrive en avance. Soit je pars très tard, au moment où il y a plus de monde, je subis le temps perdu dans le bouchon, et je risque en plus d’arriver en retard.

La congestion se forme bien de manière dynamique : tant que la demande instantanée est inférieure ou égale à la capacité du goulot, le temps d’attente (ou de passage du goulot) est nul. Toutefois, dès que la demande instantanée devient supérieure à la capacité, la congestion commence à se former et les véhicules s’accumulent dans une file d’attente, et il devient de plus en plus long d’arriver à passer le goulot. Puis, le nombre des départs instantané baisse, et la congestion finit par se résorber. La règle à l’intérieur du goulot est bien sûr premier arrivé –premier servi.

Le graphique ci-dessous, tiré de l’excellent livre de Ken Small et Eric Verhoef sur l’économie des transports urbains, illustre le modèle et la formation de la congestion :



Source : Small and Verhoef (2007), The Economics of Urban Transportation, Routledge.

Sur ce graphique, la valeur de N(t) représente l'écart entre la capacité cumulée au cours du temps (la droite en pointillés) et la demande cumulée à partir du moment où le nombre de départs devient supérieur à la capacité d'écoulement de la route (la courbe en traits pleins). La valeur horizontale T(t) correspond au temps passé dans le goulot pour un usager partant en t.
Il est même possible de simplifier encore le modèle, en supposant qu’un véhicule qui accède au goulot passe immédiatement si la capacité en t reste supérieure au stock de demande à écouler en t, puisque ce n’est pas un élément important en fait.

Il y a quelques années (désolé, je vais encore parler de moi comme dans le dernier billet), j’ai réalisé avec quelques collègues une série d’études expérimentales sur ce modèle (une référence ici), simplifié certes à outrance dans un cadre d’expérience de laboratoire, mais dont les résultats furent assez édifiants.  Même avec un petit nombre de joueurs dans ce jeu de goulot d’étranglement, on observe la congestion de manière systématique, ce qui signifie que les participants n’arrivent pas à  se coordonner suffisamment bien pour résoudre le problème de congestion, par exemple, le joueur 1 partant à l’heure 1, le joueur 2à l’heure 2, etc, ce qui minimiserait le coût total de transport, et l’efficacité serait de 100%. Dans nos expériences, le taux moyen d’efficacité tourne autour de 60%, ce qui est lié à la congestion.  Par ailleurs les résultats observés en laboratoire sont assez proches des prédictions théoriques issues du modèle de goulot d’étranglement.

Plus récemment, l’American Economic Review a publié une étude expérimentale de Daniel, Gishes et Rapoport en 2009 sur une version plus sophistiquée de ce modèle de goulot, basée sur l’idée de bottlenecks qui s’emboitent dans un grand bottleneck (pour parler simplement, deux petites routes qui se connectent sur une grande route). Les auteurs testent l’impact d’une augmentation de la capacité d’une petite route en amont, toutes choses égales par ailleurs, sur les coûts de transport. Ils observent en laboratoire une forme de paradoxe de Braess (phénomène dont j’avais parlé ici ), qui fait que l’augmentation de la capacité débouche de manière contre-intuitive sur une augmentation des coûts totaux des déplacements.
Pour en revenir au film de Cronenberg, et pour faire le lien avec ce qui vient d’être dit, même avec la téléportation généralisée, il n’est pas sûr que l’augmentation de la capacité en télépods permette de résoudre définitivement le problème des coûts de déplacement si un phénomène du type Braess se produit (pour qu’il se produise, il suffit que l’augmentation de capacité ne soit pas trop forte). Comme quoi une innovation technologique, même révolutionnaire, ne sonne pas la fin de nos réflexions dans le domaine de l’économie des transports, et qu’au contraire, elle les stimule sans doute.

J’en suis arrivé à la conclusion que la projection du film la Mouche serait une magnifique introduction à un cours moderne d’économie des transports, en supposant toutefois que la plupart des étudiants n’aient pas rendu leur déjeuner ou leur goûter à l’issue de la projection - le film est assez gore par moments quand même - , faute de quoi, même avec du talent, il sera difficile de leur demander un effort intellectuel...

dimanche 6 février 2011

Faire le bien ou éviter de faire le mal ? Quelques enseignements des expériences en économie

Au hasard de mes pérégrinations intellectuelles assez ardues de ces derniers mois, je suis tombé sur un article de Messer et al 2007 sur l'importance des effets de contexte dans le comportement de contribution au bien public. Comme tu le sais certainement lecteur, les économistes désignent par bien public un bien qui possède deux caractéristiques, la première étant l'indivisibilité d'usage (je peux utiliser le bien sans que cette utilisation ne gêne ou ne limite l'utilisation par un autre individu) et la seconde étant l'impossibilité d'exclure des utilisateurs potentiels (je ne peux empêcher mon voisin de profiter de l'éclairage public même s'il n'y contribue en rien parce qu'il fraude fiscalement par exemple)...
[C'est une image, mes voisins sont des gens très bien au-dessus de tout soupçon. J’espère qu’aucun percepteur zélé ne lit ces lignes]

Le problème avec les biens publics est la possibilité que les individus se comportent comme des passagers clandestins, c'est-à-dire qu'ils ne contribuent pas personnellement au bien public, la contribution étant généralement coûteuse et, du fait de ses caractéristiques d'impossibilité d'exclusion ,soiten tentés d'attendre un effort des autres sans le produire eux-même. Cette possibilité de free riding avait été évoquée par Knut Wicksell, un économiste autrichien, dès la fin du 19ème siècle.

Les études expérimentales sur cette question ont été extrêmement nombreuses et tendent toutes à montrer que le comportement de passager clandestin n'est pas aussi fréquent que cela, et qu'une petite proportion des individus sont réellement des passagers clandestins. Le problème est que cette petite minorité est relativement "toxique" car les individus qui ne sont pas des passagers clandestins de manière intrinsèque vont avoir tendance, si la contribution au bien public est répétée dans le temps, à punir les passagers clandestins en réduisant eux-même leur effort ou contribution au bien public (Voir Falk, Fehr et Fischbacher en 2005, Econometrica, pour plus de détails sur ce résultat.)

Bon, ce résumé très rapide (cette question a été abordée à de multiples reprises dans ce blog) n'est là que pour mettre en scène le sujet que je veux aborder, à savoir l'importance de l'effet de contexte ou de présentation dans les phénomènes de contribution au bien public.

L'effet de contexte, bien connu en économie expérimentale, a été mis en évidence par Kahneman et Tversky il y a bien longtemps (pour une description pédagogique , je te renvoie ici lecteur) : en quelques mots, il dit que les choix économiques sont sensibles à la manière dont les choix sont présentés. (dans le jargon des économistes, on dit qu'il y a un axiome (rarement explicitement posé d'ailleurs) d'invariance de description). Un nombre d'études considérables a mis en évidence cet effet dans le cas de choix individuels, mais peu l'ont fait dans le cas de choix impliquant ce que les économistes appellent un dilemme social, c'est à dire une situation dans laquelle la coopération entre individus serait souhaitable (tous contribuer au bien public) pour la communauté mais dans laquelle la rationalité va pousser les individus vers une issue d'équilibre moins bonne du point de vue de l'intérêt général.
L'étude de Messer porte précisément sur ce problème. L'exemple donné est celui de la donation d'organes.  Le don d'organes est typiquement un bien public. En effet, deux grands types de réglementations existent au niveau international. Dans le premier type, vous êtes supposés donneurs par défaut (si vous ne dites rien, on pourra utiliser votre corps pour des greffes ou autres) et dans le second type, vous êtes supposés non-donneur par défaut (il faut dire explicitement que vous souhaitez donner vos organes pour qu'ils puissent être utilisés pour des greffes).

Une étude de 2003 de Johnston et Goldstein parue dans la revue Science (« do defaults save lives? ») montre que les pays dans lesquels le statu quo pour la donation d’organes est le consentement (par défaut vous êtes donneur et vous devez indiquer à vos proches de manière explicite si vous refusez de donner vos organes) ont un taux de donation de 85.9% à 99.9%, tandis que pour les pays dans lesquels le statu quo consiste en un non consentement (la France jusqu’à une date récente), le taux de donation s’échelonnait entre 4.3% et 27.5%.

D’autres exemples sont possibles : en ce qui concerne par exemple la qualité de notre environnement, au sens écologique, vaut-il mieux mettre en œuvre des incitations permettant de créer du bien public, via des actions positives de dépollution, ou des incitations permettant d’éviter le mal public issu de comportements pollueurs ?

Dans le cadre des politiques de lutte contre l’effet de serre, la question se pose. Par exemple, dans un rapport du Centre d’Analyse Stratégique récent (consultable ici), à propos de la politique de lutte contre l’effet de serre, on peut lire qu’un des apports de l’accord de Copenhague, décrit généralement comme un échec, a été la mise en place de mécanismes (REDD+) qui visent à la fois à préserver la qualité de l’environnement mais également à mettre en œuvre des actions permettant d’en améliorer la qualité. En particulier, on peut lire ceci :

« L’Accord inscrit explicitement la mise en place d’un mécanisme dit « REDD + » visant à lutter contre la déforestation et la dégradation mais également à favoriser les plantations, la gestion forestière et la conservation des stocks de carbone »

Sous-entendu, il est bien de se soucier de préservation de l’environnement, mais sans doute faut-il faire en sorte que des actions plus volontaristes soient mises en œuvre.

La théorie économique est a priori neutre de ce point de vue : selon la théorie microéconomique, le contexte n’importe pas (voir ce qui a été dit précédemment) et l’efficacité des incitations dans un cas (création de biens publics) doit être la même que dans l’autre cas (limiter l’apparition de mal public).

C’est précisement l’objet de l’article écrit en collaboration avec Douadia Bougherara, de l’INRA, et David Masclet, bientôt publié dans une revue internationale, et dans lequel nous cherchons à mettre en évidence un éventuel effet de contexte dans le cas de biens publics. L’idée de départ est extrêmement simple : comparer un contexte de création de bien public à un contexte de préservation du bien public, ce dans le cadre d’une expérience d’assez grande envergure.

Pour le contexte de préservation, supposons que toutes les ressources des individus soient d’ores et déjà placées dans un pot commun (le bien public) et que le maintien de ces ressources dans le pot commun a un coût d’opportunité privé pour chaque agent. En retirant une unité du pot commun, il renonce à ce qu’il retirait de cette unité du bien collectif, mais peut utiliser cette ressource pour une consommation privée. Bien évidemment, en faisant là, puisqu’il s’agit d’un bien public, il créée une externalité négative car il détruit aussi l’utilité retirée par les autres membres de son groupe par rapport à cette unité qui était placée dans le bien public.

Pour le contexte de création, c’est plus simple. Chaque individu est doté d’une certaine quantité de ressources, et chacun d’entre eux doit simplement décider du montant qu’il investit dans le pot commun, ce montant investi ayant un coût d’opportunité privé (la consommation privée que l’agent ne pourra effectuer), mais génère une utilité issue de la consommation du bien public, ainsi qu’une externalité positive, puisque les autres membres du groupe profitent également des ressources mises dans le pot commun. C’est le fameux jeu de VCM (Voluntary Contribution Mechanism) utilisé la première fois par Isaac et Walker en 1988.

Pour tout dire, il existait déjà un article de James Andreoni écrit sur le thème, en 1995 mettant en œuvre à peu près exactement le protocole expérimentale que je viens de décrire et comparant le contexte de création et le contexte de préservation. Il arrivait à un résultat toutefois surprenant : le niveau de coopération était plus élevé en moyenne dans le contexte de création du bien public que dans le contexte de préservation. Le montant investi dans le contexte où chaque sujet devait investir dans le pot commun inexistant au départ était plus important que le montant retiré du pot commun préexistant au départ. Comme le notait Andreoni, et autrement dit, les sujets préféraient faire le bien que d’éviter de faire le mal (il écrit exactement « it must be that people enjoy doing a good deed more than they enjoy not doing a bad deed »).

Dans l’article que nous avons écrit, nous avons testé la robustesse de ce résultat. Il faut dire qu’il nous semblait assez incroyable et nous avions quelques doutes sur sa solidité : comment les individus pouvaient-ils être plus disposés à détruire le bien public qu’à le créer ? Cela nous semblait plus naturel de penser que, une fois le bien public crée, une forme de biais de statu quo ou de biais de dotation serait mis en œuvre, et que les participants auraient plus de facilité à préserver le bien public qu’à le créer. En effet, c’est précisément ce que suggère le biais de statu quo mis en évidence par Thaler en 1980. Si on donne un bien quelconque aux individus, ceux-ci sont prêts à faire plus d’effort pour le conserver que si on leur demande de faire des efforts pour obtenir ce même bien.

Pour corser un peu le problème, et donner un caractère de plus grande généralité à notre étude, nous avons envisagé des jeux de bien public un peu spéciaux, dits avec seuil. Dans le contexte de création de bien public, cela signifie que si le niveau des contributions est en dessous d’une certaine valeur, le bien public n’est pas créé. Dans notre expérience, nous avons défini différents niveaux de seuil, et si le seuil était atteint, le bien public était créé à hauteur de la somme des contributions atteinte par les individus. Si par contre le seuil n’était pas atteint, les contributions étaient perdues pour les sujets. Cela signifie que si, par exemple, le seuil défini pour créer le bien public est de 60 unités, et que sur les quatre participants du groupe, l’un a investi la totalité de sa dotation en ressources (20 unités) et que les trois autres ont investi ensemble moins de quarante unités, alors le premier obtient un gain égal à zéro.

Dans le contexte de préservation, cela signifie que, au début de la période de jeu, la totalité des dotations des joueurs est placée dans le pot commun (soit 80 unités, puisque chacun des quatre joueurs dispose de 20 unités de droit de retrait), et ceux-ci peuvent exercer un droit de retrait d’au maximum vingt unités chacun. Chaque unité retirée par un joueur lui donne 1 point. Chaque unité restant dans le pot commun, pour peu que le seuil de préservation ne soit pas dépassé, donne 0.4 point à chaque participant, soit 1.6 point pour l’ensemble du groupe de 4 personnes. Par exemple, si le seuil pour lequel le bien public est préservé est de 60 unités, cela signifie que si, par exemple, deux participants sur le groupe de 4 décident de retirer chacun 20 unités et que les deux autres ne retirent rien du tout, le bien public est totalement détruit. Ceux qui ont retiré gagnent 20 points et ceux qui n’ont rien retiré gagnent zéro point.

L’intérêt d’introduire des seuils est double. D’abord, cela correspond plus à la réalité de la plupart des biens publics qui nous entourent, dans la mesure où la quantité de bien public créée par les efforts d’individus au sein d’une collectivité n’est sans doute pas de nature linéaire.Si la collectivité ne fait pas un montant minimum d’effort, le bien public n’est pas réalisé. Par ailleurs, cela modifie la nature des équilibres théoriques de contribution au bien public. Dans le jeu de contribution au bien public sans seuil, l’équilibre en stratégies dominantes est un équilibre de free riding, dans lequel les participants devraient contribuer zéro au bien (ou retirer la totalité de leurs droits). Dans les jeux de contribution au bien public avec seuil, on est en présence de jeux de coordination, dans lesquels les équilibres sont multiples : l’équilibre de free riding existe toujours, mais il existe également de nombreux équilibres de Nash dans lesquels la somme des contributions des joueurs est exactement égale au seuil de création défini (ou, dans le contexte de préservation, la somme des retraits à l’équilibre de Nash est égale au seuil de préservation). Quel équilibre sera au final sélectionné par les joueurs ?
L’équilibre de free riding ou un des équilibres permettant au bien public d’exister ? L’intérêt de l’économie expérimentale est précisément d’établir des résultats qui permettent de faire une idée de la situation qui sera finalement sélectionnée concrètement par le groupe d’individus.
Dans l’expérience que nous avons menée, et qui a eu recours à un peu moins de 400 participants, nous avons mis en œuvre les deux contextes (création vs préservation du bien public) et ce pour quatre niveaux de seuil de bien public (zéro, 28, 60 et 80). Les résultats sont nombreux mais, pour l’essentiel, et à notre grande surprise il faut bien le dire, il s’avère que le résultat d’Andreoni est robuste : les niveaux de coopération sont plus élevés dans le cas d’une création de bien public que dans le cas de la préservation de celui-ci. Le graphique ci-dessous résume brièvement le principal résultat. Plus le niveau de seuil pour le bien public est élevé, plus le niveau de coopération au sein du groupe (la hauteur des barres matérialisant le total des contributions au sein de chaque groupe en moyenne) est élevé, et ceci est vrai dans les deux contextes (création en bleu et préservation en rouge), bien que pour le niveau de seuil maximal (80), les niveaux de coopération soient plus faibles que pour le niveau de seuil immédiatement inférieur. Toutefois, assez nettement, l’écart relatif entre les niveaux de coopération dans les deux contextes est d’autant plus fort que le seuil matérialisant la création ou le maintien du bien public est élevé.

source : Bougherara, Denant-Boemont & Masclet, 2010.

Au-delà de ce résultat qui met en évidence la solidité des résultats expérimentaux concernant les comportements de contribution au bien public, un résultat intéressant et que je laisse à ta sagacité, lecteur, est le suivant. Il semble que, contrairement à ce que l’on observe pour les biens privés, il n’existe pas de de biais de statu quo pour les biens publics. Le fait que le bien public préexiste déjà ne garantit en rien que les individus vont avoir une tendance plus forte à le préserver que la tendance qu’ils ont à créer d’autres biens publics.

Etonnant, non ?

dimanche 23 janvier 2011

L'affaire PPDA : D'un plagiat à l'économie à l'économie du plagiat


Récemment, le grand écrivain, accessoirement journaliste (à moins que ce ne soit le contraire), Passe-moi-le-poivre-d’abord (Pardon, c’est le surnom que Desproges lui donnait et j'avoue préférer celui-ci à l'original) s’est trouvé empêtré dans une ténébreuse affaire de plagiat d’une œuvre existante lors de la réalisation de sa « propre » biographie d’Hemingway. En fait, on ne sait pas toujours bien aujourd’hui si c’est lui-même qui a plagié ou si c’est la personne chargée d’écrire à sa place la dite biographie- son nègre selon le terme consacré - qui est coupable de plagiat. Car, dans une sorte de mise en abîme amusante et affolante en même temps – comme l’écrivait Nietzsche, « quand tu regardes l’abime,  l’abîme regarde aussi en toi » -la question est : le copieur a-t-il copié l’œuvre ou le copieur a-t-il copié le copieur de l’œuvre ?

[Lecteur, je sens que les maux de tête arrivent et que tu envisages déjà de zapper sur le blog de Régis, nettement moins prise de tête]
Les enseignants, dont je suis,  ont tous été confronté à ce problème de plagiat dès qu’il est demandé aux étudiants de fournir un travail écrit personnel à réaliser en dehors du cours. Dans le meilleur des cas, un dossier sur trois contient des preuves évidentes de plagiat, parfois un peu inconscient, qui consiste en la culture du « copier-coller » de morceaux de texte, parfois même non relus.
[Dans le genre grands classique de l’anthologie des cancres, un dossier qui écrit en 2010 « la politique de notre entreprise… » après avoir repompé un vague dossier de présentation d’une stratégie, ou « Au-delà de l’année 1995, les perspectives  futures s’avèrent prometteuses… »]

Qu’est ce que le plagiat ? Je reprendrais la definition du Black’s Law Dictionary,  comme “the act of appropriating the literary composition of another, or parts or passages of his writings, or the ideas or language of the same, and passing them off as the product of one's”own mind.

Le plagiat n’est donc pas seulement un copier coller, mais aussi le fait de voler l’idée de quelqu’un et de se l’attribuer avec une générosité envers soi qui force le respect. Je ne parlerai que de la forme stricte du plagiat évoquée dans la première partie de cette citation, à savoir le « copier-coller » apparemment à l’œuvre dans l’affaire PPDA.

[Je pouffe d’ailleurs à propos de la défense de l’intéressé face à l’accusation, qui déclare le plus sérieusement du monde la chose suivante : « "Je me suis naturellement documenté auprès des nombreuses biographies  existantes, au nombre desquelles celle de Griffin - la biographie copiée (NDLA) - me semble la meilleure sur le  jeune Hemingway. Mais je n'allais pas lui réinventer une vie !" ». J’envisage d’ailleurs personnellement de me « documenter » fréquemment sur les blogs d’économie francophone parce que, bon hein !je ne vais pas réinventer l’analyse économique.]

Le plagiat est un phénomène non pas récent mais apparemment en pleine explosion. Il ne concerne malheureusement pas que les étudiants, mais les journalistes et éventuellement les économistes universitaires. Cette enquête de Wooders and Hoover en 2005 établit que sur la base de 1200 réponses d’enquêtés économistes académiques, environ 25% estiment avoir été plagiés au moins une fois . D’ailleurs, une proportion non négligeable de ces économistes académiques interrogés (35%) a tendance à définir le plagiat de manière assez stricte, consistant à copier une citation sans l’attribuer, l’utilisation d’idées des autres non citée n’étant pas strictement ou vraisemblablement du plagiat, s’opposant ainsi à la définition donnée un peu plus haut.

Le plus troublant est que, pour d’autres populations, les résultats sont comparables, si l’on se fie à la rapide revue de littérature menée par exemple par Collins, Judge et Rickman en 2007 dans l’European Journal of Law and Economics : environ un quart des étudiants anglais disent avoir plagié au moins une fois au cours de leurs études et 16% plus d’une fois. Cette proportion est encore plus forte en Amérique du Nord, où 38% des étudiants admettent avoir plagié.

Cette attitude est d’autant plus curieuse de la part des étudiants que les sanctions en cas de découverte de plagiat ne sont pas légères, et que les enseignants détectent assez facilement (mais pas suffisamment souvent) le plagiat quand ils se donnent la peine de chercher. D’un point de vue social, le coût du plagiat des étudiants n’est sans doute pas négligeable, car il implique une potentielle remise en cause de la valeur marchande d’un diplômé (c’est-à-dire qu’in fine, le plagiat est une externalité négative subie par les étudiants eux-mêmes) d’une part, et d’autre part, il fait perdre beaucoup de temps à des enseignants-chercheurs soucieux de détecter la fraude, ce qui les détourne d’activités plus productives, comme la recherche et l’enseignement.

Les travaux d’économie ou de psychologie comportementale qui portent sur le sujet sont relativement rares, si on reste sur le problème de plagiat et pas de fraude ou de triche de manière très générale.
Toutefois, je donnerai juste un résultat sur les comportements de triche en général tels qu’ils sont observés en laboratoire, car c’est également une manière de réfléchir sur les raisons du comportement de plagiat et par conséquent sur les mécanismes qui permettraient de combattre cela. L’étude de Schwieren et Weichselbaumer parue en 2010 dans le Journal of Economic Psychology montre notamment que plus l’environnement économique de sujets expérimentaux est concurrentiels, plus ceux-ci  tendent à plus tricher de manière générale. D’après leurs résultats, les femmes seraient plus touchées par cette réaction à la pression concurrentielle que les hommes.

Une étude assez amusante de Dan Ariely et (voir ce lien) porte précisément sur l’utilisation de plagiat « industriel » par les étudiants, à travers la commande que ceux-ci peuvent passer auprès de sites spécialisés concernant des essais ou dissertations sur différentes thématiques moyennant finances.
L’issue de l’histoire renvoie je trouve de manière troublante à la mésaventure de PPDA. Ariely et sa collègue Aline Grüneisen passent commande de rédactions d’essais auprès de quatre différents sites sur le thème de la triche (humour typiquement à la Ariely !). Ils compilent les études et les évaluent, et trouvent essentiellement que ces rédactions payantes sont un fatras d’inepties sans queue ni tête, sans guère de valeur au final d'un point de vue académique, ce qui les rassure sur la capacité des étudiants recourant à ce stratagème de tromper leurs enseignants. Toutefois, l’histoire ne s’arrête pas là et la chute est encore plus intéressante: lls soumettent ensuite ces quatre rédactions à  un site spécialisé dans la détection de plagiat. Le résultat est édifiant : sur deux de ces rédactions, 35 à 40% du contenu est directement plagié !

[De là à penser, lecteur, que PPDA a commandé son prochain ouvrage concernant la vie d’Hemingway sur le site OTURBIN.COM, il n’y qu’un pas que je ne me permettrai jamais de faire…]

Que faire alors face à ce comportement . Une étude toute récente par Dee et Jacob parue comme document de travail du NBER en 2010  utilise la méthode de l’expérience de terrain (« field experiment ») pour évaluer l’impact de différentes politiques sur le comportement de plagiat. Les expérimentateurs placent de manière aléatoire la moitié d’un pool de 1200 étudiants ayant à réaliser un travail écrit dans un groupe où ils doivent utiliser préalablement (ie avant de rédiger) à un tutoriel en ligne qui permet d’auto-évaluer son propre comportement et sa perception du plagiat (si cela t’intéresses lecteur, va voir  ), ce de manière à sensibiliser les étudiants à ce problème. Les autres étudiants n’ont pas de formation particulière et représentent donc le groupe de contrôle.
Les auteurs observent notamment que le groupe d’étudiants qui a du avoir recours à ce tutoriel plagie significativement moins que les autres (plus exactement la probabilité de recourir au plagiat est d’autant plus faible que leur score au test de compréhension du tutoriel sur le plagiat est élevé), et que cet effet n’est pas à attribuer à une meilleure prise de conscience des risques issus du plagiat, mais plutôt à la connaissance accrue de ce en quoi consiste  vraiment le plagiat pour ces étudiants.

Pour clore ce petit tour d’horizon un brin anecdotique, une dernière étude de Ariely et Norton parue en 2010 dans Psychological Science montre que le fait de consommer des articles contrefaits (ie des copies de biens de consommation, porter de fausses Rayban dans leur expérience) est en général le fait d’individus qui sont eux-mêmes enclins à tricher personnellement. Par ailleurs, le fait de porter des articles contrefait incite les autres (ceux qui ne portent pas forcément d’articles contrefaits) à tricher plus fréquemment.

Bon, si un lecteur connait personnellement PPDA, toute la question est maintenant de savoir s’il porte des Rayban contrefaites, des polos Lacoste made in Syldavia ou des pulls Armor Lux made in Borduria…

samedi 8 janvier 2011

Fin de la prime à la casse et comportements d'escalade




Pendant les vacances de Noël, étant amené à me déplacer sur nos belles routes de France pour profiter des diverses agapes habituelles en cette période (on parle de la trêve des confiseurs, mais pour les dits confiseurs, c’est loin d’être un période de paix je pense), j’ai constaté de visu à quel point le parc automobile français s’était renouvelé. En effet, chance sans doute assez rare, la période de la prime à la casse mise en place par le gouvernement français a coïncidé avec un changement du système d’immatriculation des véhicules particuliers, d’abord en priorité appliqué aux véhicules neufs. Cela permet ainsi de voir facilement l’explosion du nombre de véhicules neufs dans le parc, les nouvelles plaques se substituant à grande vitesse aux anciennes

En France, la fin de la prime à la casse a provoqué la ruée chez les concessionnaires. Apparemment, les concessionnaires automobiles ont été totalement envahis de clients désireux d’acheter un véhicule neuf moyennant la reprise de leur vieux tacot, ce avant la date fatidique du 31 décembre. Les concessionnaires, nous dit le journal Le Monde, ont enregistré une hausse des commandes de 30% par rapport à la même période de 2009, un volume total de 370 000 véhicules ayant été commandé. Cela n’est pas sans évoquer cet assez médiocre film interprété par Arnold "Gobernator" Schwarzenegger il y a quelques années, « la course au jouet » dans lequel deux pères pas très prévoyants, voire un peu indignes, et qui ont promis à leur fils respectif le même jouet en vogue, s’affrontent pour obtenir le jour du 24 décembre l’un des derniers exemplaires disponibles en vente.
Soi dit en passant, je vois mal l’effet positif de cette prime sur le prix payé par le client pour un véhicule à partir du moment où cet effet de deadline provoque une augmentation apparemment très forte de la demande, ce qui met les vendeurs en position de force.  Par ailleurs, la conséquence simple de cela est sans doute une chute de la demande après le 1er janvier, ce à quoi les concessionnaires s’attendent. J’espère qu’un économiste sérieux aura l’idée d’étudier cela de près, mais mon intuition serait de dire que ceux qui ont attendu pour acheter leur véhicule seront dans une position intéressante d’ici février mars 2011 pour négocier des ristournes auprès des vendeurs après quelques semaines de concessions désertées par les clients repus dans leurs besoins automobilistiques primaires. La suite du billet montrera que cette intuition n'est pas complètement à côté de la plaque.

En Espagne, la fin de la prime à la naissance de 2500 euros au 1er janvier 2011, mise en place en 2007 par le gouvernement Zapatero,  a provoqué une course semblable, mais cette fois à l’accouchement  les parents pressant le personnel médical de les aider à provoquer l’accouchement. Les cliniques et hôpitaux furent engorgés comme jamais en cette période de Noël, tout comme les concessionnaires automobiles français évoqués précédemment.
L’économiste a-t-il quelque chose à dire sur ces comportements de course provoqués par des dates limites irrévocables ? D’un point de vue général, je ne sais pas, mais du point de vue de l’économie comportementale certainement.

[Tout au plus, lecteur, puis-je dire d’un point de vue général, pour faire un peu de provocation en ce début d’année, que cela m’amuse toujours de voir combien les gens sont plus rationnels d’un point de vue économique que bien des économistes académiques veulent bien le reconnaître. Je me souviens des critiques définitives de l’approche de Becker sur l’analyse économique de comportements qui n’ont rien, non vraiment rien d’économique, comme le mariage, la toxicomanie, la criminalité… et la natalité. Donc, Gary, respect !]
En ce qui concerne l’économie expérimentale, ce genre de problèmes a été étudié dans le contexte des enchères, ce qui se comprend très bien, dans la mesure où des enchérisseurs en compétition pour le même bien peuvent être prêts à surenchérir pour l’emporter, la date limite de fin des enchères s’approchant, s’exposant ainsi au risque bien connu de malédiction du vainqueur (Je n’en parlerai pas plus longuement ici, si ce problème t’intéresses, lecteur, je te renvoie à ce billet et à celui des amis de Mafeco).
Celui qui, de temps en temps comme moi, enchérit sur E-Bay et qui a été conduit à proposer un prix dépassant son seuil initial à la vue de l’horloge déroulant impitoyablement le temps restant,  me comprend très bien.
Bien évidemment, un lecteur sceptique objectera que le problème est assez différent, puisque, pour les véhicules, le prix est fixé à l’avance et que la concurrence entre acheteurs n’est pas régulée par un système de prix, comme dans les enchères, mais par un système de file d’attente. Toutefois, je rétorque à cette objection que je me fais à moi-même que l’importance de la ristourne potentielle, donc du prix final du véhicule, dépend de la disposition à payer de l’acheteur, qui me semble accrue par cette prime à la casse.
L’impact des règles de temps limite sur le comportement des enchérisseurs le net a été en particulier étudié dans une série d’articles par Alvin Roth & Axel Ockenfels (2002, 2006) et (Dan) Ariely, Roth and Ockenfels en 2005. Ces papiers sont à la fois théoriques et empiriques, l’évidence empirique étant fondée sur soit des expérimentations en laboratoire, soit sur des données issues d’enchères sur Internet (EBay et Amazon).
Ils cherchent notamment à étudier  le comportement des enchérisseurs dans une enchère de second prix (c’est-à-dire où l’acheteur qui gagne est celui qui a proposé le prix le plus élevé mais paye finalement le prix immédiatement inférieur proposé par le premier acheteur perdant, dite également enchère de Vickrey), et ce en modifiant les règles de fin des enchères.
Dans une première institution d’enchères, similaire à E-Bay, l’enchère se termine à une date ferme spécifiée à l’avance –usuellement à l’issue d’une semaine -et connue de tous. Les enchérisseurs proposent séquentiellement leur prix maximum, celui-ci n’étant pas connu des autres enchérisseurs mais contribuant à augmenter le prix d’un incrément, par exemple de 1 dollar, si le prix maximum proposé est supérieur au meilleur prix proposé jusque là. Un exemple, repris de Wilcox, 2000, dans un article publié dans Marketing Letters, peut être plus parlant. Dans cet exemple, le premier enchérisseur propose un prix de 20$, sachant que le vendeur a exigé un prix de réserve de 10$, le second enchérisseur propose 15$, le troisième 30$, etc :
source : Wilcox, 2000

Dans l’exemple ci-dessus, l’enchérisseur n°3 remporte l’enchère et paye 26$ à l’issue de la fin réglementaire du processus d’enchère.
Or, il se trouve que le système d’enchères à la e-Bay provoque énormément d’enchères de dernière minute. D’un point de vue factuel, on observe que 80% des enchères faites sur E-Bay sont faites durant la dernière heure précédant la fin réglementaire de l’enchère. Ces comportements d’enchère à la dernière minute, bien connus, sont qualifiés de « sniping ». Le risque de ce comportement est que, si on enchérit à la dernière minute, il y a une probabilité faible mais significative que l’offre ne puisse pas être prise en compte par E-Bay, ce qui est la conséquence de la congestion des offres que le système n’arrive pas à traiter si elles sont trop nombreuses.
Par ailleurs, d’autres règles de fin des enchères peuvent être imaginées, comme dans le système Amazon. Dans ce système, la date limite fixée à l’avance est étendue automatiquement, sauf si pendant les dix dernières minutes précédant la date limite, aucune offre d’achat n’a été faite. On comprend intuitivement que ce système dissuade les acheteurs de proposer des offres à la dernière minute.
D’un point de vue empirique, cette intuition est confirmée. Le graphique ci-dessous montre la distribution cumulée des offres d’enchères sur l’heure qui précède  la date limite, ce pour Amazon et eBay :

Source : Ockenfels and Roth, 2002, American Economic Review

Les courbes qui sont les plus uniformes sont celle relatives à Amazon, alors que l’on constate que pour eBay, plus de la moitié des offres  de la dernière heure sont faites dans les 15 dernières minutes.
Cette étude empirique est complétée par une série d’expériences en laboratoire, dans lesquelles les auteurs comparent quatre designs d’enchères. Les expériences d’enchères ont un principe de base assez simple. Typiquement, les sujets se voient attribuer une valeur aléatoire comprise entre une borne minimale et maximale, cette valeur leur étant propre et représentant en fait leur disposition à payer. Le sujet va donc gagner soit zéro s’il perd l’enchère soit la différence entre cette valeur et le prix final s’il est le gagnant de l’enchère. C’est exactement de cette manière que les expériences de Ariely, Roth et Ockenfels sont organisées.
Dans leur expériences, il y a quatre traitements qu’il va s’agir de comparer. Le design étant assez complexe, je laisse les lecteurs intéressés aller lire le papier tel qu’il fut publié dans le Rand Journal of Economics. Le premier traitement, qui un traitement benchmark, est une enchère scellée simultanée au second prix (tous les enchérisseurs font leur offre en même temps, leur offre n’est pas connue des autres et le gagnant est celui qui a fait la plus forte proposition, payant le second prix le plus élevé). Le second correspond au système d’Amazon, un temps d’enchère est donné aux sujets, et l’enchère ne s’arrête que dans le cas où plus personne ne fait de proposition pendant 10 minutes. C’est également une enchère au second prix. Le troisième et le quatrième correspondent au système eBay, avec une date limite connue de tous et irrévocable, eBay étant équivalent également à une enchère de second prix. Le troisième traitement considère simplement le fait que, si l’offre est faite à la dernière minute, il y a seulement 80% de chances qu’elle soit considérée, alors que dans le quatrième traitement, il ya 100% de chances qu’elle soit effectivement transmise (il n’y a donc aucune défaillance du type de celle considérée plus haut). Les résultats sont très riches, mais par rapport à ma question initiale relative à la fin de la prime à la casse, je vais mettre un accent particulier sur le revenu final des gagnants de l’enchère, c’est-à-dire la différence entre la valeur initiale privée pour chaque sujet et le prix qu’il a effectivement payé.
source : Ariely, Ockenfels and Roth, 2005

Il est assez clair que le revenu médian obtenu par l’acheteur gagnant est plus important dans le traitement amazon que dans les traitements eBay,  eux-mêmes étant meilleurs du point de vue de l’acheteur qu’en enchère classique au second prix scellée. En clair, d’un point de vue empirique, on constate que le fait d’instaurer une date limite irrévocable profite essentiellement au vendeur.

Moralité : méfiez-vous des dates limites qui vous incitent à vous précipiter dans l’acte d’achat, car bien souvent, il y a plus à perdre qu’à gagner !

Sur ce, je te souhaite, cher lecteur, une excellente année 2011 en espérant continuer à te voir sur ce blog qui vient de célébrer ses deux ans d'existence à la fin de l'année dernière ! En tout cas, merci de ta fidélité.

dimanche 19 décembre 2010

Leadership et coopération : une expérience naturelle

 NB : Peter Sellers essayant de donner l'exemple de la bonne humeur dans The Party, de Blake Edwards

Les frimas de décembre apportent en général deux calamités, en particulier pour l’universitaire que je suis, les intempéries (neige, verglas et autres réjouissances climatiques) et les surveillances d’examen.
Peut être ne devrai-je pas détruire les illusions de nos chères têtes blondes, brunes et autres couleurs de cheveux affichées par nos étudiant(e)s, mais, non, je ne vais pas faire mes surveillances d’examen d’un pas léger et serein, heureux d’accomplir mon devoir d’enseignant et dormant d’un sommeil sans tourments au sortir d’épreuves dont je sais qu’elles se sont passées en toute quiétude, ce afin que mes étudiants aient le maximum de chances de s’en sortir avec brio et puissent passer des vacances de Noël l’esprit tranquille.

[si la phrase ci-dessus te semble incompréhensible, lecteur, utilises la hache dont tu t’es certainement nanti pour massacrer un ou deux sapins de Noël afin de la couper, s’il te plait, là où bon te semblera. Par avance, merci]

Donc, en milieu de semaine dernière, je me rendis comme d’habitude à cette période à une surveillance d’examen. J’arrive alors à ma surveillance, en retard pour des raisons qu’il est inutile d’expliquer ici, et je constate que nous sommes deux surveillants pour une centaine d’étudiants, ce qui est conforme grosso modo à la norme. L’autre personne n’était pas enseignant-chercheur (en tout cas en activité, les universités utilisant parfois des extra retraités par nécessité, le nombre d’enseignants ne pouvant assurer leurs surveillances réglementaires n’étant pas négligeable), et était rémunérée pour cela. En ce qui me concerne, les surveillances font partie de mes obligations de service, et, comme nombre d’universitaires en France, ne sont pas rémunérées.

J’ai alors commencé à accomplir les tâches habituelles du début d’épreuve en ce genre de circonstances : contrôle des cartes étudiants, pointage des présents et vérification de l’effectif total dans chaque épreuve. Puis vint la période la plus difficile, celle de la surveillance « pure », dans laquelle le surveillant parcourt la salle d’examen, ou ne la parcourt pas, ou la parcourt de temps en temps (biffez les mentions inutiles selon votre expérience personnelle). En ce qui me concerne, j’ai quand même tendance à me déplacer fréquemment, mais pas en permanence et surtout, guidé par un souci d’équité, je fais en sorte de surveiller « sérieusement » pour limiter les risques de fraude.

L’autre surveillant était à ce moment là assis au fond de la salle et moi placé de l’autre côté de la salle. Je dépose les quelques pièces administratives obligatoires à remplir, puis me munit du paquet habituel de feuilles de brouilllons et autres copies et intercalaires d’examen que vont me demander, selon toute probabilité, les étudiants en train de composer. Puis, je me mets à parcourir la salle d’un pas décidé.
A ce moment là, le surveillant qui m’accompagne se lève, puis commence également à parcourir (mais avec un pas moins décidé que moi me semble-t-il) la salle d’examen.
A l’issue d’un ou deux tours de salle, je m’installe sur la chaire et m’assied. Je constate que mon collègue revient alors au fond de la salle et s’assied également.
Quelques instants passent, le temps de connecter mon ordinateur pour accéder à mes mails, puis, je saisis à nouveau mon paquet de copies, et me lève dans l’idée de faire à nouveau un parcours de l’amphithéâtre. Dix secondes plus tard, mon compagnon d’infortune se lève et fait à son tour un parcours alors que je continue le mien. Puis, une fois mon parcours accompli et quelques étudiants ayant satisfait leur besoin irrépressible de papier blanc et autre copie, je m’assieds à nouveau  dans la chaire. Mon collègue s’assoit alors également. Ayant remarqué ce petit manège, j’attends quelques instants pour être sûr qu’il ne s’agit pas d’une simple coïncidence, qu’il ne s’est pas simplement levé en même temps que moi avec quelques secondes d’intervalle, le hasard ayant fait que nous ayons calqué l’un sur l’autre notre cycle de surveillances. Je décide d’attendre un peu plus longtemps en position assise. Il reste coi, concentré dans la lecture de je ne sais quel magazine. Je le fixe alors et me lève à nouveau d’un air décidé. Cinq secondes plus tard, il se lève aussi et fait le même parcours que précédemment. Puis, encore une fois, je m’assieds et il s’assied également. Ce petit jeu s’est répété comme cela à au moins cinq reprises, avant que je ne sois pris par d’autres occupations relatives toujours à cette même surveillance.

A l’issue de l’épreuve, amusé par l’expérience que je venais de vivre (il n’en faut pas beaucoup pour agrémenter cet exercice ennuyeux, comme tu le  constates lecteur), j’ai essayé d’en discerner les fondements comportementaux, le résultat de ce petit jeu m’ayant semblé particulièrement net.

Comment décrire la situation ? Une surveillance d’examen est d’autant plus efficace (pour minimiser la fraude) et équitable que le niveau d’effort et de coopération des surveillants est important. Plus les surveillants parcourent la salle d’examen, plus les étudiants peuvent être concentrés sur leur travail et à même d’obtenir une copie ou autre quand ils en ont besoin. En fait, la situation est celle encore une fois du bien public. Chaque surveillant qui exerce un effort coûteux de surveillance en fait profiter les étudiants et l’ensemble des surveillants présents dans la salle, alors qu’il préférerait lire soit Ouest France soit Matthew Rabin, soit ses blogs d’économie préférés.

Dans cette situation, on retrouve les comportements habituels d’une situation de contribution au bien public : il y a des contributeurs inconditionnels, ceux qui vont parcourir la salle dans tous les sens pour dissuader la fraude ou subvenir efficacement aux demandes des étudiants. Il y a aussi les passagers clandestins, qui vont en faire le moins possible en s’asseyant pour lire leur journal et/ou manger leur sandwich pendant que les autres font le boulot, et lui, vous ne le ferez pas bouger d’un iota. Il y aussi ceux qui discutent et qui se regroupent entre free riders «  qui se ressemble s’assemble » dit le proverbe).
Puis il y a les contributeurs conditionnels, ceux qui attendent de voir ce que vous allez faire pour se décider.
En ce qui me concerne, selon mon humeur et mon niveau d’occupation, je suis contributeur inconditionnel ou conditionnel. Mais si l’autre décide de ne rien faire ou de faire très peu, j’estime qu’il ne m’est pas possible de faire pareil, où l’épreuve va tourner à la foire et à ce moment là, j’exerce un niveau d’effort important pour compenser le free riding de l’autre. Par ailleurs, si l’autre est très présent, je me relâche un peu jusqu’à ce que je constate qu’il se relâche (parfois, très rarement, cela n’arrive jamais) et à ce moment là, je prends alors le relais.

Dans ces circonstances, le rôle d’un « leader », c’est-à-dire d’une personne qui choisit son action afin de montrer ce qu’il pense qu’il est bon de faire peut être déterminant, comme je n’en ai eu une sorte de preuve lors de la surveillance évoquée ci-dessus.

Car enfin, pourquoi ce comportement de la part de ce surveillant ? Pensais-t-il que, comme j’étais enseignant-chercheur et lui simple surveillant, j’avais une sorte de contrôle ex post sur lui, le risque étant que je signale un effort insuffisant de surveillance ? Je ne sais pas trop et comme ce qui se passait était trop beau pour être vrai (c’était une sorte d’expérimentation naturelle), j’ai essayé de me souvenir ce que disait la littérature expérimentale sur le thème du leadership. Plus exactement, un leader est au départ simplement quelqu’un dont nous observons le comportement, cette observation nous aidant à former notre décision. 

Imaginons par exemple un dilemme du prisonnier séquentiel, un joueur jouant en premier et l ’autre en second. Le second observe donc l'action du premier, et on dira qu'il est le le follower, le premier joueur étant le leader.
Si le premier joueur coopère, le second joueur peut décider d’être strictement rationnel et de faire défection, ce qui lui rapporte le gain maximum. Par ailleurs, il peut aussi décider de coopérer et obtenir le gain Pareto-optimal. Mais l’argument de backward induction plaide pour montrer que l’équilibre du jeu est la défection successive des joueurs, comme dans la forme extensive du jeu donnée ci-dessous :

Cet effet du leadership a été abondamment étudié en économie expérimentale depuis une dizaine d’années, la réflexion théorique sur ce thème étant initiée par Hermalin en 1998.

Dans l’expérience menée par exemple par Guth et al., 2007, pour étudier l’influence du leadership sur les niveaux de coopération, le jeu choisi est un classique jeu de contribution au bien public. Un des traitements sert de repère (benchmark) et consiste en un jeu simultané de contribution au bien public (VCM : Voluntary Contribution Mechanism) dans des conditions standard (voir ici pour les nouveaux lecteurs ou les lecteurs ayant oublié). Dans un des autres traitements, un participant choisi au hasard (le leader) détermine son niveau de contribution au bien public en premier, ce qui est annoncé aux trois autres membres du groupe(les followers) avant que ceux-ci déterminent simultanément leur propre niveau de contribution (VCM with leadership). D’un point de vue théorique, le fait qu’un joueur annonce en premier sa contribution aboutit aux mêmes prédictions théoriques que dans le cas de contributions simultanées : la stratégie dominante est de choisir un niveau de contribution égal à zéro, on retombe sur le classique problème de comportement de passager clandestin. Ces auteurs mettent également un traitement qu’ils appellent « strong leadership » : le leader choisit sa contribution, annoncée aux trois followers, qui déterminent leur propre contribution, puis à l’issue de cela, le leader prend connaissance de ces niveaux de coopération et peut décider d’exclure un des followers pour la période suivante (chaque participant peut joueur jusqu’à 25 périodes de ce jeu). Dans ce cas, le joueur exclu gagne sa dotation et ne peut profiter de l’opportunité liée au bien public.

Par ailleurs, le leader est déterminé de deux manières : soit il est tiré au sort au début de la session, et reste leader pendant les 16 premières périodes du jeu répété de contributions (il y a 25 répétitions en tout), soit les 4 participants auront l’opportunité d’être leader pendant le même nombre de périodes (chacun 4 fois donc), la séquence des leaders successifs étant annoncée au début du jeu.
En fait, c’est encore un peu plus subtil comme design (c’est pour cela que j’ai toujours aimé ce que faisait Werner Güth, c’est à la fois rigoureux et subtil d’un point de vue expérimental), les 16 premières périodes du jeu déterminent le leader de manière exogène, et les périodes 17 à 24 donnent l’opportunité aux participants de chaque groupe de choisir de manière endogène leur leader. En fait, lors de la période 16 et de la période 20, les participants ont la possibilité de voter, soit pour dire qu’ils veulent garder leur leader (ou pas) soit pour dire qui ils souhaitent avoir comme leader parmi les 4 membres du groupe. Le graphique suivant donne les résultats sur la contribution moyenne des participants dans les traitements benchmark (control), leader and strong leader :

source : Guth et al., 2007, JPE

Les résultats sont à la fois attendus et intriguants : le niveau de contribution moyen est d’autant plus élevé que le pouvoir du leader est fort : s’il peut annoncer sa contribution et exclure (punir) un des membres du groupe, la contribution moyenne est deux fois plus forte que dans le cas du jeu simultané sans leader, et représente environ 80% de la dotation totale accordée à chaque participant (25 jetons). Pour le traitement leadership « simple » (sans pouvoir d’exclusion), le niveau de coopération moyen est un peu plus élevé, mais l’effet de leadership a tendance à s’émousser avec le temps pour converger vers le niveau de contribution moyen sans leadership. Le pouvoir d’exclusion fait clairement la différence en termes de niveau de coopération !

Ils ne constatent pas d’effet significatif concernant la détermination exogène du leader : le fait d’avoir toujours le même leader ou qu’il y ait rotation n’influence pas les niveaux de coopération. Le résultat le plus important est qu’ils mesurent une corrélation significative entre la contribution du leader et la contribution des followers, ce qui va à l’encontre des prédictions théoriques les plus simples (défection mutuelle).
Bien évidemment, ils constatent également que la probabilité d’être exclu pour un follower est d’autant plus importante que sa contribution est faible par rapport à la moyenne des contributions de son groupe. En moyenne, le leader a exclu un follower dans 20% des situations, l’exclusion étant d’autant plus forte que la déviation de la contribution du follower par rapport à la moyenne était importante (seules les déviations négatives -ma contribution est plus faible que la moyenne- augmentaient la probabilité d’exclusion).

En bref, le leadership augmente le niveau de coopération de manière essentielle, ce qui reste une forme d’énigme d’un point de vue théorique. Dans une autre étude expérimentale récente, David Levy, Kail Padgitt, Sandra Peart, Daniel Houser et Erte Xiao  (2010) montrent que cet effet positif du leadership n’est réel que si le leader est humain et pas un automate (ce n’est pas un blague, cela est paru dans le Journal of Economic Behaviour and Organization).

Moi qui pensais pouvoir envoyer ma copie conforme robotisée d’ici quelques années surveiller à ma place ni vu ni connu. Blood and Guts, je suis fait comme un rat ! A moins que l’autre surveillant ne puisse pas deviner qu’il s’agit de ma copie…

PS : l'image qui illustre ce billet n'a en fait rien à voir avec le propos, mais la tentation de rendre un hommage mérité à Blake Edwars, parti rejoindre Peter Sellers au paradis des génies la semaine dernière, était trop forte.

dimanche 28 novembre 2010

Les notes à l'école primaire : utile ou pas ?



Vingt personnalités, Michel Rocard, Daniel Pennac, Richard Descoings, Marcel Rufo et des chercheurs comme Axel Kahn ou Eric Maurin, un collègue, parmi d’autres, se sont récemment joints à un appel lancé en septembre par l’AFEV qui vise à supprimer l’utilisation des notes au sein de l’école élémentaire. Les arguments principaux sont bien connus, les notes décourageraient les élèves, mineraient leur confiance en eux et la conclusion aussi, la suppression de la note permettant de faire une école de la coopération plutôt qu’une école de la compétition (voir ici).

En tant qu’enseignant, mon avis est effectivement partagé, l’évaluation personnelle doit faire partie de l’itinéraire d’un écolier ou d’un étudiant, car il lui faut bien des éléments lui permettant de se situer dans l’absolu et éventuellement relativement à l’ensemble de ces camarades. Par ailleurs, cette évaluation ne se réduit pas forcément à une note, mais peut prendre de multiples formes. Je comprends aussi les arguments d’Eric Maurin, qui donne une lecture sans doute plus sociologique du problème, basée sur une évidence factuelle qui est incontestable. En tant qu’économiste, je me dis que les incitations doivent avoir un effet, et toute la question est donc de savoir si les incitations tirées de la notation sont plus efficaces ou moins efficaces pour la réussite des élèves que l’absence de système d’incitation ou qu’un autre système d’incitation.
Par ailleurs, soit dit en passant, la suppression des notes est également un enjeu de politiques publiques, dans la mesure où l’efficacité des politiques d’éducation –quand elle est mesurée – est souvent jaugée au travers de la variation des performances des élèves au regard de ces fameuses notes. Bien évidemment, cette approche de l’évaluation par les notes ne saurait être que très partielle, et il a été affirmé depuis bien longtemps que l’efficacité des réformes de l’éducation devait être jugée au regard de multiples critères autres que les performances en termes de notes, par exemple au travers de l’impact sur l’état général et les comportements des enfants et des adolescents (santé, tendance à l’addiction, etc.). Je cite notamment Bowles, Gintis et Obsborne en 2001 dans l’American Economic Review à propos du caractère imparfait des notes (test scores) en matière d’évaluation des performances à l’école et la nécessité d’aller au-delà :

“(Economists) need broader indicators of school success, including measures based on the contribution of schooling to behavioral and personality traits »
Il semble par ailleurs que la relation entre les notes obtenues dans la scolarité et les revenus perçus ultérieurement par les personnes devenues actives soit relativement ténue.
D’un point de vue comportemental, la question qui est posée est celle de l’impact de l’information que peuvent obtenir les individus sur leur performance actuelle sur leurs niveaux d’efforts à venir et leurs performances futures. Ou, dit autrement, quel est l’effet incitatif de ces fameuses notes sur le niveau d’effort des élèves dans le travail ?

Cette question de l’impact du feedback est au cœur des travaux portant sur l’économie des ressources humaines (je ne sais pas traduire mieux « personal economics », mais peut être dit on simplement l’économie du personnel), qui n’est pas ou peu ma spécialité. La littérature empirique, en particulier expérimentale, a été importante ces dernières années sur cette question.
J’ai déjà évoqué dans ce billet les problèmes qu’il pouvait y avoir à essayer de mettre en place un système d’incitations dans un contexte d’éducation, l’effet pervers étant que les motivations extrinsèques se substituent aux motivations intrinsèques et que l’effet net total pouvait au final être négatif. Mutatis mutandis, l’effet de motivation liée aux notes pourrait évincer le goût du travail personnel et de l’effort.

Notamment, la question de l’efficacité des notes (du feedback en général) peut être abordée à travers deux aspects : le fait que le niveau de ma note me donne une information absolue sur ma performance, et secundo, le niveau relatif de ma note par rapport à celle des autres élèves, si cette information est publique. Si elle est publique, elle peut prendre de multiples formes, ma note pouvant être comparée à une moyenne assortie éventuellement d’un écart-type communiquée par la scolarité, voir aller jusqu’à une connaissance parfaite de la distribution des notes.
D’un point de vue économique, le feedback sur la performance passée peut affecter ma performance courante soit directement, selon que  les performances passée et présente sont des substituts ou des compléments dans la fonction d’utilité des agents, ou indirectement en révélant à l’individu une information sur le rendement de son effet (effet de signal).

Cette polémique tombe à pic, puisque la littérature sur cette question est en plein boom dans le domaine expérimental. Récemment, Azmat et Irriberi,2010 ont publié les résultats de deux études qui portent en particulier sur l’impact du feedback d’une part sur les performances, mais aussi sur le bien être des évalués. Ils se focalisent notamment sur l’impact du feeback relatif sur les performances des individus. Ils observent un effet significatif des scores relatifs sur la performance finale des étudiants, et donc sur leur niveau de motivation, à l'occasion d'une expérience naturelle. Ils confirment ces résultats dans ce papier, mais mettent également en évidence les effets négatifs sur le bien être des élèves en dessous de la moyenne d'un système d'évaluation relatif par rapport à un système d'évaluation absolu.

Toutefois, l’étude la plus intéressante car la plus proche de la question posée est celle de Todd Cherry &  Larry Ellis , dans un article publié en 2005 dans l’International Review of Economics Education. Ces auteurs comparent l’impact d’un système d’évaluation absolu (mon grade ou ma note sur une échelle de 1 à 10 par exemple) par rapport à un système d’évaluation relatif . Dans le système d’évaluation relatif, mon score (ma note finale) est déterminée relativement à la performance des autres élèves. Par exemple, si je réponds à plus de questions que 90% de ma classe, j’obtiens un A. Si je réponds mieux que 75% de ma classe, j’obtiens un B, etc.  Ce système met précisément en avant une forte compétition des élèves.

C’est précisément l’efficacité de l’un ou l’autre schéma d’évaluation sur la performance finale des élèves qu’ils cherchent à mesurer. Comme ils ont 4 classes dans un cours d’introduction à la macroéconomie, ils mettent en place pour deux de ces groupes une évaluation relative (rank order grading) et pour les deux autres l’évaluation absolue (criterion-referenced grading). Le graphique ci-dessous donne la distribution des scores finalement obtenus à l’examen en fonction des deux schémas d’incitation par les notes :
source : Cherry & Ellis, 2005

Comme il est difficile d’en tirer une conclusion très nette, ces auteurs font une analyse économétrique du score en mettant comme variable explicative le traitement « rank order grading » traité comme une variable « dummy ». Les résultats sont assez explicites : le score moyen des étudiants est meilleur dans le schéma qui donne une évaluation relative à l’étudiant plutôt qu’une évaluation absolue. Ils restent prudents toutefois et insistent sur le fait que ce genre de système de notation n’est pas forcément adéquat si l’objectif est de promouvoir la coopération des élèves, le système d’évaluation absolu étant, dans ces conditions, sans doute préférable.

Pour conclure ce billet, ce n’est pas tant la notation en elle-même qui semble poser problème mais la manière dont cette notation est utilisée par les enseignants et les étudiants pour se comparer aux autres. C’est cela qui peut avoir des effets pervers. Toutefois, les effets de la compétition ne sont pas toujours mauvais (je suis désolé de rappeler une telle évidence, mais beaucoup s’emportent dans de grands débats sur les effets pervers de la compétition en oubliant quelques uns de ses mérites incontestables). Pour finir, j’emprunte à Télérama de cette semaine cette conclusion que j'ai trouvée magnifique. Un professeur de français déclare à un élève effondré par sa note de 7/20 :

« Vous n’êtes pas ce 7/20. Ce 7/20, c’est ce que valait votre travail la semaine dernière entre 8 heures et midi. Faites bien la différence. »

En voilà un qui a tout compris à la pédagogie. Raison de plus pour ne pas casser trop vite le thermomètre et réfléchir de manière pondérée aux conséquences potentielles de la suppression des notes.

dimanche 31 octobre 2010

Facebook, le prix de l'essence et le rôle de l'approbation



Je lis les journaux régionaux extrêmement rarement. J’ai toujours plus ou moins détesté cela, sans doute en réaction à cette période de mon enfance où, lors des pluvieuses journées de vacances passées dans mon Morvan natal, ma seule ressource pour lutter contre l’ennui était la lecture des strips de Superman repris par le journal La Montagne…
De manière plus générale, j’ai toujours vaguement contesté cette manière de voir l’actualité par le petit bout de la lorgnette, où on s’intéresse plus au concours de boules de l’amicale de Petaouchnouk-sur-Sèvre qu’au conflit du Darfour, et ces journaux dans lequel l’intérêt majeur d’un grand nombre de lecteurs consiste à consulter les annonces nécrologiques au cas où son voisin y figurerait.

[Je suis un peu de mauvaise humeur, perturbé sans doute par le passage à l’heure d’hiver]

Toutefois, il y a peu, ayant à ma disposition une des bibles du Breton moyen (en dehors de the Holy Bible bien sûr), en l’occurrence le journal Ouest France, je suis tombé sur cette petite histoire présente dans l’édition du 27 octobre dernier que je m’en vais vous narrer.

Il était une fois, dans une petite ville d’Ille-et-Vilaine, un gentil responsable de station service, prénommé Eric. Celui-ci était en butte, comme tous ses semblables, aux difficultés récurrentes d’approvisionnement en carburant dues aux dépôts bloqués par quelques centaines de syndicalistes – une dizaine selon la police- opposés à la réforme des retraites.

Etant d’une nature généreuse, il se dit qu’il serait souhaitable d’informer tous ces pauvres automobilistes errant comme des âmes en peine à la recherche du Graal contenant, non pas le sang du Christ, mais du bon et lourd gasoil. Il a alors l’idée de les informer en temps réel ( ?) via la page Facebook de la grande surface dont il tient la station essence. Las, loin de s’arrêter là, constatant que les prix de la concurrence s’envolent dans cette période de pénurie, les marges passant d’après lui de environ 1% à 6% pour certains, il  décide courageusement de baisser les prix des carburants qu’il propose et, cerise sur le gâteau, d’accroitre sa capacité d’accueil en embauchant des extras pour limiter la durée des files d’attente.
Résultat ? des dizaines de messages d’encouragements et de remerciements pour cet accueil amélioré et ces prix généreux sur la page Facebook de la grande surface. Eric, ému jusqu’aux larmes (bon, là je me fais un peu un film), décide alors d’organiser un challenge : si avant le mardi 26 octobre 8h, cent internautes ont cliqué « j’aime » sur la fameuse page Facebook, le prix du carburant baisse. Mais Eric va plus loin, si en plus de cela, 800 internautes se déclarent fans de la dite page, le gas oil est vendu à prix coûtant. Apothéose : si la page compte plus de 1000 fans, tous les carburants sont à prix coûtant.

En fait, à l’issue du délai, 109 personnes ont déclaré avoir « aimé » cela, et du coup Eric, bouleversé par une émotion que l’on ne  peut que déclarer légitime a décidé de fournir tous les carburants à prix coûtant toute la journée, allant bien au-delà de son engagement initial. Conséquence prévisible : rupture d’approvisionnement dès 17h45 le même jour !

Lecteur, tu te doutes que ce qui m’intéresse là-dedans est de donner un peu de sens économique à ce paradoxe : un gérant qui s’engage à vendre à prix coûtant moyennant le fait que des internautes anonymes lui ont signifié en nombre suffisant qu’ils le trouvaient sympathique ! Notes bien que nombre d’internautes peuvent l’avoir déclaré sympathique, que cela ne leur coûte pas grand-chose et qu’en plus, ils peuvent en fait le trouver réellement antipathique, mais que tout ce qui compte, c’est que in fine, un nombre suffisant d’individus aient déclaré trouver son action sympathique.

Ce que je veux dire par là, c’est que le pouvoir de rétorsion par les internautes en cas de non respect de la parole du gérant est relativement limité. Ce ne sont pas 100 internautes, qui, du reste, ne sont pas forcément des clients récurrents de la station, qui vont pouvoir punir le gérant en boycottant sa station par exemple. Par ailleurs, on peut penser qu’un objectif de construction d’une réputation par le gérant auprès de ses clients est sans doute réel, mais n’est pas forcément la motivation principale de son comportement.

La question est donc de savoir si ce type de récompense (« j’aime » sur Facebook) ou de sanction («je n’aime pas »)  symbolique a une influence sur les comportements des individus. Cette idée est vieille comme le monde ou presque, l’un de ceux qui l’a avancé de manière sérieuse étant par exemple le sociologue Emile Durkheim.

Ces sanctions / récompenses sont dites immatérielles (on parle aussi de feedback positif ou négatif dans la littérature expérimentale) dans le sens où elles n’affectent pas le bien être matériel de l’agent sanctionné ou récompensé mais uniquement son état émotionnel. Les exemples sont nombreux, tant les expressions possibles de l’approbation et de la désapprobation verbalement et facialement sont nombreuses : insultes, ostracisme social (cf. le doux procédé de l’excommunication), l’humiliation (etc.) mais aussi les applaudissements, les encouragement, sourires et autres manifestations d’enthousiasme individuel ou collectif à l’égard du comportement d’une personne.

Initialement, je pensais dénombrer par dizaines les études expérimentales consacrées à cette question pourtant simple, et force est de constater qu’il n’est pas si évident de trouver des articles qui traitent directement de cette question dans le domaine de l’économie expérimentale ou de  l’économie comportementale dans ce sens précis. Nombre d’études existent sur l’impact des sanctions/ récompense matérielles, également sur la question de l’impact de sanctions symboliques sur les contributions (notamment un papier connu d’un de mes collègues et co-auteurs, David Masclet dans Masclet et al., 2003). Toutefois, le feedback proposé  - un certain niveau de désapprobation non matériel par exemple- est toujours ex post, une fois les décisions effectives des individus rendues publiques pour l’ensemble du groupe.

La seule étude à ma connaissance sur ce sujet est celle de Lopez-Perez & Vorsatz en 2010 dans le Journal of Economic Psychology, la question posée par ces auteurs étant selon moi précisément la principale énigme issue du comportement de mon sympathique gérant de station d’essence. En quoi la présence d’une approbation ou d’une désapprobation non matérielle peut-elle influencer les choix ?

Pour étudier cela, les auteurs, après avoir construit un modèle d’aversion à la désapprobation, comparent trois traitements fondés sur un jeu de dilemme du prisonnier joué une seule fois (« one shot game »), ce afin de tester le modèle théorique construit au départ. Dans ce jeu, faut-il le rappeler inventé par Dresher et Flood en 1950, et contextualisé par Tucker en 1952, deux joueurs doivent décider de coopérer ou de ne pas coopérer (ces termes ne sont pas utilisés dans les instructions du jeu), le choix étant simultané. Si les deux coopèrent, ils gagnent chacun 180 points, et si les deux ne coopèrent pas, ils gagnent chacun 100 points. Si l’un des deux coopère et l’autre non, celui qui coopère gagne 80 et celui qui ne coopère pas gagne 260 points. L’équilibre de Nash consiste bien sûr en une défection mutuelle.

Le premier traitement expérimental est un traitement de contrôle, les participants sont appariés par deux de manière aléatoire et anonyme et jouent le dilemme du prisonnier. Dans le second traitement, fait en particulier pour tester leur modèle d’aversion à la désapprobation, les sujets doivent dire, ce avant de choisir leur stratégie, ce qu’ils pensent que leur adversaire va penser de leur choix dans toutes les configurations possibles du jeu, en clair s’il désapprouve ou approuve chaque stratégie possible. Par exemple, si on suppose que l’autre coopère, le fait que je coopère moi-même devrait être massivement approuvé par mon partenaire. Cette information sera communiquée à l’adversaire, chaque joueur ayant accès à ce jugement hypothétique des actions de l’autre par lui-même.

Dans le dernier traitement, les joueurs ont la possibilité, une fois leur décision faite, d’envoyer un message coûteux à leur partenaire (« feedback »), ce message disant que le choix fait par l’autre était soit bon, soit mauvais, soit ni bon ni mauvais. Le traitement qui m’intéresse le plus est évidemment le second traitement, fondé sur l’espérance d’être approuvé ou désapprouvé par le partenaire.

Les résultats brièvement résumés sont les suivants : le taux de coopération est plus élevé dans le traitement feedback (ce qui est dans la lignée des études expérimentales existantes sur l’impact des sanctions non matérielles sur la coopération) que dans le traitement de contrôle. Le traitement « expectations » - anticipations sur ce que mon adversaire va penser de mon action – est intermédiaire, c’est-à-dire que le taux de coopération est un peu meilleur que dans le traitement de contrôle, bien que la différence ne soit pas statistiquement significative (sur le graphique ci-dessous, le taux de participants ayant choisi "coopérer" en fonction de traitements, en bleu le traitement de contrôle, en orange le traitement "expectations" et en jaune le traitement feedback).

Source : Lopez-Perez and Vorsatz, 2010

Ainsi, seuls certains joueurs sont averses à la désapprobation, mais clairement ce n'est pas l'écrasante majorité des participants.

Au final, les automobilistes de la grande surface ont eu de la chance de tomber sur un gérant qui, foncièrement, n’est certainement pas altruiste, mais simplement sensible au regard de l’autre, motivé par un geste d’approbation de ses pairs, ce qui, il faut l’avouer est le cas de nombre d’entre nous.