vendredi 27 mars 2009

Vassili Leontief et les Dupondt



Il y a quelques mois, alors que je marchais d’un pas vaillant dans la cour de la faculté, je fus interpellé par un étudiant. Il m’expliqua alors que, quelques années en arrière, il m’avait subi en macroéconomie, qu’il avait bien aimé mon cours et tout particulièrement (dixit) « le truc sur les dupondt »...
Flatté, je cherche dans mes souvenirs de quoi il veut parler et me remémore alors que j’étais chargé du cours de macroéconomie en première année d’économie, et qu’à cette occasion, j’avais effectivement fait un « truc sur les dupondt ».
En effet, dans ce cours magistral, j’abordais, entre autres, la question des technologies de production et notamment le concept de fonction de production macroéconomique. La fonction de production est tout simplement une relation économique entre le niveau de production et les quantités de facteurs de production, usuellement le capital et le travail. Ces facteurs peuvent être, selon la spécification de cette fonction, plus ou moins substituables, c’est-à-dire que pour produire un niveau donné de biens, il est possible d’utiliser plus ou moins de capital et conséquemment moins ou plus de travail. En général, on considère en économie que le niveau de substitution en capital et travail dépend de la période d’étude que l’on adopte : plus la période est courte (le court terme), plus le niveau de substitution entre les facteurs de production est faible et plus la période est longue, plus on considère, au niveau de l’entreprise comme au niveau macroéconomique, qu’il est possible de remplacer du capital par du travail, ou vice-versa, cette substitution dépendant de l’évolution du coût relatif des facteurs de production.
Un petit défi pédagogique résidait dans la possibilité d’expliquer clairement ce que pouvait être une fonction de production à facteurs parfaitement complémentaires, dans laquelle si la Nation veut augmenter le niveau de production en biens, il est nécessaire d’augmenter de concert capital et travail : si je veux produire un écran plat de plus, j’ai besoin d’une nouvelle machine ET d’un ouvrier qui s’occupe de cette machine. Cette forme de fonction de production a été proposée par un grand économiste d’origine russe, Vassili Leontief (1906-1999), qui fut en particulier un des fondateurs de la comptabilité nationale.
Etant tintinophile à mes heures perdues (de plus en plus rares il faut l’avouer…), je me suis souvenu d’une scène du Trésor de Rackham le Rouge, j’ai eu l’idée saugrenue – ce n’est pas la première et ce n’est pas la dernière – d’illustrer ce point de mon cours à l’aide de cette scène.
Je présentais donc la planche d’Hergé dans laquelle les Dupondt actionnent la pompe qui alimente en air le scaphandre de Tintin (les scaphandres autonomes n’existaient pas encore en 1941) parti à la recherche du trésor qu’il croit enfoui dans l’épave de la Licorne. Bien évidemment, pas d’air pour Tintin avec les Dupondt sans la pompe et pas d’air non plus si la pompe n’est pas actionnée par les Dupondt brother : c’est bien une fonction de production à la Léontief, dans laquelle le produit n’est réalisé que s’il y a du capital (la pompe) ET du travail (les Dupondt).



Alors que Tintin progresse avec une certaine difficulté au fond de l’océan (il faut dire qu’à ce moment là, il vit des aventures assez épuisantes depuis 12 ans, étant « né » en 1929, d’où sans doute une certaine fatigue), l’air cesse d’arriver ! Damned, que se passe-t-il ? Rastapopoulos a-t-il coupé le tuyau ? (suspense insoutenable)


Mais non ! Les Dupondt sont simplement un peu fatigués et se reposent en regardant l’onde pure.
Bien évidemment, si pas de Dupondt, pas de pompe qui fonctionne et donc pas d’air ! Quel bel exemple ludique de fonction à la Léontieff !! Quel bel effort pédagogique !
Emergeant de mon souvenir, je demande alors à l’étudiant s’il se souvient à quoi était rattaché « le truc sur les Dupondt ».
Il me regarde alors d’un air gêné et me réponds après quelques secondes d’intense réflexion quelque chose du style « ben… Heuh… ». Je comprends que je ne pourrai rien en tirer de mieux.
Quelle leçon pédagogique tirer de tout cela ?
Bon, si j’ai à le refaire, j’écrirai au tableau « Q=min(aL,bK) », cela vaudra mieux, et adieu les dupondt, rognnnnnnntddddjjjjuuu !!!…
PS : avec toute ma reconnaissance à Hergé (et ses héritiers) pour les milliers de variations infinitésimales qu'il est possible de faire avec les aventures de son plus célèbre rejeton !

dimanche 22 mars 2009

De la myopie du consommateur



Récemment,  je me suis mis en tête d’acheter un casque audio de qualité correcte pour écouter dans des conditions acceptables ces  diables de petits objets que nous nous croyons presque tous obligés d’avoir, en l’occurrence les lecteurs mp3 (un des maux civilisationnels de ce siècle naissant avec les téléphones portables et la télé-réalité).
Etant un peu audiophile, j’ai une idée de ce qui est un bon casque et de ce qui n’en est pas un, et j’avais porté mon dévolu sur un modèle de k..ss, bien connu (que je ne citerais pas car je voudrai pas avoir d’ennui), et apparemment actuellement un must auprès de mes étudiants en termes de branchitude (ils ont bon goût au moins d’un point de vue technique).
Comme tout bon consommateur lambda, je regarde un peu sur le web pour comparer les prix, et trouve qu’un  site de vente à distance bien connu (le premier site de vente à distance de livres, cd, dvd et autres gadgets technologiques, du nom d’une peuplade antique peu commode exclusivement composée de représentants du beau sexe) propose ce modèle à un prix très concurrentiel comparé aux autres sites. Je le commande donc hic et nunc.
Quelques jours plus tard, je passe dans une enseigne de la grande distribution spécialisée dans le high-tech (un nom du genre de « galaxie venus »), enseigne qui jouxte mon lieu de travail et qui fait des campagnes de pub retentissantes basées sur l’idée, on va le voir peu vérifiée, qu’elle est imbattable en termes de prix.
Par curiosité, je vais voir le casque que je viens d’acquérir, et abasourdi, découvre que son prix est exactement deux fois plus élevé !  Ravi de mon choix rétrospectivement si avisé, je me dis que j’ai peut être eu de la chance et regarde d’autres modèles du même constructeur : ils sont tous environ deux fois plus cher que ce que l’on peut trouver au meilleur prix sur le net !
Vous allez penser que j’enfonce des portes ouvertes, que le niveau de service n’est pas le même, blablabla… De toute façon, je ne cherche pas à marcher sur les plates-bandes de « que décider ? » ou de « 60 millions d’acheteurs ».  C’est plus un problème économique que cela me pose ... Comment est-il possible qu’une enseigne connue table sur une marge d’au moins 100% (le bon prix que j’ai eu n’est pas une promotion exclusive, temporaire, ou exceptionnelle, c’est le prix que l’on peut trouver chez bon nombre de revendeurs dont on peut supposer qu'ils ne vendent pas à perte) ?
J’écarte d’emblée l’hypothèse d’imbécillité pure des consommateurs, des producteurs ou des distributeurs (quoique…). Il y a bien sûr des tas de raisons économiques et psychologiques pour expliquer cet écart de prix, et un livre entier ne suffirait pas  pour les exposer totalement (notamment, je pense encore une fois au problème d'impulsivité et de self control dans les comportements d'achat, voir ce qu'en dit le très bon bouquin de Dan Ariely, "c'est (vraiment) moi qui décides?"). Quid alors ?
Il y a quelques années, j’avais lu un papier de Morgan, Orzen  & Sefton (2003) sur la dispersion des prix empiriquement observée en dépit de la montée du commerce électronique et de l’accroissement de l’information des consommateurs. J’avais trouvé cela fort intéressant, mais le modèle théorique se basait sur une hypothèse qui me semblait un peu ad hoc : une partie des consommateurs étaient « captifs » et l’autre non.
Cela s’appliquait au commerce sur internet, mais il me semble évident que l’argument peut être généralisé à l’ensemble des consommateurs. Certains comparent donc et d’autres non, restent fermement attachés à leur crémerie même si leur crémier roule en Porsche alors qu’eux roulent en Twingo (cette illustration ne figure pas dans l’article de Morgan et al, ce sont des économistes sérieux, eux ! Et je n’ai rien contre les Twingo). La mécanique théorique est alors  simple, comme certains sont captifs (ou non informés) et d’autres non, (ils comparent et cherchent le meilleur prix), alors les producteurs répercutent le poids de la concurrence très forte qu’ils subissent sur les consommateurs informés (les baisses de prix en cas d’augmentation du nombre de producteurs sur ce marché là) par des hausses de prix sur le marché des captifs. Le modèle prédit en conséquence une augmentation de la dispersion des prix en cas d'accroissement de la concurrence entre les vendeurs.
Dans l'article de Morgan et al., cette prédiction théorique est en grande partie corroborée par l'évidence expérimentale issue de jeux réalisés en laboratoire par leurs soins. La dispersion des prix est observée dans le laboratoire et confirme donc en grande partie les prédictions théoriques du modèle.
Et dire que je trouvais cela trop mécanique !
Comme quoi les explications les plus simples sont parfois les meilleures, et qu’il n’est pas forcément utile de chercher très loin d’un point de vue théorique pour coller à la réalité observable !
En attendant, chers audiophiles, vous faites comme vous voulez, mais comparez nom de Zeus...

samedi 14 mars 2009

« L’homme des hautes plaines » ou l’économie des biens publics par le western


J’ai revu récemment le premier western du grand Clint (en tant que réalisateur bien sûr), « High plains drifter » (1973), qui est aussi un de ses films les plus étranges, mais un des plus réussis (en dehors de l’inégalé « Josey Wales », dont je parlerai sans doute un jour). Dans cette histoire sur une thématique récurrente de ce genre (une ville en proie à une bande de malfaiteurs qui bafouent la loi, un ange exterminateur et une justice rétablie), Eastwood aborde des thèmes assez variés, parfois politiquement incorrects, comme l’oppression, la lâcheté collective (thèmes dont il est friand et repris souvent dans d’autres films, comme Impitoyable), et, last but not least,… le problème de la contribution individuelle au bien public !
L’histoire est en quelques mots la suivante : une ville est soumise à la loi de quelques outlaws sans foi ni loi qui ont assassiné le shérif sous les yeux coupables des notables et de la population entière, en le fouettant à mort en public. Arrive un mystérieux étranger (personnage récurrent de l’imaginaire leonien et eastwoodien) qui semble n’avoir peur de rien, et qui moyennant un marché avec la population va rétablir l’ordre. Néanmoins, en contrepartie, ils demandent aux notables de lui accorder tout ce qu’il demandera, ce qu’ils acceptent sans hésiter. Il fera repeindre la ville en rouge, la débaptisera pour la renommer « Hell » et fera du souffre-douleur local, un nain, le shérif et le maire de la ville. Les citoyens et les mêmes notables, de plus en plus écrasés par le poids de leur marché, tenteront de l’éliminer, sans succès. Puis l’étranger réglera le compte des quelques outlaws restant qui, incarcérés, reviennent se venger des habitants de la ville, puis mettra le feu à la ville. On comprend alors que l’étranger est sans doute le fantôme du shérif assassiné, encore que plusieurs interprétations sont possibles (dans la version française, il est fortement suggéré que l’étranger est le frère du shérif qui revient le venger).
Le film peut aussi être interprété (comme beaucoup de westerns), comme une allégorie sur le bien public. Ici, le bien public est la sécurité des habitants de la ville.
Une scène des plus intéressantes pour illustrer cela se passe entre l’Etranger et le prêtre de la ville, après que l’Etranger ait chassé les résidents de l’hôtel de la ville qu’il s’est approprié :
PREACHER: See here, you can't turn all these people out into the night. It is inhuman, brother. Inhuman!
STRANGER: I'm not your brother.
PREACHER: We are all brothers in the eyes of God.
STRANGER: All these people, are they your sisters and brothers?
PREACHER: They most certainly are.
STRANGER: Then you won't mind if they come over and stay at your place, will ya?
Mais en fait, tout le film tourne autour de ce problème de contribution individuelle au bien public.
Le problème le plus simple de la contribution au bien public (ici on peut considérer une technologie de production additive) peut s’écrire

Où Gi est le gain du citoyen i, D sa dotation en richesses, ci sa contribution au bien public (la sécurité de la ville), r1 le rendement unitaire de l’investissement privé et r2 le rendement unitaire de l’investissement dans le bien public
D’un point de vue théorique, tant que r2/n r1, la choix optimal est ci=D.
Plus personne ne veut contribuer à ce bien public depuis que le shérif a été assassiné, ie les habitants sont tous des passagers clandestins, ce qui aboutit à un niveau de bien public nul (r1>r2).
Mais le coût d’opportunité de la non production du bien public s’élève, ce qui peut s’interpréter comme le fait que le rendement du bien privé diminue puisque les outlaws font de la ville leur proprieté privée et exclusive. Donc r1 devenant inférieur à r2, il est optimal de rétablir en totalité le bien public, ce qui explique que les citoyens donnent « les pleins pouvoirs » (encore un film avec Eastwood) à l’Etranger. Le bien public est rétabli, et la collectivité a atteint l’optimum de Pareto. Toutefois l’Etranger veut punir les habitants de leur lâcheté, et devient de plus en plus exigeant. Le rendement du bien public que l’étranger produit s’abaisse puisque son comportement est de plus en plus  coûteux pour les citoyens. Les habitants, ayant de surcroit moins besoin du bien public à court terme (il n’y a plus d’outlaws dans l’immédiat, l’étranger les a expédié ad patres), même s’ils en ont besoin à long terme (la menace du retour des autres outlaws à l’issue de leur séjour en prison), le rendement du bien public s’abaisse. Ils sont dès lors de nouveau tentés par le comportement de passager clandestin : détruire le bien public, car ils sont non seulement opportunistes mais impatients, car ils pondèrent faiblement la valeur du bien public futur.
C’est bien sûr une vision purement économiste de ce film magnifique, un des chefs d’œuvre du western des années 70, et qui mérite d’autres lectures plus intéressantes sans doute.
Comme quoi on peut illustrer des phénomènes économiques par des films beaucoup plus sexy que « le sucre » de Jacques Rouffio, ou « Wall street » de Oliver Stone ! (c’est mon point de vue en tout cas)…. J’aime d’ailleurs l’idée selon laquelle un enseignant d’économie serait capable d’illustrer tout un cours de microéconomie par des films, idée sans doute saugrenue d’un cinéphile invétéré.


samedi 7 mars 2009

La malédiction du vainqueur, une évidence empirique tirée des jeux en classe



Une fois n’est pas coutume, un billet à teneur plus pédagogique à propos d’une de mes marottes, les jeux en classe. Cette méthode pédagogique s’inspire de l’économie expérimentale. Elle consiste à faire jouer à des étudiants une situation économique précise (ils tiennent le rôle de vendeurs, d’acheteurs, de principal, d’agent, etc.). Comme dans l’économie expérimentale, les institutions et l’environnement du jeu économique étant fixés par l’enseignant, il est souvent possible d’établir une prédiction théorique précise, qui peut varier selon les traitements.
D’un point de vue strictement historique, on peut dire que le premier à avoir avancé l’idée d’expérience est Edward Chamberlin dans les années 40, et que ses premières expériences, notamment sur la théorie du monopole, ont été des jeux en classe avec ses étudiants (Vernon Smith était un des ses étudiants et en a conçu sans doute l’idée plus systématique d’expérimentation en économie). Il est donc possible d’avancer que les jeux en classe sont nés avant l’économie expérimentale au sens strict du terme… Bref, c’est en fait une méthode pédagogique en plein développement, mais dont l’idée remonte à loin.
Dès que le cours s’y prête, je trouve intéressant de mettre en œuvre ces jeux en classe. En effet, au-delà du côté ludique réel de l’apprentissage de l’économie par le jeu, la compréhension des mécanismes  économiques en jeu (sans jeu de mots, sic !) se forme beaucoup plus rapidement  dans l’esprit des étudiants (ceux qui ne seraient pas convaincus par l’apport de cette méthode pédagogique peuvent aller voir le papier de Tsigaris (2008), qui montre l’impact de cette méthode sur les performances des étudiants : http://www.cluteinstitute-onlinejournals.com/PDFs/1058.pdf) .
Par ailleurs, les résultats du jeu peuvent être une excellente application à l’issue d’un détour théorique. Le plus souvent, j’utilise le formidable serveur conçu par Charlie Holt (VECONLAB http://people.virginia.edu/~cah2k/) pour réaliser des jeux en ligne via internet et le non moins formidable livre qu’il a écrit (Holt C. A. (2005), Webgames and strategic behavior : Recipes for interactive learning), totalement cohérent avec les applications proposées par son serveur et qui donnent un formidable outil pédagogique à tous les enseignants d’économie (seul problème : tout est en anglais, bien sûr !)
La méthode que je préconise consiste à d’abord faire jouer une situation économique, à interpréter les données avec les étudiants –mieux encore, donner les résultats détaillés aux étudiants et leur faire étudier statistiquement les données - et à essayer ensuite de les expliquer en construisant le modèle théorique. Les résultats ne sont que rarement triviaux, dans le sens où ils ne confirment pas toujours les prédictions du modèle (parfois trop simple il faut le dire) que l’on a construit. L’exemple des jeux d’enchères sur valeur commune est particulièrement intéressant à ce titre.
Le jeu d’enchères sur valeur commune met en exergue les effets de la compétition entre des agents soumis à un aléa sur la valeur économique du bien qu’ils sont susceptibles d’acheter (de célèbres applications économiques ont été fournies par la compétition des compagnies pétrolières lors de l’achat de gisements dont la valeur économique est imparfaitement connue). Plus près de nous, la compétition sur les licences de téléphonie mobile 3G dans certains pays européens où ces licences ont été mises aux enchères (Voir Klemperer, 2002) ou la compétition sur les droits de retransmission du foot en ligue 1 sont également d’excellentes illustrations d’un tel jeu.
Dans ce jeu, les étudiants sont typiquement regroupés par paire (la taille du groupe peut être bien évidemment ajustée), et reçoivent chacun de manière anonyme un signal dont la distribution (aléatoire) est connue. Ils savent qu’un bien va être mis en vente, la valeur de ce bien étant égale à la moyenne des signaux reçus au sein du groupe (par exemple le joueur 1 reçoit un signal de 0.2 $ et le joueur 2 de 0.8 $, la valeur du bien mis en vente est donc de 0.5 $). Une fois ce signal reçu, ils proposent une enchère b (pour bid en anglais) qui, si elle est la plus élevée, leur permet d’obtenir le bien (enchère simultanée de premier rang). Bien évidemment, la valeur de l’enchère proposée par mon compétiteur ne m’est pas communiquée tant que je n’ai pas choisi ma propre proposition.
Le perdant gagne 0$ et le gagnant obtient la moyenne des signaux moins la valeur de l’enchère gagnante qu’il a proposée. Le jeu est très simple, et met en avant la dimension d’interaction stratégique dans un monde d’asymétrie informationnelle.
Dans les résultats suivants, 12 étudiants ont joué ce jeu par paire dans une première phase de 5 périodes puis le même jeu dans lequel ils constituaient un seul groupe, la valeur du bien étant égale à la moyenne des 12 signaux reçus par chacun d’entre eux, là encore pendant 5 périodes (la durée du jeu est au maximum d’1 h). le graphique ci-dessous retrace les enchères individuelles faites par les 12 étudiants au cours de 5 répétitions en fonction de la valeur du signal qu'il avaient obtenue, ce pour le traitement 1 (2 étudiants en compétition pour un même bien) :
Graph 1
D’un point de vue théorique, sans que j’ai le temps de rentrer dans les détails, la prédiction que l'on peut avoir sur ce jeu, en utilisant par exemple un concept d’équilibre de Nash ,est que, quand les joueurs sont par paire, la stratégie optimale est de miser la moitié de son signal (du reste, l’attitude vis-à-vis du risque ne joue pas sur un tel résultat, ce qui est remarquable et qui constitue une différence essentielle avec les jeux d’enchère sur valeurs privées par exemple), voir Sherman & Holt, 2000). Il est alors improbable de réaliser une quelconque perte, puisque au pire le signal reçu par mon adversaire est 0$ (supposons que la distribution uniforme des signaux soit entre 0$ et 1$) et par conséquent, la valeur moyenne du bien est mon signal divisé par 2.
Les résultats montrent très clairement que ce comportement prédit est loin d’être la règle est que les joueurs ont tendance à surenchérir nettement (le résultat obtenu dans les jeux en classe est d’ailleurs totalement cohérent, en dépit de l’absence d’incitations monétaires, aux résultats obtenus dans la littérature expérimentale). Le graphique 1 montre bien cela, la "fonction" d'enchère empirique étant au dessus de la fonction d'enchère théorique (b=v/2) La conséquence est qu’ils ont tendance à faire des pertes, comme le montre le graphique suivant

C’est ce phénomène que l’on qualifie de « malédiction du vainqueur », puisque celui qui gagne a tendance à perdre de l’argent.
Le plus intéressant est que ce phénomène s’amplifie quand le nombre de compétiteurs s’accroît (voir le graphique 2, dans lequel la perte du gagnant est significativement plus forte quand la compétition se fait entre les 12 étudiants plutôt que par paire).
Du point de vue l’explication comportementale, les sujets ne se conforment guère à la prédiction liée à l’équilibre de Nash, qui voudrait que, quelle que soit la taille du groupe, personne ne soit prêt à parier plus que son signal… (en fait c’est un raccourci rapide, car l’équilibre théorique d’un tel jeu à n joueurs est assez complexe à calculer et l’effet du nombre de joueurs n’est pas linéaire sur la fonction d’enchères). L’explication souvent avancée est celle d’un comportement d’enchère « naïf » qui fait que le joueur n’anticipe pas correctement les conséquences liées au fait de gagner l’enchère en termes de distribution des signaux des autres joueurs. Il prédit « naïvement » que la valeur du signal des autres correspond en moyenne au milieu de la distribution ce qui l’amène à surestimer la valeur du bien. En effet, s’il gagne, cela signifie forcément que, si on suppose les joueurs symétriques, ceux-ci avaient une valeur du signal inférieure à la sienne. Donc, à moins que ce joueur ait obtenu une valeur maximale du signal (égale à 1$), la valeur moyenne des autres ne peut être de 0.5$.
Le plus beau est la robustesse du résultat : j’ai répété de nombreuses fois ce jeu et j’ai toujours observé ce même résultat, qui dément les prédictions théoriques habituelles (depuis, il y a des choses plus sophistiquées et plus en ligne avec les observations empiriques, notamment proposées par Matthew Rabin).

Des bulles encore des bulles (financières) ...




Dans la série des expériences d’économie amusantes que l’on peut faire chez soi (genre "le petit économiste illustré") pour animer ses soirées (moyennant une dizaine de convives et au moins une dizaine d’ordinateurs portables ou de PDA équipés wifi), et stimuler des conversations parfois, il faut le dire, moyennement intéressantes, un jeu permettant de produire des bulles spéculatives sur un marché financier.

J’ai fait pour la première fois ce jeu, en étant à peu près persuadé que rien ne se produirait. Quelle erreur ! J’ai observé, grande expérience personnelle s’il en est, une bulle  spéculative produite dans le laboratoire (malheureusement, je n’ai pas eu le temps de voir se produire le krach…).

Le principe du jeu est très simple : chaque participant (ils sont 12 dans le cas présent) obtient une dotation en monnaie (50$) et en actions (6), les dotations étant totalement identiques d’un participant à l’autre. La monnaie conservée d’une période sur l’autre rapporte un taux d’intérêt r ici de 10% et les actions un dividende unitaire qui est aléatoire. La valeur espérée du dividende est de 0.7$ par action (le mauvais état de la nature donne 0.4$ et le bon état 1$, chaque état ayant 50% de chances de se produire). Là est l’astuce économique comparée au jeu classique fait par Smith dans les années 80 : on indique que, à l’issue du jeu (n périodes), chaque action sera rachetée à chaque participant à hauteur de 7$. La valeur fondamentale de l’action est donc de 7$ (pour les lecteurs éclairés, ceux-ci noteront avec attention que ces 7$ correspondent bien à la valeur fondamentale de l’action générant un rendement espéré de 0.7$ répété à l’infini car 0.7/0.1=7, or c’est précisément la valeur de rachat. Cela évite de dire aux participants et de faire comme si le jeu allait se répéter un grand nombre de fois, potentiellement infini, ce qui est un peu difficile dans le cadre d’un cours de 2h).

L’expérimentateur (l’enseignant) peut, grâce au serveur génial de Holt dont j’ai déjà parlé, paramétrer tout cela. Notamment, j’avais choisi 20 périodes de répétition du jeu.

Pendant chaque période, les participants peuvent proposer des prix d’achat et de vente, en utilisant leur dotation financière s’ils souhaitent acheter des actions, la contrepartie étant qu’ils perdent les intérêts qu’ils auraient obtenu pendant la période s’ils avaient conservé cette dotation intégralement.

D’un point de vue théorique, sur un tel marché, il devrait y avoir très peu d’échanges d’actions et, dans le cas où il y en aurait, le prix devrait être très proche de 7$, la valeur fondamentale. Or, voilà ce que j’ai observé :




Le graphique ci-dessus donne le prix unitaires des actions échangées sur ce marché (en bleu), mais également les offres de prix de vente et de prix d'achat (en gris), les participants pouvant indifféremment acheter ou vendre des actions et ce dans la même période. En rouge, la valeur fondamentale de 7$ (le prix théorique de marché).

Les participants ont joué pendant en fait 10 périodes (j'ai arrêté l'expérience faute te temps), mais c'est dommage car on voit poindre le spectre du krach sur les dernières périodes... Par contre on voit bien la bulle spéculative : en moyenne le prix est autour de 20$ pour chaque action échangée c'est-à-dire que l'action est survalorisée de 200% en moyenne !

Bref, les résultats de laboratoire collent plutôt bien avec ce que l’on peut observer dans la réalité (les bulles financières ont été abondamment chroniquées par leurs contemporains et d’autres, comme dans le cas de la célèbre tulipomania en 1636 en Hollande, une "bulle sur les bulbes" –  dur à dire à l’oral, ça !-), et cela montre la puissance d'un outil comme l'économie expérimentale, qui avec un petit nombre de participants, arrive à reproduire des phénomènes économiques observés dans la réalité.

J’ai juste un petit problème avec ce jeu. Je pense qu’il y a une forme de biais d’action lié au design (mais sans doute existe-t-il de la même manière pour les traders) : les participants sont incités à proposer des prix d’achat ou de vente et à échanger des actions car sinon, le jeu est mortellement ennuyeux. Un joueur totalement rationnel au sens de la prédiction théorique (et en supposant qu’ils le soient tous) ne devrait rien faire au cours du jeu, conserver ses actions et laisser fructifier sa dotation monétaire !

En tout cas, les anticipations et les décisions des participants les conduisent à multiplier des échanges dont la conséquence est cette envolée du cours de l'action suivie immanquablement d'un krach (ce fait est bien documenté par les expériences de laboratoire, on se reportera à  l'excellent article de Charles Noussair et Bernard Ruffieux en 2002 dans la revue économique - disponible ici : http://www.cenecc.ens.fr/EcoCog/12juin02/noussair-ruffieux.pdf-.

ll faut d'ailleurs noter que l'on n'observe pas systématiquement des bulles dans le laboratoire, mais c'est aussi le cas dans la réalité (en tout cas, on peut l'espérer...).

mercredi 25 février 2009

Tout ce que vous avez jamais voulu savoir... (suite) : de ma tendance à la procrastination en tant qu'enseignant-chercheur




Comme l’exprime très bien l’excellent billet de mon collègue Jean-Baptiste Legavre http://www.rue89.com/2009/02/22/non-les-profs-de-fac-ne-font-pas-que-128-heures-par-an) , les enseignants-chercheurs travaillent (pour l’écrasante majorité d’entre eux) beaucoup.
 L’autre lecture de son billet est aussi de constater que la recherche est toujours la variable d’ajustement par rapport aux tâches d’utilité plus immédiate comme l’enseignement ou l’administration. Pourtant, ce comportement n’est pas rationnel d’un point de vue individuel puisque, à l’heure actuelle, et pour ne pas faire de langue de bois, seule la recherche semble avoir une valeur identifiable dans la carrière d’un EC.
 Comment pouvons-nous nous piéger nous-mêmes à ce point ? Une des réponses proposées par les psychologues est relative au comportement de procrastination. Ce comportement a depuis été également investi par les économistes depuis quelques années (Schefrin & Thaler (1978), O’Donogue & Rabin (1999), Noor (2005)…);
Supposons par exemple que le coût des deux activités soit le même (après tout, il n’y a aucune raison de penser qu’un cours bien fait exige moins de travail qu’un article bien fait…). Par exemple, fixons arbitrairement ce coût à 100.
Par ailleurs, faisons comme si le fait de subir un coût aujourd’hui de 100 impliquait un rendement immédiat pour le cours de 110 contre un rendement demain pour la recherche de 125 (je ne fais pas l’hypothèse que le rendement social de la recherche est supérieur au rendement social de l’enseignement, je n’ai aucune évidence théorique ou empirique pour penser cela, mais je pose que le rendement privé de la recherche dans la carrière d’un EC est supérieur au rendement privé de l’enseignement en termes de promotions potentielles, ce qui ma fois me semble assez raisonnable.).
Si mon EC est sujet à la procrastination, et à des préférences temporelles hyperboliques (son taux d’escompte décroit au cours du temps, il est très impatient aujourd’hui mais l’est beaucoup moins demain), le résultat donnerait quelque chose de ce genre.
Supposons par exemple que son taux d’escompte entre aujourd’hui et demain soit de 30% et que son taux d’escompte entre demain et après demain soit de 10%. Aujourd’hui, il planifiera de faire de l’enseignement (car 110>>125/1.3) et de la recherche demain (car 100/1.1 < 125/1.1^2). Donc,  s’il respectait ses plans, intertemporellement, son activité serait équilibrée entre enseignement et recherche (aujourd’hui enseignement et demain recherche). Le problème est que, quand demain deviendra aujourd’hui pour lui, son taux d’escompte devient égal à 30%, et par conséquent, plus question de faire la recherche qu’il avait planifiée ! (car 125/1.3 < 110). Ainsi, il choisira tout le temps l’enseignement alors qu’il avait planifié de faire plus tard de la recherche. Le passage du temps entraine cette incohérence dynamique dans ce cas de préférences hyperboliques.
Un modèle à taux d’escompte constant comme le modèle canonique de Samuelson donnerait une répartition équilibrée entre enseignement et recherche fonction de l’importance du taux d’actualisation.
Bon, peut être trouverez vous, lecteurs, cette explication de la difficulté à faire de la recherche un peu tirée par les cheveux sans doute, et certains de mes collègues invoqueront d’autres explications plus politiquement correctes. Mais  il n’y a pas de raison que les universitaires ne soient pas sujets comme tout le monde à l’impatience et à la difficulté à s’en tenir à ses (bonnes) résolutions ! Par ailleurs, mettre en place des dispositifs qui « lient les mains » des EC en les aidant ainsi à tenir leurs objectifs (en les empêchant de céder à la tentation), comme Ulysse fut à sa demande enchainé à son mât, ou comme Cortez à l’assaut de l’empire aztèque brûla ses vaisseaux après avoir débarqué dans le golfe du Mexique. Cela peut être une stratégie possible, par exemple en mettant en place des contrats d’objectifs précis et négociables périodiquement entre chaque EC et son établissement d'appartenance. Enfin, j’ai raisonné à système d’incitations financières et non financières constant…
Last but not least, le fait d’encourager les personnes sujettes à procrastination, éventuellement en reconnaissant soi-même que l’on a déjà cédé, donc s’encourager les uns les autres peut être une tactique qui marche très bien. Le soutien de l’individu par le groupe est donc très important, et on peut penser que la technique de l’insulte personnelle (« vous êtes médiocre et incapables de vous prendre en charge ! », pour reprendre une argumentation de quelqu’un de plus important que moi,) soit très contre-productive le cas échéant.

vendredi 20 février 2009

Tout ce que vous avez jamais voulu savoir sur les universitaires (sans jamais oser le demander)...


Dans le cadre du débat passionné (et parfois affligeant il faut bien le dire) sur la réforme du statut des enseignants chercheurs, et en paraphrasant le titre d’un célèbre film de Woody à l’époque où il me faisait encore rire (désolé, mais depuis Manhattan, je le trouve aussi drôle que les films d’Ingmar Bergman), j’ai décidé de donner quelques éléments de constat sur le métier d’enseignant chercheur. Je suis en effet parti du postulat selon lequel  la plupart des gens ignore complètement ce qu’est notre métier, et surtout comment nous le pratiquons actuellement au sein de l’université française…

De manière incroyablement égocentrique, j’ai décidé de me livrer à un peu d’introspection sur mon cas personnel en tant qu’enseignant-chercheur (oui, je sais, cela constitue un échantillon un peu limité pour faire de l’inférence, mais après tout, Saint-Augustin disait « Ne te borne pas à la surface; descends en toi-même, pénètre jusque dans l’intérieur de ton cœur. Fouille soigneusement ton âme » (sermon 4.53) et l’introspection est une technique comme une autre de recherche scientifique depuis Descartes).

La question est simple : la réforme du statut des EC (Enseignants-Chercheurs) part du principe selon lequel un EC « standard » doit, au-delà de ses 192h contractuelles d’enseignement et de diverses tâches liées à cette activité (stages, insertion professionnelle, etc. on appréciera le flou artistique de cette définition) consacrer la moitié de son temps à la recherche. Ce principe, qui n’était pas aussi clairement établi dans le décret de 1984, me semble devoir effectivement être rappelé fermement.

Par ailleurs, la question est aussi celle de la possibilité que nous avons actuellement, nous universitaires, de pratiquer raisonnablement une activité de recherche. Pour information, je rappelle que l’AERES établit qu’un chercheur publiant est un chercheur qui a publié 2 articles dans des revues à comité de lecture de rang A ou B (je ne rentre pas dans les détails, mais disons pour les non initiés que ce sont des revues pour la plupart avec double référé en aveugle). Dans le projet initial de décret, cet EC standard (2 publications tous les 4 ans + 192h d’enseignement) n’est donc pas sensé pouvoir prétendre à une modulation de service quelconque (en plus ou en moins).

Prenons donc modestement mon propre cas. Depuis que je suis EC (1996), j’ai publié 13 articles, ce qui donne en moyenne (je vous fais grâce de la virgule) 1 article par an dans des revues à comité de lecture.  Je suis donc a priori dans les clous et même au-delà de la contrainte imposée par l’AERES. Mais si on regarde cela dans le détail, j’ai des années pic et des années creuses, tout simplement parce qu’un projet de recherche peut demander parfois quelques années et d’autres fois quelques mois. Par conséquent, le niveau annuel de production est une variable éminemment stochastique.

Le graphique ci-dessous en témoigne :






Je ne mets là dedans que les publications dans des revues, et heureusement pour moi, j’ai fait d’autres choses, mais je reprends volontairement une  vision stricte, voire malthusienne diront certains, de l’output scientifique du chercheur (peut être qu’en fait aucune de ces publications n’a véritablement d’intérêt du point de vue de la connaissance, mais bon c’est publié…).
Une chose est l’output, une autre est l’input, en clair combien ai-je mis de temps (d’heures, d’effort…) pour produire cela ? Je n’en ai strictement aucune idée, ne serait-ce que pour la simple et bonne raison que l’activité de recherche des EC n’est pas mesurée ou pointée autrement que par l’output (publications, colloques, etc.). Mais, compte tenu de mon implication dans l’enseignement et autres tâches administratives diverses, j’estime que mon temps de recherche n’est sans doute guère supérieur à 25-30% du total de mon temps de travail.
Ce n’est pas faute de vouloir (si je le pouvais, j’y affecterai sans doute au moins la moitié de mon temps) mais de pouvoir. J’ajoute que je n’ai jamais dépassé les 250h de service et que je n’ai ni activité de consultant ni activités annexes. Vous pourriez penser alors que ma productivité recherche est faible en raison du fait que mon temps de travail total est faible, et que j’ai arbitré en faveur du loisir aux dépens de l’effort.  Il m’est difficile de répondre à cela, car ceci est essentiellement un point de vue relatif. Je note juste que je travaille en plus de la semaine complète 2 week-end sur 3 au minimum pour arriver à effectuer correctement les tâches que je me suis assigné (je ne cherche absolument pas à faire pleurer dans les chaumières bien sûr, j’ai trop conscience de la chance que j’ai d’exercer un tel métier). En clair, affecter actuellement 50% de son temps à la recherche me semble quasi-impossible, sauf à se contenter de faire ses 192h d’enseignement et n’avoir aucune tâche annexe « administrative ».
Et au fil des années, j’ai l’impression que la recherche, bien que critère prédominant de notre évaluation, devient une activité de plus en plus difficile à réaliser pour un EC confronté à la mise en place du LMD, à la réforme de l’Université via la LRU, à la recherche de contrats pour financer sa recherche, à la réalisation d’un site web ou d’un blog, au suivi des stages et autres dossiers, à l’organisation des plannings et des inscriptions des étudiants parfois, j’en passe et des meilleures.
Un des points positifs de la réforme des statuts est qu’elle prévoyait l’évaluation, ce à quoi je ne peux être que sensible, et surtout que cette évaluation portait sur les 2 (3 ?) facettes de notre mission, enseignement – administratif  ET recherche personnelle… J’espère que cet aspect ne retombera pas dans l’oubli.
Y-a-t-il quelques leçons à dégager de cette introspection ? Je n’en suis pas sûr…  On pourrait par exemple penser que le fait d’exercer les deux activités de concert, enseignement et recherche, est tout simplement impossible, et on pourrait prôner une spécialisation des universitaires, soit chercheurs, soit enseignants… Cette spécialisation pourrait d’ailleurs évoluer au cours du temps et pourrait être négociée contractuellement par les EC. Il y a toutefois deux problèmes à cela. Le premier est que, une fois l’activité de recherche mise de côté, il y a vraisemblablement un effet de lock in, et il est difficile de s’y remettre une fois que l’on a arrêté. L’autre est que, à ma connaissance, aucun grand pays universitaire n’a trouvé bon ou décidé de mettre en œuvre cette spécialisation recherche vs enseignement, à commencer par notre cousin l’oncle Sam… Les universitaires sont des enseignants et des chercheurs. Point. Alors ?
En fait, à l’issue de nombreuses discussions avec des collègues étrangers qui sont des chercheurs actifs, on se rend compte qu’en fait leur charge d’enseignement et d’administration est considérablement plus faible que celle de leurs collègues français, et que, de plus leur niveau de rémunération est très supérieur (voir le billet de mon excellent collègue Arthur Charpentier), http://blogperso.univ-rennes1.fr/arthur.charpentier/index.php/post/2009/02/19/Evolution-des-salaires%2C-suite). Par ailleurs, ils sont évalués régulièrement et cette évaluation conditionne la définition des objectifs contractuels entre l’établissement et l’EC.
Par conséquent, je crois raisonnablement que le seul moyen efficace d’augmenter notre productivité de chercheur est de diminuer le nombre d’heures d’enseignement que nous faisons, de revaloriser les salaires et perspectives de carrière et d’augmenter les moyens dévolus à la dimension administrative. Bien évidemment, on rétorquera que la contrainte budgétaire est forte et que cela est peu réaliste, mais si nos voisins étrangers ont pu réaliser cela, pourquoi pas nous ?
NB : concernant l'image ci-dessus, à vous de trouver la signification !

mardi 10 février 2009

"So british" sur le Titanic ?





La probabilité de survie des britanniques dans les situations catastrophiques est-elle diminuée par le fait qu’ils soient trop bien élevés? C’est une des hypothèses qu’envisage le papier de Bruno Frey, David Savage et Benno Torgle "noblesse oblige? Determinants of Life and Death in a survival situation" . C’est un
papier tout ce qu’il y a de sérieux bien sûr, qui prend en guise de terrain empirique la catastrophe du Titanic et l’assimile à une quasi-expérience naturelle.... (mais où vont-ils chercher des idées pareilles?).
Bref, le genre de papier iconoclaste que j’adore...
En fait, de manière plus générale, ils estiment l’impact sur la probabilité de survie de variables telles que le sexe, la condition sociale, l’âge, etc.. et la nationalité!
Je ne résiste absolument pas à l’envie de donner quelques résultats.
Par exemple, le fait d’être une femme peut accroitre jusqu’à 50% la probabilité de survie (la variable "sexe" est celle qui joue le plus), le fait d’avoir moins de 15 ans l’augmente au plus de 29%, (la logique "les femmes et les enfants d’abord ayant apparemment été appliquée comme on le voit d’après ces résultats)... Ne parlons pas bien sûr des passagers de 3ème classe, dont la probabilité de survie est proche de celle du film éponyme de James Cameron, c’est-à-dire proche de zéro (dommage pour Leonardo).
Mais plus surprenant et moins noble, le fait d’avoir appartenu à l’équipage accroit significativement la probabilité de survie (la probabilité augmente de 22%). Bref le capitaine est peut être resté à bord de son navire, mais apparemment les autres membres de l’équipage ont compensé. Enfin, last but not least, le fait d’être américain accroît la probabilité de survie de au plus 8% tandis que le fait d’être britannique la réduit de 1% (pour les initiés, tous ces coefficients sont significatifs et il s’agit bien d’effets marginaux).
Je n’en tirerai aucune conclusion quelconque bien sûr, mais à l’avenir, je m’arrangerai pour me faire passer pour un membre d’équipage américain si je dois monter sur un paquebot...

jeudi 29 janvier 2009

Où le Figaro parle d'économie expérimentale (et accessoirement du LABEX de Rennes 1)...

Un article du Figaro un peu ancien, mais qui a la vertu de parler d'une discipline en plein essor et un peu du LABEX (LABoratoire d'EXpérimentation de Rennes 1)... Notamment, il résume une série d'études entreprises dans différents pays de culture très différentes sur l'impact des mécanismes de sanction sur les comportements de coopération...
cliquez sur le lien !
http://www.lefigaro.fr/sciences/2008/03/11/01008-20080311ARTFIG00040-l-esprit-d-equipe-varie-d-un-pays-a-l-autre-.php

L'impact de la violence des films sur la violence réelle




Comme c’est une question qui me tarabuste depuis longtemps, je vous signale un article passionnant de Gordon Dahl et Stephano Della Vigna sur l’impact de la violence des films sur la violence "réelle", ie sur le taux de criminalité. Ces auteurs montrent que l’augmentation du degré de violence dans les films, qui va de pair avec une audience plus importante, a tendance à diminuer significativement le taux de criminalité à court terme.
L’explication est en fait toute simple : les criminels potentiels ont tout simplement moins de temps pour réaliser d’éventuels délits s’ils passent du temps dans les salles obscures, cet effet étant renforcé par le fait qu’ils ont aussi moins de temps pour consommer de l’alcool, cette consommation étant positivement correlée avec le taux de criminalité...  Le genre de papier que l’on devrait présenter aux étudiants pour leur expliquer l’effet de substitution (même s’il y avait déjà des papiers fameux de Gary Becker sur le sujet).
Ce résultat empirique ne va d’ailleurs pas dans le sens de l’évidence expérimentale. Dans les expérimentations en laboratoire, les sujets ont tendance à avoir un comportement plus agressif dans les situations dites de dilemmes sociaux (type jeu de bien public ou dilemme du prisonnier) quant on leur a au préalable fait subir une séance de visionnage d’extraits de films genre "orange mécanique" ou "full metal jacket" (pour reprendre des films de mon réalisateur culte).
A quant les stages "terminator prédator non stop" pour calmer les enfants?
ci-dessous, la référence de l’article et le lien vers le site de S. Della Vigna (plein d’autres papiers passionnants chez ce jeune chercheur, notamment un sur les gens qui payent des abonnements à des clubs de gym pour ne jamais en faire par la suite, à méditer en ce mois de bonnes résolutions) :
  •  "Does Movie Violence Increase Violent Crime" (2009)  S. Della Vigna and Gordon Dahl, Quarterly Journal of Economics, forthcoming.
  • http://www.econ.berkeley.edu/~sdellavi/