samedi 30 janvier 2010

Jacques Martin, l'opération Thor et l'arme monétaire


Un des principaux auteurs de l'école franco-belge de bande dessinée, Jacques Martin (rien à voir avec l'ex-comique troupier animateur du Petit Rapporteur (Oh!) mais aussi de  "sous vos applaudissements"(euuuuuuu !!)), vient de nous quitter.
Bien que je n'ai pas le souhait particulier de nourrir la rubrique nécro, ayant déjà écrit un billet sur la mort de Samuelson - excellent économiste, mais je pense moins bon dessinateur de BD , en tout cas les BD de Samuelson sont beaucoup moins connues - , je ne peux guère résister à l'envie de parler un peu de lui. Il est connu en particulier pour une série adorée par les profs d'histoire, "Alix", et à moindre titre pour une autre série aux accents jacobsiens (de E. P Jacobs, l'auteur de Blake et Mortimer, maitre incontesté de la BD franco-belge avec Hergé), "Lefranc".
Bon, pour tout dire, si j'ai toujours beaucoup apprécié certaines des œuvres de cet auteur, il faut bien reconnaitre que, comme Hergé le lui avait signifié clairement au début de sa carrière, je pense qu'il était au départ assez piètre dessinateur...  Mais ce n'est guère charitable de commencer comme cela mon billet, d'autant plus que sa rigueur et son travail considérable lui ont permis de compenser ce départ un peu difficile.
Quel rapport entre Jacques Martin et l'économie me direz-vous ? Au moins un... 
Il a en effet commis il y a maintenant quelques années un album de la série Lefranc, intitulé "Opération Thor". Dans cette histoire aux multiples rebondissements, il envisage l'attaque d'un pays , en l'occurrence des USA, non pas par des bombes ou autres fantassins armés jusqu'aux dents mais par le déversement massif de quantité de fausse monnaie. Pourquoi cela ? 
Ben, même un dessinateur de BD peut comprendre intuitivement la théorie quantitative de la monnaie : si on augmente la masse monétaire dans des proportions astronomiques, toutes choses égales par ailleurs, on provoque l'hyperinflation (pour ceux qui voulent tous savoir sur l'hyperinflation, voir ici )!!!
La théorie quantitative de la monnaie est extrêmement simple, et ancienne, même si sa formulation moderne est attribuée à Irving Fisher (1908). Elle dit simplement que la valeur des revenus , c'est-à-dire des transactions économiques (environ par exemple 2000 milliards d'Euros en France pour 2009) réalisées pendant une période donnée est réalisée avec des espèces monétaires. Ces espèces monétaires sont simplement l'ensemble de la masse monétaire existant à un moment du temps (c'est un stock de pièces, de billets et surtout de monnaie scripturale) utilisée pendant la période donnée. Par exemple pour la  zone Euro  la masse monétaire (au sens de M3) est d'environ 9500 milliards d'euros pour un PIB   de 9300 milliards d'euros en nominal (attention c'est un flux, alors que la masse monétaire est un stock). Approximativement, chaque euro du stock de monnaie (qui évolue lui-meêm chaque année, notamment en fonction de la politique de la Banque Centrale Européenne) est donc utilisé environ une fois pour réaliser les transactions au cours d'une année (un peu moins à vrai dire).
Si on suppose que le taux d'utilisation d'une unité de monnaie ne change pas beaucoup sur le court terme (ce que les économistes appellent la vitesse de circulation de la monnaie), et que le volume des transactions est relativement stable, alors toute augmentation de la masse monétaire se soldera par une augmentation des prix. Cette idée est au moins aussi vieille que l'économie elle-même puisque que Richard Cantillon me semble-t-il utilisait ce raisonnement pour dénoncer les dangers de l'accumulation de stocks d'or issus du pillage du Nouveau Monde par les Royaumes d'Espagne et du Portugal . En effet, l'augmentation des quantités d'or en circulation ne pouvait que déboucher sur une augmentation du prix des biens et ne représentait donc en rien une augmentation de richesse... C'est basiquement une des thèses clés du Prix Nobel d'économie Milton Friedman, qui écrivait en 1976 "l'inflation est toujours et partout un phénomène monétaire".
C'est l'idée de base de cette opération Thor, dans lequel un méchant de classe internationale monte une opération de déversement de fausse monnaie massive sur le territoire américain.
En fait, Jacques Martin s'est inspiré d'un épisode connu de la seconde guerre mondiale, l'opération Bernhard, du nom d'un officier allemand qui avait monté une équipe de faux monnayeurs et avait ainsi réussi à diffuser près de 140 millions de livres totalement fausses au sein du territoire  britannique... Cette aventure incroyable est relatée ici. L'objectif des allemands était ainsi de provoquer une panique comparable à celle issue de l'hyperinflation vécue par ces mêmes allemands durant la république de Weimar en 1923 (voir la photo ci-dessous).


On utilise souvent l'expression "l'arme économique", mais pour détourner la phrase de Clausewitz qui écrivait que "la guerre continue la politique par d'autres moyens", certains ont apparement aussi pensé aussi que l'économie conitnuait la guerre par d'autres moyens... Par ailleurs, comme dirait Blueberry dans le Spectre aux Balles d'Or (planche 43, 3ème case): 
"Blood and guts! Et si cette opération Bernhard avait contribué à relancer l'économie britannique par une injection massive de monnaie ? Quelle ironie de l'histoire..."

vendredi 15 janvier 2010

Télévision 3D, guerre(s) des standards et jeux de coordination




L'industrie de l'image et du son sort à peine d'une guerre sanglante concernant l'adoption du standard technologique pour les lecteurs haute définition – la fameuse guerre entre Bluray et HD DVD – entre principalement Sony et Toshiba, le premier ayant fini par l’emporter… Cette guerre n’a pas été sans coût du reste, la longue période de cohabitation des standards ayant conduit à une certaine indécision de la part des consommateurs qui freine encore aujourd’hui les achats de lecteurs bluray, les consommateurs préférant frileusement rester sur les bons vieux lecteurs dvd, par ailleurs toujours plus performants et de moins en moins chers.
En partie pour stimuler les ventes de lecteurs bluray (fin 2009, environ 50 millions de lecteurs vendus au niveau mondial, en forte hausse, mais apparemment ne compensant pas la baisse d'achat de lecteurs dvd notamment), les industriels ont eu alors l’idée de se lancer dans la production de technologies 3D, la technologie Bluray étant la seule capable de supporter la quantité de données nécessaire pour stocker des films haute définition en 3D (techniquement, pour réaliser la 3D, il faut que le film soit stocké deux fois sur le disque, une fois pour l’œil gauche et une autre fois pour l’œil droit afin que la fameuse impression de relief soit possible). Le fameux Avatar de James Cameron préfigure ce que pourrait être cette technologie, à la fois utilisée dans les salles de cinéma mais également dans nos modestes demeures avec à très court terme nous dit-on des téléviseurs 3D. Le PDG de Sony, Howard Stringer a d’ailleurs récemment déclaré « Le train de la 3D est sur les rails et nous sommes prêts à l’amener vers les foyers ».
Pour autant, il semble que les industriels, loin d’avoir tiré la leçon de la précédente guerre des standards, souhaitent à nouveau en découdre, deux technologies 3D étant apparemment possibles (voir ici ). La première est défendue avant tout par Sony (tiens, tiens…, déjà le protagoniste de la dernière guerre) et la seconde par Panasonic. Derrière cette guerre « high tech » à venir se cache également une guerre toujours en cours entre les technologies de télévision haute définition recourant au plasma (pour Panasonic et LG principalement) ou aux cristaux liquides (LCD), dont un des principaux promoteurs est …. Sony.
Pour résumer, car d’un point de vue technique je n’y connais pas grand-chose, Panasonic défend la 3D à travers une caméra 3D à double objectif alors que Sony promeut une caméra 3d à simple objectif.
D’un point de vue économique, cette situation correspond à une situation célèbre étudiée en organisation industrielle sous le nom de guerre des standards (Voir par exemple ce qu'en disent Carl Shapiro & Hal Varain dans l'ouvrage "information rules: A strategic guide to network economy").
Comme souvent dans l’organisation industrielle récente, cette situation est analysée au moyen des outils issus de la théorie des jeux, coopératifs ou non coopératifs. Le jeu de standardisation décrit un jeu non coopératif entre deux firmes qui défendent chacun un standard, chacune ayant un intérêt à ce que sa technologie soit finalement la seule à être adoptée. Pour ceux qui ne connaissant pas le jeu, je peux le décrire brièvement en reprenant la présentation qu’en fait Thierry Pénard, un collègue,  :
Si nous avons deux firmes, chacune défendant un standard technologique, on peut supposer que l’effet réseau sera maximisé si les fabricants arrivaient à mettre en œuvre un standard commun, ce qui stimulerait la demande. Bien évidemment le promoteur initial du standard commun y gagnerait plus que son rival. La pire des situations serait celle où chaque firme adopterait le standard technique de l’autre (ce qui a peu de sens mais bon…) et une situation intermédiaire est celle dans laquelle les deux standards coexistent, comme dans la situation qui prévalait avant que Toshiba jette l’épongue sur le standard HD DVD et l’adoption définitive du bluray comme standard commun. Le jeu peut être décrit comme cela :




Ce jeu est un jeu de coordination, dans lequel deux équilibres de Nash en stratégies pures existent, chaque équilibre correspondant à une situation dans laquelle un seul standard est commun, et également un équilibre en stratégies mixtes dans lequel chaque firme choisit son propre standard avec une probabilité de 4/5. Notes bien lecteur, que le plus haut niveau de bien être serait atteint (en supposant que le gain des consommateurs soit identique dans toutes les éventualités) avec un seul standard. Donc l’issue d’un tel jeu est assez indéterminée, si ce n’est qu’il y a peu de chances que deux standards coexistent très longtemps. C’est d’ailleurs ce qu’à souvent montré l’histoire récente des technologies audio-vidéo, l’un des deux (parfois trois) standards finissant par l’emporter à l’issue d’une guerre de quelques années (VHS vs Betamax, DVD-R+ vs DVD-R- vs DVD Ram, CD contre minidisc, BR vs HD DVD etc..). En fait, je me rends compte que la portée prédictive, en me laissant un peu déborder par l’enthousiasme, n’est pas si mauvaise : il finit (presque) toujours par y avoir un standard commun, même si cela prend du temps !
Mais l’intérêt est aussi d’aller voir du côté des consommateurs et pas seulement des producteurs de technologies. Eux aussi profitent d’externalités de réseaux (lecteur, n’as-tu pas fréquemment maudit tes ami(e)s ami de n’avoir qu’un graveur de DVD-R+ quand tu n’avais qu’un lecteur monoformat DVD-R- et que tu voulais absolument voir le dernier épisode de Derrick ???) et ont en fait intérêt à ce qu’une seule technologie soit disponible sur le marché. Nous ferons l’hypothèse, abusive sans doute mais soutenue avec succès par Brian Arthur dans la fameuse métaphore de QWERTY vs AZERTY, qu'aucune technologie n’est véritablement meilleure que l’autre et que le surplus retiré par chaque consommateur ne dépend donc pas du standard finalement retenu, mais uniquement du nombre de consommateurs qui utilisent la technologie avec moi.
Supposons que nous ayons deux consommateurs, et que leurfonction d’utilité puisse être décrite de la manière la plus simple du monde en écrivant  Ui=x+a(s) où  Ui est l 'utilité du consommateur i, s est le nombre total de consommateurs utilisant un certain standard technologique (il peut donc être égal à 1 ou 2) avec le contrainte que chaque consommateur utilise une des deux technologies, x et a deux paramètres positifs sans importance pour le moment. Par exemple, envisageons que Ui soit égale à 10 +0.7s. Notes bien, lecteur, que la fonction d’utilité est croissante en s. Le jeu sous sa forme stratégique peut donc être représenté de la façon suivante :




Là encore, nous avons affaire à un jeu de coordination (un jeu avec une multiplicité d’équilibres en stratégies pures), l’un des standards étant finalement choisi si nous considérons l’équilibre de Nash en stratégies pures (deux possibilités). Il existe aussi un équilibre de Nash en stratégies mixtes, dans lequel chaque consommateur choisit un standard avec une probabilité de 0.5. Comme dans le jeu précédent dans la situation du jeu des producteurs, l’issue reste encore relativement indéterminée.
Dans ce cadre très simple, que va-t-il se passer, l’équilibre de choix étant relativement indéterminé ? Un article intéressant de C. Ruebeck et al.  paru en 2003 dans Southern Economic Journal, « Network Externalities and Standardization: A Classroom Demonstration » nous donne quelques indications. En gros, ils font jouer à une classe de 15 étudiants le jeu que je viens de décrire avec des paramètres différents, le jeu présenté à l’instant ne concernant que deux joueurs. La fonction d’utilité s’écrit comme ci-dessus mais avec la paramétrisation suivante Ui=20 + 2(s). Dans ce jeu, si les 15 participants choisissent le même standard, leur utilité pour chacun est 20+2(15) soit 50, ce qui donne un bien être de 15*50=750. Si 7 choisissent un des standards et les 8 restants l’autre standard, alors ceux qui ont choisi le standard 1 gagneront chacun 20+2(7) soit 34 et les 8 autres gagneront chacun 20 +2(8) soit 36 points. Au total le bien être sera de 7*34 + 8*36 soit 526 points. Il y a donc bien dans leur jeu une perte de bien être afférente à la répartition des consommateurs entre les deux standards, les effets de réseau étant considérablement affaiblis dans cette situation de coexistence des standards. Les standards ne sont pas décrits en tant que tels dans les choix, les participants devant choisir des cartes de couleur différentes (orange ou violettes) et le gain de chaque participant étant une fonction du nombre total de cartes choisies dans telle ou telle couleur. Je me contenterai de donner les principaux résultats du traitement « simultané » dans lequel les participants font un choix de couleur en même temps et ont alors à réaliser un jeu de coordination pur. Ils sont repris dans le tableau ci-dessous, tiré de l’article cité :



Dans le traitement simultané, le jeu est répété 10 fois de suite (exactement dans les mêmes conditions). On pourrait penser que ce nombre de périodes est trop faible pour observer une quelconque convergence, mais une solide littérature expérimentale sur les jeux de coordination montre qu’en fait les joueurs ont tendance à converger assez vite vers un équilibre et qu’ils n’en bougent pas facilement, même si vous répétez 100 fois le jeu, comme l’ont fait Duffy & Hopkins en 2005. Dont acte, 10 périodes peuvent être suffisantes pour dire quelque chose d’intéressant. Ce qui est spectaculaire ici, c’est que l’équilibre qui semble apparaître est l’équilibre en stratégies mixtes, puisque environ la moitié des participants choisissent « orange » et l’autre moitié « violet », la répétition n’altérant guère cette proportion (comme le nombre de participants est impair, on ne peut avoir une fréquence de 50% pour chaque standard, mais ne chicanes pas lecteur, 7/15 ou 8/15 est assez proche de 0.5 non ?). En fait, c’est un résultat très souvent mis en évidence dans la littérature expérimentale sur les jeux de coordination (Voir Ochs 1995 dans le Handbook of experimental economics) : les joueurs randomisent leur stratégie dans ces jeux de coordination de manière assez conforme aux prédictions théoriques données par l’équilibre de Nash en stratégie mixte. Cette stratégie de randomisation conduit à un niveau agrégé à ce que la fréquence de tel ou tel choix soit proche de la probabilité de faire tel choix d’un point de vue théorique.
Qu’en conclure ? Que, en tant qu'économiste, il n'est pas très prudent de trop se moquer de le concept d'équilibre en stratégies mixtes en le présentant comme une forme de rationalité assez "curieuse" d’un point de vue théorique : les agents semblent effectivement "randomiser" leur stratégie dans des situations de coordination difficiles à réaliser. Par ailleurs, les fabricants de ces nouvelles technologies 3D devraient aussi considérer que les consommateurs, dans ces situations de coexistence de standards différents, soient logiquement indécis, et qu’ils jouent le choix d’une technologie un peu comme ils joueraient aux dès. Par ailleurs, s’ils sont un peu averses au risque, ce qui est le cas de la majorité d'entre nous (les geeks étant une fraction assez limitée de la population), la situation de statu quo et d'attente est sans doute préférable. C’est exactement ce qui se passe actuellement avec les retards importants dans la généralisation du support Bluray. Loin d’avoir compris la leçon, les industriels, mécontents de cette déconvenue et voulant relancer la technologie bluray, risquent alors de subir une nouvelle déconvenue sur la question de la 3D s’ils ne font pas un plus grand effort de coordination dès à présent.