vendredi 15 janvier 2010

Télévision 3D, guerre(s) des standards et jeux de coordination




L'industrie de l'image et du son sort à peine d'une guerre sanglante concernant l'adoption du standard technologique pour les lecteurs haute définition – la fameuse guerre entre Bluray et HD DVD – entre principalement Sony et Toshiba, le premier ayant fini par l’emporter… Cette guerre n’a pas été sans coût du reste, la longue période de cohabitation des standards ayant conduit à une certaine indécision de la part des consommateurs qui freine encore aujourd’hui les achats de lecteurs bluray, les consommateurs préférant frileusement rester sur les bons vieux lecteurs dvd, par ailleurs toujours plus performants et de moins en moins chers.
En partie pour stimuler les ventes de lecteurs bluray (fin 2009, environ 50 millions de lecteurs vendus au niveau mondial, en forte hausse, mais apparemment ne compensant pas la baisse d'achat de lecteurs dvd notamment), les industriels ont eu alors l’idée de se lancer dans la production de technologies 3D, la technologie Bluray étant la seule capable de supporter la quantité de données nécessaire pour stocker des films haute définition en 3D (techniquement, pour réaliser la 3D, il faut que le film soit stocké deux fois sur le disque, une fois pour l’œil gauche et une autre fois pour l’œil droit afin que la fameuse impression de relief soit possible). Le fameux Avatar de James Cameron préfigure ce que pourrait être cette technologie, à la fois utilisée dans les salles de cinéma mais également dans nos modestes demeures avec à très court terme nous dit-on des téléviseurs 3D. Le PDG de Sony, Howard Stringer a d’ailleurs récemment déclaré « Le train de la 3D est sur les rails et nous sommes prêts à l’amener vers les foyers ».
Pour autant, il semble que les industriels, loin d’avoir tiré la leçon de la précédente guerre des standards, souhaitent à nouveau en découdre, deux technologies 3D étant apparemment possibles (voir ici ). La première est défendue avant tout par Sony (tiens, tiens…, déjà le protagoniste de la dernière guerre) et la seconde par Panasonic. Derrière cette guerre « high tech » à venir se cache également une guerre toujours en cours entre les technologies de télévision haute définition recourant au plasma (pour Panasonic et LG principalement) ou aux cristaux liquides (LCD), dont un des principaux promoteurs est …. Sony.
Pour résumer, car d’un point de vue technique je n’y connais pas grand-chose, Panasonic défend la 3D à travers une caméra 3D à double objectif alors que Sony promeut une caméra 3d à simple objectif.
D’un point de vue économique, cette situation correspond à une situation célèbre étudiée en organisation industrielle sous le nom de guerre des standards (Voir par exemple ce qu'en disent Carl Shapiro & Hal Varain dans l'ouvrage "information rules: A strategic guide to network economy").
Comme souvent dans l’organisation industrielle récente, cette situation est analysée au moyen des outils issus de la théorie des jeux, coopératifs ou non coopératifs. Le jeu de standardisation décrit un jeu non coopératif entre deux firmes qui défendent chacun un standard, chacune ayant un intérêt à ce que sa technologie soit finalement la seule à être adoptée. Pour ceux qui ne connaissant pas le jeu, je peux le décrire brièvement en reprenant la présentation qu’en fait Thierry Pénard, un collègue,  :
Si nous avons deux firmes, chacune défendant un standard technologique, on peut supposer que l’effet réseau sera maximisé si les fabricants arrivaient à mettre en œuvre un standard commun, ce qui stimulerait la demande. Bien évidemment le promoteur initial du standard commun y gagnerait plus que son rival. La pire des situations serait celle où chaque firme adopterait le standard technique de l’autre (ce qui a peu de sens mais bon…) et une situation intermédiaire est celle dans laquelle les deux standards coexistent, comme dans la situation qui prévalait avant que Toshiba jette l’épongue sur le standard HD DVD et l’adoption définitive du bluray comme standard commun. Le jeu peut être décrit comme cela :




Ce jeu est un jeu de coordination, dans lequel deux équilibres de Nash en stratégies pures existent, chaque équilibre correspondant à une situation dans laquelle un seul standard est commun, et également un équilibre en stratégies mixtes dans lequel chaque firme choisit son propre standard avec une probabilité de 4/5. Notes bien lecteur, que le plus haut niveau de bien être serait atteint (en supposant que le gain des consommateurs soit identique dans toutes les éventualités) avec un seul standard. Donc l’issue d’un tel jeu est assez indéterminée, si ce n’est qu’il y a peu de chances que deux standards coexistent très longtemps. C’est d’ailleurs ce qu’à souvent montré l’histoire récente des technologies audio-vidéo, l’un des deux (parfois trois) standards finissant par l’emporter à l’issue d’une guerre de quelques années (VHS vs Betamax, DVD-R+ vs DVD-R- vs DVD Ram, CD contre minidisc, BR vs HD DVD etc..). En fait, je me rends compte que la portée prédictive, en me laissant un peu déborder par l’enthousiasme, n’est pas si mauvaise : il finit (presque) toujours par y avoir un standard commun, même si cela prend du temps !
Mais l’intérêt est aussi d’aller voir du côté des consommateurs et pas seulement des producteurs de technologies. Eux aussi profitent d’externalités de réseaux (lecteur, n’as-tu pas fréquemment maudit tes ami(e)s ami de n’avoir qu’un graveur de DVD-R+ quand tu n’avais qu’un lecteur monoformat DVD-R- et que tu voulais absolument voir le dernier épisode de Derrick ???) et ont en fait intérêt à ce qu’une seule technologie soit disponible sur le marché. Nous ferons l’hypothèse, abusive sans doute mais soutenue avec succès par Brian Arthur dans la fameuse métaphore de QWERTY vs AZERTY, qu'aucune technologie n’est véritablement meilleure que l’autre et que le surplus retiré par chaque consommateur ne dépend donc pas du standard finalement retenu, mais uniquement du nombre de consommateurs qui utilisent la technologie avec moi.
Supposons que nous ayons deux consommateurs, et que leurfonction d’utilité puisse être décrite de la manière la plus simple du monde en écrivant  Ui=x+a(s) où  Ui est l 'utilité du consommateur i, s est le nombre total de consommateurs utilisant un certain standard technologique (il peut donc être égal à 1 ou 2) avec le contrainte que chaque consommateur utilise une des deux technologies, x et a deux paramètres positifs sans importance pour le moment. Par exemple, envisageons que Ui soit égale à 10 +0.7s. Notes bien, lecteur, que la fonction d’utilité est croissante en s. Le jeu sous sa forme stratégique peut donc être représenté de la façon suivante :




Là encore, nous avons affaire à un jeu de coordination (un jeu avec une multiplicité d’équilibres en stratégies pures), l’un des standards étant finalement choisi si nous considérons l’équilibre de Nash en stratégies pures (deux possibilités). Il existe aussi un équilibre de Nash en stratégies mixtes, dans lequel chaque consommateur choisit un standard avec une probabilité de 0.5. Comme dans le jeu précédent dans la situation du jeu des producteurs, l’issue reste encore relativement indéterminée.
Dans ce cadre très simple, que va-t-il se passer, l’équilibre de choix étant relativement indéterminé ? Un article intéressant de C. Ruebeck et al.  paru en 2003 dans Southern Economic Journal, « Network Externalities and Standardization: A Classroom Demonstration » nous donne quelques indications. En gros, ils font jouer à une classe de 15 étudiants le jeu que je viens de décrire avec des paramètres différents, le jeu présenté à l’instant ne concernant que deux joueurs. La fonction d’utilité s’écrit comme ci-dessus mais avec la paramétrisation suivante Ui=20 + 2(s). Dans ce jeu, si les 15 participants choisissent le même standard, leur utilité pour chacun est 20+2(15) soit 50, ce qui donne un bien être de 15*50=750. Si 7 choisissent un des standards et les 8 restants l’autre standard, alors ceux qui ont choisi le standard 1 gagneront chacun 20+2(7) soit 34 et les 8 autres gagneront chacun 20 +2(8) soit 36 points. Au total le bien être sera de 7*34 + 8*36 soit 526 points. Il y a donc bien dans leur jeu une perte de bien être afférente à la répartition des consommateurs entre les deux standards, les effets de réseau étant considérablement affaiblis dans cette situation de coexistence des standards. Les standards ne sont pas décrits en tant que tels dans les choix, les participants devant choisir des cartes de couleur différentes (orange ou violettes) et le gain de chaque participant étant une fonction du nombre total de cartes choisies dans telle ou telle couleur. Je me contenterai de donner les principaux résultats du traitement « simultané » dans lequel les participants font un choix de couleur en même temps et ont alors à réaliser un jeu de coordination pur. Ils sont repris dans le tableau ci-dessous, tiré de l’article cité :



Dans le traitement simultané, le jeu est répété 10 fois de suite (exactement dans les mêmes conditions). On pourrait penser que ce nombre de périodes est trop faible pour observer une quelconque convergence, mais une solide littérature expérimentale sur les jeux de coordination montre qu’en fait les joueurs ont tendance à converger assez vite vers un équilibre et qu’ils n’en bougent pas facilement, même si vous répétez 100 fois le jeu, comme l’ont fait Duffy & Hopkins en 2005. Dont acte, 10 périodes peuvent être suffisantes pour dire quelque chose d’intéressant. Ce qui est spectaculaire ici, c’est que l’équilibre qui semble apparaître est l’équilibre en stratégies mixtes, puisque environ la moitié des participants choisissent « orange » et l’autre moitié « violet », la répétition n’altérant guère cette proportion (comme le nombre de participants est impair, on ne peut avoir une fréquence de 50% pour chaque standard, mais ne chicanes pas lecteur, 7/15 ou 8/15 est assez proche de 0.5 non ?). En fait, c’est un résultat très souvent mis en évidence dans la littérature expérimentale sur les jeux de coordination (Voir Ochs 1995 dans le Handbook of experimental economics) : les joueurs randomisent leur stratégie dans ces jeux de coordination de manière assez conforme aux prédictions théoriques données par l’équilibre de Nash en stratégie mixte. Cette stratégie de randomisation conduit à un niveau agrégé à ce que la fréquence de tel ou tel choix soit proche de la probabilité de faire tel choix d’un point de vue théorique.
Qu’en conclure ? Que, en tant qu'économiste, il n'est pas très prudent de trop se moquer de le concept d'équilibre en stratégies mixtes en le présentant comme une forme de rationalité assez "curieuse" d’un point de vue théorique : les agents semblent effectivement "randomiser" leur stratégie dans des situations de coordination difficiles à réaliser. Par ailleurs, les fabricants de ces nouvelles technologies 3D devraient aussi considérer que les consommateurs, dans ces situations de coexistence de standards différents, soient logiquement indécis, et qu’ils jouent le choix d’une technologie un peu comme ils joueraient aux dès. Par ailleurs, s’ils sont un peu averses au risque, ce qui est le cas de la majorité d'entre nous (les geeks étant une fraction assez limitée de la population), la situation de statu quo et d'attente est sans doute préférable. C’est exactement ce qui se passe actuellement avec les retards importants dans la généralisation du support Bluray. Loin d’avoir compris la leçon, les industriels, mécontents de cette déconvenue et voulant relancer la technologie bluray, risquent alors de subir une nouvelle déconvenue sur la question de la 3D s’ils ne font pas un plus grand effort de coordination dès à présent.

Aucun commentaire:

Enregistrer un commentaire

Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.