d'Land : Depuis la parution de Le Capital au XXIe siècle de Thomas Piketty, r>g (le revenu du capital est plus élevé que la croissance économique) est probablement devenue la formule économique la mieux connue du grand public. Quelle est votre appréciation des résultats de recherche de Piketty ?
Yves Nosbusch : Je pense que c’est un livre important. Il a fait connaître au grand public un programme de recherche de très grande envergure que Thomas Piketty et ses collaborateurs poursuivent depuis une quinzaine d’années. Cette recherche donne une nouvelle vision de l’évolution des inégalités sur une longue période et pour plusieurs pays.
Cette croissance des inégalités constitue-t-elle un facteur d’instabilité économique ?
Il est trop tôt pour le savoir. En particulier, il n’est pas clair comment ces inégalités vont évoluer au cours des décennies à venir. Je pense que la force des travaux de Thomas Piketty réside dans la documentation d’un phénomène historique important. Même si on est convaincu par cette analyse historique, on peut en tirer d’autres conclusions que celles proposées par l’auteur dans la quatrième partie du livre.
La crise de 2007 a porté un coup à la crédibilité des sciences économiques. Que valent les modèles s’ils ne permettent pas d’anticiper un krach majeur ?
Certains avaient bien remarqué que des déséquilibres existaient. Ce que presque personne n’avait prévu, c’était l’ampleur du phénomène. Nous avions sous-estimé les mécanismes d’amplification. Simplement parce que nous ne connaissions pas l’exposition et l’interdépendance de certaines institutions financières. Or, grâce aux nouvelles régulations, nous en avons aujourd’hui une meilleure connaissance et pouvons mieux évaluer les risques systémiques.
Vous avez passé la majeure partie de votre vie professionnelle dans le milieu académique. Comment avez-vous vécu votre passage dans le milieu bancaire en 2012 ?
Les deux milieux peuvent être très proches. Mes recherches portaient toujours sur des thèmes proches du monde réel, comme les dettes publiques ou les systèmes de pension. Les chercheurs qui travaillent sur ces sujets dans les universités, les banques centrales ou dans le secteur privé le font avec des approches et des techniques très similaires. Mais il y a d’autres champs où les disparités sont plus grandes. Prenez la recherche fondamentale, par exemple dans le domaine de la théorie des jeux, qui peut être extrêmement abstraite et dont les implications, voire les applications futures, ne sont pas toujours très claires.
Un des idéaux universitaires est l’indépendance et la liberté du chercheur. En devenant employé de BGL BNP Paribas, y avez-vous renoncé ?
Non. La recherche économique doit rester indépendante. J’y tiens. Pour ma propre crédibilité et pour celle de l’institution qui m’emploie. Mais nous sommes une équipe au niveau du groupe, et on ne peut donc faire cavalier seul.
D’un point de vue scientifique, comment qualifierez-vous le marché des bons tuyaux d’investissements. Est-ce une imposture ?
Je ne pense pas qu’on ne puisse rien prédire. C’est un peu comme la météo, une certaine prévisibilité existe, or il faut rester rigoureux. Car ce qu’on n’a pas – ou alors très rarement –c’est une certitude. Ce qu’on peut dire, c’est que, statistiquement, vous aurez une plus haute probabilité d’avoir un rendement élevé en suivant certaines stratégies.
Quel regard portez-vous sur les analogies historiques en économie. Ne risquent-elles pas de donner un faux sentiment de sécurité et de continuité là où il n’y en a plus ?
Souvent, les chercheurs savent a priori quelles conséquences aura une mesure économique précise. Si la BCE prend la décision de baisser le taux directeur, on en connaîtra les effets qualitatifs. Or pour quantifier l’ampleur que ces effets prendront, des analyses économétriques basées sur le passé peuvent être utiles. Mais il faut faire attention à ce qu’on appelle en économétrie les « regime shifts » qui sont de nature à changer fondamentalement les relations qu’on essaie d’estimer. Par exemple, vers la fin des années 90, de nombreuses banques centrales ont gagné plus d’indépendance avec des objectifs d’inflation mieux définis. Ceci a changé les attentes de nombreux acteurs économiques. Et, par conséquent, la sensibilité de l’inflation à d’autres variables macroéconomiques a également changé.
Les transactions à haute fréquence et le trading à base d’algorithmes très complexes ne brouillent-ils pas vos modèles économétriques ?
La littérature scientifique n’y a pas encore une réponse univoque. Les uns disent que s’il y a plus d’achats et de ventes de titres, il y aura plus de liquidité et que les prix intègreront plus rapidement l’information. D’autres pensent que le high frequency trading peut être à l’origine de flash crashes, c’est-à-dire des ajustements violents à très court terme qui ne semblent pas justifiés au vu des fondamentaux de l’actif en question.
Y a-t-il des modèles scientifiques qui permettent de prédire le court terme ?
Si on suit le modèle des « marchés efficients », élaboré à la fin des années 1960 par Eugene Fama, alors la réponse sera non. Selon ce modèle, toute information disponible est directement incorporée dans le prix. Si les investisseurs anticipent la hausse d’un titre, ils vont en acheter massivement, faisant ainsi monter le prix. Selon la théorie des marchés efficients, l’ajustement à une bonne ou mauvaise nouvelle se fait donc très, très rapidement ; c’est quasiment immédiat. Toute prévisibilité disparaît donc au moment même où elle apparaît. Or, dix ans après Fama, un autre économiste, Robert Shiller, a découvert que le marché donnait un reflet distordu de la valeur fondamentale des titres. Les implications de ce constat vont très loin. Car, paradoxalement, le modèle de Shiller permet de nouveau une prévisibilité à moyen terme. Sur plusieurs années, suggèrent les travaux de Shiller, les indices boursiers ont tendance à converger vers la valeur fondamentale.
Qu’en est-il de la prévisibilité des actions individuelles ?
Une des études les plus citées sur le sujet a été réalisée par Werner De Bondt et Richard Thaler. Leur article, qui date de 1985, suggérait que les actions, qui, sur les dernières années, ont sur-performé, auront tendance à sous-performer à un horizon de plusieurs années. Or, à court terme, d’autres études (notamment celle de Narasimhan Jegadeesh et Sheridan Titman de 1993) ont mis en évidence le phénomène inverse : les titres qui ont sur-performé au cours des derniers mois semblent avoir tendance à continuer à sur-performer au cours des prochains mois. Ces deux phénomènes peuvent sembler contradictoires. Alors comment les réconcilier ? Il y a différents modèles d’explication, dont celui de la finance comportementale qui, contrairement à l’idéal de Fama, part de l’idée qu’une information ne se répercute pas immédiatement dans le prix. Ainsi Josef Lakonishok, Andrei Shleifer et Robert Vishny ont proposé un modèle qui incorpore l’irrationalité des investisseurs. Ceux-ci ne comprennent que peu à peu la signification d’une mauvaise (ou bonne) nouvelle. Dans une première phase, ils ne sentiront que de manière diffuse que quelque chose a changé. Ils sous-réagissent. Dans une seconde phase, les investisseurs se réveilleront. Brutalement. Et, à ce moment-là, ils vont sur-réagir. Ils vendront (ou achèteront) les titres et feront passer le prix en dessous (ou au-dessus) de sa valeur réelle. On passe ainsi d’une sous-réaction à court terme à une sur-réaction à long terme.