Pourquoi les prédictions à long terme des experts sont souvent erronées?

Publié le 18/06/2019 à 09:34

Pourquoi les prédictions à long terme des experts sont souvent erronées?

Publié le 18/06/2019 à 09:34

Un homme sur un rocher qui regarde au loin avec des jumelles.

(Photo: 123RF)

BLOGUE INVITÉ. L’antonyme de courte-vue, c’est la longue-vue. Peut-être aviez-vous un ancêtre insulaire ou marin qui en cachait une près d’une tablette de fenêtre pour obtenir une vision rapprochée des objets éloignés. La pensée à long terme vise à obtenir une compréhension rapprochée des changements éloignés, pour mieux s’y préparer, en profiter, voire même les ralentir ou les empêcher. Puisque l’instrument optique semble parfois nous tromper, confondant «licornes» et ânons, corrections boursières et absences de récession, ou tourments géopolitiques et techno-politiques, cet article s’intéressera aux échecs réguliers des prédictions à long terme des experts. On y abordera les qualités du bon prévisionniste, les biais d’expert et autres défauts, et l’amélioration des prévisions.

L’échec spectaculaire des techniques de modélisation quantitatives lors de la crise financière mondiale de 2008 a rappelé l’utilité de l’analyse qualitative. Cependant, elle est lourdement dépendante des prédictions des experts professionnels et universitaires, lesquelles engendrent une vulnérabilité – l’erreur d’expert. Une étude du FMI intitulée How Well Do Economists Predict Recessions? souligne d’ailleurs de façon pertinente cette difficulté chronique chez les économistes. On pourrait espérer en 2019 que l’intelligence artificielle développée depuis la Grande Récession améliore le jugement des experts, mais des biais algorithmiques et des données limitées peuvent nuire à la justesse de leurs prédictions.

Comme l’expliquent Philip Tetlock et Dan Gardner dans leur ouvrage Superforecasting, il existe un paradoxe largement reconnu concernant le nombre relativement peu élevé d’individus (tels que quelques économistes, historiens ou politologues) possédant une expertise et une précision significatives dans la prédiction d’événements :

  1. Au cours de la dernière décennie, le suivi du marché de la prédiction a montré que la majorité des experts reconnus obtiennent des résultats inférieurs à la moyenne dans l’exactitude de leurs prédictions. Pire, plus expérimenté et célèbre un expert devient-il, plus mauvaises sont ses prévisions.
  2. L’expérience du gouvernement et du secteur privé (particulièrement dans les services financiers) démontre que les experts ont en général de la difficulté à revoir leurs schémas d’analyse pendant les crises. Les experts eux-mêmes se sentent souvent obligés de maintenir une illusion de contrôle de leurs sujets/domaines, en appliquant des modèles inappropriés ou en privilégiant des faux-positifs et les valeurs les plus facilement quantifiées ou disponibles mais inutiles.
  3. Il n’est pas encore démontré que l’expertise hautement spécialisée soit vraiment essentielle à une prise de décision à long terme pertinente.

Quelles sont les qualités du bon prévisionniste ?

En substance, les travaux de Tetlock et de Gardner (voir également l’ouvrage de Dan Gardner Future Babble: Why Expert Predictions Fail - and Why We Believe Them Anyway) révèlent qu’un type particulier d’analystes-experts font des prédictions considérablement plus précises et fortuites. En identifiant et en haussant le talent de ces individus et en tirant des leçons des professions qui se fient aux analyses qualitatives (telle la médecine) on pourrait améliorer les prévisions économiques, financières et politiques. Leurs recherches démontrent que quatorze traits de caractère semblent communs aux meilleurs forecasters : prudent, curieux, humble, ouvert d’esprit, autocritique, pragmatique, non-déterministe, analytique, esprit de synthèse, pensée en termes de chiffres et de probabilités, adaptatif, capable d’éviter les biais, croissance cognitive, persévérant.

Pourquoi les experts se trompent-ils ?

Même si des imperfections systémiques peuvent jouer un rôle dans les prédictions quantitatives, les prédictions qualitatives sont souvent erronées en raison de points faibles en matière de philosophie, et surtout de psychologie.

1. Facteurs philosophiques. Bien que peu fréquentés dans les facultés d’administration, les philosophes Hegel et Popper offrent des points de vue utiles tant aux CFA, aux économistes qu’aux présidents d’entreprise. Alfred Sloan, un des parrains du management et ancien patron de GM, recommandait la logique dialectique du philosophe allemand Hegel, et sa pensée antithétique ou en contradiction. Sloan aurait déjà dit après une réunion d’un conseil d’administration: « Je prends note que nous sommes tous d’accord avec cette décision. Je propose d’ajourner jusqu’à demain pour se donner le temps de penser à des raisons d’être en désaccord et de mieux comprendre peut-être ce sur quoi nous essayons de décider. » Karl Popper, maître de l’épistémologie contemporaine et influenceur de Nassib Thaleb, l’auteur du best seller Black Swan, et tous deux sceptiques émérites de la pensée inductive et des prévisionnistes de tous genres, propose deux questions-clés servant à tester l’inflexibilité d’un schème de pensée:

  • De quelles croyances ou prémices précisément êtes-vous le moins certain ?
  • Quelles évidences ou arguments nouveaux viendraient à invalider ces croyances ou ces prémices ?

Plutôt que de s’enticher éternellement d’une théorie (de placement, de stratégie d’affaires ou de politique publique), le décideur aurait avantage à se poser ces deux questions. En se rappelant les réflexions excessives du Prince Hamlet (Hamlet, Shakespeare) et une certaine paralysie par analyse, on comprendra que s’amouracher soit de la certitude ou soit de l’incertitude en vient à paralyser un personnage confronté au changement. C’est la fréquentation prudente des deux qui illumine les meilleures décisions.

De plus, en raison de notre perception du temps, nous devons éviter de confondre le réversible et l’irréversible. Si un phénomène réversible tarde à changer on l’imagine permanent. Tandis que si un phénomène irréversible met longtemps à se réaliser on le croit sans conséquences, voire impossible. Comme exemples du réversible, Fidel Castro n’était pas immortel (il gouverna Cuba pendant 49 ans). La vingtaine d’années consécutives d’expansion économique en Australie et en Chine, le prix de certaines de vos actions favorites, ou les provocations « trumpiennes » pourraient finir par baisser. Irréversibles et combien négligés, les effets du réchauffement climatique, de l’endettement, des maladies chroniques ou du vieillissement, tous des phénomènes lents à affecter nos vies ou notre économie, s’accéléreront soudainement un jour (voir le J-curve effect). Pendant ce temps, les experts peuvent toujours « philosopher » à souhait sur le new normal ou la nouvelle théorie monétaire !

2. Facteurs psychologiques. En 1974, deux pionniers de l’économie comportementale, les Israéliens Daniel Kahneman, lauréat du prix Nobel, et son regretté collègue Amos Tversky, avaient identifié des biais psychologiques majeurs (on compte maintenant plus de 120 catégories):

  • Biais de confirmation. Il s’agit de vouloir favoriser seulement les évidences qui confirment des croyances ou des hypothèses existantes. Pour paraphraser le peintre belge surréaliste René Magritte qui a écrit « Tout ce qu’on voit cache quelque chose qu’on veut voir », tout ce qu’on croit cache quelque chose auquel on veut croire – suffit d’ignorer toute nouvelle information contradictoire.
  • Biais de la disponibilité mentale. L’analyste s’attache à des informations et à des concepts faciles à se rappeler ou à des cas de figure récemment lus ou observés, ignorant ainsi des informations plus pertinentes, souvent anciennes et oubliées. La prédiction que les faillites d’AIG et de Lehman Brothers en septembre 2008 seraient tout aussi compartimentées que celle de Bear Sterns en mars de la même année, fait preuve de ce biais.
  • Biais d’attribution. Les stéréotypes et les comportements répétés, ou «attributions» généralisées, peuvent mal guider aussi bien les experts que les profanes. Pour les experts, l’attribution tend à accorder de fausses contraintes au sujet d’analyse. Par exemple, la notion qu’un leader déterminé ne posera pas telle action parce qu’il n’en a jamais posée de semblable (Warren Buffet ne fait que de bons placements. Saddam Hussein ne bluffe jamais, rappelez-vous le Kuwait) ou qu’une récession arrive nécessairement tous les cinq ans – ce que vient de contredire la 10e année de croissance économique américaine en juin 2019.
  • Biais de la nouveauté. Disposition d’un expert à préférer un concept ou une méthode nouvelle, préférablement de son invention, et le ou la juger supérieur aux ancien(ne)s tout en croyant faire quelque chose que personne d’autre n’a jamais tenté. Andrew Grove, cofondateur d’Intel, a déjà dit que chaque génération d’adolescents pense avoir inventé le sexe. (Le Biais IKEA est dans la même lignée : assembler soit même une « nouveauté » à l’interne est sûrement moins cher et plus génial qu’acheter un item (ou une étude) déjà fait.)
  • Biais du prestige (et biais de la certitude et de la peur de perdre). Les travaux de Tetlock et de Gardner mettent aussi en lumière un autre piège psychologique – le désir de l’analyste de préserver sa propre réputation de prévisionniste «extraordinaire», ce qui l’entraîne souvent à défendre des conclusions longtemps après qu’elles aient été reconnues fausses ou peu probables. Leurs recherches révèlent clairement une relation inverse entre l’image personnelle de l’expert et l’exactitude de ses prédictions. Le biais de certitude – je ne me trompe jamais ! – est l’attribut indéniable de tout analyste «sérieux». On peut aussi ajouter le biais de la peur de perdre – je ne vendrai pas cette action, je ne vais pas perdre maintenant... le marché me donnera raison demain, vous verrez bien.
  • Biais de schéma (ou de grilles d’analyse). Les analystes expérimentés développent des grilles formelles ou informelles rigides pour mieux comprendre leurs sujets d’expertise, lesquelles les servent très bien et facilitent des prédictions justes au fil des ans. Cependant, pendant une crise politique ou économique, la continuité que supporte une analyse à long terme peut soudainement s’effondrer. Les analystes experts peuvent être réticents à s’en écarter – bloquant leur capacité à analyser la crise. Dans son livre The Silence and the Noise, le statisticien Nate Silver note la difficulté d’appliquer au long terme un mode d’analyse conçu pour le court terme (par exemple, la prévision météorologique ou électorale est plus fiable à 48 heures que des mois à l’avance). Silver note aussi la négligence des experts à considérer les données jamais observées, absentes ou lentes à émerger dans la validation de leurs grilles d’analyse. (Pour bien des économistes, un taux d’intérêt négatif est encore un concept inimaginable, donc rejeté.)

 

Nécessité de l’expertise. Plus de dix ans après la crise financière mondiale, on néglige encore l’importance de l’analyse qualitative efficiente, tout comme on oublie les institutions qui ont survécu aux crises, ignorant leurs facteurs de résilience et les dirigeants qui les mirent en place à l’époque. Notons qu’un seul président de banque canadienne en fonction aujourd’hui a réellement vécu la crise de 2008, soit celui de la Banque Scotia, le forçant à « sensibiliser » ses paires lors de la crise financière du groupe Home Capital en 2017.

  • Remise en question des modèles quantitatifs. Dans la plus grande partie des deux dernières décennies, les modèles quantitatifs de risque ont pris le pas sur le développement de la gestion qualitative du risque. Fondamentalement, cela a impliqué le calcul d’équilibre de portefeuille et de «valeur de risque» (VaR) institutionnels; plusieurs fonds de placements ont même utilisé des modèles avancés basés sur la « théorie du jeu » et l’automatisation des décisions de transactions. Alors que ces modèles sont d’excellents outils d’information lorsqu’ils se trouvent entre les mains de gestionnaires professionnels du risque, plusieurs financiers ne comprennent pas leurs limites d’applications (particulièrement en VaR) – situation qui a engendré une fausse confiance et a contribué au gonflement de la bulle de crédit immobilier et de produits dérivés aux États-Unis de 2006 à 2008. On peut suspecter pareille difficulté à venir avec des portefeuilles à rééquilibrage automatisé ou des produits financiers synthétiques non-supervisés, accentuant les risques de flash crash. Mise à part la validité et la résilience des modèles et des logiciels, ce sont les biais informationnels liés à la mauvaise interprétation, qualité et quantité des données quantitatives qui continueront d’affliger les prévisions et les décisions.
  • Ligne de Deutsche Bank. Publiés en 2005 par la banque allemande, les rapports Global Growth Centers 2020 présentaient un nouveau modèle de prévision du PIB basé sur le croisement de facteurs économétriques classiques à quatre macro-indicateurs: la croissance démographique, incluant celle de la main-d’œuvre; la croissance du capital humain, soit la qualité de cette dernière; le ratio investissement/PIB, soit l’accumulation de capital; et l’ouverture commerciale, incluant la facilité à importer des technologies et des innovations étrangères, haussant la productivité.

Le modèle innovait dans sa forme dite hybride (quantitative et qualitative) et mariait l’extrapolation de périodes de temps à l’analyse de 21 indicateurs non-traditionnels et ce dans 32 pays. Comme l’extrapolation du passé n’est jamais une bonne anticipation de l’avenir, on note des écarts de prévisions nationales mais, dans l’ensemble, un portrait pas trop mauvais. Le modèle Deutsche Bank ne tenait pas compte de l’innovation financière ni des cycles économiques (ajustements fiscaux, structurels, de taux d’intérêt ou des devises). Malheureusement, comme bien d’autres modèles, celui-ci présumait de la certitude des dernières données économiques publiées comme représentant une tendance réelle – quand en fait plusieurs chiffres ne sont que l’image d’une situation passagère et sujets à révision (voir les révisions répétées des données économiques américaines, et la possibilité qu’une mini-récession ait déjà eu lieu en 2016 ou 2017).

  • Ligne de Goldman. Dans quelques cas, l’analyse qualitative du risque au sein des institutions financières semble avoir été entièrement abandonnée et remplacée par une culture de création et de vente de produits synthétiques appuyée par un modèle VaR mal appliqué. Résultat, des institutions aussi célèbres que Merrill Lynch, AIG ou Washington Mutual se sont effondrées sous l’effet d’autres faillites à l’automne 2008. Mais des analyses d’experts ont pu sauver d’autres institutions. La décision de David Viniar, CFO de Goldman Sachs, en décembre 2006 d’étudier dix jours consécutifs de pertes modérées par des fonds de couverture hypothécaires – ce qui révélait une certaine vulnérabilité et qui a conduit Goldman à redéfinir ses positions – est largement reconnue pour avoir empêché la firme de partager les prémices de Lehman Brothers (le film The Big Short montre que Viniar n’était pas seul à posséder cette observation).

NOTE : Le lecteur appréciera l’ironie de la création en octobre 2002 du marché des produits dérivés macro-économiques par Deutsche Bank et Goldman Sachs. Ces options permettaient de parier sur la hausse ou la baisse à venir du PIB, de l’emploi, de l’inflation européenne ou des intentions des acheteurs industriels par exemple. Ce marché géré plus tard par le Chicago Mercantile Exchange ferma en 2007.

Amélioration du jugement. Il y a au moins cinq façons de réduire les risques d’erreur lors d’analyses qualitatives à long terme.

Plus de «renards». Dans son célèbre essai de 1953 sur Léon Tolstoï, le philosophe anglais Isaiah Berlin différenciait deux types de pensées. Les hérissons, les spécialistes (dotés d’une seule défense mais efficace, soit faire le dos rond et sortir les épines) qui s’accrochent à une seule vision du monde, à un domaine de savoir, ou à une grille d’analyse mais qui ont de la difficulté à les adapter aux changements. Et les renards, les généralistes (tantôt omnivores, paresseux, courageux, nocturnes et astucieux, ou l’inverse) qui favorisent la flexibilité, l’expérimentation, se partagent parfois l’information, sont sceptiques face aux grands schémas et idéologies et sont intellectuellement hétérodoxes plutôt qu’étroits d’esprit.

Bien qu’on compte parfois autant de porcs-épics que de renards écrasés sur les routes québécoises, les études de Tetlock sur les prédictions d’experts suggèrent que seulement les penseurs de type «renard» excellent dans la discipline de la prévision à long terme. Au profit des généralistes, rappelons que l’astronaute Chris Handfield, travailleur spécialisé, a déjà affirmé que pour conduire à bien tant une fusée Soyouz chargée de 12 tonnes de matériel que la mission d’une station spatiale internationale, il fallait savoir faire de la maintenance électronique, informatique, mécanique et médicale, savoir cuisiner, cultiver et co-décider, et jouer de la guitare dans l’espace.

Davantage de données et de patience. Daniel Kahneman fait référence à la «disponibilité heuristique», une situation que l’exemple suivant rapporté par Nate Silver illustre bien. Au début de l’épidémie de grippe H1N1 en 2009, des estimations initiales excessives des taux de mortalité prédisaient une calamité. Les données épidémiologiques signalées à Veracruz, au Mexique, montraient 150 décès sur les 1 900 cas de grippe rapportés, soit un taux de mortalité de 8,0%, largement supérieur au taux de 2,5% enregistré lors de la «grippe espagnole» de 1918-19, qui a fait au moins vingt millions de morts. Cependant, médias et experts avaient négligé un grand nombre d’infections bénignes non signalées. Ainsi, lorsque l'épidémie s'est propagée aux États-Unis, où la capacité de suivre de près les hospitalisations était beaucoup plus grande, il est rapidement devenu évident que le taux de mortalité était plus proche de 0,02% - très similaire à une grippe saisonnière typique. Dans ce cas, une prévision efficace nécessitait d'attendre un peu plus longtemps les données nécessaires et de les placer dans leur contexte.

Support technologique. Les sciences médicales ont mis en place des technologies et des processus «machines» pour appuyer les analyses qualitatives. Par exemple, l’utilisation de l’ordinateur pour établir un diagnostique basé sur des symptômes et sur l’historique médical du patient est chose répandue. Des logiciels analysent des radiographies et des robots pharmaciens aident à préparer des posologies. De telles aides technologiques sont applicables à certaines analyses politiques et économiques même s’il est important qu’elles ne se substituent pas au jugement qualitatif. Ainsi, en attendant les implants cérébraux et les brain boosters (une belle prévision d’expert !), la disponibilité récente d’algorithmes et de processeur dits intelligents, couplée aux données massives et à la « sagesse » des masses (crowd-sourced wisdom), pourraient bien augmenter la capacité des experts. Il faudra une décennie pour en comprendre les impacts réels.

Réseau d’experts. Un réseau d’experts, apportant la vision de multiple individus pour résoudre un problème, peut significativement réduire le nombre de prédictions erronées. Encore faut-il bien le gérer et pouvoir se l’offrir. Long à construire et exigeant un grand soin dans l’élaboration de sa structure, le réseau d’experts doit être géré. Il faut leur montrer notre scepticisme, les mettre au défi, les interroger correctement et régulièrement (seraient-ils biaisés?), conserver une liste de leurs idées et prévisions et même écouter les experts qui semblent marginaux. Un réseau d’experts est plus qu’un ensemble d’avis redondants, c’est plutôt un assemblage méticuleusement choisi de spécialistes dont les idées sont pesées et rassemblées par un généraliste -- par un «renard» synthétisant et extrapolant depuis le point de vue de plusieurs «hérissons».

Des scénarios d’avenir. Lorsque faire des prévisions semble trop hasardeux, il vaut mieux s’en abstenir. Le risque de ne pas explorer ce qui est potentiellement prévisible et de perdre son temps à vouloir prévoir l’imprévisible est une affaire sérieuse. À la place, on peut préférer l’analyse par scénarios, et rédiger et comparer des narrations d’avenir faites de causes et effets uniques résultant en des futurs précis. Sans être une «prédiction», un scénario offre une perspective utile à l’identification des risques et des opportunités émergents et des conditions au succès de nos plans de demain. Comme on le verra dans une prochaine chronique, le processus de réflexion est souvent plus important que sa finalité.

Il y a ni bonnes boules de cristal, ni bons devins – seulement de bons moyens pour réduire ses erreurs de prospective. Les clés de la prévision à long terme sont le bon assemblage de penseurs intellectuellement hétérodoxes mais souvent spécialisés, la bonne gestion de son réseau d’experts et l’identification de leurs biais, des supports technologiques adéquats (sans en devenir esclave) et, au niveau personnel, le développement des quatorze qualités citées plus haut. Enfin, admettre ses erreurs de prédiction et en faire le post-mortem conduira tout «renard» ou expert-futuriste dans la voie de l’amélioration.

 

À propos de ce blogue

Pressé par l’hyperactivité professionnelle et la vitesse de l’actualité, on oublie que la pensée à long terme demeure essentielle à la pérennité de nos réussites. Échouer de planifier, c’est planifier d’échouer, rappelle Eric Noël, qui a plus de 30 ans d’expérience en stratégie à long terme et a conseillé des transactions de plus de 30 G$ dans plus de 30 pays. Le prospectiviste et initiateur du projet Canada vers 2030 nous propose de réfléchir aux macro-tendances pour mieux anticiper leurs conséquences et mieux s’adapter, voire changer l’avenir.

Eric Noël