L’intelligence artificielle comme banquier central


L’intelligence artificielle, comme le Bot de la Banque d’Angleterre, est appelée à prendre en charge un nombre croissant de fonctions des banques centrales. Cette chronique soutient que l’utilisation accrue de l’IA dans les banques centrales apportera des avantages significatifs en termes de coûts et d’efficacité, mais soulèvera également des préoccupations importantes qui ne sont pas encore résolues.
Les rédacteurs
L’intelligence artificielle (IA) est de plus en plus utile pour les banques centrales. Bien qu’elle ne soit peut-être utilisée que dans des rôles de bas niveau aujourd’hui, les progrès technologiques et les économies de coûts vont probablement intégrer l’IA de plus en plus profondément dans les fonctions essentielles des banques centrales. Peut-être que chaque banque centrale aura son propre moteur d’IA, peut-être un futur « BoB » (Bank of England Bot).
Quel sera l’impact de BoB et de ses homologues ?
BoB pourrait aujourd’hui, ou bientôt, aider à de nombreuses tâches des banques centrales, comme la collecte d’informations, l’analyse de données, les prévisions, la gestion des risques, la supervision financière et l’analyse de la politique monétaire.
La technologie est pour l’essentiel là ; ce qui empêche son adoption, ce sont des facteurs culturels, politiques et juridiques. Le plus important est peut-être l’inertie institutionnelle. Cependant, les économies considérables réalisées grâce à l’utilisation de l’IA permettront probablement de surmonter la plupart des objections.
Dans certains domaines de la banque centrale, l’IA sera particulièrement précieuse, comme dans la réponse aux crises. Si la banque centrale est confrontée à une crise de liquidité et dispose de quelques heures ou de quelques jours pour réagir, la rapidité de la collecte et de l’analyse des informations est essentielle. Disposer d’un moteur d’IA en veille, expert dans l’évaluation de la situation, est inestimable, car il libère les décideurs humains du traitement des données afin qu’ils puissent prendre des décisions opportunes, conseillées par BoB.
Dans le même temps, l’utilisation accrue de l’IA soulève des questions cruciales pour les responsables de la politique économique (Agrawal 2018). Au sein de la banque centrale, quatre questions sont particulièrement importantes (Danielsson et al. 2020).
1. Procyclicité
Lorsqu’elle sera utilisée pour la supervision financière, BoB privilégiera les méthodologies homogènes de type « best-of-breed » et les processus standardisés, imposant aux acteurs du marché une vision du monde de plus en plus homogène.
Cela amplifie l’impact procyclique des propres moteurs d’IA des banques, qui ont tous le même objectif : la maximisation du profit sous réserve de contraintes. Les « meilleures » solutions sont plus proches de l’optimum et, par conséquent, plus proches les unes des autres.
Il en résulte des transactions encombrées en raison d’une perception et d’une action encombrées. Lorsque de nouvelles informations arrivent, tous les moteurs d’IA, tant dans le secteur privé que dans le secteur public, mettront à jour leurs modèles de manière similaire. Tous verront le risque de la même manière, et l’IA des banques voudra acheter/vendre les mêmes actifs.
Le résultat est la procyclicité – stabilité à court terme et profits élevés, mais au prix d’un risque systémique accru.
2. Inconnus
L’une des parties les plus difficiles du travail des banquiers centraux consiste à gérer les « inconnus ». Les vulnérabilités, en particulier celles de type systémique dangereux, ont tendance à émerger aux frontières des domaines de responsabilité – les silos. Les prêts hypothécaires à risque ont mis en place des produits avec des garanties de liquidité cachées dans le crédit structuré, traversant de multiples juridictions, agences, catégories institutionnelles et pays. Ce sont des domaines où les humains comme l’IA sont le moins susceptibles de regarder.
L’IA actuelle peut facilement être entraînée sur des événements qui se sont produits (« connus-connus »). La BdB peut peut-être être entraînée sur des scénarios simulés (« connus-inconnus »).
Cependant, notre système financier est, à toutes fins pratiques, infiniment complexe. Non seulement cela, mais chaque action prise par les autorités et le secteur privé modifie le système – la complexité du système financier est endogène, une conséquence de la loi de Goodhart (1975) : toute régularité statistique observée aura tendance à s’effondrer dès lors qu’une pression est exercée sur elle à des fins de contrôle ».
BoB passera, par définition, à côté des inconnus, tout comme ses homologues humains. Après tout, la machine ne peut être entraînée que sur des événements qui se sont déjà produits ou qui sont générés par des simulations d’économies modèles entièrement spécifiées. Pour exactement la même raison, elle sera très douée pour traiter les inconnus connus, bien mieux que ses homologues humains. Pourtant, ce sont les inconnus qui provoquent les crises.
3. Confiance
La BoB assurera probablement la sécurité du système financier la plupart du temps, très probablement bien mieux qu’un système de supervision à personnel purement humain, et nous nous fierons donc de plus en plus à la BoB et lui ferons confiance. Cela peut à la fois miner les plans d’urgence et les mesures réglementaires préventives, tout en créant un faux sentiment de sécurité qui pourrait bien culminer dans un moment Minsky : un risque perçu comme faible qui provoque des crises (Danielsson et al. 2018).
Dans les années 1980, un moteur d’IA appelé EURISKO a utilisé une astuce mignonne pour vaincre tous ses concurrents humains dans un jeu de guerre navale. Il a simplement coulé ses propres navires les plus lents afin que son convoi naval devienne plus rapide et plus maniable que celui de ses concurrents, assurant ainsi la victoire (pour une liste d’exemples similaires, voir Krakovna 2018).
Cet exemple cristallise les problèmes de confiance auxquels BoB est confronté. Comment savons-nous qu’il fera ce qu’il faut ? Un amiral humain n’a pas besoin qu’on lui dise qu’il ne peut pas couler ses propres navires. Ils le savent tout simplement ; c’est une partie ancrée de leur humanité. BoB n’a pas d’humanité. S’il doit agir de manière autonome, les humains devront d’abord fixer ses objectifs. Mais une machine avec des objectifs fixes, lâchée dans un environnement infiniment complexe, aura un comportement inattendu (Russel 2019). BoB rencontrera des cas où il prendra des décisions critiques d’une manière qu’aucun humain ne ferait. Les humains peuvent ajuster leurs objectifs. BoB ne le peut pas.
Comment pouvons-nous alors faire confiance à BoB ? Pas de la même manière que nous faisons confiance à un humain. La confiance dans la prise de décision humaine vient d’une compréhension partagée des valeurs et d’une compréhension partagée de l’environnement. BoB n’a pas de valeurs, seulement des objectifs. Et sa compréhension de l’environnement ne sera pas nécessairement intelligible pour les humains. Bien sûr, nous pouvons soumettre des hypothèses à BoB et observer ses décisions, mais nous ne pouvons pas facilement lui demander une explication (Joseph 2019).
Cela signifie-t-il que nous n’utiliserons l’IA dans les banques centrales que pour des fonctions simples ? Peu probable. La confiance nous gagne. Nous pensons que la plupart des gens auraient rechigné à gérer leurs finances personnelles en ligne il y a 20 ans. Il y a cinq ans, la plupart n’auraient pas fait confiance aux voitures à conduite autonome. Aujourd’hui, nous n’avons aucun problème à confier nos vies à des avions pilotés par l’IA et à des robots chirurgicaux contrôlés par l’IA.
À mesure que l’IA prouvera sa valeur aux banques centrales, celles-ci commenceront à lui faire confiance, facilitant ainsi la progression de carrière de BoB. Après tout, elle sera perçue comme faisant un excellent travail à un coût bien inférieur à celui des banquiers centraux humains.
Ensuite, si une crise survient, et que nous voyons que l’IA fait quelque chose d’inacceptable – peut-être la version de la banque centrale consistant à couler ses propres navires les plus lents – nous pourrions vouloir appuyer sur l’interrupteur d’arrêt. Sauf que ce ne sera plus aussi simple. Sa réputation croissante aura réduit les incitations à prendre d’autres mesures d’urgence et, par conséquent, notre capacité à interférer avec le comportement de Bob. L’éteindre pourrait mettre en danger les systèmes critiques.
4. Optimiser contre le système
Le dernier sujet de préoccupation concerne la manière dont BoB traiterait les « acteurs malveillants » : ceux qui prennent des risques inacceptables, ceux qui créent de l’instabilité pour en tirer profit, ou même ceux dont l’objectif principal est d’endommager le système financier.
Ici, BoB est désavantagée par les moteurs d’IA de ses adversaires. Elle est confrontée à ce qui est, en fait, un problème de calcul infiniment complexe, car elle doit surveiller et contrôler l’ensemble du système.
L’adversaire n’a qu’à identifier les failles locales qui peuvent être exploitées, et aura donc toujours l’avantage.
Cet avantage est amplifié par la rationalité intrinsèque de l’IA. Ses objectifs motivent ses actions. Cela rend BoB prévisible, ce qui donne un avantage à ses adversaires. Des objectifs fixes associés à un environnement complexe créent un comportement imprévisible, que l’on utilise l’IA ou non. Maintenant, cependant, un comportement rationnel dans un environnement bien défini permet une rétro-ingénierie des objectifs de BoB via des interactions répétées.
Certes, des contre-mesures existent déjà. La défense standard est que l’IA réagisse de manière aléatoire dans ses interactions avec des êtres humains ou d’autres IA, limitant ainsi leur capacité à la jouer. Cela imite la défense naturelle fournie par les humains – ils créent du hasard, des nuances et de l’interprétation, qui varient selon les individus et le temps.
Il y a au moins deux raisons pour lesquelles de telles contre-mesures ne fonctionneraient pas en pratique pour BoB.
Premièrement, les réponses aléatoires devraient être programmées dans l’IA de la banque centrale, ce qui serait inacceptable, sauf dans des cas particuliers. La réglementation et la supervision doivent être transparentes et équitables.
Deuxièmement, la randomisation exige que les concepteurs de l’IA spécifient une distribution pour les actions de BoB, et cette distribution peut être inversée à mesure que les entités réglementées observent des décisions répétées.
La rationalité innée de BoB, associée aux exigences de transparence et de fair-play, le désavantage lorsqu’il est utilisé pour la supervision. Il est intéressant de noter que l’ambiguïté constructive est acceptée dans la politique monétaire, et qu’elle pourrait donc constituer un moindre problème dans ce domaine.
Conclusion
L’IA va devenir très utile aux banques centrales. L’IA microprudentielle – « micro BoB » – réduira les coûts et augmentera l’efficacité, aidera à répondre aux crises et sera très efficace 999 jours sur 1000.
L’IA sera tout aussi bénéfique à la politique monétaire, en s’occupant de la collecte des données et de la prévision des politiques, et en améliorant le flux d’informations vers les comités de politique monétaire à un coût bien moindre qu’avec l’infrastructure actuelle.
C’est dans les réglementations macroprudentielles et la gestion des crises que l’IA soulève les questions les plus critiques. L’IA augmentera la procyclicité et la probabilité de moments Minsky, et on ne peut pas lui faire confiance. Elle facilitera l’optimisation contre le système.
Le BoB macro a besoin d’un coupe-circuit, mais n’en aura probablement pas.
L’utilisation de l’IA à des fins de contrôle peut augmenter le risque systémique, en réduisant la volatilité et en engraissant les queues.