Le déploiement des technologies quantiques1 laisse entrevoir des opportunités de résolution pour des problématiques dont la complexité sature les capacités de traitement conventionnelles. Les établissements financiers se heurtent aux spécificités des architectures de calcul classiques dès lors qu’il s’agit d’optimiser des portefeuilles avec un grand nombre d’actifs et des contraintes complexes (plafonds, exclusions, etc.), de modéliser des produits dérivés sophistiqués ou de projeter des scénarios de risques extrêmes2. Ces opérations requièrent une certaine acuité dans l’exécution et une puissance de calcul qui orientent les travaux vers des paradigmes alternatifs. En exploitant la superposition pour traiter une pluralité de configurations, les interférences entre les états superposés afin d’orienter les probabilités vers les configurations les plus pertinentes et l’intrication pour synchroniser les interdépendances entre variables, ce système pourrait infléchir les méthodes de décision actuelles3.
Cette mutation suppose toutefois une évaluation des bénéfices exploitables au regard des contraintes techniques et méthodologiques inhérentes à ces nouveaux outils. Interrogé par Polytechnique Insights, Lionel Martellini, professeur de finance à l’EDHEC Business School, fondateur et directeur de l’EDHEC Quantum Institute, apporte son expertise sur l’intégration de ces algorithmes dans la sélection de titres, la construction de portefeuilles ou la gestion des risques. Ses travaux portent notamment sur la mesure de la valeur ajoutée de ces innovations au sein des processus financiers et sur les conditions de leur viabilité au sein des structures de marché4.
La question de la maturité de ces technologies au sein de l’écosystème financier demeure un point névralgique. Il convient de distinguer les usages susceptibles d’apporter une progression mesurable, d’identifier les facteurs qui ralentissent leur déploiement et de définir les étapes scientifiques préalables à une utilisation quotidienne. La confrontation entre les capacités actuelles de la recherche et les exigences de fiabilité propres aux opérations de terrain constitue ainsi le point de jonction entre les hypothèses de laboratoire et les impératifs du secteur5.
Calcul quantique : de quelles machines parle-t-on vraiment ?
Le terme « calcul quantique » recouvre aujourd’hui des réalités très différentes.
Les machines dites NISQ (Noisy intermediate scale quantum) sont celles actuellement disponibles. Elles utilisent un nombre limité de qubits6, encore sensibles au bruit et aux erreurs. Elles permettent des démonstrations expérimentales mais restent contraintes par la taille et la durée des calculs.
Le calcul quantique tolérant aux fautes désigne des architectures capables de corriger les erreurs de manière systématique. Ce stade conditionne l’utilisation à grande échelle d’algorithmes quantiques avancés, notamment pour l’optimisation ou la simulation financière.
En parallèle à ces deux horizons, une partie des applications actuelles repose sur des méthodes quantique-inspirées, exécutées sur des ordinateurs classiques. Elles s’appuient sur des principes issus du quantique pour améliorer certains calculs, sans nécessiter de qubits7 physiques.
Dynamique du calcul haute performance : vers une résolution des complexités financières
Les marchés financiers mobilisent des opérations dont la densité computationnelle ne cesse de croître. Qu’il s’agisse de structurer des portefeuilles multi-actifs, de valoriser des dérivés à profils non linéaires ou de modéliser des scénarios de crise, les architectures classiques atteignent un seuil de saturation à mesure que la dimension des problèmes s’étend8. Dans Quantum speedup of Monte Carlo methods, Ashley Montanaro établit que l’algorithme d’estimation d’amplitude quantique offre une accélération théorique significative des méthodes de Monte Carlo, essentielles au pricing d’actifs dérivés et à la gestion des risques. Ses travaux démontrent que, pour un niveau de précision cible, le volume de simulations requises bénéficie d’une réduction quadratique par rapport aux approches conventionnelles. Ce gain d’efficacité permet d’envisager un allègement du coût computationnel des calculs financiers complexes, sous réserve de disposer de calculateurs quantiques tolérants aux fautes et de modèles compatibles avec les exigences de l’algorithme9.
Pour Lionel Martellini, « un véritable avantage quantique consiste à améliorer la rentabilité d’un portefeuille, ou à diminuer son risque, de manière à générer un gain économique supérieur aux coûts supplémentaires induits par la solution quantique ». Il confirme la nécessité de mesurer l’apport concret de ces technologies au-delà des simples gains de vélocité, précisant qu’« il est essentiel de considérer les coûts avant de conclure à un avantage quantique ». En effet, les investissements requis pour ces écosystèmes demeurent massifs.
Dans l’optimisation de portefeuilles, les modèles de gestion des risques peinent face à la croissance exponentielle des combinaisons d’actifs11. En matière de valorisation, Martellini rappelle que « le problème central consiste à calculer l’espérance d’un pay-off sous une probabilité ajustée du risque souvent via des simulations de Monte Carlo » et que « l’algorithme quantique d’estimation d’amplitude (QAI) offre un gain quadratique : l’erreur sur le pricing décroît plus rapidement, ce qui réduit le nombre de trajectoires nécessaires ». Toutefois, la viabilité pécuniaire reste le juge de paix : « Sur le plan technologique, le gain est clair, mais l’avantage économique reste à évaluer en fonction des coûts d’accès aux ordinateurs quantiques, y compris de leur consommation énergétique. »
Épistémologie des usages : pertinence des modèles et dérives algorithmiques
L’intérêt des processeurs quantiques en matière d’optimisation de portefeuille s’exprime pleinement dans des environnements caractérisés par une forte dimensionnalité et des structures de données changeantes. « Lorsque les paramètres sont peu nombreux et stationnaires, les méthodes classiques suffisent. Les petits problèmes peuvent être résolus avec des outils simples et peu coûteux », établit l’expert. L’utilité des approches quantiques émerge lorsque la complexité dynamique des flux sature les capacités des méthodes usuelles12.
Néanmoins, la recherche doit éviter les cas d’usage déconnectés des besoins réels. Martellini met en garde contre le fait d’« inclure la sélection des titres et l’optimisation du rendement en risque du portefeuille dans un seul problème. Cela crée une complexité combinatoire qui fait apparaître un avantage du quantique de manière artificielle ». La sélection d’actifs doit répondre à des objectifs financiers clairs : « Elle peut être motivée par la performance, en comparant le prix de marché à la “fair value”, ou par le risque, en recherchant par exemple un portefeuille faiblement corrélé. »
Le quantum washing renvoie à une dérive méthodologique consistant à attribuer un avantage quantique à des problèmes formulés de manière excessivement complexe. Cette tendance représente un frein à la crédibilité des solutions et donc à leur adoption. En effet, selon Lionel Martellini, « il existe une tendance à construire artificiellement des cas d’usage pour mettre en évidence les avantages du quantique. Cela donne un peu l’impression d’une solution désespérément à la recherche d’un problème, ou d’un marteau disproportionné cherchant des clous à frapper ». Ce biais peut conduire à des conclusions prometteuses mais inapplicables. « Même lorsqu’un problème est réel, poursuit-il, il existe un risque d’exagération des avantages supposés. Les bénéfices présentés dépendent souvent d’hypothèses non explicitées concernant la maturité de la technologie ou le coût réel. »
Réalités matérielles et trajectoires vers l’hybridation des systèmes
L’intégration du quantique dans la finance se heurte à des contraintes qui dépassent la simple puissance brute, notamment la maturité technologique et la cybersécurité. Les machines contemporaines (NISQ) opèrent avec des composants encore instables. « Les ordinateurs quantiques actuels sont encore trop limités pour des usages massifs », souligne Martellini. Les bénéfices en conditions réelles dépendent d’un horizon technologique plus stable, dit fault-tolerant13.
Le facteur financier est tout aussi prépondérant : « Certaines machines coûteront quelques dizaines de millions, d’autres plusieurs centaines de millions, voire des milliards », pointe du doigt Martellini, ajoutant que « la rentabilisation de ces machines et leur consommation énergétique, que ce soit dans un usage cloud partagé ou exclusif, seront des facteurs décisifs. » Par ailleurs, le traitement de données sensibles impose des protocoles de chiffrement drastiques et une supervision pointilleuse des infrastructures cloud.
Dès lors, la technologie s’envisage comme une couche complémentaire aux systèmes existants. « Aujourd’hui, les approches hybrides sont la voie la plus réaliste », affirme le professeur de finance. Il évoque également « des simulateurs inspirés du quantique, comme les annealers numériques ou les méthodes basées sur les réseaux de tenseurs ». Ces outils permettent d’expérimenter sans les contraintes des qubits physiques. En outre, « si l’ordinateur quantique autonome reste un objectif de moyen terme, à court et moyen terme, ce sont les architectures hybrides classique-quantique qui constituent l’approche la plus réaliste pour obtenir des résultats exploitables ». Cette transition permet d’exploiter des gains ciblés et d’explorer des cas d’usage tout en maîtrisant les risques opérationnels.