Martin Lueck n'est pas un sceptique professionnel de l'IA. C'est l'un des rares praticiens qui peuvent dire à l'industrie quant « attention » sans passer pour un passéiste. Cofondateur d'Aspect Capital en 1997, il pilote aujourd'hui une maison qui gère environ 7,8 milliards de dollars d'encours. Avant Aspect, il fut le « L » d'AHL (Adam, Harding & Lueck), société rachetée plus tard par Man Group et devenue l'un des temples historiques du trading systématique britannique. Quand cet homme publie une tribune dans le Financial Times pour mettre en garde contre l'emballement IA dans les hedge funds, ce n'est pas une posture.
Son message tient en une distinction simple, relayée notamment par Hedgeweek : l'IA et le machine learning sont acceptables pour traiter des données, tester des hypothèses ou accélérer la recherche ; ils ne doivent pas piloter la construction de portefeuille de bout en bout. La raison est opérationnelle, pas idéologique. Pendant une crise de marché, un gérant doit pouvoir expliquer à un investisseur pourquoi son book est positionné de telle manière. Lorsqu'un modèle est devenu opaque, cette conversation ne peut plus avoir lieu. C'est exactement ce qui avait poussé Lueck à quitter AHL dans les années 1990 : les modèles des premiers systèmes étaient, déjà à l'époque, des « boîtes noires » que leurs concepteurs ne savaient plus expliquer en période de stress.
L'avertissement tombe au moment précis où le secteur bascule dans le sens inverse. JPMorgan Asset Management a engagé jusqu'à 500 millions de dollars chez Numerai, hedge fund crowdsourcé qui mélange les prédictions de milliers de data scientists anonymes dans un modèle unique d'IA. Le fonds a publié 25,45 % de performance nette en 2024, avec un ratio de Sharpe de 2,75. La tentation est forte de dire « ça marche, pourquoi expliquer ? ». Lueck répond que la question n'est pas de savoir si ça marche aujourd'hui, mais ce qui se passera le jour où ça cassera.
La transparence n'est pas un luxe, c'est un contrôle du risque
Il faut lire Lueck avec l'oeil d'un professionnel du risque, pas avec celui d'un spectateur de la hype IA. Son argument central est connu en gestion d'actifs sous le nom d'« explicabilité du modèle ». Un gérant qui ne peut pas articuler les moteurs de son P&L est incapable de trois choses essentielles. La première, détecter une rupture de régime : si le modèle a été entraîné sur un monde où les taux montent et que le marché bascule dans un autre régime, un quant humain peut lire la transition et ajuster ; un système opaque continue d'appliquer ses règles jusqu'à ce qu'il passe par perte et fracas. La deuxième, distinguer l'alpha structurel du bruit statistique : sans compréhension des variables explicatives, un gérant ne sait pas si la performance passée vient d'un edge réel ou d'un biais d'optimisation in-sample. La troisième, expliquer la décision à un investisseur institutionnel, qui exige un narratif clair avant de rallonger.
Ces exigences ne sont pas que commerciales, elles sont codifiées par les régulateurs. L'AI Act européen, qui entre en pleine application le 2 août 2026, classe les systèmes d'IA utilisés pour le credit scoring, la détection de fraude et l'évaluation automatisée de risques dans la catégorie « haut risque », avec obligations de transparence, de gouvernance et d'audit, comme le rappelle la note de l'EBA sur les implications du texte pour le secteur bancaire et des paiements. La Bank of England a publié mi-avril 2026 un cadre de stress test dédié aux modèles IA, et la BCE finalise ses questionnaires sur le risque de concentration des fournisseurs. Lueck ne parle pas depuis l'extérieur du cadre réglementaire ; il articule, en gérant actif, ce que ce cadre cherche à imposer à tout le monde.
L'angle financier est tout aussi direct. Un portefeuille non explicable est un actif dont la prime de risque ne peut pas être estimée correctement. Les LP institutionnels (fonds de pension, assureurs, family offices européens) appliquent depuis deux ans une prime de transparence dans leur due diligence. Sans documentation des drivers du P&L, le ticket est plus petit ou l'allocation est simplement refusée.
L'IA comme assistant de recherche, pas comme gérant
Là où Lueck est le plus intéressant, c'est dans ce qu'il accepte. Il n'est pas un anti-IA. Il distingue quatre usages légitimes pour un quant : le traitement de données non structurées (rapports, presse, transcripts de conférences), la recherche de features dans des séries volumineuses, le test d'hypothèses sur des backtests, et l'aide à la production de code. Ces quatre terrains correspondent à ce que les hedge funds anglo-saxons appellent désormais le « research augmentation ». Les maisons historiques du trend following (Aspect, Man AHL, Winton, Millburn) utilisent déjà le machine learning à ce niveau, parfois avec des dizaines d'ingénieurs dédiés, mais conservent la décision finale d'exécution dans des modèles paramétriques dont les coefficients restent lisibles.
La seconde catégorie, celle qui accepte la décision IA de bout en bout, regroupe surtout des fonds récents, créés après 2020, sur un capital de nature plus spéculative. Leur performance sur 2025 a été proche, en moyenne, de celle des maisons historiques. Leur volatilité intra-année a, elle, été sensiblement plus élevée, avec davantage de drawdowns que personne n'a su reconstruire a posteriori. Cette asymétrie est ce qui pousse un gérant comme Lueck à dire publiquement ce que beaucoup pensent en interne : dans un book quant, l'explicabilité n'est pas une option de confort, c'est une contrainte de survie.
Pour un analyste ou un futur gérant en formation, la leçon est concrète. Le terrain où l'IA crée le plus de valeur immédiate n'est pas la décision finale (qui achète, qui vend, à quel poids), c'est le déchargement du travail ingrat : nettoyage de données, factor mining, production de code de backtest, extraction d'indicateurs macro depuis des transcripts. Les 80 % de temps qu'un analyste quant passait à préparer ses données peuvent descendre à 40 %. Les 20 % qu'il passait à réfléchir au signal doivent rester à 20 % ou monter. C'est exactement le message de Lueck, formulé côté productivité plutôt que côté risque.
Expliquer ou perdre l'investisseur
Il y a un arrière-plan commercial à cette sortie. Aspect Capital gère 7,8 milliards de dollars, majoritairement pour des investisseurs institutionnels. Cette clientèle ne tolère pas, et ne tolérera jamais, une réponse du type « la machine a décidé ». Les consultants qui sélectionnent les fonds pour les pension funds européens, américains ou australiens demandent depuis deux ans, dans leurs mandats de due diligence, une cartographie explicite des fonctions où l'IA intervient et une documentation des garde-fous humains à chaque étape du cycle de décision.
À côté, les fonds qui embrassent l'IA de bout en bout (Renaissance Medallion, DE Shaw, les spécialistes de l'alternative data) vivent dans un autre monde. Leur base d'investisseurs est soit interne (les associés), soit ultra-sophistiquée (family offices tech, fonds souverains habitués au risque modèle). Ils peuvent se permettre l'opacité parce qu'ils n'ont pas à vendre la logique du portefeuille à un comité de placement municipal ou à un board de pension fund régional. Lueck, lui, vend à des pension funds anglais, allemands, australiens. Le discours « je vous explique pourquoi le modèle est long yen et short bund » n'est pas une posture, c'est une condition de survie commerciale.
La question, pour les écoles et les recruteurs, est de savoir quel profil fait le prochain cycle. Les deux camps vont coexister. Le gros des encours institutionnels restera chez les maisons transparentes ; le gros de l'innovation, chez les maisons opaques. Les formations qui produisent des profils capables de faire le pont, c'est-à-dire de maîtriser le ML tout en sachant documenter et expliquer un signal, seront les plus valorisées. C'est exactement le cadrage du MSc Data & AI for Finance d'Albert School x Mines Paris-PSL, et c'est ce qui m'a fait choisir cette formation plutôt qu'un master plus généraliste.
Vu de mon côté
Sur mon bot Ichimoku et sur le Bloomberg Dashboard que je développe, j'applique naturellement la distinction de Lueck. Le modèle Ichimoku est paramétrique, ses règles sont lisibles, chaque position s'explique par la configuration Tenkan-Kijun-Senkou du sous-jacent. Claude, via API, intervient pour résumer des flux d'actualité, extraire des indicateurs depuis des rapports trimestriels, ou vérifier la cohérence d'un raisonnement de backtest. Il ne prend pas la décision d'entrée ou de sortie. Cette discipline m'a évité, en paper trading, d'accorder trop de poids à une intuition du LLM qui s'est révélée fausse sur deux épisodes de marché nerveux.
L'alternance ALM que je commence à l'AFD en septembre 2026 porte une logique comparable. La gestion actif-passif d'une banque de développement est l'inverse d'une boîte noire. Chaque décision de couverture, chaque swap, chaque choix de refinancement doit s'expliquer devant un comité ALCO, face à un auditeur, devant un régulateur. Un modèle IA qui optimise le hedging sans exposer ses inputs n'a aucune chance de passer la porte du comité. Lueck parle aux hedge funds ; la remarque vaut strictement autant pour les directions financières bancaires qui intègrent des modèles de prédiction de dépôts, de taux, ou de comportement d'option cachée dans un passif commercial.
Take-away
Un gérant ne mesure pas un modèle à sa performance en régime calme ; il le mesure à sa capacité à s'expliquer quand le marché casse. Lueck rappelle qu'en finance, la transparence n'est pas un caprice épistémologique, c'est un actif de risque. Tant que les LLM resteront des prédicteurs probabilistes difficiles à auditer, les maisons sérieuses les cantonneront à la salle de recherche. Les autres apprendront, un jour ou l'autre, ce que coûte un drawdown qu'on ne sait pas raconter.