L'audition débute à 17 h 35.
Madame le professeur, je vous remercie d'avoir répondu à l'invitation de la commission d'enquête. Vous êtes professeur à l'Université Paris VI, où vous dirigez le master « probabilités et finances », qui a formé des générations de traders. Vous avez en effet été, à la fin des années quatre-vingt, une pionnière du développement des mathématiques financières. Vous êtes donc pour nous un témoin particulièrement précieux pour notre étude sur les mécanismes spéculatifs.
Notre commission cherche à comprendre ce qui se passe dans la sphère financière. Elle voudrait apprécier la place qu'y occupe la spéculation, son utilité et sa dangerosité, avant de formuler éventuellement des propositions pour améliorer la situation, si tant est que ce soit possible.
(Mme Nicole El Karoui prête serment.)
Aujourd'hui professeur à l'Université Paris VI, j'ai été pendant dix ans professeur à l'École Polytechnique. Fondamentalement, je suis une mathématicienne.
En mathématiques, quand on part de A, là où on arrive ne peut être contesté, sauf si on remet en cause A. Ce qu'il y a avant A et ce qu'il y a après là où on arrive sont des questions tout aussi importantes, comme je l'ai découvert en faisant de la finance.
Votre commission d'enquête étudie l'impact de la spéculation sur l'économie, sujet sur lequel tous ceux que vous avez auditionnés ont des compétences que je n'ai pas. Puisqu'on ne parle bien que de ce que l'on connaît, je vous ferai part de mon expérience. En matière de théorie financière, je me définis comme une autodidacte qui s'est progressivement intéressée à de plus en plus de sujets.
Je connais assez bien la banque d'investissement, particulièrement les produits dérivés, la gestion des risques et la mise en place de quantités réglementaires. Ainsi, j'ai directement participé, au Crédit lyonnais, à la mise en place de la value at risk (valeur sous risque), expérience qui exigeait beaucoup plus de technique que de connaissances financières. Je peux donc exposer un point de vue personnel issu de cette expérience, mais sans en tirer de conclusions au niveau de l'économie globale. Je me contenterai d'évoquer les risques que j'ai identifiés et les réflexions que cela m'inspire, en tentant d'adopter une approche quantitative.
Le mathématicien français Louis Bachelier avait rédigé sous la direction d'Henri Poincaré une thèse très novatrice intitulée Théorie de la spéculation, soutenue en 1900 à la Sorbonne. Considérant que tout intervenant sur les marchés est un spéculateur, il s'est intéressé au mécanisme de formation des prix des produits dérivés. Il a affirmé que le marché – c'est-à-dire l'ensemble des spéculateurs – ne croit, à un instant donné, ni à la hausse ni à la baisse du cours vrai, car pour chaque cours coté, il y a autant d'acheteurs que de vendeurs. Sur ce principe, il a construit une théorie mathématique du prix et, par ailleurs, développé des outils qui s'avèreront très utiles notamment en physique, concernant le mouvement brownien.
C'est sur cette base et les développements auxquels elle a donné lieu que j'ai commencé à travailler dans les années quatre-vingt-dix sur les produits dérivés, en m'intéressant non à la détermination du prix des produits, mais au calcul des stratégies de couverture. Le marché à terme international de France (MATIF) avait été ouvert peu de temps auparavant, les banques françaises se développaient beaucoup dans ce domaine. J'ai donc suivi le développement des produits dérivés, d'abord standard, puis plus compliqués.
Première question concernant la spéculation : qui sont les spéculateurs ? Selon la définition de Bachelier, ce sont tous ceux qui participent aux marchés financiers. Mais ce sont plus particulièrement les intervenants des sociétés de gestion, des hedge funds et des fonds de pension, les opérateurs des salles des marchés, ceux qui mènent des activités de trading pour compte propre à l'intérieur des banques d'investissement – et il existe sans doute d'autres catégories. Pour ma part, je connais mieux ce qui relève des salles de marché que du trading pour compte propre et des hedge funds, et encore moins bien les sociétés de gestion et les fonds de pension.
La spéculation, qui consiste à prendre des positions sur l'avenir, est parfois le seul moyen de faire de la performance, notamment quand les taux d'intérêt sont aussi bas qu'aujourd'hui. Ses effets sur l'économie dépendent de la taille et de la capacité d'intervention des acteurs : en 1992, quand il a attaqué la monnaie anglaise, George Soros a joué un milliard de livres. Tous les acteurs ne disposent pas de la même force de frappe.
Ce chiffre prend-il en compte l'effet de levier ? En d'autres termes, George Soros a-t-il engagé un milliard de livres ou seulement le vingtième de cette somme ?
Je ne saurais pas vous répondre, mais en tout cas il a joué gros.
Au moins dans les activités que je connais le mieux, on constate que les marchés liquides sont très bien arbitrés, mais que les gains retirés de chaque activité sont limités. C'est pourquoi, pour réaliser une performance suffisante, il faut prendre des grandes pauses. La taille des pauses me paraît un élément stratégique, qui a été peu surveillé lors de la dernière crise financière et auquel il faudrait sans doute réfléchir. L'autre solution est le déplacement vers des marchés moins liquides, plus risqués mais aussi plus rentables – d'où ce qui s'est passé en matière de crédit.
Un vieil adage dit qu'on ne peut pas avoir de rendement sans prendre de risques. Mais s'il s'agit de surveiller les marchés et de comprendre où sont les risques, il faut inverser la problématique : là où il y a du rendement, a priori il y a du risque, voire beaucoup de risque. D'où mon étonnement quand j'ai constaté que dans la période 2005-2007, les banques obtenaient une rentabilité de l'ordre de 30 ou 35 % sans que personne ne se demande pourquoi. Un tel résultat vient nécessairement d'un investissement important sur des produits à fort effet de levier ou sur des produits à forte rentabilité mais très risqués, sans que ce risque ait été très bien analysé.
Par ailleurs, le risque augmente avec la taille des pauses de manière exponentielle. Pourtant, quand un trader réalise des gains importants, on a tendance à miser encore davantage sur lui, en repoussant les limites de risque. Or les lois de la probabilité devraient au contraire conduire à exercer une surveillance accrue sur ce trader, non par suspicion, mais parce que, dans un marché qui offre peu d'opportunités réelles à très long terme, il a probablement trouvé une niche et que les niches ne résistent pas au volume. Les grandes pertes ont souvent résulté de la concentration de flux sur des opportunités temporaires.
Des opportunités réelles sont détectées et utilisées mais, dans des marchés de mieux en mieux maîtrisés et arbitrés, elles ne peuvent pas durer éternellement. On ne sait pas quand cela va casser, mais la cassure se produit nécessairement. Or on constate qu'au niveau d'un trader, d'une salle ou même d'une banque, à partir d'un certain niveau de performance on mise comme au casino, en oubliant que la performance va structurellement de pair avec un plus haut niveau de risque, lequel peut produire des effets dramatiques. Ces phénomènes s'apparentent à ceux d'une bulle, mais il n'est pas nécessaire qu'il y ait une bulle pour les constater : on les observe à des niveaux variés de l'activité de marché. Le risque est amplifié par l'importance des liquidités et par les comportements moutonniers.
Sur les marchés de dérivés – et du côté des banques –, on a pu constater au cours des dix dernières années que les produits standards sur les actifs ou sous-jacents liquides ne permettaient plus de dégager des marges suffisantes : les marchés étant bien arbitrés, on ne peut attendre des produits dérivés, tels que les options, qu'une performance très faible. Dès lors, le rendement passe par le volume ; l'activité se développe donc sur des gros nominaux.
Par ailleurs, la diminution des marges sur les activités optionnelles standard incite à innover. Une partie des produits nouveaux sert à couvrir les risques induits par l'activité de forte taille sur les produits standard, les autres visant notamment à utiliser la complexité pour augmenter les marges. Mais selon les professionnels des marchés, un nouveau produit n'est rentable que pendant environ six mois ; au-delà de ce délai, la compétition fait retomber sa rentabilité à un niveau commun, ce qui conduit à créer de nouveaux produits de plus en plus complexes.
On a pu également constater la tendance à investir sur de nouveaux marchés ou sur des marchés à forte composante spéculative. La période 2000-2010 a vu l'émergence des produits dérivés de crédit. En France, il y a eu beaucoup de produits de ce type sur le risque de défaut des entreprises. Sur ce marché à forte composante spéculative, les dérivés de crédits étaient surveillés de manière assez légère. Il fallait des milliards en CDS pour couvrir les CDO, ce qui a créé un important déséquilibre de marché, face auquel les mathématiciens étaient quelque peu réservés. Bien qu'on ait été très loin des hypothèses de base qui auraient permis de couvrir les produits dans la vision de Bachelier ou de Black et Scholes, le marché s'est fortement emballé. Non seulement les banques ont vendu, mais les investisseurs ont acheté – puisque, il ne faut jamais l'oublier, il y a toujours deux parties dans un marché ; et il est un peu étonnant que des acquéreurs se soient ainsi portés sur des dérivés de crédit qui, structurellement, dès lors qu'ils présentaient une rentabilité nettement supérieure à celle des taux, comportaient un risque, même si celui-ci n'était pas instantané.
Les dérivés de crédit ayant quasiment disparu, le marché des dérivés se repositionne. Ces grands mouvements devraient être surveillés – je parle d'observation et non de sanction. Dans l'immédiat, il faut particulièrement s'intéresser au marché des matières premières, dont on imagine bien qu'il donnera lieu à une demande importante dans les prochaines années. Je connais plusieurs banques qui ont réduit leur activité standard sur les dérivés pour s'orienter vers le marché des matières premières. C'est un marché très complexe, notamment du fait d'une grande asymétrie d'informations, et par ailleurs stratégique pour l'économie réelle ; mieux vaut, donc, être vigilant.
Quant aux risques à venir, ils concernent entre autres l'assurance dans son département « vie ». L'allongement de l'espérance de vie crée un risque important pour les fonds de pension, les assureurs-vie et pour le financement des retraites. Une réflexion intéressante est menée sur le rôle des marchés financiers dans le financement de ce type de risque. En Angleterre, les fonds de pension seraient exposés à des pertes très importantes si l'espérance de vie de la population était retenue pour son chiffre réel, et non maintenue au niveau indiqué par des tables qui remontent à cinq ou six ans. Une réflexion intéressante est menée sur le rôle de la finance dans ce type de risque. Il faut être conscient que les volumes en jeu seront très importants et que, s'agissant d'enjeux de long terme, l'analyse des risques sera difficile. Existe-t-il un risque potentiel ? Faut-il exercer une surveillance ? Quel type de veille assurer ? Telles sont les questions qu'il faut se poser.
J'en viens, toujours sur le marché des dérivés, à la situation des investisseurs.
Pour le spéculateur, les produits dérivés sont des instruments à fort effet de levier. Les contrats à terme fixent le prix d'une opération qui n'interviendra que dans le futur. Il est très facile d'investir si l'on peut anticiper que le cours sera très éloigné de la valeur affichée, d'autant qu'il n'y a quasiment aucun échange d'argent sur le moment. Mais si l'on peut espérer un gain important, on doit néanmoins ne pas oublier que, si l'anticipation est fausse, on perdra beaucoup. Les produits dérivés, dont certains jouent un rôle d'assurance contre des hausses trop brutales de produits essentiels, sont des instruments privilégiés pour le spéculateur ; mais il reste à savoir comment on peut les gérer et les contrôler.
C'est une question importante car les sociétés de gestion utilisent de plus en plus ces produits, même si c'est dans des proportions variables, afin d'augmenter leur rentabilité. J'ai eu l'occasion d'observer le recours à des produits extrêmement compliqués, dont l'utilité – en dehors de la performance espérée – était peu claire et qu'il serait indispensable de mieux maîtriser. Il a été proposé par exemple de créer des plates-formes de valorisation indépendantes. Cela n'est pas sans danger car on ne détermine pas le prix d'un produit en soi, mais à travers un modèle, ce qui suppose de savoir comment on s'en sert, ce qui l'a motivé et pourquoi on peut obtenir deux prix différents pour un même produit dérivé. Les instruments d'analyse ne doivent pas être considérés comme fournissant une information de nature à garantir la sécurité des produits, faute de quoi ils produiront l'effet inverse de celui qu'on en attendait. Si l'on veut stabiliser les marchés financiers, il me paraît important d'éduquer l'acheteur et de lui faire comprendre les risques, pour éviter qu'il ne se laisse séduire par des produits qu'il ne maîtrise pas.
Au cours d'un entretien récent, vous vous êtes montrée sévère envers la Commission bancaire, aujourd'hui intégrée dans l'Autorité de contrôle prudentiel. Pouvez-vous nous dire pourquoi ? Je m'interroge pour ma part sur la manière dont cette institution a rempli sa mission de surveillance des bilans bancaires, et notamment distingué les opérations en compte propre et sur mandat de clients – fort différentes en termes de risque. Quel jugement portez-vous sur les ventes à découvert ainsi que sur le projet de réglementation avancé par le commissaire Barnier ?
Si tous ceux qui interviennent sur les marchés financiers peuvent être considérés comme des spéculateurs, pour mettre un terme à la spéculation il faut purement et simplement supprimer les marchés financiers ! Sur le marché des produits dérivés, est-on capable de faire la distinction entre les bons et les mauvais produits ? Peut-on empêcher l'apparition des seconds et leur utilisation par les spéculateurs ? Qui pourrait le faire, et dans quelles conditions ?
Par ailleurs, on a beaucoup critiqué les modèles financiers, en leur reprochant d'avoir été à l'origine de certains dérèglements. Au moment de la crise, la Commission des finances avait auditionné des présidents de banque ; ils avaient dit avouer leur humilité devant la complexité des modèles mathématiques utilisés par certains de leurs collaborateurs, qu'ils étaient incapables de contrôler.
Comment réagissez-vous à cette affirmation ? Les modèles mathématiques utilisés sont-ils à l'origine de tous les maux du système financier ?
Précisons quand même que les banquiers, même s'ils ne comprenaient pas très bien comment fonctionnaient ces modèles, savaient en revanche ce qu'ils leur avaient rapporté !
La dissymétrie dans l'appréciation est incontestable : tant qu'on gagne, on ne parle pas des modèles, mais quand on perd, on les accuse…
La Commission bancaire devenue Autorité de contrôle prudentiel vient vérifier tous les ans le modèle interne utilisé par les banques pour calculer la value at risk, c'est-à-dire la perte potentielle, à un jour, de l'activité de la salle des marchés. J'ai pu constater qu'elle ne disposait pas de moyens suffisants. Le personnel n'est ni assez nombreux ni assez renouvelé pour suivre l'évolution du marché. Voilà vingt ans que j'étudie les produits dérivés. Dans les années 1990-2000, on était moins sûr de soi et donc plus critique. Ensuite, la machine s'est emballée : entre 2004 et 2007, l'activité de produits dérivés a augmenté de 30 % dans le monde. Il en est résulté des problèmes techniques : une salle des marchés effectue son bilan tous les soirs ; il est difficile d'évaluer un portefeuille quotidiennement, alors que les procédures sont complexes, si les moyens, et notamment le nombre d'ordinateurs, n'augmentent pas au même rythme que l'activité.
Il compte des personnes compétentes, mais au lendemain de la crise, quand beaucoup de gens se sont demandé ce qu'ils faisaient dans la finance, sans doute la Commission bancaire aurait-elle dû essayer de les faire venir, car on surveille toujours mieux ce que l'on connaît de l'intérieur.
Je n'aime pas que l'on réduise l'activité des marchés à un vol organisé. En 1998, quand la value at risk a été créée, deux personnes y travaillaient contre trente aujourd'hui, dans une salle qui en comprend quatre-vingt. Les contrôleurs sont devenus nombreux, on valide les modèles, l'analyse des risques est beaucoup plus performante. Certes il reste toujours un aléa moral.
Ceux qui ont la formation ne sont pas assez nombreux. La Commission bancaire aurait dû repérer l'explosion des investissements dans les dérivés de crédit, et donc le risque que cela représentait. Les banques ont un modèle interne pour déterminer la value at risk, qui représente l'estimation la plus précise possible des pertes maximales à un jour – parce qu'il ne peut pas se passer trop de choses en une journée. Mais a-t-on les moyens de surveiller, compte tenu de la vitesse d'évolution des marchés ? Pour être efficace, un contrôle opérationnel doit être très réactif ; il ne peut être en complet décalage avec les marchés. Il faut aussi se demander comment récupérer une information pertinente.
Quant aux banques, elles gagnaient tant d'argent qu'elles préféraient fermer les yeux. Je trouve d'ailleurs que leurs présidents ont été bien peu mis en cause… S'ils ne sont pas capables de savoir ce qui se passe dans leur établissement, c'est que leur gouvernance est mauvaise. L'argument technique n'est pas recevable : ce n'est pas parce qu'on ne comprend pas le fonctionnement d'un instrument – c'est le cas quand nous nous servons d'un ordinateur –, qu'il ne faut pas se préoccuper de ce qu'on en fait. Quelle a été la surveillance des flux ? Certains ont reconnu avoir manqué de vigilance à cet égard. Où les marchés se déplacent-ils ? Comment la concentration va-t-elle se faire ? Où l'explosion se produira-t-elle ? Ces questions auraient dû être posées. Même si la finance s'inscrit dans un environnement économique qui pousse à certaines opérations et en facilite d'autres, on doit pouvoir effectuer des observations et tirer la sonnette d'alarme avant que la bulle ne se soit constituée. Il est important de sensibiliser les acteurs des marchés au fait que de grands mouvements s'effectuent dans telle ou telle direction.
On le fait pour la météo : quand on observe un phénomène quelque part, on envoie un signal rouge avant qu'il ne se déplace. Un tel mécanisme serait un peu difficile à mettre en place, mais les banques seraient assez d'accord pour doter leurs produits d'une sorte de code barre, afin que le régulateur puisse ensuite centraliser l'information.
Il faut se demander comment constituer une information fiable et dynamique, c'est-à-dire en phase avec la vie des marchés. L'autorité de contrôle – ex-Commission bancaire – passe une fois par an dans les établissements, mais certaines informations devraient être recueillies plus fréquemment. On pourrait imaginer que ce soit le rôle d'une structure européenne.
Je ne les connais pas précisément. La régulation et l'encadrement sont comme les freins d'un vélo, lesquels sont nécessaires quand on va vite, mais qui empêchent d'avancer – en l'espèce, de faire du business – si on s'en sert tout le temps. Il faut par conséquent trouver le bon équilibre, en se montrant contraignant sur les risques réels, même si cela commence par susciter des protestations, et par ailleurs en développant une information utilisable par les acteurs et en faisant passer des messages.
Le « code barre » dont vous parliez permettrait, si j'ai bien compris, de disposer d'une information en temps réel.
Les banquiers ne seraient pas hostiles à ce que le régulateur dispose d'une vision d'ensemble. En revanche, ils ne croient pas à l'idée de classer les produits pour déterminer ceux qui rentreront dans les chambres de compensation. S'ils ne sont pas opposés à l'existence de chambres de compensation et reconnaissent qu'il faut un tant soit peu réguler le marché, ils jugent que la description trop précise de certains produits inciterait, par réaction, à introduire dans les contrats des changements minimes uniquement destinés à les faire sortir du système.
Sauf si on interdit les voies de contournement… Beaucoup d'intervenants nous ont dit qu'il existait une régulation, mais que rien n'empêchait de la contourner. C'est ainsi que les banques ont utilisé le hors-bilan pour contourner la régulation qui s'applique aux bilans bancaires. D'ailleurs, le président de l'Association française des banques a considéré que, si Bâle 3 risquait de contracter le crédit, il y avait toujours la solution du hors-bilan... C'est un peu atterrant.
J'ai trouvé qu'on avait été très indulgent avec les dirigeants des banques, qui ont eu une responsabilité majeure.
L'argument selon lequel ils ne comprenaient pas ce qui se passait n'est pas recevable. Quand un dirigeant ne dispose pas d'une chaîne hiérarchique pour l'informer, c'est que quelque chose ne va pas. Les mathématiciens étaient très réservés à l'égard de la méthodologie – très statique – utilisée pour les dérivés de crédit. Tous les dérivés doivent avoir un modèle de risque. Il aurait fallu se demander s'il était raisonnable de prendre des positions d'une telle importance. Je répète que la question de l'échelle est toujours fondamentale : pour qu'un outil reste intéressant, il ne faut pas que la taille des opérations fasse entrer dans un risque démesuré.
M. Lorenzi a rappelé tout à l'heure qu'entre 2000 et 2007, la masse monétaire a globalement augmenté de 15 % par an, tandis que la croissance du PIB était de l'ordre de 4 %. N'était-ce pas le signe que quelque chose n'allait pas ? Andrew Smithers parle des inept central bankers, en faisant remarquer qu'il aurait peut-être été intelligent d'avoir à l'époque une régulation globale. Quels que soient les efforts en matière de régulation fine, c'est-à-dire de contrôle des instruments, il reste que, lorsqu'une grande masse d'argent ne va ni à la consommation des ménages ni à l'investissement productif, elle est nécessairement employée à la spéculation. On aura beau inventer tous les systèmes possibles pour interdire l'entrée des casinos, les gens joueront sur le trottoir ! Cette approche quantitative me semble fondamentale.
Nous avons discuté l'autre jour avec M. Touati à propos du ratio de Bâle, anciennement ratio Cooke, qui a eu un effet direct en termes de création d'instruments hors bilan. Au titre du ratio Cooke, il faut avoir, pour cent de créance, sept ou huit de capital propre. Or, une fois que les banques avaient approuvé un produit, on plaçait les cent de créance dans un instrument financier, on faisait appel à des mathématiciens pour calculer le risque grâce à un algorithme que personne ne comprenait, une agence de notation l'évaluait et, une fois l'opération accomplie, on la recommençait en joignant quatre instruments financiers pour en faire un cinquième, un special investment vehicle. De quelle traçabilité dispose-t-on, au terme de cette titrisation en cascade ? J'ai peine à croire qu'une approche régulatrice permettrait un contrôle sérieux, surtout si l'on songe que 10 000 opérations sont réalisées chaque jour.
Je partage votre sentiment sur la responsabilité des banquiers. Mais rappelons-nous ce qui s'est passé quand le Trésor américain, en la personne de M. Paulson, a appelé les grandes banques pour signaler le problème rencontré par AIG. Un mèl a été adressé aux gens de la place pour signaler qu'il manquait quelque 600 milliards de dollars et les priant de se réunir le jour même à 14 heures. Tous ont répondu par l'affirmative, en signalant que le message contenait une faute de frappe : il ne pouvait s'agir, dans leur esprit, que d'un montant de 60 ou de 6 milliards ! Personne n'avait conscience de l'ampleur du désastre.
M. Lorenzi vient de nous rappeler ce qu'il en était des créances irrécouvrables. Sur mon blog, j'ai ironisé à leur sujet, en disant que les montants annoncés étaient très inférieurs à la réalité – on parlait de 80, de 100 ou de 300 milliards de dollars. On avance aujourd'hui le chiffre de 4 000. Nous en serons peut-être demain à 12 000. Personne ne peut connaît précisément l'ampleur des créances irrécouvrables. Que peut-on contrôler en matière de haute fréquence ? Rappelez-vous le krach éclair du 6 mai : Wall Street a chuté de 18 à 20 % parce qu'un algorithme a passé par erreur en vingt minutes des ordres de vente pour plus de 4 milliards. Il a fallu des mois pour comprendre ce qui s'était passé.
Tant pis si ma réponse vous paraît naïve : ces ordinateurs existent. Ils nourrissent des interrogations récurrentes dans le monde de la finance. La puissance des calculateurs augmente de 1,95 % tous les deux ans et la masse investie dans les marchés augmente pratiquement en parallèle. J'ai entendu parler des données haute fréquence dès 1995, quand une petite société essayait de les traiter. C'est souvent par le biais des stages que nous avons été au courant de ce qui se préparait. Les premiers stages avec des données de haute fréquence, destinées au trading pour compte propre, sont apparus entre 2000 et 2002. Où était le régulateur à cette époque ?
J'ai proposé d'associer des techniciens à la veille technologique de la surveillance. Si l'on ne peut pas toujours anticiper, il faut du moins accompagner les développements technologiques.
La finance est devenue le premier utilisateur de temps de calcul, dont une très grande part est consacrée à la surveillance des risques. Le nombre de calculs à opérer pour générer la value at risk à un an sur le risque de contrepartie, que nous venons d'introduire, est faramineux. Au sein d'un établissement pour lequel je fais du conseil, seule une astuce a permis d'éviter d'acheter quelque deux cents ordinateurs, qui, autrement, auraient été nécessaires. Chaque fois qu'on augmente la surveillance, on utilise les opportunités qu'offre l'évolution.
Il aurait mieux valu interdire avant que cela ne commence.
Il n'est jamais trop tard pour bien faire. Les promoteurs d'un certain nombre d'algorithmes de haute fréquence ont gagné des milliards de dollars ; qu'est-ce qui empêche d'interdire d'acheter et de vendre plus de cinq cents fois par seconde ? Il y a beaucoup de choses que la technologie permet et qui sont absolument interdites…
Ma réponse n'est pas qu'il ne faut pas interdire, mais que les ordinateurs existent depuis longtemps.
Voyons si d'autres secteurs comportent des risques et appellent une vigilance particulière. On peut imaginer une veille, ce qui suppose de construire une information pertinente permettant au régulateur de définir des limites.
Y a-t-il des spécialistes d'informatique à l'ex-Commission bancaire ? Ce n'est pas certain.
Quand j'ai rencontré M. Barnier, il y a une quinzaine de jours, il m'a confié que même à Bruxelles, on manquait de scientifiques, car les statuts ne permettent pas d'en recruter. Or les autorités de contrôle doivent disposer de personnel qui connaisse ces risques, et non faire appel à des consultants, qui ont toujours moins d'impact sur les équipes.
En voici quelques-unes.
Pourquoi attendre les problèmes pour se préoccuper des risques technologiques ? Les problèmes posés par les données haute fréquence sont-ils spécifiques ou semblables à ceux que pose de manière récurrente l'explosion des moyens de calcul ? La haute fréquence rend l'accès au marché très inégalitaire, puisqu'avec 2 % d'activité de données haute fréquence, on gère une grande partie des transactions. Cela dit, la technologie avancée est toujours inégalitaire. On le mesure d'ailleurs quand on vieillit…
A-t-on réfléchi à la sécurisation des risques informatiques ? La fiabilité de nos systèmes est très inférieure à celle qu'on rencontre par exemple dans l'aviation. Si l'on utilise la haute fréquence, il n'est pas question qu'un bogue de développement puisse anéantir tout un système pendant plusieurs jours. C'est d'ailleurs une question que se posent les banques, car on sait que des bogues se produisent partout.
Enfin, en termes de régulation, on ne pose pas toujours la question de l'échelle temporelle. On travaille en haute fréquence. Les salles de marché fonctionnent à la journée. Le gestionnaire a lui-même une autre unité de temps. Il faudrait une réponse différenciée suivant les cas.
Demain après-midi, une table ronde est organisée à l'Assemblée nationale sur « les apports des sciences et technologies à l'évolution des marchés financiers », ce qui permettra d'aborder la spéculation sous l'angle technique.
Oui, mais le fait que ces technologies existent implique que l'on prenne position. Il faut réfléchir dès qu'on les voit apparaître. Moi qui ne suis pas une experte de la haute fréquence, j'en ai entendu parler en 1995. Dès lors qu'on aperçoit des signaux, il y a des gens qui savent ce qu'on en fera. Il ne faut pas penser nécessairement haute fréquence, mais réfléchir globalement à l'impact des nouvelles technologies, à la manière de les gérer et de les prévoir, pour organiser le marché en les prenant en compte.
Au sujet de la haute fréquence, il faut encore poser la question des dark pools, que l'on a créés sans leur fixer de règles de fonctionnement, ce qui laisse la place au dumping et aux flash orders. Dans ces conditions, comment parler de « meilleur prix » ? Il n'y a même plus de prix. Il faut le vérifier en même temps sur dix marchés, mais le marché ne joue même plus son rôle, qui est justement de finir par générer un prix.
Lors du krach du 6 mai, le New York stock exchange (NYSE) a fermé, mais pas les autres places. Or on ne peut pas prendre une initiative ponctuelle sur les marchés financiers sans anticiper, même partiellement, ses conséquences. La création de ces places est peut-être une bonne chose, mais il n'est pas possible de les laisser mener la même activité que les marchés en les dotant de règles de fonctionnement différentes.
On peut envoyer des ordres sur plusieurs dark pools.
Voilà deux ou trois ans que Charles-Albert Lehalle, qui travaille pour Lyxor, a posé certaines questions : comment gère-t-on les dark pools ? Comment sert-on le client au mieux ? En tout cas, leur existence n'a pas diminué les frais d'exécution pour le client, puisqu'il faut désormais des ordinateurs pour surveiller des données haute fréquence en temps réel sur sept places en même temps. En outre, les lieux d'exécution n'obéissent pas tous aux mêmes règles de fonctionnement. Ces établissements ont recruté à prix d'or des spécialistes qu'ils tradent chez eux. Bref, il existe beaucoup de biais...
Merci infiniment pour cet échange. Nous avons été très honorés de votre présence, étant donné ce que vous représentez dans l'histoire de la finance.
Il est évidemment un peu curieux que la France soit apparue comme le pays où l'on formait le mieux les ingénieurs quantitatifs en finance.
La finance a recruté beaucoup de jeunes très brillants, dont l'objectif n'était pas nécessairement de gagner des millions, mais qui ont pu être fascinés par les marchés. Moi-même, voilà vingt ans que je les étudie, alors qu'ils ne m'attiraient pas a priori.
Certains secteurs déplorent que les ingénieurs les plus brillants aient déserté les laboratoires pour les salles de marché.
Pendant les dix années durant lesquelles j'ai enseigné à l'École Polytechnique, on me l'a vivement reproché. Mais que proposait-on aux étudiants dans les autres disciplines ? Ceux qui venaient chez nous ne le faisaient pas sans raison. Nous travaillons sur le high-tech, en mathématiques comme en informatique. Il y a beaucoup à comprendre. Il y a des risques à couvrir. Et je suis certaine qu'il existe aujourd'hui un potentiel humain important à utiliser dans la régulation du système. En tout état de cause, les risques de marché sont beaucoup mieux évalués maintenant qu'il y a vingt ans.