Définitions
De nombreux marchés fonctionnent de manière automatisée : les ordres d’achat et de vente sont transmis sous forme électronique à une plateforme de négociation, confrontés par celle-ci pour déterminer un prix, puis exécutés et confirmés aux donneurs d’ordres, par des processus entièrement automatiques. C’est le cas des marchés d’actions, des options, futures, ETF, et en partie du forex.
Avec le trading algorithmique et le trading à haute fréquence, ce processus d’automatisation se propage en amont de la plateforme de négociation pour gagner le monde des investisseurs. On peut distinguer 2 étapes dans le processus de négociation : la prise de décision fondée sur une stratégie (que celle-ci soit de court, moyen ou long terme) et une appréciation des conditions du marché d’une part, et l’exécution de cette décision, qui va se traduire par l’émission d’ordres d’achat ou de vente vers une ou des plateformes de négociation, en essayant d’en minimiser l’impact sur les conditions de marché.
On parle généralement de trading algorithmique lorsque c’est la deuxième étape, l’exécution, qui est automatisée. L’algorithme de trading s’appuie sur un modèle économique et mathématique sophistiqué pour analyser le marché et exécuter une stratégie d’investissement prédéterminée. L’exemple le plus simple est l’algorithme de trading qui a pour fonction de découper les ordres portant sur de grosses quantités en ordres plus petits (« child orders ») et d’émettre ceux-ci suivant un timing bien précis vers une ou des plateformes judicieusement choisies de façon à optimiser les conditions d’exécution (prix d’achat ou de vente et frais de transaction).
Avec le trading à haute fréquence, l’automatisation gagne le processus de décision lui-même, mais à un niveau différent. L’algorithme analyse en temps réel les données de marché, repère des déséquilibres ou des inefficiences en terme de liquidité ou de prix, les traduit en opportunités de trading et les met en œuvre. L’automatisation et les temps de réponse très faibles permettent de tirer profit de variations minimes et de durée très courte, qu’un opérateur humain n’aurait pas été en mesure d’exploiter ni même de détecter.
Ainsi, dans le trading à haute fréquence, la prise de décision est certes déléguée à un algorithme automatique, mais les ordres portent sur des quantités bien moindres que s’ils résultaient d’une stratégie d’investissement en vue de gérer un portefeuille d’actifs à moyen ou long terme. De même, les positions générées sont très rarement portées au-delà d’une journée, et souvent pas plus de quelques secondes. Le profit résulte donc de l’accumulation de petites opérations de durée très courte. Enfin, le trading à haute fréquence génère un grand volume d’ordres, dont une faible partie seulement finissent par être exécutés, les autres étant annulés.
Facteurs de développement
Le trading algorithmique semble une évolution logique dans le contexte de sophistication croissante et de capacités de traitement en constante augmentation des systèmes d’information. Cependant des évolutions dans la structure des marchés de capitaux ont joué également un rôle très important dans son expansion.
Tout d’abord, il y a l’autorisation des plateformes alternatives de trading (ECN Electronic Communication Networks et ATS Alternative Trading System aux Etats-Unis, MTF Multilateral Trading Facility en Europe) à la fin des années 90 aux Etats-Unis et en 2007 avec la MiFID en Europe. Cette évolution a entrainé une diversification des places de négociation possibles pour un instrument financier donné, une fragmentation de la liquidité et donc à la fois un problème nouveau à résoudre pour l’investisseur final, mais aussi des possibilités nouvelles d’arbitrage.
Parallèlement, se développent ce qu’on appelle les « dark pools » qui sont des plateformes de négociation « privées » où des grosses transactions peuvent être effectuées anonymement, le prix final n’étant diffusé qu’après l’exécution.
Ensuite, on note des évolutions réglementaires plus spécifiques au marché américain. Ce sont :
- en 2001 l’introduction de la cotation décimale qui remplace la cotation en 16e de dollar, autorisant des fluctuations de prix beaucoup plus faibles qu’auparavant
- en 2007 la nouvelle réglementation « RegNMS » (Regulation National Market System) qui vise a établir davantage de transparence et d’équité sur les marchés en instaurant un certain nombre de règles très précises parmi lesquelles :
- obligation pour les brokers de répondre aux offres d’achat et de vente en moins de 2 secondes pour éviter le « front-running »
- obligation pour chaque plateforme d’exécuter les ordres des participants au meilleur prix disponible sur toutes les plateformes.
Enfin, certains modes de fonctionnement mis en place par les plateformes de négociation, parfois controversés d’ailleurs, entrent en ligne de compte :
- « maker-taker pricing model »: les plateformes de négociation rémunèrent les participants qui apportent de la liquidité en postant des ordres d’achat et de vente qui ne s’exécutent pas immédiatement et facturent ceux qui absorbent de la liquidité en se contentant de « prendre » les offres des premiers
- « flash trading » : la plateforme autorise certains participants à voir les ordres émanant d’autres participants une fraction de seconde avant que ceux-ci soient publics. Créée initialement pour attirer et garder les participants sur les plateformes électroniques, cette pratique est en passe d’être interdite par la SEC.
Stratégies
Market making
Les market makers (teneurs ou animateurs de marché) assurent la liquidité du marché en diffusant en permanence des prix à l’achat et à la vente auxquels ils s’engagent à traiter. Le market maker se rémunère sur la différence (spread) entre les transactions d’achat et de vente ainsi réalisées.
La présence des market makers garantit aux investisseurs de trouver une contrepartie et contribue à diminuer les spreads et les coûts de transaction. Cependant un algorithme ne va pas rendre exactement les mêmes services qu’un acteur humain dans ce rôle. En cas de brusque variation de la tendance sur le marché, les algorithmes sont généralement programmés pour se retirer du jeu, quand un intermédiaire humain va tenter de trouver une solution pour ses clients. Ainsi la liquidité supplémentaire apportée par les algorithmes de trading peut n’être qu’une illusion qui se dissipe dès que les conditions deviennent difficiles.
Trading algorithmique
La complexité croissante des stratégies d’investissement (stratégies multi-actifs par exemple) d’une part, les possibilités nouvelles offertes par la technologie d’autre part, conditionnent le développement de modèles métier visant à tirer profit au maximum de l’outil informatique en traduisant ces stratégies en algorithmes automatisés.
Event driven processing
Ces stratégies visent à exploiter en temps réel les informations émanant du marché pour y détecter des événements auxquels l’algorithme va réagir d’une manière pré-déterminée. Ceci permet à la fois de tirer profit de micro-variations indétectables à l’œil nu, et de réagir avec un temps de réponse bien inférieur à celui d’un intervenant humain.
Algorithmes
Le trading algorithmique et le trading à haute fréquence s’appuient sur des algorithmes plus ou moins complexes, dont une caractéristique importante est d’être en constante évolution. Les firmes spécialisées utilisent un grand nombre d’algorithmes différents, qui souvent ne sont actifs que quelques semaines à quelques mois au maximum, avant d’être modifiés ou remplacés.
Les algorithmes initialement développés mettaient en œuvre des méthodes mathématiques telles que l’algorithme du simplexe pour exécuter les ordres portant sur de grosses quantités en minimisant l’impact sur le marché et donc dans les meilleurs conditions possibles, en répartissant les quantités sur plusieurs places de négociation au moment optimal.
Algorithmes quantitatifs (« quant » algorithms)
Ces algorithmes s’appuient sur l’existence de corrélations historiques entre différentes valeurs. Ils scrutent en permanence l’évolution des cours et repèrent les instants où ces corrélations ne sont plus vérifiées, achètent et vendent les actifs concernés, encaissant au passage un petit profit. Les gains générés par chaque transaction sont minimes mais les volumes permettent au final des bénéfices substantiels.
Les corrélations recherchées vont du plus simple, comme le prix d’un même actif sur deux places de négociation différentes, au plus complexe comme la corrélation entre un actif et un produit dérivé basé sur cet actif, ou la corrélation entre deux actifs du même secteur économique. Un exemple encore plus sophistiqué consiste à traquer les différences de variation entre deux actifs supposés corrélés (trading de volatilité).
Algorithme contre algorithme
Le trading algorithmique permet aussi aux gros investisseurs d’avancer masqués et de ne pas être repérés par d’autres algorithmes qui ont eux pour but de détecter leur présence. Ces derniers opèrent en postant de grandes quantités d’ordres « appâts », généralement annulés, servant à détecter des tendances ou la présence de gros acteurs sur le marché.
Ce type d’algorithmes contribuent à l’image négative du trading algorithmique car la liquidité qu’ils génèrent sur le marché s’évapore aussi vite qu’elle est apparue. De plus, il semblerait que certains des ces « ordres fictifs » ont parfois pour but non pas de détecter les tendances du marché, mais d’influer sur celles-ci par la diffusion de « rumeurs électroniques ». Ce type de comportement, qui s’apparente clairement à de la manipulation de marché, est évidemment répréhensible mais très difficile à pister par les régulateurs.
Technologie : la course de vitesse
Les avancées technologiques jouent un rôle déterminant, avec la mise en place d’une sorte de « boucle de rétroaction » : ces avancées ont permis l’émergence du trading algorithmique, qui à son tour stimule le progrès technique.
L’objectif ultime est bien sûr ce que les spécialistes appellent « ultra-low latency », la réduction des délais :
- Entre la détection d’un événement de marché et la réponse par l’algorithme de trading
- Entre l’émission de l’ordre et sa prise en compte par la plate-forme de négociation
Cette réduction des délais passe non seulement par des optimisations des algorithmes, mais aussi par l’utilisation d’ordinateurs et de réseaux de plus en plus puissants. Des solutions techniques innovantes, telles que les FPGA, Field Programmable Gate Array, sont également utilisées. Ces composants électroniques peuvent être programmés directement, sans l’utilisation de software. Cela permet d’abaisser encore les temps de réponse, et aussi de les rendre plus prédictibles.
Sans aller jusque là, les courtiers, puis maintenant des éditeurs de logiciel, proposent leurs algorithmes aux investisseurs. Cette offre ne peut toutefois pas aller très loin, dans la mesure où le choix d’un algorithme reste hautement stratégique, donc a priori confidentiel. Plutôt que des solutions complètes de trading algorithmique, livrées clé en main, ce qui n’aurait pas de sens, ce sont plutôt des boîtes à outil, comprenant des composants réutilisables, que vont proposer les éditeurs de logiciel.
C’est toutefois dans la partie « hard », l’hébergement physique des programmes, que l’on note les évolutions les plus emblématiques.
Certains intermédiaires de marché mettent ainsi à disposition des investisseurs, moyennant finances, leurs infrastructures techniques. Ce sont d’une part les brokers, qui offrent un accès direct (DMA, Direct Market Access ou DEA, Direct Electronic Access) aux marchés à leurs clients, leur permettant de transmettre directement leurs ordres, soit sous l’identité du broker lui-même, soit sous leur propre identité, au marché.
D’autre part les plateformes de marché elles-mêmes, louent leurs locaux et leurs serveurs aux participants , leur permettant d’héberger leurs algorithmes au plus prêt des serveurs qui traitent les ordres (co-location), et ainsi de réduire les délais. Cette pratique, très lucrative pour les plateformes de marché, conduit à la construction de centres techniques de taille gigantesque.
Ces pratiques posent bien évidemment des questions d’ordre éthique. Concernant le DMA, il y a la question de l’habilitation à la participation directe au marché. Sur les marché réglementés comme Euronext, seuls des intermédiaires habilités ont le droit d’émettre des ordres d’achat et de vente. Cela permet d’éviter des perturbations inopportunes causées par un participant inexpérimenté. Avec les plateformes alternatives, la distinction devient de plus en plus floue entre participants, toutefois il n’est sans doute pas souhaitable que des acteurs qui ne sont pas des intermédiaires de marché habilités puissent poster massivement des ordres sur une plateforme de marché.
En ce qui concerne la co-location, certains font observer qu’elle introduit une concurrence déloyale entre les participants qui bénéficient de cette possibilité et les autres. A cela on peut répondre que si l’accès à cette possibilité reste ouvert à tous aux mêmes conditions tarifaires, il n’y a pas plus de concurrence qu’entre deux participants dont l’un aurait ses serveurs à 100 mètres des serveurs de la place de marché, et l’autre à 100 km.
Marchés et volumes
Les marchés concernés sont bien évidemment tous ceux où le processus de négociation lui-même est fortement automatisé : marchés actions, dérivés listés, et dans une moindre mesure marché des changes.
On estime que 70% environ des volumes sur les marchés actions aux Etats-Unis sont le fait du trading algorithmique.
Acteurs
Le trading algorithmique est essentiellement une activité pour compte propre. Les acteurs du trading algorithmique et du trading à haute fréquence se partagent en deux grandes catégories: les teneurs de marché (market makers) d’une part, les traders pour compte propre (proprietary traders d’autre part). Dans la première catégorie on trouve des brokers-dealers traditionnels, qui développent une activité de trading algorithmique pour compte propre parallèlement à leur activité pour compte de clients. Dans la deuxième on trouve des firmes uniquement spécialisées dans le trading à haute fréquence pour leur propre compte, souvent de petites ou moyennes structures créées assez récemment à cet effet. A ces deux grandes catégories s’ajoutent quelques hedge funds.
Impacts
En mai 2010 le « flash crash », durant lequel le Dow Jones plongea de 1000 points (environ 9%), pour ensuite regagner la majeure partie de sa chute en quelques minutes, avait une première fois attiré l’attention sur le trading à haute fréquence, encore qu’à ce jour le rôle joué par celui-ci dans le déroulement des événements ne soit pas complètement éclairci. Plus récemment début août 2012, Knight Capital, un intermédiaire de marché utilisant des algorithmes de trading, a expérimenté une perte de 400 millions de dollars, suite à la mise en production d’un algorithme défectueux qui a envoyé une grande quantité d’ordres erronés au marché, mettant en jeu la survie de l’entreprise.
D’un côté, les défenseurs du trading algorithmique avancent plusieurs effets bénéfiques :
- Lisser les distorsions de marché via les opérations d’arbitrage, et donc pallier la fragmentation de liquidité qui découle de la multiplication des places de négociation.
- Apporter de la liquidité par la présence permanente de nombreux ordres à l’achat et à la vente sur toutes les gammes d’actifs
- Diminution des spreads et donc des coûts pour les investisseurs finaux
Les pourfendeurs du trading algorithmique ont eux aussi des arguments de poids de leur côté, quoique le contre-argument systématiquement invoqué soit qu’il est bien difficile de dire si certaines évolutions sont le fait du trading algorithmique ou d’autres facteurs
- Augmentation de la volatilité comme on l’a vu lors du flash crash de 2010
- Evincement des « vrais » investisseurs ou des petits acteurs, découragés, qui ne se sentent pas de poids pour lutter contre la puissance de feu développée par les algorithmes de trading à haute fréquence
- Manque de transparence et d’efficience dans la formation des prix dans la mesure où les ordres des investisseurs « fondamentaux » sont noyés dans une masse d’ordres ayant des visées purement spéculatives de très court terme, quand il n’agit pas de pure manipulation
- L’apport de liquidité au marché est en grande partie illusoire dans la mesure où en cas de choc, les algorithmes cessent brutalement de fonctionner
Les autorités de régulation suivent attentivement les développements de ce secteur d’activité et tentent d’en contrecarrer les effets les plus pervers. Malheureusement, à ce jeu, les acteurs de marché ont toujours une longueur d’avance sur les régulateurs…
- Regulatory Issues Raised by the Impact of Technological Changes on Market Integrity and Efficiency, Report of the Technical Committee of IOSCO: http://www.iosco.org/library/pubdocs/pdf/IOSCOPD361.pdf
- http://www.hftreview.com/
Laisser un commentaire