samedi 5 novembre 2011

Montée en puissance des algorithmes


09:20 - 05 novembre 2011 par Jennifer Nille

Ces marchés financiers de plus en plus robotisés


Un message aux régulateurs: si vous voulez freiner la vitesse des marchés, vous ne ferez qu’handicaper votre économie".
Un message aux régulateurs: si vous voulez freiner la vitesse des marchés, vous ne ferez qu’handicaper votre économie".
Tels sont les propos de Robert Giffords, un analyste indépendant spécialisé dans les banques et la technologie. Ces propos, tenus lors du séminaire High Frequency Trading World à Londres cette semaine, font écho aux propositions de la Commission européenne visant à imposer une liquidité permanente sur les marchés aux traders utilisant des algorithmes.
Une proposition qui passe difficilement auprès des traders. Mais aussi auprès de certains régulateurs que nous avons rencontrés à Londres.
Bob Giffords s’est livré à une enquête auprès de 500 intervenants de marché de tous les continents, du "sell side" (les courtiers et les banques) au "buy side" (fonds d’investissement, fonds de pension), sur le recours qu’ils font aux algorithmes. Pour rappel, les algorithmes sont des programmes de résolution de problèmes, utilisés ici pour exécuter des ordres de Bourse. Tous ont indiqué leur intention d’augmenter l’utilisation d’algorithmes dans toutes les classes d’actifs d’ici 2 à 3 ans. Pour le "sell side", la classe d’actifs la plus ciblée est le marché des devises. Pour le "buy side", le marché de l’énergie.
Information plus rapide
"Deux technologies vont accélérer davantage la vitesse des marchés: les extranets et les centres de données à multiples capacités" explique Giffords. "Clignez des yeux. Vous venez d’avoir fait le tour du monde. C’est le temps que prend une information pour circuler sur les marchés, en 200 millisecondes" ajoute-t-il. D’après lui, cette évolution va provoquer une plus grande concurrence entre les intervenants de marché. "C’est devenu un challenge. En 2010, lorsque nous avons réalisé notre enquête, les traders à haute fréquence ne se voyaient pas menacés par la concurrence. Cette année, notre enquête a montré qu’ils se tournent vers des stratégies plus intelligentes pour se distinguer", souligne Giffords. Il insiste aussi sur la nécessité pour les intervenants de réduire leur temps de réaction par rapport aux marchés. "Pour résoudre cela, il faudra que la colocation (l’hébergement des serveurs informatiques des intervenants de marché au sein des serveurs des places d’exécution) procure l’ubiquité à ceux-ci".
Filtrage des données
Bob Giffords souligne que de plus en plus de participants de marché utilisent une plus grande diversité de données. "Cela va des informations aux fondamentaux macroéconomiques, en passant par les prévisions météorologiques et les réseaux sociaux comme Twitter, Facebook…". Un vrai défi pour les analyser. "Il faudra un plus grand filtrage de ces données. La plupart ne sont que du bruit, comme ce que l’on a observé avec la réponse politique à la crise de la zone euro", ajoute-t-il.
Il observe aussi que "les algorithmes observent les autres algorithmes, pour augmenter leurs chances de rendement".
Un vrai défi
Cette robotisation avancée des marchés financiers inquiète certains observateurs, à commencer par les régulateurs, qui avouent à demi-mot comprendre difficilement la sophistication des algorithmes de trading. Mais Dave Cliff, professeur d’informatique à la Bristol University, se pose aussi des questions sur la robustesse de ces marchés.
Il rappelle le krach éclair de Wall Street, le 6 mai 2010. L’indice avait perdu 10% en quelques minutes pour se redresser ensuite.
"Et 364 jours plus tard, on a connu le même phénomène avec le cours de l’or, puis celui de l’argent. Des événements de ce genre ne doivent pas se produire. Les prix des actifs ne sont pas supposés réagir de cette manière erratique".
Selon lui, ce krach montre l’incapacité des intervenants de marché à utiliser une technologie risquée. "En 2005, Andrew Haldine, le directeur de la stabilité financière à la Banque d’Angleterre, avait déjà prévenu que le système financier avait atteint un niveau de complexité et d’homogénéité sans parallèle", souligne-t-il. "Et puis le krach éclair est arrivé en mai 2010". Il craint qu’un événement extrême ne vienne réduire à néant les marchés financiers. L
Courtiers, banques, fonds… Tous les intervenants se tournent désormais vers les algorithmes.

Aucun commentaire:

Enregistrer un commentaire