A 19. század közepén Paul Julius Reuter megalapította a (később) Reutersnek nevezett hírszolgálatot 45 galambbal, akik Brüsszel és Aachen (távíró végpontok) között repkedtek hírekkel és részvényárakkal. Reuter galambjai 6 órával gyorsabban tették meg ezt a távot, mint a vonatközlekedés engedte volna, fontos kereskedelmi értéket teremtve tehát.
Ez a harc az idő lefaragásáért folyatatódott[1], az utóbbi két évtizedben különösen élen járt ebben az úgynevezett high frequency trading (HFT – nagy gyakoriságú kereskedés). Ezek a traderek számítógépeiket közvetlenül a tőzsdék adatközpontjaiba rakva, optikai kábelek kiépítésével tudtak még néhány értékes ezredmásodpercet nyerni. A HFT számítógépes algoritmusok alapján kereskedik, minimális vagy semmilyen emberi beavatkozás nélkül. Ezek az algoritmusok általában piaci anomáliákat vesznek észre, arbitrázs lehetőségeket keresnek, és csak nagyon rövid ideig vesznek fel pozíciókat. A nap végére gyakran minimális a nyitott pozíciójuk.
Kérdés, hogy jó-e a piacnak, illetve a piaci likviditásnak a jelentlétük? Kicsit populistább módon megfogalmazva, teremtenek-e értéket vagy a lassabban mozduló másik fél rovására nyerészkednek?
Első hallásra azt gondolhatjuk, hogy mind a piaci likviditás, mind a piaci hatékonyság szempontjából üdvözölendő a jelenlétük. Sűrű tranzakcióikkal nagyobb piaci likviditáshoz járulnak hozzá, általuk a piaci szereplők nagyobb valószínűséggel találnak másik felet a kívánt tranzakcióikhoz. Az arbitrázs lehetőségek kiaknázásával pedig földrazilag elkülönült piacokat jobban összekapcsolnak és a kiegyenlítődés felé mozdítják el az árakat – így csökkentve a befektetők költségeit.
Az emberi beavatkozás hiánya vagy minimális szintje viszont ijesztően hangozhat, gondoljunk csak egy meghibbant (rogue) algoritmus veszélyére; és rámutat a kontroll környezet fontosságára. Ezt a szabályozóhatóságok is felismerték. Angliában például a PRA és FCA az EU-s irányelveknél (Mifid II) is szigorúbb elvárásokat fogalmaz meg többek között az algoritmusok tesztelése, monitorálása, felügyelete és dokumentálása területén.
Másrészt kérdés, hogy bizonyos, előre nehezen programozható esetekben bekapcsolva (aktívan) hagyják-e az algoritmusokat, vagy óvatosságból kivonulnak-e a piacról (pull the plug). Ez utóbbi ugyanis akkor csökkentené a piaci likviditást, amikoris talán leginkább szükség lenne rá. Ilyen dilemma állhat elő egy váratlanul bekövetkező esemény során, amikor a szokásos piaci összefüggések – melyek alapján az algoritmusokat programozták – nem a várt szerint alakulnak. Ide kapcsolódik az is, hogy az algoritmusok gyorsan tudnak ugyan számszerű adatokra reagálni, de „puhább” információkat nehezebben dekódolnak. Jegybankárok beszédei például gyakran mozgatják a piacot, de nehéz leprogramozni a különféle szófordulatokat, az érezhető utalásokat.
Az eddigi tapasztalat vegyes képet fest, és néhány nemrég tapasztalt flash crash során (rövid idő alatt tapasztalható nagymértékű volatilitás, árak zuhanása) felvetődött a felelősségük kérdése:
- 2016. október 7-én, néhány hónappal a Brexit szavazás után, a font éjszaka, ázsiai kereskedési órákban 9%-ot esett, majd néhány percen belül korrigált, visszatérve a korábbi árfolyamához közeli szintre. Az eseményt vizsgáló BIS jelentés szerint számos faktor együttállása okolható, és bár az algoritmusok nem voltak a közvetlen kiváltó ok, valószínűleg felerősíthették a hatást.
- 2015. január 15-én a svájci jegybank váratlanul feladta az EUR/CHF árfolyamküszöböt, melynek hatására 20 percig hatalmasat erősödött a frank, majd ennek egy részét korrigálta, és a napi nyitáshoz képest kb. 10%-kal erősebb szinten stabilizálódott. Ami a piaci működés szempontjából még nagyobb gond, hogy a svájci frank jegyzések akadoztak. Egy ezt vizsgáló jelentés szerint az algoritmusok likviditást vontak ki a piacról.
- 2014. október 15-én viszonylag kevés új információ ellenére az USA állampapírok hozama jelentős volatilitást mutatott. A 10-éves állampapírok hozama például aznap 37 bázispontos sávban mozgott, amire azelőtt alig volt példa. Az amerikai hatóságok itt is többféle okot sorakoztatnak fel lehetséges magyarázatként, mindenesetre megjegyzik, hogy az USA állampapírpiacon a tranzakciók többsége mögött már HFT áll.
Egy frissen megjelent tanulmány arra jutott, hogy a HFT nem kiváltó oka a piaci zavaroknak, viszont likviditást von ki a piacról, és ezáltal felerősítheti a stresszt azokban az esetekben, amikor több részvényre terjed ki a zavar. Egy részvény zavara esetében viszont kereskedésével segíti a piac működését.
A HFT részaránya az amerikai részvénypiac napi forgalmában
Forrás: FT
Visszatérve a címben feltett kérdésre tehát, egy analógiával élve, nem biztos, hogy önmagában az algoritmikus kereskedés tartja a tőrt, de bizonyos esetekben hozzájárulhat a szerencsétlen körülményekhez. Hogyha elfogadjuk, hogy a tágabban értelmezett digitalizáció/automatizálás fejlődési irány megállíthatatlan, az igazi kérdés nem is az algoritmikus kereskedés piaci stabilitásra gyakorolt hatása, hanem az, hogy a felügyelők, kockázatkezelők és pénzügyi stabilitással foglalkozó hatóságok tudják-e megfelelően felmérni és kezelni a megváltozott környezetből adódó megváltozott kockázatokat. Ennek egy fontos része, hogy a normál környezetben jelenlévő látszólagos likviditás megtévesztő lehet, extrém esetekben elpárologhat, ami HFT-k nélkül is igaz, de velük talán még inkább. Továbbá, mivel az algoritmikus kereskedést nem csak kimondott HFT cégek (principal trading firm, bizonyos hedge fundok) alkalmaznak, hanem bankok is, illetve a HFT már most is fontos része a piacnak (lásd például 1. ábra), különösen fontos az algoritmusok kontrollkörnyezete.
Baranyai Eszter
[1] Az elmúlt években a HFT cégek közötti verseny már nem feltétlenül az idő további lefaragásáért zajlik. Erre példa, hogy nagy cégek összefogtak, és így valósítják meg a Go West projektet, mely összeköti Chicagot, Amerika nyugati partvidékét és Tokiót.
Kép forrása: pixabay.com
“Algoritmikus kereskedés: ott volt, de ő volt-e a tettes?” bejegyzéshez 2 hozzászólás
Hozzászólások letiltva.