Handelsbots entwickeln sich weiter: Was passiert, wenn KI den Markt betrügt?

Algorithmen werden seit Jahrzehnten im Handel verwendet, aber die jüngsten Fortschritte könnten den Aufsichtsbehörden neue Herausforderungen stellen.

Bösartige Handelspraktiken sind nicht neu. Kämpfe gegen Insiderhandel sowie verschiedene Formen der Marktmanipulation stellen einen langjährigen Kampf für die Regulierungsbehörden dar.

In den letzten Jahren warnen Experten jedoch vor neuen Bedrohungen für unsere Finanzsysteme. Entwicklungen in der KI bedeuten, dass automatisierte Handelsbots nicht nur schlauer sind, sondern auch unabhängiger sind. Während grundlegende Algorithmen auf programmierte Befehle reagieren, können neue Bots aus der Erfahrung lernen, schnell große Informationen synthetisieren und beim Herstellen von Geschäften autonom handeln.

Laut Akademikern beinhaltet ein Risikoszenario die Zusammenarbeit zwischen AI -Bots. Stellen Sie sich vor: Hunderte von KI-gesteuerten Social-Media-Profilen beginnen online zu erscheinen und verweben Erzählungen über bestimmte Unternehmen. Die Verbreitung von Informationen sind nicht unbedingt falsch, können aber nur die Verstärkung vorhandener Nachrichten sein. Als Reaktion darauf reagieren echte Social -Media -Nutzer und markieren die ausgewählte Nachricht der Bots.

Da der Markt von der verarbeiteten Erzählung gekippt wird, hat der Roboadvisor eines Investors in Gewinne rund, nachdem er sich mit den Klatschbots koordiniert hat. Andere Investoren, die die Insider -Informationen nicht hatten, verlieren durch schlechtes Timing des Marktes. Das Problem ist, dass der profitierende Anleger möglicherweise nicht einmal das System bewusst ist. Dies bedeutet, dass die Anklage wegen Marktmanipulation nicht unbedingt effektiv sein kann, auch wenn die Behörden sehen können, dass ein Händler von verzerrenden Praktiken profitiert hat.

Soziale Plattformen verändern den Handel

Alessio Azzutti, Assistenzprofessor in Law & Technology (Fintech) an der Universität von Glasgow, sagte The European Circle, dass das obige Szenario immer noch eine Hypothese sei – da es nicht genügend Beweise gibt, um zu beweisen, dass es geschieht. Trotzdem erklärt er, dass ähnliche, weniger ausgefeilte Programme stattfinden, insbesondere in „Krypto -Vermögensmärkten und dezentralen Finanzmärkten“.

„Bösartige Schauspieler… können auf Social -Media -Plattformen und Messaging -Plattformen wie Telegramm sehr aktiv sein, auf denen sie die Mitglieder dazu ermutigen können, ihr Geld in Defi oder in einen bestimmten Krypto -Vermögenswert zu investieren, um sich selbst anzupassen“, erklärte Azzutti.

„Wir können die direkte Aktivität menschlicher böswilliger Schauspieler beobachten, aber auch diejenigen, die AI -Bots einsetzen.“

Er fügte hinzu, dass die Agenten, die Fehlinformationen verbreiten, möglicherweise nicht unbedingt sehr anspruchsvoll sind, aber sie haben immer noch die Befugnis, „Chats durch gefälschte Nachrichten für irreführende Einzelhandelsinvestoren zu verschmutzen“.

„Und so ist die Frage, ob ein Laien, wenn ein junger junger in seinem Heimbüro in der Lage ist, diese Art von Manipulationen zu erreichen, in noch anspruchsvolleren Märkten die Grenzen für die größeren Akteure, um den gleichen Effekt zu erzielen?“

Die Art und Weise, wie sich die Marktinformationen jetzt online verbreiten, fördert auch verschiedene Arten des Handels. Einzelhandelsinvestoren folgen häufiger Verfälle, anstatt sich auf ihre eigene Analyse zu verlassen, was den Markt destabilisieren und möglicherweise von AI -Bots ausgenutzt werden kann.

Die weit verbreitete Gamestop-Saga ist ein gutes Beispiel für den Herdenhandel, wenn Benutzer in einem Reddit-Forum beschlossen, Aktien in der Videospielfirma En Masse zu kaufen. Big Hedgefonds wetten, dass der Preis fallen würde, und verlor anschließend, als er in die Höhe geschossen wurde. Viele Experten sagen, dass dies kein Fall von Absprachen war, da keine offizielle Vereinbarung geschlossen wurde.

Ein Sprecher der ESMA, der europäischen Wertpapier- und Märktebehörde, sagte gegenüber The European Circle, dass das Potenzial für AI -Bots, Märkte zu manipulieren und aus den Bewegungen zu profitieren, „ein realistisches Problem“ sei, obwohl sie betonten, dass sie keine „spezifischen Informationen oder Statistiken darüber bereits stattfinden“.

„Diese Risiken werden durch die Rolle der sozialen Medien weiter verstärkt, die als schneller Übertragungskanal für falsche oder irreführende Erzählungen fungieren können, die die Marktdynamik beeinflussen. Ein zentrales Thema ist das Grad der menschlichen Kontrolle über diese Systeme, da traditionelle Überwachungsmechanismen möglicherweise unzureichend sein“, sagte der Sprecher.

ESMA betonte, dass es KI -Entwicklungen „aktiv überwacht“ habe.

Ist die Regulierung fertig?

Eine Herausforderung für die Aufsichtsbehörden besteht darin, dass die Zusammenarbeit zwischen KI -Agenten nicht leicht nachverfolgt werden kann.

„Sie senden keine E -Mails, sie treffen sich nicht miteinander. Sie lernen im Laufe der Zeit nur die beste Strategie, und so funktioniert die traditionelle Art, Absprache zu erkennen, nicht mit KI“, sagte Itay Goldstein, Professor für Finanzen und Wirtschaft an der Wharton School der University of Pennsylvania, gegenüber The European Circle.

„Die Regulierung muss sich steigern und neue Strategien finden, um damit umzugehen“, argumentierte er und fügte hinzu, dass es an zuverlässigen Daten mangelt, wie Händler AI verwenden.

Filippo Annunziata, Professorin für Finanzmärkte und Bankgesetzgebung an der Bocconi University, sagte The European Circle, dass die aktuellen EU -Regeln „nicht überarbeitet werden sollten“ und sich auf die Regulierung des Marktmissbrauchs (MAR) und die Märkte in Finanzinstrumenten -Richtlinien II (MIFID II) beziehen.

Trotzdem argumentierte er, dass „Vorgesetzte mit anspruchsvolleren Tools ausgestattet werden müssen, um mögliche Marktmanipulationen zu identifizieren“.

Er fügte hinzu: „Ich schlage sogar vor, dass wir Menschen fragen, die KI -Tools für den Handel mit Märkten entwickeln, und so weiter, um Leistungsschalter in diese KI -Tools aufzunehmen. Dies würde es zwingen, noch vor dem Risiko einer Manipulation aufzuhören.“

In Bezug auf den aktuellen Rechtsrahmen gibt es auch das Thema Verantwortung, wenn ein KI -Agent unabhängig von der menschlichen Absicht auf böswillige Weise handelt.

Dies ist insbesondere im Falle eines sogenannten Black-Box-Handels relevant, bei dem ein Bot Geschäfte ausführt, ohne seine inneren Arbeiten zu enthüllen. Um dies anzugehen, glauben einige Experten, dass KI transparenter sein sollte, damit die Aufsichtsbehörden die Gründe für Entscheidungen verstehen können.

Eine andere Idee ist es, neue Gesetze zur Haftung zu schaffen, damit die für den KI -Einsatz verantwortlichen Akteure für die Marktmanipulation verantwortlich gemacht werden können. Dies könnte in Fällen gelten, in denen sie nicht beabsichtigten, Investoren irrezuführen.

„Es ist ein bisschen wie die Schildkröte und der Hase“, sagte Annunziata.

„Vorgesetzte sind in der Regel Schildkröten, aber Manipulatoren, die Algorithmen verwenden, sind Hasen, und es ist schwierig, sie einzuholen.“