Diese KI bekämpft Geldwäsche und hält russische Oligarchen fern

Bei einer Demonstration zeigte Strise ein Unternehmensportfolio, in dem Warnschilder aufleuchteten, die auf eine mögliche Beteiligung russischer Oligarchen hinwiesen.

Banken und Finanzinstitute sind mit einer steigenden Flut von Betrug und Geldwäsche konfrontiert und stehen unter wachsendem Druck, mit den strengeren Finanzvorschriften Schritt zu halten.

Obwohl die Ausgaben in einigen fortgeschrittenen Märkten zwischen 2015 und 2022 um bis zu 10 Prozent pro Jahr steigen, erkennt die Finanzindustrie laut Interpol nur etwa 2 Prozent der weltweiten Finanzkriminalitätsströme.

Nun glauben einige, dass künstliche Intelligenz (KI) helfen könnte, die Belastung zu verringern.

In Norwegen hat das Fintech-Startup Strise eine KI-Plattform aufgebaut, die öffentliche Register und Medienberichte scannt, um potenzielle Geldwäscherisiken in Echtzeit zu erkennen.

Der KI-Agent soll neue Anträge auf Kontoeröffnung bei Finanzinstituten prüfen, die der europäischen Anti-Geldwäsche-Gesetzgebung unterliegen, wie Banken, Versicherungen und Zahlungsdienste.

Ersetzen eines zeit- und arbeitsintensiven Prozesses

Wenn Sie jemals ein Online-Bankkonto eröffnet haben, werden Sie aufgefordert, Daten wie Ihre Adresse und Ihren Beruf einzugeben und diese einmal im Jahr zu aktualisieren. Dies ist Teil des Know Your Customer (KYC)-Prozesses, einer gesetzlichen Anforderung zur Überprüfung, wer Kunden sind und woher ihr Geld kommt.

Traditionell stützen sich KYC-Prüfungen darauf, dass Teams von Compliance-Analysten Datenbanken, Unternehmensunterlagen und Nachrichtenberichte durchforsten, um Eigentumsverhältnisse zu bestätigen, Zusammenhänge nachzuvollziehen und potenzielle Risiken zu erkennen.

Diese Schecks sollen verhindern, dass Kriminelle legitime Banken nutzen, um schmutziges Geld zu transferieren.

Aber sie sind langsam und teuer.

„Jetzt können Sie über KI verfügen, die Informationen abruft und auf ganz neue Weise zusammenfügt“, sagte Marit Rødevand, Mitbegründerin und CEO von Strise, gegenüber The European Circle Next.

„Wenn Sie beim Onboarding ein zwielichtiges Unternehmen erkennen, können Sie verhindern, dass es ein Bankkonto erhält und an Finanzlösungen herangeführt wird“, fügte sie hinzu.

Das KI-System von Strise erkennt automatisch Warnzeichen wie Verbindungen zu sanktionierten Personen, Hochrisikogebieten oder politisch verbundenen Personen, die möglicherweise anfällig für Korruption sind.

Laut Robin Lycka, einem Lösungsarchitekten bei Strise, können Analysten, die dieses System verwenden, beispielsweise Warnschilder bei Personen auf Sanktionslisten und Politikern sehen, die möglicherweise „sehr einflussreich“ oder „anfälliger für Korruption“ und „Geldwäsche“ sind.

Russische Oligarchen

Laut Strise konnten Finanzinstitute mithilfe der Plattform risikoreiche Unternehmen effizienter identifizieren und ablehnen und so ihre Fallbearbeitungskapazität ohne zusätzliches Personal um das Zehnfache steigern.

Bei einer Demonstration zeigte Strise ein Unternehmensportfolio, in dem Warnschilder aufleuchteten, die auf eine mögliche Beteiligung russischer Oligarchen hinwiesen.

„Sobald Sie über diese Informationen verfügen, können Sie auf Portfolioebene auswählen, ob Sie das Onboarding mit der berechneten Risikoklassifizierung abschließen möchten oder nicht“, sagte Lycka.

In einem anderen Portfolio markierte das System ein in Estland ansässiges Unternehmen, das mit zwei Personen in Verbindung steht, die wegen eines der größten Kryptowährungsbetrugs in der Geschichte in Höhe von 560 Millionen US-Dollar (480 Euro) verurteilt worden waren.

Die Plattform kann auch Berichte und Zusammenfassungen ihrer Ergebnisse erstellen und dabei große Sprachmodelle (LLMs) verwenden, um Risikoberichte für behördliche Einreichungen zu erstellen, eine Aufgabe, die zuvor stundenlanges manuelles Schreiben erforderte.

„Was mich zuversichtlich macht, ist, dass wir wirklich etwas bewirken können, indem wir uns von der bloßen Einhaltung von Kontrollkästchen lösen und tatsächlich Ressourcen freisetzen, um Finanzkriminalität wirklich zu stoppen und Betrug wirklich zu verhindern“, sagte Rødevand.

„Es gibt so viele Fälle in den Medien und persönliche Geschichten über Leben, die durch diese Art von Verbrechen zerstört wurden. Und ich möchte wirklich, dass wir dazu beitragen, das zu ändern“, fügte sie hinzu.

Die Europäische Union finalisiert derzeit eine umfassende Anti-Geldwäsche-Behörde (AMLA) in Frankfurt und eine EU-weite Richtlinie, die 2027 in Kraft treten soll, „zur Bekämpfung von Geldwäsche und Terrorismusfinanzierung“.

Stanislaw Tosza, außerordentlicher Professor für Compliance und Strafverfolgung an der Universität Luxemburg, sagte gegenüber The European Circle Next, dass die Reform einen „neuen Verantwortungsbereich“ mit sich bringe.

„Der ständig wachsende Umfang der Verpflichtungen zur Bekämpfung der Geldwäsche (AML) in Verbindung mit dem zunehmenden Risiko von Sanktionen bei Nichteinhaltung macht KI zu einem attraktiven Instrument für Verpflichtete, die diese wachsenden Verantwortlichkeiten bewältigen möchten“, sagte Tosza.

Er fügte hinzu, dass nach dem EU-Datenschutzrecht ein gewisses Maß an menschlicher Aufsicht erforderlich sei, „wenn automatisierte Systeme Entscheidungen treffen, die erhebliche Auswirkungen auf Menschen haben“.

Laut Strise konnten die Kunden durch die automatisierte Kundenüberwachung die Zahl der Fehlalarme, bei denen ein System etwas als verdächtig markiert, obwohl es völlig legitim ist, um „30 bis 40 Prozent“ reduzieren.

„Das bedeutet weit weniger manuelle Arbeit für Analysten, die sonst Stunden damit verbringen würden, unnötige Risikowarnungen zu überprüfen, anstatt echte Risiken zu erkennen und Finanzkriminalität zu bekämpfen“, sagte Lars Lunde Birkeland, CMO von Strise, in einer Erklärung gegenüber The European Circle Next.

Experten warnen jedoch davor, dass die Automatisierung zwar die Anzahl falsch positiver Ergebnisse verringern, aber auch die Erkennung oder Anfechtung von Fehlern erschweren kann.

„Die Integration von KI in diese Entscheidungsprozesse verringert die Transparenz weiter: Es könnte für Betroffene noch schwieriger werden, die Grundlagen solcher Bewertungen zu verstehen oder sie wirksam anzufechten“, sagte Tosza.

Weitere Informationen zu dieser Geschichte finden Sie im Video im Mediaplayer oben.