Schweizer Perspektiven in 10 Sprachen

Künstliche Intelligenz wird Banken nicht vor Kurzsichtigkeit schützen

Didier Sornette mit Teleskop
Didier Sornette, 65, ist emeritierter Professor für unternehmerische Risiken an der Eidgenössischen Technischen Hochschule Zürich (ETH) und aktives Mitglied des Swiss Finance Institute. Im Jahr 2008 gründete er das Financial Crisis Observatory der ETH. Heute arbeitet er in der Privatwirtschaft als Partner und Forschungsleiter in Startups in den Bereichen Medizintechnik und Technofinance. Elisabeth Real / Keystone

Banken wie die Credit Suisse verwenden komplexe Modelle, um Risiken zu analysieren und vorherzusagen. Aber die Wirtschaftsbosse ignorieren diese Vorhersagen. Sie gehen lieber Risiken ein, um Gewinne zu steigern – auf Kosten der Allgemeinheit. Interview mit dem Risikomanagement-Experten Didier Sornette.

Der Zusammenbruch der Credit Suisse (CS) öffnete einmal mehr die Büchse der Pandora in der Finanzwelt. Diese ist zunehmend geprägt von einer Glücksspiel-Mentalität, die Verluste auf die Allgemeinheit abwälzt.

Und das, obwohl die Banken viele auf künstlicher Intelligenz (KI) basierende Instrumente einsetzen, um Risiken vorherzusagen und zu verwalten und damit Erträge zu erzielen.

Durch den Vergleich grosser Datenmengen aus den historischen Aufzeichnungen einer Bank und externen Quellen – wie Regierungsbehörden, Aufsichtsbehörden, Finanzpublikationen – können Algorithmen und intelligente Plattformen wiederkehrende Muster erkennen und Ergebnisse und Gefahren berechnen.

Auf diese Weise lassen sich Betrug, operative Fehler, ungewöhnliche Marktentwicklungen oder Liquiditätsprobleme vorhersehen und die Entscheidfindung verbessern.

Didier Sornette, emeritierter Professor für unternehmerische Risiken an der Eidgenössischen Technischen Hochschule Zürich (ETH), ist jedoch der Meinung, dass künstliche Intelligenz die Finanzinstitute nicht vor dem Bankrott bewahren kann. Denn das Problem der Banken sei nicht ein Mangel an Intelligenz, sondern die Gier und Kurzsichtigkeit ihres Managements.

swissinfo.ch: Banken setzen KI-Modelle ein, um Risiken vorherzusagen und die Performance ihrer Anlagen zu bewerten. Doch diese Modelle konnten die CS oder die Silicon Valley Bank nicht vor dem Konkurs retten. Warum haben diese nicht auf die KI-Vorhersagen reagiert? Und warum haben jene, die Entscheide fällen, nicht früher interveniert?

Didier Sornette: Ich habe in der Vergangenheit viele erfolgreiche Vorhersagen gemacht. Sie wurden von Managern und den Leuten an den Schalthebeln systematisch ignoriert. Warum? Weil es viel einfacher ist, zu sagen, dass die Krise Resultat “höherer Gewalt” sei und nicht vorhergesagt werden konnte, und sich so aus der Verantwortung zu stehlen.

Auf Vorhersagen zu reagieren bedeutet, “die Party zu stoppen”, also etwa schmerzhafte Massnahmen zu ergreifen. Aus diesem Grund ist die Politik im Wesentlichen reaktiv, sie hinkt den Ereignissen immer hinterher.

Es grenzt aber an politischen Selbstmord, Leiden zu erzwingen, um ein Problem anzugehen und zu lösen, bevor es explodiert. Dies ist das grundlegende Problem der Risikokontrolle.

Die CS verfügt seit Jahrzehnten über eine sehr schwache Risikokultur und -kontrolle. Stattdessen waren die Geschäftseinheiten immer frei in ihren Entscheiden, was sie tun wollten.

So häuften sie unweigerlich ein Portfolio latenter Risiken an – oder ich würde sagen, eine Menge Put-Optionen, die sehr weit “out of the Money”Externer Link waren [der Wert einer solchen Option ist gleich Null, N.d.R.].

Als dann einige Zufallsereignisse eintraten, die den tief verwurzelten Mangel an Kontrollen offenlegten, begannen sich die Menschen Sorgen zu machen. Und in dem Moment, als eine grosse US-Bank [die Silicon Valley Bank N.d.R.] mit 220 Milliarden Dollar an Vermögenswerten schnell zahlungsunfähig wurde, überdachten die Menschen ihre Bereitschaft, unversicherte Einlagen bei einer schlecht geführten Bank zu belassen – et voilà.

Illustration: Artificial Intelligence, Künstliche Intelligenz

Mehr

Die Maschine und die Moral

Die Schweiz, eine der führenden Nationen im Bereich Künstliche Intelligenz, steht vor ethischen Herausforderungen.

Mehr Die Maschine und die Moral

Heisst das, dass Prognosen und Risikomanagement nicht funktionieren, wenn das Problem nicht systemisch gelöst wird?

Die Politik der Null- oder Negativzinsen ist die Hauptursache dafür. Sie führte dazu, dass die Banken den steigenden Zinsen ausgesetzt sind. Auch die hohe Verschuldung der Länder hat sie anfällig gemacht.

Wir leben in einer Welt, die durch die kurzsichtige und unverantwortliche Politik der grossen Zentralbanken stark geschwächt wurde. Sie haben die langfristigen Folgen ihrer “Brandbekämpfungs-Interventionen” nicht bedacht.

Der Schock ist systemisch, angefangen bei der Silicon Valley Bank und der Signature Bank. Die CS ist nur eine Episode, die das Hauptproblem des Systems offenbart: die Folgen der katastrophalen Politik der Zentralbanken seit 2008, welche die Märkte mit billigem Geld überschwemmten und zu enormen Exzessen bei den Finanzinstituten führten. Wir sehen jetzt einige der Folgen davon.

Mehr

Welche Rolle können KI-gestützte Risikovorhersagen spielen, etwa im Fall des Riesen UBS?

KI und mathematische Modelle sind irrelevant in dem Sinn, dass Werkzeuge zur Risikokontrolle nur dann nützlich sind, wenn der Wille besteht, sie auch einzusetzen!

Wenn es ein Problem gibt, neigt man dazu, Modelle, Risikomethoden und so weiter dafür verantwortlich zu machen. Das ist falsch. Die Probleme liegen beim Menschen, der die Modelle einfach ignoriert und sie umgeht.

In den letzten 20 Jahren gab es viele solcher Fälle. Die gleiche Geschichte wiederholt sich immer wieder, und niemand lernt die Lektion. KI kann also nicht viel ausrichten, denn das Problem ist nicht mehr “Intelligenz”, sondern Gier und Kurzsichtigkeit.

Trotz der offensichtlichen finanziellen Vorteile ist [die Übernahme der CS] wahrscheinlich ein schlechtes und gefährliches Geschäft für die UBS. Der Grund dafür ist, dass es Jahrzehnte braucht, um die richtige Risikokultur zu schaffen, und dass jetzt ein grosser Personalabbau wahrscheinlich zu einem grossen moralischen Schaden führen wird.

Ausserdem wird keine Aufsichtsbehörde die UBS für Verstösse gegen regulatorische oder Geldwäschebestimmungen entschädigen, die von der Kundschaft der CS geerbt wurden. Diese verfügt, wie wir wissen, über eine sehr schwache Compliance. Sie werden in den kommenden Jahren mit unerwarteten Problemen konfrontiert werden.

Mehr

Könnten wir uns eine strengere Form der Überwachung des Bankensystems unter Verwendung der von KI-Systemen gesammelten Daten durch die Regierungen vorstellen? Oder sogar durch die Steuerzahlenden?

Die Datenerhebung ist nicht die Aufgabe von KI-Systemen. Das Sammeln von sauberen und relevanten Daten ist die schwierigste Herausforderung, viel schwieriger als maschinelles Lernen und KI-Techniken.

Die meisten Daten sind verzerrt, unvollständig, inkonsistent und sehr teuer in der Beschaffung und Verwaltung. Dies erfordert enorme Investitionen und eine langfristige Vision, an der es fast immer mangelt. Deshalb kommt es etwa alle fünf Jahre zu Krisen.

In letzter Zeit hört man immer öfter von Behavioural Finance. Gibt es im Finanzsystem mehr Psychologie und Irrationalität, als wir denken?

Es gibt Gier, Angst, Hoffnung und… Sex. Scherz beiseite: Menschen, die im Bank- und Finanzwesen arbeiten, sind im Allgemeinen sehr rational, wenn es darum geht, ihre Ziele zu optimieren und reich zu werden. Das ist keine Irrationalität, sondern es sind Wetten und grosse Risiken, bei denen die Gewinne privatisiert und die Verluste sozialisiert werden.

Es müssen strenge Vorschriften erlassen werden. In gewisser Weise müssen wir “boring banking” machen, um die Bestien zu zähmen, die dazu neigen, das Finanzsystem von Grund auf zu destabilisieren.

Gibt es eine Zukunft, in der maschinelles Lernen das Scheitern von “too big to fail”-Banken wie der CS verhindern kann, oder ist das reine Science-Fiction?

Ja, eine KI kann ein zukünftiges Scheitern verhindern, wenn sie die Macht übernimmt und die Menschen versklavt, indem sie sie zwingt, ein Risikomanagement mit von ihr diktierten Anreizen zu betreiben. So wie das in vielen Szenarien der Fall ist, welche die Gefahren einer überintelligenten KI beschreiben. Und hier mache ich keine Witze.

Das Interview wurde schriftlich geführt und anschliessend gekürzt und redigiert.

Übertragung aus dem Italienischen: Christian Raaflaub

Übertragung aus dem Italienischen: Christian Raaflaub

In Übereinstimmung mit den JTI-Standards

Mehr: JTI-Zertifizierung von SWI swissinfo.ch

Einen Überblick über die laufenden Debatten mit unseren Journalisten finden Sie hier. Machen Sie mit!

Wenn Sie eine Debatte über ein in diesem Artikel angesprochenes Thema beginnen oder sachliche Fehler melden möchten, senden Sie uns bitte eine E-Mail an german@swissinfo.ch

SWI swissinfo.ch - Zweigniederlassung der Schweizerischen Radio- und Fernsehgesellschaft

SWI swissinfo.ch - Zweigniederlassung der Schweizerischen Radio- und Fernsehgesellschaft