Die Banken haben erkannt, wie viel effizienter ihre Berater dank Chat-GPT und Co. arbeiten können. Direkt auf die Kunden lassen sie die künstliche Intelligenz aber noch nicht los.
Die Letzten sind die Ersten. Ausgerechnet die konservative Privatbank Pictet gewährt als erste Schweizer Bank all ihren Angestellten Zugriff auf generative KI. Im Oktober 2023 führte Pictet «Finance-GPT» für ihre rund 5000 Mitarbeiter weltweit ein. Dabei handelt es sich um eine vom Schweizer Startup Unique konfigurierte Plattform, die auf den bekannten Large Language Models von Open AI beruht.
Die Plattform lässt sich über einen Chatbot bedienen und tut, was gewissenhafte Assistenten auch tun: Sie übersetzt Dokumente oder entwirft personalisierte E-Mails. Allen voran durchsucht sie firmeneigene Datenbanken und bereitet die relevanten Informationen auf, so dass sich Bankberater schneller und besser auf ihre Kundengespräche vorbereiten können.
Knacknuss Kundendaten
Vorerst versprechen sich die Banken beim Einsatz von generativer KI also vor allem mehr Effizienz. «Die Plattform erledigt in Minuten, wofür die Mitarbeiter früher Stunden gebraucht haben», so fasst Steve Blanchet, der bei Pictet die strategischen Technologie- und Innovationsprojekte leitet, den Nutzen zusammen. Das interne Angebot komme gut an. Mehr als 1400 Mitarbeiter nutzten den Dienst bereits jede Woche, sagt Blanchet; also jeder dritte bis vierte.
Unique arbeitet nach eigenen Aussagen bereits mit mehr als dreissig Partnern aus der Schweizer Finanzbranche zusammen. «Die Banken wollen einen privaten Co-Piloten, den sie kontrollieren können», sagt Manuel Grenacher, der Mitgründer und -besitzer von Unique.
Die meisten Banken dürften ihren Beratern früher oder später solche Hilfsmittel zur Verfügung stellen. Doch die generative KI könnte noch viel mehr, als das firmeneigene digitale Archiv zu durchstöbern; würde sie mit echten Kundendaten gefüttert, könnte sie in kürzester Zeit personalisierte Anlagestrategien entwerfen und umsetzen. Falls die Schweizer Vermögensverwaltung, eine sehr personalintensive Luxusbranche, der KI dereinst solche Aufgaben überträgt, würde sie sich aber auch ganz neue Risiken ins Haus holen.
Alles muss belegt sein
Zunächst einmal haben die heute verfügbaren KI-Modelle ihre Tücken. Chat-GPT neigt deshalb bekanntlich dazu, zu halluzinieren – also Studien und Belege auch einmal zu erfinden, wenn es nicht weiterweiss. Die Unique-Plattform bereitet die Modelle darauf vor, das nicht zu tun, sondern als gewissenhafter Archivar die vorhandenen Dokumente zu durchstöbern.
Kern ist die sogenannte Retrieval-augmented Generation (RAG): ein Verfahren, um die grossen Sprachmodelle, deren Wissen zeitlich nur bis zum Ende ihrer Entwicklungsphase reicht, rasch mit neuen, zum Beispiel firmeninternen Datensätzen vertraut zu machen. Nachvollziehbarkeit ist dabei wichtig. Finance-GPT soll jede Information, die es präsentiert, mit Verweisen auf seine Originalquellen belegen. Die Beraterin kann somit rasch überprüfen, ob der digitale Assistent die Wahrheit sagt.
Die Institute legten zudem sehr grossen Wert auf Zugangskontrolle, sagt Grenacher: Sie möchten jederzeit wissen, wer wann auf den Chatbot zurückgegriffen hat. Spätestens die «Steuer-CD»-Affären haben den Banken vor Augen geführt, wie viel Schaden einzelne Mitarbeiter anrichten können, die ihre Daten entwenden. Der Steuerstreit ist vorbei, die Angst vor Kontrollverlust ist geblieben.
Die Daten müssen hierbleiben
Bei den Banken stellen sich beim breitflächigen Einsatz generativer KI noch weitere Fragen, die in anderen Branchen weniger wichtig sind. Erstens müssen sie die Privatsphäre ihrer Kunden weiterhin um jeden Preis schützen; nicht nur, aber auch wegen des Bankgeheimnisses, das ja nur gegenüber ausländischen Steuerbehörden aufgehoben wurde. Die Bankdaten werden daher nur auf Schweizer Servern verarbeitet. Unique und Pictet spannen hierfür mit Microsoft zusammen.
Weiter werden die Bankdaten nicht fürs Training der zugrunde liegenden Modelle verwendet. Alle Mitarbeiter wurden zudem dahingehend geschult, dass sie beispielsweise keine Kundennamen in ihren Suchanfragen verwenden sollen: Diese Anfragen mögen das Bankinnere zwar nicht verlassen, aber sicher ist sicher.
Zweitens kann die KI, falsch eingesetzt, die Positionierung der Schweizer Privatbanken gefährden. Ihr Kernprodukt ist eine qualitativ hochstehende und persönliche Beratung in komplexen finanziellen Angelegenheiten. Dafür verlangen sie hohe Gebühren. Erhält der Kunde den Eindruck, dass ein Computerprogramm die Hauptarbeit der Beratung leistet, ist er womöglich nicht mehr bereit, diese Gebühren zu bezahlen.
Bisher hat den Kundenberatern die rein digitale Konkurrenz aber noch wenig Sorgen bereitet. Sogenannte Robo-Advisors, die aufgrund individueller Kundenwünsche und -bedürfnisse automatisiert ein Anlageportfolio zusammenstellen und verwalten, gibt es zwar schon seit über zehn Jahren. Sie haben sich aber nie auf breiter Front durchgesetzt, weil Preis und Leistung oft nicht übereinstimmten.
Die einen Kunden setzen ihre Portfolios lieber komplett selbständig auf, die anderen vertrauen weiterhin auf den Rat ihrer Privatbank. Zudem: Je reicher ein Kunde ist, desto weniger fallen die Bankgebühren für ihn ins Gewicht. Er kann sich den Luxus, für seine Vermögensverwaltung Menschen aus Fleisch und Blut anzustellen, problemlos leisten.
Bis jetzt scheint daher die Gefahr überschaubar, dass der Privatbankier durch Chat-GPT wegrationalisiert wird. Er fügt sich hervorragend ein in den Reigen gutbezahlter Professionals – Ärzte, Unternehmensberaterinnen, Anwälte –, die vorschwärmen, wie viel effizienter sie ihren Arbeitsalltag dank ihrem fleissigen und günstigen KI-Assistenten bewältigen.
Auch Steve Blanchet sagt, dass die Pictet-Mitarbeiter KI nicht als Gefahr für ihren eigenen Job sähen. Man sei selbst überrascht, wie positiv das neue Tool intern ankomme. «Pictet war nicht immer vorne dabei bei der Implementierung neuester Technologien. Hier schon, und die Mitarbeiter schätzen das.»
Die Modelle werden noch besser
Dennoch stellt sich die Frage, wie die Assistenten und die Kräfte im Backoffice künftig die gewonnene Zeit nutzen, die sie früher für mühselige Datenrecherchen aufwendeten. Die Banken sind schon seit Jahren daran, die mühselige Handarbeit in ihrem Backoffice durch automatische Prozesse zu ersetzen.
Die Mitarbeiter, welche diese Handarbeit erledigt haben, mussten insofern schon seit geraumer Zeit um ihre Jobs fürchten. Oftmals nutzten die Institute grosse Umbrüche – wie es etwa die Übernahme der CS durch die UBS ist –, um die Rationalisierung en passant durchzuführen. Die Urangst der Arbeitnehmer, von der Maschine obsolet gemacht zu werden, ist somit nicht ganz grundlos.
Die wichtigste Aufgabe für Blanchets Team besteht darin, die Datenqualität konstant hoch zu halten. Man sei deshalb dabei, von GPT-3.5 auf GPT-4 umzustellen, sagt er. «Die Leistung ist bei zahlreichen Aufgabenbereichen deutlich besser, und das Risiko falscher Antworten nimmt ab.»
Manuel Grenacher verweist ebenfalls auf die rasante Entwicklung bei den von Unique verwendeten Open-AI-Sprachmodellen von Microsoft Azure. Das werde sich auf die Antwortqualität auswirken. «GPT-4, das sich noch in der Testphase befindet, wird im Textverständnis noch einmal viel besser abschneiden als GPT-3.5. Vor allem, wenn es die Inputs unmittelbar vor der Anfrage nochmals präsentiert erhält.»
Für die Erfolgskontrolle haben Unique und seine Partnerbanken im vergangenen Jahr ein Benchmarking-System entwickelt. Sie haben für zahlreiche zu erwartende Fragen Musterantworten definiert und testen vorab, ob Finance-GPT in diesem Sinn antwortet.
Die Schulung der Mitarbeiter bleibt zentral. Der «Archivar» liefert zwar für alle seine Antworten einen Verweis auf die Originalquelle mit; der Kundenberater darf ihm dennoch nicht blind vertrauen. Die Pictet-Mitarbeiter sollen sich gemäss Blanchet stets vergegenwärtigen, dass weiterhin sie verantwortlich sind für die Informationen, die sie dem Kunden präsentieren, und nicht ihr KI-Assistent.
KI kann bestehende Risiken verstärken
Wenn sich die Banken mit neuen Risiken beschäftigen, ist auch die Aufsichtsbehörde nicht weit. Die Eidgenössische Finanzmarktaufsicht (Finma) reguliert, wie sie auf Anfrage bestätigt, jedoch nicht einzelne KI-Anwendungen. Sie konzentriert sich stattdessen darauf, zu prüfen, ob die Banken genügend gute Risikomanagement-Abläufe und eine solide Governance aufweisen, um die durch generative KI auftretenden Risiken selbst im Griff zu behalten.
Dazu zählt die Finma einerseits «klassische IT-, Cyber- und Outsourcing-Risiken», andererseits auch spezifische Probleme wie Halluzinationen. Die Banken sollen weiterhin der Gefahr vorbeugen, dass die durch KI generierten Resultate nicht erklärbar oder intransparent zustande gekommen sind. Zudem «steigen durch Gen-AI-Anwendungen Betrugsrisiken an», mahnt die Finma.