- Home
-
Private Banking
-
Market View & Insights
Als Head of Data and Innovation übersieht Simon Gomez den Einsatz und Umgang von generativer künstliche Intelligenz (GAI) bei LGT Private Banking. Im Interview erläutert er Chancen und Grenzen von GAI, und warum der Mensch (und das Vertrauen in ihn) bei LGT nach wie vor höchste Priorität geniesst.
Simon Gomez: Ja, seit kurzem haben alle unsere Mitarbeitenden Zugriff auf einen ausschliesslich internen, und sicheren Chatbot basierend auf ChatGPT. Wir erhalten sehr gute Rückmeldungen von den Usern.
Das Ziel ist ein Effizienzsprung durch die Vereinfachung unserer internen Aufgaben, etwa mit ChatGPT. Dazu teilen wir mit der GAI im Unternehmen verteiltes, fragmentiertes, in der Organisation verstecktes Fachwissen. Mit ihrer Sprachfertigkeit vereinfacht uns unser Chatbot die systematische Suche und Zusammenfassung von Dokumenten oder Weisungen, erstellt Transkripte von Gesprächen zur team-internen Auswertung oder erste Entwürfe von Texten oder Emails. Die GAI ist für uns ein täglich eingesetzter Co-Creator und Sparring-Partner, um einen besseren Service zu bieten.
Nein. Unseren Kunden werden wir keine Chatbots vorsetzen. Bei einer Privatbank wie LGT haben die persönliche Betreuung und Beratung unserer Kundinnen und Kunden absoluten Vorrang. Ich betone: Die Anwendung ist rein intern und strikt assistierend.
Wir sind GAI gegenüber sehr aufgeschlossen. Mit der Einführung im letzten Sommer waren wir eine der ersten Privatbanken in Europa, die das bereits proaktiv nutzten. Aber es ist ganz klar: Die Faktoren Mensch und Vertrauen sind essentiell und können nicht durch einen Algorithmus ersetzt werden.
Technologie mag als neutral gelten, aber GAI bringt eine Schwemme von Fake- und Halb-News sowie einen Marketing-Hype mit sich, die Kundinnen und Kunden sowie Investorinnen und Investoren eher verunsichern. Als Privatbank bieten wir dank unserer spezifischen Expertise eine klare Investitionsperspektive und helfen bei der Umsetzung. GAI kann dabei allenfalls mit erhöhtem Qualitätsscreening helfen, den Unfug aus dem kommunikativen Lärm herausfiltern.
Der Quellenbeweis - am ursprünglichen Artikel oder der grundlegenden Studie führt kein Weg vorbei. Allenfalls kann die GAI in quantitativer Hinsicht helfen, vertrauenswürdige Quellen und Informationen vorscreenen und bearbeiten, bei der Recherche durch kommunikativen Lärm und Heissluft zu schneiden und eine reichhaltigere und bessere Entscheidungsgrundlage bereitstellen. Aber sowohl die Quellenauswahl als auch das Assessment trifft immer noch der Analyst.
Studien in der Bankenwelt gehen von bis zu 40 % Zeiteinsparung bei Recherche, und Überblickverschaffung aus. Ich verwende das Tool mehrmals täglich. Für aufwändige Aufgaben, etwa die detaillierte Auswertung einer Umfrage braucht die GAI drei Minuten. Mir spart das mehrere Stunden Arbeit.
Ich darf GAI-Resultate nie als bare Münze nehmen, sondern muss sie prüfen. Zudem gibt es stilistische und kulturelle Hürden: Manchmal kommt ein Entwurf eines Textes beispielsweise derart amerikanisiert her, dass er für mich unbrauchbar ist.
Auf absehbare Zeit passiert nichts ohne einen Menschen "in the loop".
Meiner Meinung nach sind wir erst ganz am Anfang einer Reise, die unsere Arbeit fundamental verändern wird. Sprachführung, -steuerung und -erkennung wird immer mehr die Tipparbeit ersetzen. Der grosse Game-Changer ist, dass der Computer mittlerweile unsere Sprache spricht. Ich muss nicht mehr die Programmiersprachen des Computers beherrschen. In Zukunft werden wir sprachgesteuert mit Anwendungen interagieren können und GAI wird viel tiefer in die gesamte Prozesskette mit grösseren Wertschöpfungsthemen eingreifen können.
Auf absehbare Zeit passiert nichts ohne einen Menschen "in the loop". Deshalb ist in unserem AI-Team ein Compliance&Risk-Officer fest integriert. Auch darf in Europa nach heutiger Rechtslage gar kein automatisierter Investment-Advice gegeben werden ohne diesen auch erklären zu können. Selbiges gilt für Personalentscheidungen. Sie können eine GAI mit iterativen Tests noch so sehr optimieren - die Verantwortung liegt nach wie vor bei Kundenberaterinnen und Kundenberatern, also beim Menschen.
Wir steuern auf eine Balance zu, in der die GAI maschineller Praktikant und Assistent an meiner Seite ist. Denn trotz GAI-Hype und rekordverdächtigen Investitionen sollten wir die Lektion des Turing-Tests nicht vergessen: Eine Maschine ist dann intelligent, wenn wir nicht mehr wissen, ob wir mit einem Menschen oder einer Maschine sprechen. Davon sind wir vielleicht nicht mehr weit weg. Aber ob und wie Turing-Test-geprüfte Maschinen funktionieren, vielleicht sogar selbständig, ist unsicher - und auch unheimlich. Wir bei der LGT wollen daher proaktiv und sorgfältig entscheiden, wie und wie schnell wir diese Chance nutzen. Gleichzeitig suchen wir den Dialog mit unseren 5000 Mitarbeitenden, nehmen ihre Fragen und Ängste zur GAI ernst. Wir haben keine andere Wahl, als gemeinsam zu wachsen, denn die Technologie ist da und wird genutzt.