Was bedeuten künstliche Intelligenz und Large-Language-Models für die Arbeit der Juristen? Eine aktuelle Studie von Goldman Sachs geht davon aus, dass in Zukunft 44 Prozent der Arbeit von Anwälten und Juristen in den USA und Europa von KI übernommen wird.
Künstliche Intelligenz (KI) beherrscht die Debatten in Politik, Wirtschaft und Medien. Drei Angebote stechen dabei hervor: Googles Gemini, Microsofts Copilot und der derzeitige Branchenprimus Chat-GPT von Open AI. Allen dreien ist gemeinsam, dass sie auf sogenannten Large-Language-Models (LLM) basieren und als Chatbots fungieren. Man kann ihnen Fragen stellen, und sie antworten sofort. Sie helfen, Texte zu schreiben, Zusammenfassungen zu erstellen oder sogar Bilder zu zeichnen.
Die Qualität der Interaktion mit einem solchen LLM wird stark von den Prompts beeinflusst. Das sind die Fragen und Anweisungen, die die Benutzer diesen Chatbots geben. So kann Chat-GPT beispielsweise angewiesen werden, die Perspektive eines Juristen einzunehmen und ein Rechtsdokument oder einen Vertrag über den Kauf eines Unternehmens zu erstellen. Daraufhin erstellt Chat-GPT verschiedene Vertragsklauseln, die durch weitere Inputs ergänzt oder modifiziert werden.
Rasche Verbreitung
Wie häufig KI bereits eingesetzt wird, zeigt eine Umfrage von Lexis Nexis, wonach 36 Prozent der befragten Juristinnen und Juristen angaben, KI bereits für ihre tägliche Arbeit zu nutzen. Eine aktuelle Studie von Goldman Sachs geht sogar davon aus, dass in Zukunft 44 Prozent der Arbeit von Anwälten und Juristen in den USA und Europa von KI übernommen wird. Wirklich intelligent sind diese Chatbots allerdings noch nicht. Auch wenn Chatbots Wörter und ganze, verständliche Texte und Sätze ausspucken, steckt dahinter ein zahlenbasiertes neuronales Netzwerk mit 176 Milliarden Verknüpfungen und Optionen (Tendenz steigend).
Der Benutzer gibt mit seinen Prompts die Richtung vor, und der Algorithmus berechnet auf Basis von Wahrscheinlichkeiten, welches Wort am besten zum nächsten passt. Das Modell muss also den Kontext eines Wortes im Verhältnis zu anderen Wörtern verstehen, um das nächste Wort vorherzusagen: König minus Mann plus Frau = Königin.
Zwischen Kreativität und Wahnvorstellungen
Doch nicht immer ist alles richtig, was die KI als Antwort präsentiert. Googles Gemini machte kürzlich mit Darstellungen schwarzer Wehrmachtssoldaten auf sich aufmerksam. Das euphemistisch als «Halluzination» bezeichnete Phänomen beschreibt Vorfälle, in denen die KI ein vermeintlich überzeugendes Ergebnis präsentiert, das nicht durch Trainingsdaten oder Fakten gestützt wird.
Den Chatbot auf falsche Antworten hinzuweisen, kann man sich allerdings sparen. Denn bis jetzt lernt er nur im Trainingsmodus, der ausschliesslich den Entwicklern und Programmierern zur Verfügung steht. Anwaltskanzleien und Gerichte zählen deshalb zu den Skeptikern fortschreitender Digitalisierung, wie auch eine Legal-Tech-Umfrage aus dem Jahr 2022 zeigt.
Einige Kanzleien lassen sich ihre KI-Lösungen von spezialisierten Programmierern massschneidern. Als Datenbasis für das eigene LLM dienen die eigenen juristischen Schriftsätze und Dokumentationen. So soll verhindert werden, dass der Chatbot aus den Weiten des Internets Phantasielösungen kreiert und das wertvolle Know-how der Kanzleien auf fremden Servern landet.
Doch die Technik hat enorme Vorteile: unabhängig davon, für welches Modell man sich auch entscheiden mag. Das aufwendige Zusammenfassen von Urteilen und Literatur, Heraussuchen von Fundstellen und Entwerfen einfacher Verträge kann der KI überlassen werden. Dadurch bleibt mehr Zeit für die anspruchsvolleren Aufgaben, was im besten Fall in Effizienzgewinn resultiert. Auf jeden Fall wird die Entwicklung von KI die Arbeitsweise von Juristen und Anwälten spürbar verändern.
Erfolg mit fremden Inhalten?
Neben den vielen Vorteilen, die KI bietet, müssen allerdings auch die damit verbundenen Risiken und Herausforderungen berücksichtigt werden. Mit ihrem zunehmenden Einfluss auf die Arbeitswelt tauchen weitere Fragen und Probleme auf, insbesondere im Urheber-, Datenschutz- und Strafrecht. Derzeit klagt die «New York Times» gegen Open AI und deren Investor Microsoft. Letzterer hat sich für 10 Milliarden US-Dollar den Open-AI-Algorithmus zur Verwendung in Microsoft-Produkten gesichert. Der Verlag macht verschiedene Urheberrechtsverletzungen geltend.
Der Vorwurf erinnert an die jahrelangen Rechtsstreitigkeiten zwischen Google und Verlagen weltweit. Denn Chat-GPT greift auf das Wissen des Verlags der «New York Times» zu, nutzt deren Datenbanken mit Millionen von Artikeln und präsentiert sie den eigenen Nutzern, ohne dafür Lizenzgebühren zu zahlen.
Das wirft grundsätzlich die Frage auf, wie mit der Kommerzialisierung von KI umgegangen werden soll. Will man mit seinen Inputs eine KI füttern, die auf dieser Basis trainiert, besser wird und ihr Wissen anderen Nutzern zur Verfügung stellt? Wird der vermehrte Einsatz von KI die beruflichen Fähigkeiten und Chancen von Juristinnen und Juristen beeinträchtigen oder durch die Kombination von menschlichem Wissen und technologischer Effizienz die Arbeitswelt von Juristinnen und Juristen nachhaltig verbessern? Sicher ist: Stoppen lässt sich die Entwicklung nicht mehr – denken wir also positiv.
Urs Feller ist Partner, Mohamed Hasnaoui ist Associate der Zürcher Kanzlei Prager Dreifuss. Sie unterstützen bei rechtlichen Fragen rund um künstliche Intelligenz. Der Beitrag erscheint im Rahmen der Serie «Recht und Gesellschaft».