Der Facebook-Konzern Meta startet mit IBM, Cern, ETH und anderen eine Allianz für offene KI – und arbeitet damit gegen eine Monopolisierung.
Es ist eine ungewöhnliche Allianz, aber in der Tech-Welt sind die Zeiten eben auch ungewöhnlich: der Facebook-Konzern Meta, Softwarefirmen wie IBM und Oracle, der Chiphersteller Intel und prestigeträchtige Forschungseinrichtungen wie die Harvard-Universität, aber auch die Schweizer ETH und das Cern. Am Mittwoch haben sie bekanntgegeben, dass sie gemeinsam an offener künstlicher Intelligenz arbeiten wollen. AI Alliance, also KI Allianz, heisst der Zusammenschluss.
Der Hintergrund: Vor einem Jahr machte die Firma Open AI mit dem Chatbot Chat-GPT mächtige Sprach-KI allgemein zugänglich. Per Knopfdruck Aufsätze schreiben oder Programmieraufgaben lösen, das alles war plötzlich möglich. Privatpersonen probieren aus, wie sie KI für sich nutzen können, und Firmen bauen sie in ihre Produkte ein.
Das setzte eine Maschinerie in Gang, von der im Moment vor allem zwei Player profitieren: Open AI und Microsoft. Denn ein Grossteil der Nutzer baut auf die Sprachmodelle von Open AI, weil sie die grössten im Markt sind, und zahlt dafür Gebühren. Microsoft ist Investor bei Open AI und stellt die Cloud-Infrastruktur für die Sprach-KI zur Verfügung. Damit hat die Microsoft-Cloud-Azure gegenüber Konkurrenten wie Amazon Web Services (AWS) oder der IBM-Cloud einen entscheidenden Vorteil.
Aus vier Gründen ist es schwierig, der Dominanz von Open AI Konkurrenz zu machen: Erstens braucht das Training dieser Art von KI Unmengen an Daten. Neben Daten braucht dieses Training zweitens Unmengen an Rechenleistung. Drittens benötigt man genug der raren und gutbezahlten KI-Spezialisten, um das Modell anzupassen. Und wenn es erst einmal bereit ist und sich viele Nutzer interessieren, sind viertens wieder gewaltige Mengen an Rechenleistung nötig, um die erfragten Texte, Bilder und Programmiercodes zu generieren.
Es gibt nur wenige Firmen, die im Moment die Ressourcen und Köpfe haben, um mit Open AI und Microsoft in einer Liga zu spielen: allen voran Google, das mit Gemini gerade eine neue Alternative zu den Modellen von Open AI lanciert hat, und Meta.
Meta setzt auf offene KI – fast
Meta verfolgt bei der KI-Forschung eine offene Strategie: Während Open AI seine Modelle mittlerweile in Blogbeiträgen vorstellt, veröffentlicht Meta Forschungsarbeiten dazu. Mit Llama2 hat Meta zudem eines der grössten Sprachmodelle öffentlich nutzbar gemacht. Man kann es auf Antrag kostenlos herunterladen, für seine Zwecke anpassen und verwenden.
Allerdings entspricht die KI von Meta den Open-Source-Standards nicht wirklich. Meta behält sich vor, Firmen mit mehr als 700 Millionen Nutzern von der Verwendung auszuschliessen. Das betrifft seinen grössten Konkurrenten, Google, aber auch Apps wie Snapchat. Und die Daten und der Quellcode, die zum Training verwendet wurden, sind geheim.
Open-Source-Entwickler wie Frank Karlitschek, der Gründer von Nextcloud, sehen das kritisch: «Man muss bei freier Software unterscheiden, ist es ‹frei› wie in Freibier oder wie in Freiheit?» Es sei eigentlich nicht verantwortlich, auf ein Modell aufzubauen, von dem man nicht wisse, welche Daten dafür verwendet worden seien.
Trotz dieser Kritik ist es eine gute Nachricht, dass Meta jetzt enger mit IBM und vielen anderen Firmen und Forschungsinstituten zusammenarbeiten will, um gemeinsam offene Modelle anzubieten und weiterzuentwickeln. Denn es sind Alternativen zu dem Monopol von Open AI nötig.
Wer nur auf Open AI setzt, macht sich abhängig
Wenn Firmen mit KI experimentieren, dann entwickeln sie fast nie ein eigenes KI-Modell. Das ist aus den obengenannten Gründen zu aufwendig. Oft kaufen sie stattdessen bei Open AI Nutzungsrechte ein.
Der Chatbot der Helvetia-Versicherung etwa wurde mit Chat-GPT-Technologie optimiert. Wenn Helvetia-Kunden eine Frage an ihn richten, dann schickt Helvetia im Hintergrund eine Anfrage an Chat-GPT. Die Sprach-KI ist gut darin, zu «verstehen», worauf Frager hinauswollen, und Antworten zu formulieren. Diese Stärken werden kombiniert mit den Daten von Helvetia, aus denen sich der Chatbot die Informationen für die Antwort holt.
Der Vorteil: Man kann sehr schnell eine funktionierende Anwendung bauen. Der Nachteil: Man ist abhängig davon, dass Open AI akzeptable Preise verlangt, gut mit den Daten umgeht, die es bekommt, und seine Dienste aufrechterhält.
Wenn man nur nebenbei einen Chatbot betreibt, ist das akzeptabel. Aber es gibt auch viele Startups, deren ganzes Geschäftsmodell auf die Verfügbarkeit von Open AI baut. Sie sind von Open AI abhängig.
In KI stecken Meinungen und Weltsichten – aber wessen?
Auch gesellschaftlich ist es bedenklich, wenn nur wenige Silicon-Valley- Firmen mächtige Sprach-KI entwickeln und keiner weiss, was genau in den Modellen steckt. Vor allem, wenn mehr und mehr Menschen nicht mehr Google befragen, sondern ihren Chatbot. Dann wird sehr relevant, welche Weltsichten und Meinungen die KI in ihren Antworten vertritt.
Echte Open-Source Modelle, bei denen Trainingsdaten und -methoden transparent einsehbar sind, nützen also der Gesellschaft.
Solche ganz offenen Modelle produziert etwa die Firma Hugging Face. Leandro von Werra ist dort Forscher und Ingenieur für maschinelles Lernen. Er betont, dass KI-Modelle auf den Werken von Millionen von Menschen basieren. Die hätten das Recht zu erfahren, wenn ihre Inhalte genutzt werden – und brauchten Möglichkeiten, diese vor der Verwertung durch KI zu schützen.
Auch Hugging Face ist Teil der AI Alliance. Die Hoffnung ist, dass sich die Zusammenarbeit vieler Player im Open-Source-Bereich eine echte Konkurrenz zu den grossen Tech-Firmen ermöglicht. Denn der Clou von Open Source ist, dass alle profitieren, wenn man grundlegende Software teilt, und jeder Fehler aufspüren und Verbesserungen vorschlagen kann.
In Zukunft wird es beide Sorten KI geben
Dabei geht es nicht nur darum, wer das mächtigste Modell hat, sondern auch um die Anwendbarkeit im Alltag.
Eine Business-Lösung wie jene von Open AI ist für viele Unternehmen im Moment die einfachste Wahl. Man kauft KI dort als Komplettpaket. Offene, kollaborative Software zu nutzen, bedeutet auch, dass man selbst mehr Wissen und Zeit darauf verwenden muss, bis die Programme einsatzbereit sind. Dazu kommen die Kosten für die Cloud, die bei Open AI bereits eingepreist ist.
Diese Lücke müssen Open-Source-KI-Firmen schliessen. Traditionell verdienen Open-Source-Firmen Geld, indem sie Firmenkunden bei der Einführung und Wartung freier Software unterstützen. Wenn sich die Entwickler von offener KI auf Standards und Vorgehen einigen, können alle Anbieter in dem Bereich profitieren. Das ist die Logik hinter der AI Alliance.
Wenn es um normale Computerprogramme geht, benutzen die meisten Menschen im Alltag sowohl private als auch Open-Source-Software. Unternehmen kaufen manches bei Microsoft, SAP und Co. ein – anderes entwickeln sie selbst und bauen dabei auf Open-Source-Lösungen.
Leandro von Werra von Hugging Face erwartet auch bei KI so eine Koexistenz: «Es wird einen Platz für geschlossene Allzweckmodelle wie Chat-GPT oder Claude geben, die bei vielen Fragen assistieren können. Aber ich erwarte, dass viele Firmen auf der Basis von Open Source ihre eigenen KI-Modelle bauen werden.»
Sorgen vor Missbrauch
Es gibt auch Kritiker von Open-Source-KI. Deren Hauptargument ist: Künstliche Intelligenz ist ein mächtiges Werkzeug, zum Beispiel zur Herstellung von Desinformation, Fakes oder anderweitig unerwünschten Inhalten. Wenn sich jeder ein KI-Modell herunterladen und anpassen kann, wird es unmöglich, Missbrauch einzuschränken. Denn Filter können aus dem Quellcode gelöscht werden. Ist offene KI also eine Gefahr?
Der Open-Source-Anhänger Karlitschek sagt darauf: «Das ist eine Grundsatzfrage: Ist uns lieber, wenn einige grosse Unternehmen die Kontrolle haben und entscheiden, was gut und was schlecht ist? Oder setzen wir auf eine transparente und dezentrale KI?» Klar, dass ihm Letzteres lieber wäre.
Bei der AI Alliance geht es jetzt darum, der Absichtserklärung auch Taten folgen zu lassen. Klare Abmachungen dazu gibt es nicht, und von ETH- Seite ist klar, dass kein Geld fliessen wird. Alessandro Curioni, Direktor des Zürcher IBM-Forschungszentrums, formuliert es so: Es gäbe zwar keine festgeschriebenen Pflichten für die Mitglieder der Allianz, etwas beizutragen. «Aber es liegt für uns alle im Eigeninteresse, uns einzubringen, ob mit Ideen, Daten, Infrastruktur, Reputation oder Expertise.»