Mark Zuckerberg ruiniert mit seiner Open-Source-Strategie den Konkurrenten den Markt. Investoren sind nicht begeistert, Forschung und kleine Unternehmen profitieren.
Mark Zuckerberg stimmte die Investoren auf Durchhalten ein, als er am Mittwoch die Quartalszahlen von Meta präsentierte. Zwar entwickeln sich die Einnahmen gut, gleichzeitig gibt die Firma aber sehr viel Geld für die Entwicklung von neuen KI-Tools aus. Es daure ein paar Jahre, bis man die KI-Projekte skaliert habe, aber wenn es erst so weit sei, dann könne man sehr viel Geld verdienen, sagt Zuckerberg.
Vor wenigen Tagen hat Meta neue KI-Produkte lanciert, darunter der Chatbot Meta AI. Er ist eine Alternative zu Chat-GPT, die man ohne Anmeldung kostenlos nutzen kann, auf einer Website oder direkt in Whatsapp, Instagram und Facebook. In Europa ist die KI allerdings noch nicht verfügbar, sondern erst in den USA und einigen anderen Ländern.
Überraschend dabei: Meta gibt nicht nur seinen Chatbot gratis her, sondern veröffentlicht das KI-Sprachmodell namens Llama-3 dahinter mit einer Open-Source-Lizenz. Das heisst, jeder kann es herunterladen, darauf aufbauen und es sogar kommerziell nutzen.
Open Source ist schlecht für das Geschäft der Konkurrenz
Sprach-KI wie jene hinter Chat-GPT oder dem Meta-Chatbot zu trainieren, kostet Hunderte Millionen Dollar. Die besten Ingenieure, Hochleistungschips, Unmengen Energie, das alles muss bezahlt werden.
Doch Meta stellt seine Forschung nicht aus Grosszügigkeit und Idealismus der ganzen Welt zur Verfügung. Hinter der Entscheidung steckt eine knallharte Business-Strategie. Meta will das Geschäftsmodell seiner Konkurrenten Google und Open AI untergraben.
Wenn offene Alternativen genauso gut sind, haben Open AI, Google und Co. einen schweren Stand, wenn sie von Kunden Geld verlangen. Und anders als diese Firmen muss Meta nicht direkt durch KI Geld verdienen, sondern nur indirekt. Es verdient sein Geld mit dem Wissen über die Nutzer von Facebook und Instagram und dem Versprechen, denen gezielte Werbung anbieten zu können.
Dieses Geschäft ist nicht durch generative KI bedroht, lässt sich damit aber optimieren. Um nicht von anderen überholt zu werden, investiert Meta selbst in KI. Geld ist da: Gemeinsam mit Google beherrscht der Konzern den Online-Werbemarkt und setzte damit allein im ersten Quartal 2024 35,6 Milliarden Dollar um. 2023 steckte der Konzern 38 Milliarden in Forschung und Entwicklung, das 21-Fache des Gesamtbudgets der ETH Zürich.
Meta muss mit KI auch keine neuen Abnehmer finden, es reicht, die bestehenden Nutzer und Firmenkunden zu beliefern, so dass sie seinen Plattformen treu bleiben. Konkret soll Sprach-KI etwa Werbern und Influencern helfen, ihre Botschaften und Videos zu optimieren. Ausserdem schwebt Zuckerberg vor, in Zukunft im KI-Chatbot Werbung unterzubringen.
Der Chef-KI-Wissenschafter bei Meta, Yann LeCun, erklärte kürzlich in einem Podcast, warum Meta hofft, von der Offenlegung seiner KI-Modelle zu profitieren.
Wenn man ein KI-Grundlagenmodell offen zur Verfügung stellt, bauen andere darauf auf. LeCun erklärt den Vorteil: «Wenn jemand Applikationen entwickelt, die für unsere Kunden sinnvoll sind, können wir die einfach aufkaufen. So kann unsere Plattform noch besser werden.» Bei der Vorgängerversion Llama-2 sei genau das bereits geschehen. Google steckt mit derselben Logik viel Geld in die Entwicklung des Open-Source-Betriebssystems Android.
Und die Strategie hat noch einen anderen Effekt. Sie zerstört die Chancen von Open AI und Google, mit KI Geld zu verdienen. Meta muss sich weniger fürchten, dass sein Geschäft dereinst von fremden KI-Assistenten bedroht wird, die die Aufmerksamkeit der Nutzer von Facebook und Instagram wegstehlen.
An der Börse hat der Wechsel von Metaversum auf KI gut funktioniert, die Aktie stieg in letzter Zeit auf ein Allzeithoch. Dass Zuckerberg erhöhte Investitionen ankündigte, hat allerdings nicht begeistert. Nach der Präsentation am Mittwoch stürzte die Aktie im nachbörslichen Handel um 15 Prozent ab.
Llama-3 kann mit Chat-GPT mithalten
Meta hat bisher zwei Varianten seines neuen KI-Modells veröffentlicht, eine kleinere und eine grosse. Das grosse Modell mit 70 Milliarden Parametern, also Stellschrauben, die beim Training der KI angepasst werden, scheint derzeit das beste offen verfügbare Sprachmodell zu sein.
Wer sich selbst von Llama-3 überzeugen möchte, kann es in der Chatbot-Arena gegen andere Modelle antreten lassen. Jede Anfrage wird hier von zwei verschiedenen Sprachmodellen beantwortet, der Nutzer soll danach bewerten, welche Antwort hilfreicher war.
Aus den Siegen und Niederlagen vieler tausend Kämpfe erstellt die Chatbot-Arena eine Rangliste wie bei Schachspielern. Wenige Tage nach der Veröffentlichung steht das grosse Llama-3-Modell auf Platz 6 der Rangliste – nur die allerneusten Modelle von Open AI, Google und Anthropic sind noch etwas besser.
Man arbeite derzeit an einem noch grösseren Modell mit 400 Milliarden Parametern, heisst es vonseiten Mark Zuckerberg in einem Podcast. Die Hoffnung ist, dass dieses es sogar mit dem Klassenbesten GPT-4 aufnehmen könnte.
Für jene Anwender, die das Modell für sich anpassen wollen, werden aber die kleineren Versionen nützlicher sein. Denn je kleiner das Modell, desto weniger Speicherplatz und Computerressourcen braucht man, um damit zu arbeiten.
Llama-3 dürfte daher deutlich beliebter werden als Grok, das kürzlich von Elon Musks Firma xAI veröffentlichte Open-Source-Sprachmodell. Denn dieses ist deutlich grösser als die neuen Modelle von Meta, kann aber laut Performance-Ranglisten nicht mit ihnen mithalten.
Die Gewinner: Forschung und kleine Unternehmen
Für Forscher an Universitäten, Startups, kleine und mittelgrosse Unternehmen eröffnet die Open-Source-Strategie von Meta Chancen. Sie können auf dem veröffentlichten Modell aufbauen und es für ihre Zwecke anpassen. Das benötigt weniger Ressourcen und kostet viel weniger als das Trainieren ganz neuer Sprach-KI.
Nur so können kleine Player überhaupt noch an den derzeitigen Entwicklungen der KI teilhaben und Innovationen hervorbringen. So kommentiert Leandro von Werra von der Plattform für offene KI Hugging Face: «Voller Zugang zu dieser neuen Generation von Sprach-KI, wie dem Llama-3 Modell, wird den Fortschritt in diesem Bereich mehr beschleunigen, als es die Forschung einer einzelnen Firma je könnte.»
Die direkte Konkurrenz lässt Meta allerdings nicht an seiner Sprach-KI teilhaben. Laut Lizenz dürfen nur Unternehmen mit weniger als 700 Millionen Kunden die Modelle frei nutzen. Google, Tiktok und Snapchat sind damit ausgeschlossen. Eine klassische Open Source Lizenz ist das nicht.
Offen, aber nicht ganz: Die Trainingsdaten bleiben geheim
Und noch etwas könnte sich als problematisch herausstellen: Meta hat zwar das Modell selbst veröffentlicht, aber nicht die Trainingsdaten, die dahinter stehen. Meta schreibt nur, dass es sich um Daten «aus öffentlich zugänglichen Quellen» handelt.
Welche Daten beim Training verwendet werden, hat einen grossen Effekt auf das Verhalten der Sprach-KI. Die Daten beeinflussen, wie die KI die Welt sieht: die Weltanschauung und die Vorurteile, die in den Daten stecken, stecken am Schluss auch in der KI.
Auch für die Wissenschaft wäre Transparenz bei den Trainingsdaten wichtig, nur so lässt sich evaluieren, was eine KI «auswendig gelernt» hat, und wann sie Dinge tatsächlich neu kombiniert hat.
Dazu kommt, dass die Daten zum Trainieren grosser KI-Modelle meist ohne Rücksicht auf ethische Bedenken aus dem Internet gesammelt wurden. Die «New York Times» klagt deswegen gegen OpenAI und Microsoft, weil Texte der Zeitung ohne deren Einwilligung und entgegen dem Copyright zum Trainieren von Sprach-KIs verwendet wurden. Noch bedenklicher ist der Bild-Datensatz, mit dem einer der beliebtesten KI-Bildgeneratoren Stable Diffusion trainiert wurde. Er beinhaltete sogar Bilder von sexuellem Kindesmissbrauch.
Man kann davon ausgehen, dass die Trainingsdaten hinter Metas neuster Sprach-KI ähnlich aussehen. Wer die Modelle also nutzt, um darauf eine firmeninterne KI aufzubauen, sollte sich dieser Mängel bewusst sein. Die Vorurteile und unethischen Quellen, die in Llama-3 stecken, stecken dann auch im neuen Produkt.
In Zukunft werden zwei KI-Märkte nebeneinander existieren
Leandro von Verra schätzt, dass offene und geschlossene KI koexistieren werden. Wer den Prototypen eines KI-Produkts bauen will, für den sei ein rundes Produkt wie Chat-GPT immer noch attraktiv, weil es mit minimalem Aufwand einsetzbar ist.
Zugleich erwartet er, dass einige Firmen auf offene KI aufbauen werden, und diese mit eigenen Daten optimieren: «KI-Modelle die so entstehen, schlagen auch die allerbesten geschlossenen Modelle.» Dieses Anpassen, fachsprachlich Fine-Tuning genannt, braucht allerdings viel Fachwissen und Ressourcen. Jene zu beliefern, denen das zu mühsam ist, wird wohl das Geschäft von OpenAI, Google und Co. bleiben.