Mittwoch, Februar 5

Anders als seine Konkurrenten Microsoft und Google setzt der Amazon-Cloud-Anbieter AWS nicht auf eine einzige KI. Sein neuer Chatbot Amazon Q verwendet je nach Aufgabe ein anderes Modell.

Google hat einen KI-Chatbot namens Bard, Microsoft hat über das Investment in Open AI Zugriff auf den Branchenprimus Chat-GPT. Nun steigt auch Amazon in den Chatbot-Wettlauf ein und bietet einen eigenen auf generativer künstlicher Intelligenz (KI) basierenden Assistenten an: Amazon Q.

Der Chatbot, entwickelt von Amazons Cloud-Sparte AWS und Ende November an deren Entwicklerkonferenz in Las Vegas vorgestellt, ist auf die Bedürfnisse von Unternehmen ausgerichtet. Er soll Mitarbeitende in ihrem Arbeitsalltag unterstützen, kann Dokumente zusammenfassen und aufbereiten, bei der Kundenbetreuung oder beim Programmieren helfen und Fragen rund um das Unternehmen beantworten. Q sei auch in der Lage, die Zugriffsrechte der einzelnen Personen zu berücksichtigen.

Der Chatbot, der vorerst in Amerika in einer Vorschau-Version verfügbar ist, ist ab 20 Dollar pro Monat und Mitarbeiter erhältlich. Microsoft und Google verlangen für einen ähnlichen an Unternehmen gerichteten – bereits breiter verfügbaren – Dienst jeweils 30 Dollar.

Angetrieben wird Q nicht von einem einzigen KI-Modell, sondern es wählt je nach Aufgabe ein anderes aus. «Wir glauben nicht, dass es ein einziges Modell geben wird, das man für jedes Szenario nutzen wird», sagt Matt Wood, Produktechef von AWS, in Las Vegas im Gespräch mit der NZZ. Ausserdem mache man sich so als Unternehmen auch nicht von einem einzigen Anbieter abhängig.

Vielfalt statt ein einziges Modell

Der Ansatz von AWS sei daher, den Kunden verschiedene Modelle zur Verfügung zu stellen. Über Bedrock, den KI-Service von AWS, stehen Modelle von Anthropic, Cohere, Meta, Stability AI und auch die von Amazon selbst entwickelten Modelle zur Auswahl. Auch der Chatbot Q greift auf die Bedrock-Architektur zurück.

«All diese verschiedenen Modelle haben leicht unterschiedliche Stärken und Schwächen», führt Wood aus. Einige seien gut in der Argumentation, andere könnten besser mit verschiedenen Sprachen arbeiten, einige seien sehr schnell und hätten eine geringe Latenzzeit, während andere wiederum einfach günstig im Betrieb seien. «Wenn man frühzeitig Zugang zu all diesen verschiedenen Optionen im Bereich der generativen KI hat, dann ist das einfach unverhältnismässig wertvoll», sagt Wood. So könne man mit den verschiedenen Ansätzen experimentieren und sehen, welcher für das eigene Unternehmen am besten funktioniere.

Mit dem Ansatz unterscheidet sich AWS von seinen Konkurrenten Microsoft und Google, die vor allem selbst entwickelte Modelle in den Vordergrund stellen. Alle drei wollen möglichst viele Unternehmen für ihre eigene Cloud-Infrastruktur gewinnen, um deren KI-Anwendungen zu betreiben. Microsoft und Google haben den Vorteil, dass sie ihre KI-Assistenten über ihre Suchmaschinen oder ihre Office-Programme öffentlichkeitswirksam vermarkten können. Eine solche Möglichkeit haben Amazon und seine Cloud-Tochter AWS nicht, so dass der Eindruck entsteht, der Konzern habe die Entwicklungen im Bereich KI verschlafen.

Dem widerspricht Wood im Gespräch entschieden: «Ich glaube nicht, dass man bei allem, was wir anbieten und wo wir innovativ sind, den Schluss ziehen kann, dass wir im Rückstand sind. Oder dass wir zu spät sind.»

Vorteile im Bereich der KI-Chip-Entwicklung

Dabei verweist er auf die Fortschritte bei der Entwicklung von KI-Chips für die Cloud-Datenzentren. An der Entwicklerkonferenz stellte AWS unter anderem eine neue Generation von Chips für das Training und die Verwendung durch den Nutzer, die sogenannte Inferenz, bei grossen KI-Modellen vor. «Wir sind bereits bei der zweiten Generation unserer Chips für maschinelles Lernen, die sowohl für das Training als auch für die Inferenz optimiert sind», sagt Wood. «Bei anderen Cloud-Anbietern existieren sie nur auf Powerpoint-Folien.» Eine Anspielung auf den Konkurrenten Microsoft, das für 2024 eine ähnliche Art Chip angekündigt hat.

Im Bereich der generativen KI verfüge man derweil im Vergleich über die umfangreichsten Möglichkeiten zur Individualisierung. «Auch unsere Herangehensweise bei Sicherheit und Privatsphäre ist anders», sagt Wood. Bei anderen grossen Cloud-Anbietern stehe auf der ersten Seite ihrer Dokumentation für deren KI eine Warnung, die besage, dass Personen Einblick in die Eingaben haben könnten. Das wollten Unternehmenskunden nicht. Bei AWS hingegen sei alles sicher und privat. «Die Informationen werden nicht über das Internet verbreitet. Keine Person hat Einblick in diese Informationen, und nichts, was an die Modelle übermittelt wird, wird jemals zum Trainieren der zugrunde liegenden Modelle verwendet», sagt Wood.

Wenige Tage nach dem Start von Amazon Q sorgte ein Bericht des amerikanischen Tech-Magazins «Platformer» jedoch für Zweifel an der Sicherheit des Chatbots. Q habe «schwere Halluzinationen und gebe vertrauliche Daten preis», darunter die Standorte von AWS-Datenzentren, heisst es darin mit Verweis auf interne Mitteilungen.

Auf Anfrage erklärte Amazon, dass Q keine vertraulichen Informationen weitergegeben habe. «Einige Mitarbeiter teilen ihr Feedback über interne Kanäle und Ticketsysteme mit, wie es bei Amazon üblich ist», erklärte eine Sprecherin. «Es wurde kein Sicherheitsproblem als Ergebnis dieses Feedbacks identifiziert.» Man sei jedoch dankbar für alle Rückmeldungen und werde Q weiter optimieren, bis es allgemein verfügbar sei.

Enge Partnerschaft mit Open-AI-Rivale Anthropic

Amazon hat zudem 4 Milliarden in das KI-Startup Anthropic investiert, das das Sprachmodell Claude betreibt. Die Firma wurde von ehemaligen Open-AI-Mitarbeitern um die Geschwister Dario und Daniela Amodei gegründet, die den Rivalen verliessen, weil sie in Bezug auf das Entwickeln einer sicheren KI anderer Meinung waren als der inzwischen wieder eingesetzte Open-AI-CEO Sam Altman.

Neben Amazon hat aber auch Google in Anthropic investiert. Dass es deswegen zu Komplikationen kommen könnte, glaubt Matt Wood nicht. «Unsere Partnerschaft mit Anthropic ist sehr stark», sagt er. Es handle sich nicht nur um eine Investition, auch die strategische Zusammenarbeit sei stark ausgebaut worden. «Neue Modelle und Fähigkeiten werden zuerst über AWS verfügbar sein.»

Der Aufenthalt in Las Vegas erfolgte auf Einladung von AWS.

Exit mobile version