Freitag, Oktober 18

Perplexity gehört zu den Anwendungen künstlicher Intelligenz, die besonders schnell wachsen. Die «Antwortmaschine» will die traditionelle Internetsuche verdrängen.

Eigentlich will man nur eine einfache Antwort auf eine Frage. Doch stellt man sie, wird man mit Informationen überhäuft.

Viele Menschen sind überfordert – oder schlicht zu faul –, wenn sie im Internet nach der Quelle suchen sollen, die sie brauchen. Die meisten googeln und klicken dann gar nicht mehr auf die Links, die ihnen ausgespielt werden. Zu gross ist die Auswahl, zu gross die mögliche Verwirrung.

Wie einfach wäre es da, jemanden zu haben, der einem nicht nur Informationen auflistet, sondern auch noch sagt, welche Quellen diejenigen sind, denen man trauen kann? Und diese dann gleich noch zusammenfasst?

Genau das macht die KI-Plattform Perplexity. Eine KI-Anwendung, die zurzeit besonders schnell wächst. 500 Millionen Suchanfragen hatte sie letztes Jahr. Diesen Juli, in nur einem Monat, waren es bereits 250 Millionen. Auch Jensen Huang, CEO des KI-Chip-Herstellers Nvidia, des derzeit wertvollsten Unternehmens der Welt, sagt, er nutze Perplexity täglich.

Perplexity entscheidet bei einer Suchanfrage: «Diese Quelle ist gut, diese nicht», sucht die relevanten Antworten aus, fasst sie zusammen. Die Wahl, welche Inhalte zusammengefasst werden, wird somit ausgelagert. Und die Entscheidung, wem zu trauen ist, wird dem Fragenstellenden abgenommen.

Perplexity sieht sich nicht als Such-, sondern als Antwortmaschine. Genau darin liegt das Risiko – sowohl für Google als auch für die Nutzer.

Perplexity will Google vom Markt verdrängen

Die traditionelle Internetsuche wird bis 2026 um einen Viertel zurückgehen – wegen KI. Das prophezeite im März zumindest das Marktforschungsunternehmen Gartner.

Aravind Srinivas, der dreissig Jahre alte CEO von Perplexity, möchte Google die Marktmacht im Internet streitig machen. Er war 2020 Praktikant bei Google, in der Forschung für maschinelles Lernen. Zwei Jahre danach hatten er und drei Mitgründer dann die Idee, eine Antwortmaschine zu kreieren – drei Monate bevor Chat-GPT auf den Markt kam.

Die Gründer verbanden dafür zwei Sachen, die gut funktionierten: einen Suchmaschinenalgorithmus, wie Google ihn nutzt, und generative KI in Form eines Chatbots, der mit Menschen interagieren kann.

Das Wettrennen um die intelligente Internetsuche

Stellt man bei Perplexity eine Suchanfrage, startet das System via Algorithmus eine Suche im Netz. Es sucht die wichtigsten Quellen heraus, und ein Chatbot fasst deren Informationen verständlich zusammen.

Dabei gibt es entscheidende Unterschiede zu klassischen KI-Anwendungen wie Chat-GPT. Während diese mit hohen Datenmengen darauf trainiert sind, Antworten aufgrund von Wahrscheinlichkeiten zu generieren, sucht Perplexity zuerst einige ausgewählte Quellen im Internet und fasst diese dann zusammen.

Den Befehl, die Informationen zusammenzufassen, muss die fragenstellende Person nicht eingeben. Er ist bei Perplexity direkt mit der Websuche verbunden.

Diese zusammenfassende Websuche nennt sich im Fachjargon Retrieval-Augmented Generation. Und sie gewinnt an Bedeutung. So hat auch Chat-GPT in seiner neusten Version die zusammenfassende Websuche integriert. Rico Sennrich, Professor für Computerlinguistik an der Universität Zürich, spricht von einem «Wettrennen der verschiedenen KI-Firmen».

Perplexity ist umstritten

Sennrich kann sich vorstellen, dass die Kombination von Suchmaschine und Chatbot an Marktanteilen gewinnen wird. Aus Bequemlichkeit der Nutzerinnen und Nutzer, weil ihnen der Schritt des «Kuratierens der Quellen» abgenommen werde.

Auch Mariana Valente, die an der Universität St. Gallen zur Schnittstelle von Technologie und Recht forscht, sagt: «Die Art und Weise, wie wir im Internet Informationen suchen, wird sich wohl immer mehr verändern.»

Das klingt, als hätte Perplexity einen Nerv getroffen. Das denken wohl auch Grössen in der Tech-Branche: Zu den Investoren von Perplexity gehören seit Beginn der Amazon-Gründer Jeff Bezos und der führende KI-Chip-Hersteller Nvidia. In der letzten Finanzierungsrunde hat das Unternehmen 250 Millionen Dollar eingesammelt, seine Bewertung liegt zurzeit bei 3 Milliarden Dollar.

Doch nicht alle glauben an Perplexity. Es gibt auch Vorwürfe gegen das Unternehmen, die es in sich haben: illegales Umgehen von Paywalls, das Zusammensuchen von Infos aus Metadaten und eine grundsätzliche Frage: Ist das, was Perplexity macht, überhaupt etwas Neues?

Das System ist austauschbar

Die Eigenleistung von Perplexity ist, Chatbot und Suchmaschine innovativ und benutzerfreundlich zusammenzufügen. Das ist eine Serviceleistung, aber an sich keine KI-Innovation.

Genau das macht das System ersetzbar.

«Die Techniken, die Perplexity verwendet, sind grundsätzlich bekannt», sagt Sennrich. Die Benutzeroberfläche sei eine grosse Ingenieursleistung, klar. Aber das könnten auch andere Firmen machen. Und Chat-GPT bietet das auch schon an – zumindest als Teilfunktion seines Produkts.

Verletzung des Urheberrechts

Hinzu kommen Vorwürfe, die an der Glaubwürdigkeit von Perplexity zweifeln lassen. Laut Recherchen von «Forbes», dem Technologiemagazin «Wired» oder dem Webentwickler Robb Knight grast Perplexity illegal oder heimlich Webseiten ab und missachtet Bezahlschranken.

Manchmal scheine es auch Informationen von Webseiten zusammenzufassen, ohne diese wirklich besucht zu haben, kritisiert «Wired». Und Perplexity lese Informationen teilweise nicht vollständig, sondern erstelle die Zusammenfassungen auf der Basis von Internetadressen oder Metadaten der Artikel.

Valente sagt: «Anwendungen wie Perplexity werfen weitaus grössere Bedenken hinsichtlich des Urheberrechts auf als etwa Google in seinen Anfangszeiten.» Bei Google seien die Inhalte wenigstens noch hinter einem Link verborgen.

Die Vorwürfe gegen Perplexity wiegen schwer. Der CEO Srinivas rechtfertigte sich in Interviews damit, es seien andere Anbieter gewesen, die die Bezahlschranken umgangen hätten. Der «Frankfurter Allgemeinen Zeitung» sagte er im Juli, man habe eine Funktion eingeführt, um die Antworten schöner aussehen zu lassen – darum seien die Quellen nicht oberhalb der Zusammenfassung genannt worden.

Gefahr für Googles Geschäftsmodell

Stellt sich die Frage: Wenn Perplexitys Kombination von Chatbot und Suchmaschine angeblich so gut ist und sich einfach nachmachen lässt – zumindest mit dem nötigen Budget –, warum hat Google das denn nicht längst selber getan?

Weil Google sein Geschäftsmodell nicht in Gefahr bringen wolle, vermutet Rico Sennrich.

Googles Geschäftsmodell lebt von Einnahmen durch Suchanzeigen – gesponserte Websites, Werbung, die in Suchergebnissen geschaltet wird. Wenn aufgrund von KI-Zusammenfassungen das Anzeigen von Webseiten obsolet wird, wenn nicht mehr auf die Links geklickt wird, dann fällt auch Googles wichtigste Einnahmequelle weg.

Wem können wir vertrauen?

Dennoch hat Google an einer Entwicklerkonferenz im Jahr 2023 angekündigt, vermehrt generative KI in seine Suche einzubauen. So hat der Tech-Konzern im Mai eine eigene KI-Suchfunktion eingeführt, die bei gewissen Suchanfragen vor den Links kurze Zusammenfassungen anzeigt. Google fuhr die Funktion aber kurz darauf wieder zurück, nachdem Kritik lautgeworden war. Sie sei unpraktisch und irreführend, waren die Vorwürfe. Falschaussagen wie der Tipp, Steine zu essen, gingen auf den sozialen Netzwerken viral.

Das eigene Web-Interface durch die Integration von KI komplett umzustellen, ist riskant – «weil viele Kunden die aktuelle Funktionalität bei Google kennen und weiterhin so brauchen wollen», sagt Sennrich.

Der Perplexity-CEO Aravind Srinivas sieht im Grössenunterschied zwischen Google und seinem eigenen Startup einen Vorteil. Anfang Oktober teilte er seine Vision in einem Technologiepodcast: Die ultimative KI-Anwendung sei eine, die nicht nur die Antwort wisse, sondern gleich auch noch die Frage, die die Nutzenden stellen sollten.

Das eröffnet ein ganz grundlegendes Problem. Wenn KI-Anwendungen wie Perplexity vorgeben, welche Fragen wir stellen, welche Informationen wir konsumieren, welche Quellen relevant sind und welche nicht – dann werden sie zu Gatekeepern, die entscheiden, was wir wissen.

Damit wird es auch schwieriger, zu überprüfen, welchen Informationen wir online überhaupt vertrauen können.

Exit mobile version