Mittwoch, Januar 15

Wer im Netz etwas sucht, muss sich durch immer mehr KI-Spam klicken. Die Plattformen sollten eigentlich Qualität herausfiltern. Doch Googles neueste Innovation trägt sogar aktiv zu Fehlinformation durch KI bei.

Tierbilder aus dem Mittelalter sind ein Genre für sich: Katzen, Ziegen und Hunde auf Illustrationen dieser Zeit haben, zumindest für Betrachter von heute, oft ziemlich bizarre Gesichtsausdrücke.

Im Internet haben «seltsame mittelalterliche Frösche» deshalb Kultstatus. Doch wer sich jetzt direkt Bilder ansehen will, sei gewarnt: Wenn man auf Google «medieval frog» eingibt, erscheinen nicht nur Abbildungen aus alten Büchern. Von den ersten zehn Bildern, die Google anzeigt, stammten in unserem Versuch sechs von künstlicher Intelligenz (KI).

Die KI-generierten Mittelalterfrösche sind ein Beispiel für ein viel grösseres Problem: die von künstlicher Intelligenz angetriebene Vermüllung des Internets.

Das Versprechen von Plattformen wie Google und Amazon ist, die Fülle von Informationen und Angeboten im Netz sinnvoll für uns zu sortieren. Doch sie halten das Versprechen nicht mehr. Ob bei Suchergebnissen, auf sozialen Netzwerken oder in Online-Shops: authentische und KI-generierte Texte und Bilder sind bunt vermischt.

Künstlich dumm

Eine Serie zu der Frage, ob künstliche Intelligenz das Internet kaputtmacht.

Alle Artikel dieser Serie anzeigen

Oft fällt einem erst allmählich auf, dass man es wohl mit KI-Inhalten zu tun hat: Produktrezensionen, die sich irgendwie leer anhören, angebliche Reiseblogs mit seltsam generischen Tipps, Influencerinnen, die eine Spur zu perfekt aussehen.

Wer nicht aufpasst, kauft KI-generierte Bücher über Pilze

Auf Amazon wurden Leser auf Bücher fürs Pilzesammeln aufmerksam, die menschengemacht aussahen, samt Bild und Biografie der Autoren. Doch Kennern fiel auf, dass die Inhalte wirr und irreführend waren. Es stellte sich heraus, dass sie mit KI generiert worden waren. Die Autoren sind keine echten Menschen, ihre Porträtfotos kommen aus der Maschine.

Der Tech-Blog «404» berichtete bereits letzten Sommer über dieses Phänomen. Neben Pilzbüchern tauchten auch Reise- und Rezeptbücher aus KI-Hand auf. Und selbst wenn man Bestseller sucht, wie das «Burn Book» der Tech-Journalistin Kara Swisher, muss man vorsichtig sein, um auf Amazon nicht unabsichtlich eine KI-generierte Zusammenfassung statt des Originals zu erstehen.

Amazon löscht solche Fälschungen laufend, doch es tauchen immer neue auf. Sie zu erkennen, ist schwierig. Wer auf Nummer sicher gehen will, prüft Autor und Verlag vor der Bestellung genau.

Wie überfordert Amazon mit der Sache ist, zeigt sich an den Massnahmen dagegen. Eine Sprecherin sagt, Amazon verfüge über «eine Reihe robuster Verfahren», die proaktiv Inhalte erkennen würden, die gegen die Richtlinien des Unternehmens verstossen.

Die Richtlinien verpflichten die Nutzer beim Upload von Werken wie Büchern, KI-generierte Inhalte als solche auszuweisen. Doch verzichtet ein Autor darauf, sein Buch als KI-Produkt zu deklarieren, bleibt dies allzu oft ohne Folgen.

Mit anderen Worten: Amazon hat KI-Täuschungen auf seiner Plattform nicht viel entgegenzusetzen. Tatsächlich wirkt die einzige von aussen nachvollziehbare Reaktion von Amazon auf die KI-Flut recht hilflos: Seit Herbst 2023 ist die Zahl der Bücher beschränkt, die ein einzelner Nutzer als E-Book hochladen kann, auf drei am Tag.

Auch Google hält sich zu konkreten Massnahmen gegen Spam bedeckt. Eine Erklärung zum Phänomen der KI-generierten Mittelalterfrösche bleibt auf unsere Anfrage hin aus.

SEO-Expertin sagt, menschliche Inhalte würden noch belohnt

Cinzia Germann trifft unter den Google-Ergebnissen immer wieder auf Websites mit künstlich generiertem Text. Sie ist professionelle Suchmaschinen-Optimiererin, also eine Person, die Website-Betreibern dabei hilft, im Netz gefunden werden.

Als Expertin für SEO, so die branchenübliche englische Abkürzung für Suchmaschinen-Optimierung, weiss Cinzia Germann, was es braucht, damit man auf Google gefunden wird: zum Beispiel die richtigen Schlagwörter und eine übersichtlich strukturierte, nutzerfreundliche Website.

Doch gerade im Schreiben von strukturiertem Text mit Schlagwörtern sind auch KI-Textgeneratoren besonders gut. Vor einem Jahr führte Germann daher ein Experiment durch.

Als sie ein Kunde aus der Gesundheitsbranche um Hilfe bat, erstellte sie nicht nur eine menschengemachte Version der Website, sondern parallel auch eine voller KI-generierter Inhalte. Zwei, drei Wochen lang habe Google die KI-Seite sehr weit oben angezeigt, dann sei sie abgestürzt. «Das war für uns natürlich schön zu sehen. Offenbar wird das Menschengemachte noch belohnt», sagt Germann.

Schon vor Chat-GPT grassierten die Spam-Seiten

Seit Germanns Experiment wurde der Algorithmus von Google noch mindestens drei Mal angepasst. Das erklärte Ziel dabei ist, schlechte Qualität, unoriginelle und nicht hilfreiche Inhalte vom Nutzer fernzuhalten.

Google sagt, man sei darin schon sehr gut. «Unsere Systeme halten die Suchergebnisse zu 99 Prozent Spam-frei», sagt das Unternehmen. Was genau der Ursprung dieser Zahl ist, dazu gibt es keine weiteren Informationen.

Fragt man den Forscher Janek Bevendorff nach dieser Zahl, sagt er: «Von aussen sehen wir natürlich nur das Endergebnis und nicht, was schon herausgefiltert wurde. Vielleicht funktionieren die Systeme im Vergleich dazu gut. Aus Nutzerperspektive reicht es aber nicht aus.»

Janek Bevendorff ist Teil einer Forschungsgruppe, die versucht hat, die Qualität von Suchmaschinen statistisch zu untersuchen. Die Forscher aus Weimar und Leipzig werden seit Januar weltweit mit ihrer neuen Studie zitiert. Deren Titel lautet übersetzt: «Wird Google schlechter? Eine langfristige Untersuchung von SEO-Spam in Suchmaschinen».

Die Forscher untersuchten, wie häufig Spam-Seiten in den Suchergebnissen vorkommen. Etwa solche, die vorgeben, Testportale zu sein, obwohl in Wirklichkeit niemand je eines der Produkte in der Hand gehalten hat, die auf der Seite bewertet werden. Der Zweck solcher Seiten ist, verwirrte Besucher auf Links klicken zu lassen, die zu Amazon oder anderen Online-Shops führen. Mit jedem Klick verdienen die Seitenbetreiber ein bisschen Geld. Wenn so eine Seite bei Google weit oben erscheint, kann man damit gutes Geld einnehmen.

Die Forscher gaben Suchbegriffe wie «bester Föhn» oder «bester Staubsauger» monatelang automatisiert bei Google, Bing und DuckDuckGo ein und speicherten die Ergebnisse. Die Studie lief von Oktober 2022 bis September 2023, begann also just, als Chat-GPT publiziert wurde.

Ob hinter den Spam-Texten KI steckt, hat die Studie nicht untersucht. Es sei auch schwer einzuschätzen, sagt Bevendorff: «Diese Texte sind typischer Werbeduktus, aufgebauscht und inhaltsleer. Schwer zu sagen, ob sie ein Redakteur mal schnell für fünf Euro zusammengeschrieben hat oder eine KI dafür verwendet wurde.»

Die Studie ergab, dass die Spam-Websites die Suchmaschinen ziemlich gut für sich ausnutzen, wobei Google noch besser dasteht als Bing und DuckDuckGo. Eine Verschlechterung über die Zeit hinweg stellen die Forscher nicht fest, eher ein Katz-und-Maus-Spiel: Wenn Google seinen Algorithmus überarbeitet, sind die Resultate ein paar Wochen lang hochwertiger, dann fallen wieder die Spam-Hersteller ein. Durch KI wird dieser Wettkampf in Zukunft wohl noch härter.

Diese Ergebnisse sind nicht weltbewegend. Das trotzdem sehr grosse Medienecho und viele persönliche Zuschriften an Bevendorff zeigen, dass er mit dem Gefühl, dass das Internet vor ein paar Jahren noch authentischer war, nicht allein ist.

KI zitiert Reddit falsch und empfiehlt Pizza mit Klebstoff

Das gab sogar der Search-Chef von Google zu. Er sprach an, dass viele Nutzer das Schlagwort «Reddit» zu ihrer Google-Suche hinzufügen. Reddit ist ein Internetforum, in dem echte Menschen individuelle Meinungen über alle möglichen Dinge abgeben – für viele Nutzer vertrauenswürdiger als weichgespülte PR-Inhalte. Inzwischen zeigt Google Reddit-Seiten in seinen Ergebnissen oft sehr weit oben an, auch wenn man nicht explizit danach sucht.

Wenn man sich in den USA aufhält, ist das allererste Ergebnis seit Mitte Mai aber die neueste Innovation von Google: eine von KI generierte Antwort auf die Suchanfrage.

Das zieht Probleme nach sich. Auf die Frage, was man tun soll, wenn der Belag von der Pizza rutscht, schlug Googles KI vor, 30 ml Klebstoff in die Sauce zu mischen. Grund dafür ist ein alter Scherz, der auf Reddit kursierte, inklusive eines offensichtlich nicht ernst gemeinten Rezepts für Klebstoffpizza. Die KI hat den Witz nicht verstanden.

Auch nach mehreren Medienberichten bleibt der Fehler. Er wurde sogar schlimmer: Mittlerweile zitiert die KI sogar die neuen Zeitungsberichte als Quelle für das fragwürdige Pizzarezept. Das Falschwissen scheint sich immer weiter zu verfestigen.

Einst versprachen die grossen Plattformen, falsche Informationen auszusortieren. Inzwischen trägt Google zur allgemeinen Verwirrung bei.


Künstlich dumm

Eine Serie zu der Frage, ob künstliche Intelligenz das Internet kaputtmacht.

Exit mobile version