Samstag, September 28

Tech-Firmen müssen bei der Sicherheit ihrer KI-Tools nachbessern.

Auch Sam Altman, CEO des KI-Startups Open AI, liegt manchmal wach im Bett und grübelt. An einer Konferenz in Indien sagte er jüngst, was ihm den Schlaf raubt: «die hypothetische Idee, dass wir etwas wirklich Schlechtes gemacht haben, als wir Chat-GPT veröffentlichten».

«Hypothetisch?», würde man gerne rückfragen, schliesslich ist klar, dass KI-Tools wie Chat-GPT erstens auch für schädliche Zwecke wie Desinformationskampagnen verwendet werden und zweitens die frühe Veröffentlichung des Tools im November 2022 eine Kaskade auslöste, in denen Firmen wie Google und Microsoft ihre KI-Tools auf den Markt warfen, bevor sie ausreichend auf die Sicherheit getestet worden waren.

Natürlich ist KI nicht inhärent schlecht, sondern eine Technologie, die wie viele andere für gute und für schädliche Zwecke verwendet werden kann. Deshalb liegt es in der Verantwortung der Firmen, die schädlichen Auswirkungen ihrer Produkte so gut wie möglich abzufedern. In den vergangenen zwei Jahren ist dies nicht ausreichend geschehen.

Wohl das erschreckendste Beispiel dafür ist der KI-Bildgenerator Stable Diffusion. Er konnte in einer Vorgängerversion Bilder von sexuellem Kindsmissbrauch erstellen. Das ist eine Straftat – und war nur möglich, weil das Modell bereits mit Bildmaterial von illegaler Pornografie trainiert worden war.

Stability AI, die Herausgeberin von Stable Diffusion, hat diesen Fehler in der aktuellen Version korrigiert. Aber die Vorgängerversion zirkuliert noch immer im Darknet, inklusive einer Bedienungsanleitung, wie man kinderpornografische Bilder herstellen kann.

Die Verantwortlichen hätten sich mehr Zeit nehmen müssen, um ihre Trainingsdaten nach illegalen Inhalten wie Bildern von Kindsmissbrauch zu durchforsten. Die Nachlässigkeit, KI-Tools ohne diese fundamentalen Sicherheitschecks zu veröffentlichen, ist fahrlässig. Für diesen Skandal zur Rechenschaft gezogen wurde niemand.

Chatbot halluziniert Informationen zu Wahlen

Die Fehler von anderen KI-Tools sind vielleicht weniger verstörend, aber ebenfalls bedenklich. Sowohl Chat-GPT wie auch Gemini von Google und Copilot von Microsoft antworten auf Fragen nach den anstehenden Europawahlen teilweise so falsch, dass sie riskieren, Nutzerinnen und Nutzer von der Wahl abzuhalten.

Weiter wurde Mitte Mai nachgewiesen, dass KI-Textgeneratoren verwendet werden, um russische Propaganda im Westen zu verbreiten.

Dazu kommt: In sozialen Netzwerken wie Facebook zirkulieren Fakes zu Tausenden ohne Kennzeichnung, neben normalen Fotos. Sogar Pressebildagenturen wie Alamy, die von der Reputation leben, echte Fotos für journalistische Medienportale zur Verfügung zu stellen, scheitern manchmal daran, computergenerierte Bilder als solche zu erkennen und zu kennzeichnen.

Und weil dubiose Nachrichten-Websites, die sich einen journalistischen Anstrich geben, aber alles andere als neutral berichten, ihre erfundenen Storys in den sozialen Netzwerken verbreiten, wird für durchschnittliche Internetnutzer immer unklarer, was echt ist und was nicht.

Gemeinsame Faktenbasis erodiert täglich weiter

Das hat einen Einfluss auf die Demokratie. Denn in Zeiten gesteigerter Unsicherheit tendieren viele Menschen dazu, insbesondere jenen neuen Informationen zu glauben, die ihre bisherige Weltanschauung bestätigen. Das gemeinsame Verständnis von Fakten, das es braucht, um in einer Demokratie Kompromisse aushandeln zu können, wird damit kleiner. Aus der Politikforschung weiss man, dass dabei auch das Vertrauen der Menschen in den Staat und in die Demokratie an sich sinken kann.

Die Tech-Firmen wissen um den Umstand. Am Rande der Münchner Sicherheitskonferenz im Februar versprachen unter anderem Google, Open AI, Tiktok, Linkedin, Meta und Stability AI ein gemeinsames Vorgehen, um Herkunftsnachweise in KI-Bilder einzubauen. Dazu brauchte es sowohl sichtbare KI-Tags in den Metadaten wie auch unsichtbare Muster in KI-Bildern, die nur mit grossem Aufwand und viel technischem Wissen fälschbar sind.

Auch wenn sich damit sicher nicht hundert Prozent aller Deepfakes erkennen liessen, würden immerhin die Tausende Fotos, die heute in den sozialen Netzwerken als echt ausgegeben werden, als künstlich markiert.

Seit dem Versprechen sind Monate vergangen, doch ein gemeinsames Vorgehen der Tech-Firmen lässt auf sich warten. Das ist stossend, schliesslich weibeln Gesetzgeber und Regierungsstellen aus den USA und der EU schon seit Jahren für Wasserzeichen, und technische Lösungen dazu gibt es auch. Man hätte erwarten können, dass die Tech-Firmen gerade im Superwahljahr 2024 bei solchen sicherheitsrelevanten Themen schneller vorwärtsmachten.

Die Geschichte wiederholt sich

Das Verrückte dabei ist: Das ist alles nicht neu. Wir sahen Ähnliches schon bei der Erfindung der sozialen Netzwerke. Die Vorreiter der Branche, wie Mark Zuckerberg, versprachen in den nuller Jahren, die Welt zu vernetzen und damit zu einem besseren Ort zu machen. Schnell wurde aber klar, wie die Plattformen auch noch wirken: Sie beschleunigen den Verlust von Privatsphäre und bieten ausländischer Propaganda eine weitere Plattform. Bis heute kämpfen Firmen wie der Facebook-Konzern Meta mit solchen Problemen.

Nun hätten Meta oder Google eine zweite Chance, ihre vollmundigen Marketingversprechen in die Tat umzusetzen. Damit das gelingt, müssten die Tech-Firmen innerhalb kurzer Zeit bessere Sicherheitsstandards in ihre KI-Tools einbauen.

Den Tech-Firmen ist dies bewusst, schliesslich haben sie Ethik-Verantwortliche, die über die Auswirkungen ihrer Tools nachdenken. Die Frage ist aber, ob diese vor allem für die Imagepflege der Firmen Forschung betreiben oder ob sie ihre Erkenntnisse tatsächlich in die Produkte einfliessen lassen können.

Keine Garantie für Korrektheit

Dass viele Firmen den Rat ihrer eigenen Ethik-Experten wenig gewichten, hat praktische Gründe. Wer ein neues Tool erst auf den Markt bringt, wenn es perfekt und sicher ist, könnte es wohl gar nie publizieren. Denn man kann einem KI-System zwar beibringen, möglichst gute Quellen zu nutzen und möglichst ausgewogen zu antworten. Aber ob das Programm danach auf jede Anfrage eine wahre Antwort generiert, ist dennoch nicht garantiert, schliesslich hat die KI keinerlei Verständnis von Kontext und reiht in einer gigantischen Wahrscheinlichkeitsrechnung ein Wort ans andere.

Dass da inhaltliche Fehler passieren, liegt also in der Natur der Sache. Trotzdem verpassen es die Firmen manchmal, mögliche Schäden vorauszusehen und ihre Tools ausreichend zu testen. Anders kann man sich den Fehltritt von Google nicht erklären, dessen Bild-KI im Februar plötzlich Päpste mit schwarzer Hautfarbe und weiblichen Gesichtszügen darstellte. Damals war die KI offenbar lieber möglichst «woke» als möglichst korrekt.

Tech-Firmen arbeiten mit dem Prinzip Hoffnung

Dass ein solches halbreifes Produkt trotzdem publiziert wird, hat wirtschaftliche Gründe. Nachdem Open AI mit der Veröffentlichung von Chat-GPT vorgeprescht war, mussten andere Firmen mit ihren KI-Tools nachziehen, um im Wettbewerb um Marktanteil und Bekanntheit mithalten zu können. Es geht also auch um Geld: Firmen haben Angst, auf potenzielle Einkommen verzichten zu müssen, falls nur die Konkurrenz, aber nicht sie selbst bei KI-Rennen mitmachen. Risiken und Nebenwirkungen ihrer Produkte nehmen sie damit in Kauf.

Aus der Logik einer Firma ist das verständlich. Aus der Logik der gesamten Gesellschaft ist das aber bedauerlich. Und im Grunde unnötig. Andere Branchen testen ihre Produkte umfassend, bevor sie sie verkaufen, zum Beispiel Medikamente oder Fahrzeuge. KI-Tools hingegen wurden mit dem Prinzip Hoffnung auf den Markt geworfen: Man publiziert und hofft, die negativen Auswirkungen mögen nicht allzu gross sein.

Für Firmen, die auf der ganzen Welt bekannt und erfolgreich sind, ist das ein Armutszeugnis. Nun hätten sie die Chance, sich an ihren eigenen Versprechen zu messen, der Gesellschaft Gutes zu tun. Dafür müssen sie sicherstellen, dass sie keine illegalen Trainingsdaten verwenden, ihren Chatbots beibringen, lieber zu schweigen, als falsche Anleitungen für Wahlen und Abstimmungen zu halluzinieren, und einen neuen Branchenstandard für die Kennzeichnung von KI-Bildern hervorbringen. Technologisch sollte dies machbar sein, und ausreichend Geld haben die Firmen. Bleiben sie weiterhin untätig, heisst das nur eines: Den Firmen fehlt der Wille.

Exit mobile version