Donnerstag, Dezember 26

Das Potenzial von Sora ist gross, doch die massenhafte Verbreitung von gefälschten Videos kann auch enorme Probleme schaffen. Drei Kritikpunkte stechen bei der Diskussion besonders hervor.

Erst waren es Texte, Bilder, Songs – und jetzt auch Filme: Keine Kunstform ist mehr vor der künstlichen Intelligenz (KI) sicher. Am Freitag hat das führende KI-Unternehmen Open AI, auf dessen Sprachmodellen auch Chat-GPT basiert, einen neuen Video-Generator namens Sora vorgestellt.

Das Prinzip ist einfach: Per Textbefehl erhält die Software Angaben zum Inhalt des Videos. Je detaillierter der Nutzer seine Wünsche anbringt, desto besser wird das Resultat; und Sora liefert im Nu Kurzvideos von bis zu einer Minute Länge. Die Software soll auch bestehende Videos verlängern oder aus Bildern Kurzfilme generieren können.

Open AI hat Dutzende Beispiele veröffentlicht, die einen Eindruck von Soras Können vermitteln: kuschlige Cartoon-Figuren, ein einsamer Weltraum-Cowboy in einer Salzwüste oder eine Herde Mammuts in einer Schneelandschaft – der Mensch fordert an, Sora liefert.

Die erzeugten Videos sind visuell ansprechend und teilweise sehr detailreich gestaltet. Die Lichteffekte und Kamerafahrten sind eindrücklich. Auch die Gesichtszüge und Bewegungen der gezeigten Personen erscheinen deutlich realistischer, als dies bei früheren Video-Generatoren der Fall war.

Sora Openai Tokyo Walk

Die Kurzfilme enthalten bisweilen noch Fehler: Die Regeln der Physik werden nicht immer eingehalten, so entstehen Objekte manchmal aus dem Nichts. Hinzu kommen inhaltliche Fehler. Ameisen etwa, die bloss vier statt sechs Beine haben. Oder Schachbretter, die falsche Proportionen aufweisen und auf denen mit drei statt zwei Königen gespielt wird. Die mal gröberen, mal kleineren Fehler zeigen, dass die Software noch lange nicht perfekt ist.

Derzeit ist Sora erst für einen kleinen Kreis von Beta-Testern und Künstlerinnen zugänglich. Die Tester sollen prüfen, ob die Software für schädliche Zwecke missbraucht werden kann. Die Designer wiederum sollen Open AI Rückmeldungen geben, wie Sora als Hilfsmittel für ihre Arbeit noch nützlicher ausgestaltet werden kann.

Wie so oft beim Umgang mit neuen Anwendungen von Open AI reagiert die Öffentlichkeit mit einer Mischung aus Faszination und Angst auf das neue Hilfsmittel. Drei Themen stechen in der Diskussion besonders hervor.

Wahlmanipulation durch Deepfakes

Erstens ist die Furcht omnipräsent, dass Sora für politische Zwecke missbraucht wird, indem es Deepfakes ermöglicht: täuschend echt erscheinende, aber künstlich erstellte Videos, mit denen man unter anderem Wähler betrügen und Kandidaten in schlechtem Licht darstellen kann.

Es geht um viel. In diesem Jahr stehen unter anderem in Indien und den USA richtungsweisende Wahlen an. Der Open-AI-Chef Altman selbst hat versprochen, dafür zu sorgen, dass Chat-GPT nicht für den amerikanischen Wahlkampf missbraucht werden kann. Das Unternehmen hat hierfür im Januar Leitlinien aufgestellt. Doch die eingebauten Hürden in Chat-GPT lassen sich oft austricksen, wenn man die Prompts richtig formuliert.

Die Geschichte lehrt zudem, dass fast alle technischen Hilfsmittel, die es gibt, früher oder später im Wahlkampf verwendet werden. In den USA etwa sind unzimperliche negative Wahlkampfvideos seit vielen Jahrzehnten verbreitet. 1964 stellten die Demokraten den republikanischen Präsidentschaftskandidaten Barry Goldwater in einem Wahlkampfspot als gefährlichen Extremisten dar, der die Welt in den nuklearen Untergang führen werde – und hatten Erfolg damit.

Die legendäre «Daisy Ad» kam noch ohne direkten Verweis auf Goldwater aus. Heute besteht die Sorge, dass Social-Media-Plattformen aufgrund von Hilfsmitteln wie Sora mit gefälschten Videos der Kandidaten geflutet werden und es kein Mittel gibt, die Fälschungen schnell genug zu entlarven und zu verbannen.

Von Beginn weg in den Videos eingebaute Wasserzeichen mögen ein Gegenmittel sein, doch auch diese lassen sich mit genügend technischem Vorwissen wohl entfernen. Open AI entwickelt parallel zu Sora auch Hilfsmittel, die Videos der Software klassifizieren können. Das Unternehmen tritt gewissermassen einen Wettlauf gegen sich selbst an.

Sollten Hunderte Deepfakes von Joe Biden oder Donald Trump die sozialen Netzwerke überschwemmen, hätte das sicherlich einen Effekt auf die Präsidentschaftswahlen. Entstünde der Eindruck, dass «ohnehin alles im Wahlkampf manipuliert ist» und «Politiker sowieso alle lügen», könnte dies die Bevölkerung noch stärker von den demokratischen Abläufen entfremden.

Auch das wurde schon versucht: Im US-Wahljahr 2016 etwa arbeiteten manche Republikaner mit Daten, die das britische Beratungsunternehmen Cambridge Analytica aus Facebook abgesaugt hatte, um massgeschneiderte Botschaften an Teile der Wahlbevölkerung zu bringen.

Ein Ziel war es, traditionell den Demokraten nahestehenden Gruppen den Gang an die Urne zu verleiden: Eine Stimme weniger für Hillary Clinton war auch eine Stimme für Donald Trump. Es ist umstritten, wie viel Einfluss solche Versuche tatsächlich hatten – aber das ändert nichts daran, dass die Versuche stattfanden.

KI-Rachepornos auf Knopfdruck

Zweitens können KI-generierte Fälschungen auch ausserhalb der politischen Arena grossen Schaden anrichten. Schon seit Jahren kämpfen vor allem Frauen damit, dass Männer mittels KI-Hilfen gefälschte pornografische Bilder und Videos von ihnen erstellen und auf Internetforen verbreiten. Manchmal handelt es sich bei den Opfern um berühmte Stars, manchmal wiederum rächen sich Männer damit an ihren Ex-Partnerinnen.

Eine Studie der Cybersicherheitsfirma Deeptrace kam bereits 2019 zu dem Schluss, dass es sich bei 96 Prozent aller online auffindbaren Deepfake-Videos um nicht einvernehmliche Pornografie handelt. Open AI ist sich dieser Gefahr bewusst und schreibt, Sora akzeptiere keine Prompts, die extreme Gewalt, sexuelle Inhalte oder Ähnlichkeit zu echten Personen einforderten.

Man werde sich mit Fachpersonen und Politikern austauschen und deren Bedenken ernst nehmen. Gleichwohl sei es nicht möglich, alle möglichen Varianten vorherzusagen, mit denen man die Software missbrauchen könne, schreibt Open AI.

Urheberrechte: Wo hat Sora sein Handwerk gelernt?

Ein dritter Diskussionspunkt sind Urheberrechte; ein bekanntes Minenfeld für KI-Unternehmen wie Open AI. Bekanntlich hat die «New York Times» sowohl Open AI als auch Microsoft verklagt, weil ihre Modelle beim Training auf die Inhalte der Zeitung zurückgegriffen haben. Und tatsächlich hat Open AI, das sonst viel auf Transparenz gibt, bisher kaum preisgegeben, mit welchem Originalmaterial es Chat-GPT und Co. gefüttert hat.

Das Unbehagen ist in Hollywood besonders gross. 2023 traten Schauspielerinnen und Drehbuchautoren in einen monatelangen Streik, der grosse Teile der US-Filmindustrie lahmlegte. Unter anderem befürchteten die Streikenden, dass die Studios vermehrt KI einsetzen würden, um ihr digitales Ebenbild zu nutzen und sie selbst um ihren Lohn zu bringen.

Lange wurden solche Versuche etwas belächelt, weil die künstliche Intelligenz nicht gut genug war. Mit Sora könnte sich das ändern. Akut sind bereits die Sorgen von Grafikern, von KI arbeitslos gemacht zu werden.

Bild-Generatoren wie Dall-E von Open AI oder Midjourney erschaffen mittlerweile auf Knopfdruck massgeschneiderte Illustrationen in allen möglichen Stilrichtungen. Manche Zeitungen und Unternehmen nutzen die Hilfsmittel bereits, um günstig und rasch zu Bildmaterial zu gelangen – und beauftragen in der Folge natürlich keine Grafikerin mehr mit dieser Arbeit.

Open AI will dieser Kritik bei Sora durch die frühe Einbindung von Künstlerinnen und Designern entgegentreten. Aber wie das Unternehmen selbst schreibt: Es kann nicht sämtliche Anwendungen vorhersehen, die mit seiner Technologie genutzt werden. Der Geist ist aus der Flasche. Die KI-Hilfsmittel sind da; und schon die nächsten Monate werden zeigen, wie sie eingesetzt werden.

Exit mobile version