Samstag, November 2

Selbst die politische Färbung der Nachrichten können sich Nutzer aussuchen – Channel 1 lanciert eine Nachrichten-App, die auf Künstliche Intelligenz setzt.

Auf den ersten Blick wirkt das Video wie eine normale Nachrichtensendung: Moderatoren erzählen von Ereignissen, es wird Videomaterial von Kriegen und Überschwemmungen eingeblendet. Ohne Hinweis würde wohl kaum jemand merken, dass diese Sendung mit künstlicher Intelligenz (KI) gemacht wurde.

Channel 1 heisst das Startup, das im Februar mithilfe von KI eine neue Form von Nachrichtenkanal lancieren will. Das Video ist eine Vorschau dazu, ein Werbefilm. Und zwar ein ziemlich erfolgreicher. Seit seiner Veröffentlichung vor einigen Wochen wird er im Internet geteilt und heiss diskutiert.

Tatsächlich ist es eine seltsame Erfahrung, Nachrichten zu schauen, die zum Teil aus der Maschine kommen sollen. Was davon ist echt?, so fragt man sich. Gibt es die blonde Sprecherin und den schwarzen jungen Moderator wirklich? Und wenn ja, sprechen sie auch in Realität Englisch?

Was ist mit den Bildern aus der Ukraine? Kommen sie aus der Kamera, oder sind sie eine KI-Phantasie? Und der Nachrichteninhalt?

Channel 1 verrät diese Dinge zum Teil in seinem Video, teilweise haben sich die Gründer gegenüber Medien geäussert. Zusammengefasst kann man sagen: Channel 1 will alles nutzen, was KI kann, um damit die Nachrichtenbranche zu verändern. Technische Möglichkeiten gibt es viele – doch ist das, was das Startup vorhat, noch Journalismus?

Quellen sind noch aus der echten Welt

Zuerst die gute Nachricht: Channel 1 will keine Inhalte erfinden. Die Nachrichtenvideos sind Aufnahmen aus der echten Welt, von den Ereignissen, um die es im Beitrag geht – jedenfalls fast.

In einem Beitrag über einen Sturm in Frankreich wird ein Mann in den Trümmern seines Hauses interviewt. Das Video stammt vom französischen Sender France 24. Channel 1 ändert es mit KI so, dass es wirkt, als erzählte er auf Englisch.

Die Moderatoren, die auf Channel 1 gezeigt werden, gibt es tatsächlich. Sie haben dem Startup das Recht verkauft, KI-Avatare nach ihrem Bild zu erstellen. Der Text, den die Avatare vorlesen, wird mit KI gemacht, aber genau geprüft, wie die amerikanischen Gründer in Interviews versicherten.

Der Unternehmer Adam Mosam und der Fernsehproduzent Scott Zabielski haben das Startup gegründet und selbst finanziert. Im Moment zählt es zehn Angestellte, doch das wird nicht ausreichen, wie die beiden gegenüber dem Portal «The Register» sagen. Das Vorschauvideo dient wohl auch dem Zweck, Geldgeber zu finden.

Echte Bilder und KI-Fakes vermischt

Channel 1 zeigt darin auch, wie es KI-generierte Bilder nutzen will: für Dinge, von denen es keine Aufnahmen gibt. Ein Hinweis im Bild deklariere die Herkunft.

Trotz dieser Transparenz ist das eine fragwürdige Praxis, wie schon das Beispiel im Werbefilm zeigt. Es geht um die Geschichte eines kleinen Mädchens, das mit seinem Spielzeugauto auf der Strasse fuhr und von der Polizei im Verkehr geschützt und aufgehalten werden musste.

Das KI-generierte Bild zeigt ein blondes Mädchen in pinkem Kleid neben einem rosa Auto. Ein Polizist ist in die Hocke gegangen und auf Augenhöhe, die beiden strahlen, um sie herum Sandboden und Industrie. Es könnte eine rührende Szene aus einem Agentenfilm sein.

Ob Mädchen und Polizist tatsächlich so glücklich waren? Handelte es sich bei ihm wirklich um einen blonden Mann – oder könnte es eine schwarze Frau gewesen sein? Es ist unklar, welche Parameter diejenigen, die das Bild mithilfe von KI kreiert haben, dem Computer vorgegeben haben.

In dem Video kommen aber auch echte Aufnahmen vor. Auf denen sehen das Mädchen und ihr Auto ziemlich anders aus, ebenso die Umgebung. Die Polizisten sind unsichtbar in ihrem Auto.

Wohl mit Absicht hat Channel 1 ein harmloses Beispiel für das KI-generierte Material gesucht. Doch es zeigt bereits, wie viele falsche Informationen KI-generierte Bilder in die Sendung bringen.

Nachrichtenvideos im Tiktok-Stil

Bei der Lancierung soll Channel 1 den Gründern nach noch eine lineare Sendung sein – eine Dauerschleife von Nachrichten, die man auf der Website oder per Stream abrufen kann. Längerfristig schwebt den Gründern aber eine App vor, mit der man durch Kurzvideos scrollen kann. Dann soll man sich auch Stimme und Aussehen der Sprecher selbst aussuchen können – und sogar die politische Färbung.

Ähnlich wie bei der chinesischen App Tiktok soll ein Algorithmus lernen, was den jeweiligen Nutzer interessiert, und ihm die passenden Videos vorspielen. Aus Konsumentensicht eine vielversprechende Idee: Ob man sich für Katastrophen, Sport, Kriege oder neue Filme interessiert – man bekommt jeweils das, was einen interessiert.

Gesellschaftlich könnten die Folgen aber bedenklich sein. Es wäre ein weiterer Schritt in Richtung einer fragmentierten Realität, in der Menschen immer öfter nur eine massgeschneiderte Auswahl an Nachrichten vorgesetzt bekommen.

Adam Mosam wehrte sich gegen diese Kritik gegenüber dem «Hollywood Reporter»: Ein Medium, das «Fakten, Meinungen und Bevölkerungsgruppe» der jeweiligen Nutzer anspreche, dabei aber bei den Fakten bliebe, halte die Gesellschaft sogar eher beisammen.

Channel 1 ist nicht die erste News-App, die sich etwas von Tiktok abschauen will – im Gegenteil. Bereits vor Tiktok gab es von dem chinesischen Konzern dahinter, Bytedance, eine Nachrichten-App. Sie heisst Toutiao und hat in China 300 Millionen monatliche Nutzer. Die meisten sind unter 35 Jahre alt und verbringen im Durchschnitt 70 Minuten täglich mit der App.

Dabei konsumieren sie aber nicht nur Nachrichtenvideos. Die Beiträge stammen aus traditionellen Medienhäusern, von Live-Streams, aber auch von persönlichen Accounts. Die Ersteller bekommen einen Anteil der Werbeeinnahmen.

Channel 1 strebt zwar ebenso Kooperationen mit Medien aus aller Welt und mit freien Journalisten an, will aber die Hoheit über die Inhalte behalten. Denkbar sei, dass Zeitungsberichte von KI zusammengefasst und als Video verbreitet würden.

Zudem will Channel 1 auch automatisiert aus Dokumenten Nachrichten erstellen, etwa aus Berichten von Firmen oder Regierungen. Die Gründer betonen, dass alle Inhalte durch Menschen geprüft werden sollen. Trotzdem ist es fraglich, ob mithilfe von KI aus PR-Material ein kritischer Bericht werden kann.

Beginnt so die Ära der Influencer-Journalisten?

Channel 1 wirbt damit, dass KI Berichte von Menschen vor Ort für die ganze Welt zugänglich macht, und ruft freiberufliche Journalistinnen und Journalisten bereits jetzt zur Zusammenarbeit auf. Zu deren Vergütung ist noch nichts bekannt. Davon würde aber die Qualität eines solchen Mediums wohl abhängen.

Auslandjournalismus ist bereits jetzt eine recht prekäre Angelegenheit. Immer weniger Medienhäuser leisten sich ein Korrespondentennetz. Das Channel-1-Modell könnte eine Scheinlösung sein. Denn man kann Journalismus nicht durch «Influencer» vor Ort ersetzen, die nur dann bezahlt werden, wenn sie virale Beiträge liefern.

Es ist gut vorstellbar, dass etwa im jetzigen Krieg genug Menschen in Israel und Gaza dazu bereit wären, vor Ort Videos und Statements aufzunehmen, die mit einer Tiktok-artigen News-App gestreamt werden könnten.

Wenn sich das Startup als Medium versteht, müsste es diese Journalisten ausreichend bezahlen, deren Beiträge prüfen und für die Inhalte Verantwortung übernehmen. Das wiederum braucht einiges an Ressourcen.

Wenn Channel 1 aber davon absieht, kann es kaum Qualität produzieren. Denn dann ist es auf Menschen angewiesen, die ihr Gehalt aus anderen Quellen beziehen. Wie in sozialen Netzwerken könnten sich einseitige und unjournalistische Berichte viral verbreiten – jedoch unter dem Deckmantel einer News-App.

Nicht in allen Bereichen schafft KI Mehrwert

Auch wenn beim Video von Channel 1 als Erstes die KI-Avatare ins Auge fallen: Künstlich generierte Moderatorinnen sind vielleicht die am wenigsten relevante Neuerung.

KI bietet durchaus interessante Chancen – beim Übersetzen ebenso wie beim personalisierten Ausspielen von Nachrichten. Nutzt Channel 1 diese Chancen klug, könnte es einen Mehrwert schaffen. Günstig ist dieses Unterfangen jedoch nicht.

Wenn man KI-generierte Inhalte aber nicht mehr richtig prüft und sich noch dazu die Grenze zwischen Medium und sozialem Netzwerk verwischt, dann drohen von dieser Innovation eher neue Gefahren.

Exit mobile version