Sonntag, November 24

Computergenerierte Bilder von illegaler Pornografie können heute nicht mehr von echten Fotos unterschieden werden. Wie soll die Polizei nach Opfern suchen, wenn sie nicht mehr weiss, hinter welchen Bildern echte Kinder stecken?

Bilder von Kindern produzieren, die sexuell missbraucht werden – auch das kann künstliche Intelligenz inzwischen. Und zwar so gut, dass man die KI-Bilder nicht mehr von realen Fotos unterscheiden kann. «Glückwunsch zum Fotorealismus», schrieb ein Täter im September in einem Darknet-Forum für KI-Bilder von Kindsmissbrauch, «das ist der Wahnsinn.»

Im Darknet zirkulieren heute Tausende KI-generierte Bilder von Kindsmissbrauch, etwas, das man früher – beschönigend – Kinderpornografie nannte. Für den Kinderschutz ist das eine Katastrophe. Zum einen, weil auch hinter KI-Bildern echte Opfer stecken, zum anderen, weil die Polizei dann nicht mehr weiss, welchen Fährten sie nachgehen soll. Dass es plötzlich so viele Missbrauchsbilder online gibt, ist massgeblich auf den KI-Bildgenerator Stable Diffusion zurückzuführen, doch dazu später mehr.

Missbrauchsbilder sind zur Dienstleistung geworden

Um das Phänomen besser zu verstehen, hat die Internet Watch Foundation (IWF) eine Untersuchung in einem Darknet-Forum durchgeführt. Innerhalb eines einzigen Monats wurden dort über 20 000 künstlich generierte Bilder geteilt. Etwas mehr als die Hälfte davon zeigten Kinder in potenziell sexuellen Szenen, etwa 3000 Bilder klassifizierte die IWF als strafbare Inhalte. So schrieb es die Organisation in einem Bericht, aus dem auch das Zitat am Anfang dieses Textes stammt.

Die Untersuchung zeigt auch: Das Feld hat sich professionalisiert. Gewisse Nutzer bieten im Darknet an, ein beliebiges Kind in einer beliebigen Pose abzubilden, und lassen sich für die Herstellung dieser Bilder bezahlen. Andere teilen ihre KI-Modelle in Foren, schreiben Anleitungen dazu, wie man die Sperre für Kindsmissbrauch aushebelt, und beraten sich gegenseitig, wie sie bessere Resultate erhalten.

«Es ist erschreckend, wie schnell sich das Feld weiterentwickelt hat», sagt Dan Sexton, Technologiechef der Internet Watch Foundation, einer von nur drei privaten Organisationen weltweit, die Bilder von Kindsmissbrauch im Netz aktiv aufspüren. «Vor einem Jahr fanden wir noch keine KI-Missbrauchsbilder. Jetzt sind es Tausende.»

Hinter KI-Bildern stecken echte Kinder

Hinter jedem dieser KI-Bilder stecken unzählige Fotografien von realen Missbräuchen. «Entweder sind die Fotos in das Training des Algorithmus eingeflossen, oder sie werden für das Finetuning von einem bestehenden KI-Modell verwendet», erklärt Sexton. «Damit werden bereits missbrauchte Kinder erneut zum Opfer.»

Weiter erschweren die computergenerierten Bilder die Arbeit der Ermittlungsbehörden. «Vermutlich werden Ermittler künftig nach Opfern suchen, die gar nicht existieren», befürchtet Sexton. «Oder – im Umkehrschluss – die Polizei wird nicht aktiv, weil sie glaubt, ein Bild sei von einer KI produziert, dabei steckt ein echtes Kind dahinter.» Tatsächlich bestätigen mehrere Schweizer Kantonspolizeien auf Anfrage, dass KI die «Identifikation von möglichen Opfern zusätzlich erschwert».

Ausserdem befürchtet Sexton, dass die Masse an neuen KI-Missbrauchsbildern Fachstellen überfordert. Tatsächlich können Kriminelle nun in kürzester Zeit Hunderte neue Missbrauchsbilder herstellen, während die Fachstellen noch weitgehend manuell arbeiten: Bei ihnen müssen Menschen entscheiden, ob es sich um ein illegales Bild handelt, und dann die Website-Betreiber darum bitten, das Material zu löschen. Das beansprucht viel Zeit. Die KI verschiebt also das Verhältnis zwischen Tätern und Fahndern zugunsten der Täter.

Lieber KI-Bild als echtes Opfer?

Nun zitiert der IWF-Bericht aber auch Täter, die suggerieren, KI-generierte Missbrauchsbilder würden dem Kinderschutz helfen. «Wer bisher sagte, dass er Missbrauchsbilder brauche, um einem unwiderstehbaren Verlangen zu folgen, wird keine Entschuldigung mehr haben», schrieb ein Nutzer im Darknet-Forum. Die Logik hinter dem Argument: lieber zu computergenerierten Kinderbildern masturbieren, als Bilder mit echten Opfern anzuschauen.

Diese Argumentation möge im Einzelfall zwar richtig sein, sagt Fanny de Tribolet, die Leiterin der Präventionsstelle Pädosexualität der Psychiatrischen Universitätsklinik Zürich, aber Bilder von Kindsmissbrauch seien in jedem Fall illegal, egal ob sie echte Opfer zeigen oder mit einem Computer generiert wurden. «Und das mit gutem Grund: Wir wollen nicht, dass sich der Kindsmissbrauch normalisiert.»

Werde es normal, KI-Missbrauchsbilder zu sehen, ändere dies auch unseren Blick auf Kinder, sagt de Tribolet. Denn bisher waren viele Missbrauchsbilder in schlechter Qualität aufgenommen, zum Beispiel Videos, die mit kleinen Kameras verdeckt gefilmt worden waren. KI-Bilder können nun eine Qualität bieten, die davor selten erhältlich war. Weiter können Bildgeneratoren neue Formen von extremem Missbrauch darstellen, beispielsweise eine Penetration von sehr kleinen Kindern.

Ob solche Bilder bei den Konsumenten die Lust anheizen würden, im echten Leben ein Kind zu missbrauchen, sei nicht erforscht, sagt de Tribolet. Allerdings stelle sie im Therapiealltag immer wieder fest, dass es ein grosser Schritt sei vom Konsum illegaler Pornografie zum sexuellen Missbrauch von Kindern im echten Leben. «Für eine Hands-on-Tat braucht es eine gewisse Empathielosigkeit: Der Täter muss sich wissentlich über die Grenzen des Kindes hinwegsetzen. Das macht bei weitem nicht jeder, der zu Missbrauchsbildern masturbiert.»

Trotzdem schaffen Bildgeneratoren eine neue Realität im Kindsschutz: Jedes beliebige Kind kann in jeder beliebigen Pose abgebildet werden. «Für Betroffene ist das schrecklich», sagt de Tribolet.

Ein KI-Bildgenerator wurde mit Missbrauchsbildern trainiert

Dass die Herstellung von Missbrauchsbildern so einfach geworden ist, liegt insbesondere an einem Programm: Stable Diffusion. Der Programmcode hinter der Bild-KI ist Open Source, wurde also zur freien Verwendung veröffentlicht. Das bietet zwar unzählige Chancen für Innovationen, aber auch das Risiko, dass Kriminelle das Tool missbrauchen.

Nun hat es Stable Diffusion den Kriminellen aber besonders leicht gemacht, denn das Modell wurde gar mit Bildern von Kindsmissbrauch trainiert. Dies konnte das Stanford Internet Observatory in einer Mitte Dezember publizierten Studie nachweisen.

Hintergrund ist ein riesiger Bilddatensatz mit dem Namen Laion-5B. Er umfasst über 5,8 Milliarden Bilder von allen möglichen Objekten, Tieren und Personen. KI-Modelle müssen anhand von vielen Beispielen lernen, wie ein Mädchen aussieht und wie eine Hand. Nur so können sie später ein korrektes Bild einer Mädchenhand generieren. Welche Bilder in der Trainingsphase in ein KI-Modell einfliessen, bestimmt also weitgehend, was der Bildgenerator später herstellen kann.

Nun enthielt der Datensatz Laion-5B mindestens 2200 Bilder von Kindsmissbrauch. Zwar filtert Laion, die Herausgeberin des Datensatzes, das Material vor der Publikation auf illegale Inhalte. Doch offenbar sind in diesem Prozess Tausende Missbrauchsbilder unentdeckt geblieben. Als dies am 19. Dezember bekanntwurde, nahm Laion den Datensatz vorübergehend offline, in einem «Übermass an Vorsicht», wie die Organisation in einer Mitteilung schrieb, und stellte die Löschung der illegalen Bilder in Aussicht.

Stable Diffusion, die Bild-KI, die mit Laion-5B trainiert worden war, weiss nun aber bereits, wie Missbrauchsbilder aussehen. In seiner heutigen Version hat der Bildgenerator zwar Hürden eingebaut, damit Missbrauchsmaterial jedenfalls nicht einfach zu generieren ist. Doch im Darknet wird eine alte Version des Modells herumgeboten, mit der dies noch einfacher ging.

Die NZZ hätte von Stability AI, der Firma hinter Stable Diffusion, gerne erfahren, warum sie das KI-Modell vor der Publikation nicht ausreichend auf Missbrauchsbilder getestet hatte. Eine entsprechende Anfrage blieb bis Redaktionsschluss unbeantwortet.

Exit mobile version