Laut der europäischen Polizeibehörde werden immer mehr pornografische Bilder und Videos von Kindern und Jugendlichen im Internet verbreitet. Häufig kommt dabei KI zum Einsatz. Für Ermittler ist das ein Problem.
In einer spanischen Kleinstadt zirkulieren Nacktbilder junger Mädchen in den sozialen Netzwerken und auf Whatsapp. Die Mädchen sind entsetzt und verängstigt. Denn sie haben nie Nacktbilder von sich verschickt, die zirkulierenden Bilder wurden mithilfe von KI generiert. Die Täter: Mitschüler, zwischen 13 und 15 Jahre alt.
Der Fall aus dem September 2023 illustriert zwei Trends, die die europäische Polizeibehörde Europol in ihrem neusten Bericht zur Cyberkriminalität hervorhebt. Mehr und mehr Minderjährige werden über das Internet zu Opfern von sexualisiertem Missbrauch oder Erpressung. Zugleich werden mehr und mehr Minderjährige zu Tätern bei solchen Verbrechen.
Künstliche Intelligenz erleichtert Verbrechen
Beides hat mit KI zu tun. Denn diese macht es buchstäblich kinderleicht, pornografisches Material zu erzeugen. Die Produktion von Material, das einen sexuellen Missbrauch von Kindern darstelle, sei breit zugänglich und erfordere kein hohes Niveau bei den technischen Kenntnissen, schreibt Europol dazu in seinem neusten Bericht. Die Zahl und auch das Spektrum möglicher Täter sei somit gewachsen.
Bei dem Missbrauchsmaterial kann es sich um echte Fotos handeln, die mithilfe von KI verändert wurden, wie es bei den Mädchen in Spanien der Fall war. Mit einer App hatten die Mitschüler aus harmlosen Profilbildern der Mädchen fotorealistische Nacktbilder gemacht.
Immer häufiger ist kinderpornografisches Material im Internet auch vollständig von KI erstellt. Dann zeigt das Bild zwar kein echtes Kind. Doch solche KI-generierten Bilder basieren letztlich auf Fotos echter Opfer, die in das Training der Modelle eingegangen sind. Und sie normalisieren die Sexualisierung von Kindern.
Auch um an echte Nacktbilder heranzukommen, nutzen die Sexualstraftäter immer öfter KI. Chatbots helfen ihnen, ihre Opfer online in praktisch jeder Sprache anzusprechen und zum Erstellen und Verschicken expliziter Fotos zu überreden.
Ein signifikanter Teil des Materials, das einen sexuellen Missbrauch von Jugendlichen darstelle, sei von diesen selbst erstellt worden, heisst es in dem Bericht von Europol. Haben die Täter erst explizite Bilder oder Videos ihrer Opfer erlangt, verwendeten sie diese häufig, um den Opfern zu drohen oder sie zu erpressen.
Die Täter werden schwieriger zu identifizieren
All das dürfte erst der Anfang sein. Die Polizeibehörde geht davon aus, dass sich die Nutzung von KI in der Cyberkriminalität in der nahen Zukunft noch deutlich ausbreiten wird.
Denn nicht nur wird KI immer mächtiger und leichter zu bedienen, laut Europol werden auch immer mehr auf illegale Aktivitäten spezialisierte KI-Modelle über das Darknet verbreitet. Diese sind im Gegensatz zu den öffentlich verfügbaren Modellen wie Chat-GPT oder Gemini nicht mit Schutzmechanismen versehen, die das Erstellen von Missbrauchsmaterial verhindern. Manchmal wurden sie sogar gezielt weiter trainiert, um solches Material noch realitätsgetreuer darzustellen.
Für die Polizei stellt das ein grosses Problem dar. Denn einerseits steigt durch KI die Zahl illegaler Bilder und Videos von Kindesmissbrauch im Internet. Das macht es schwieriger für die Behörden, den einzelnen Fällen nachzugehen. Andererseits sind die mit KI erstellten oder veränderten Bilder schwierig bis unmöglich von realen Fotos zu unterscheiden. Es werde immer komplizierter, echte Opfer und Täter zu identifizieren, schreibt Europol.
Es brauche daher geeignete Werkzeuge, um zu erkennen, welche Audio-, Bild- und Videoinhalte oder Teile davon Deepfakes seien. Wie genau solche Werkzeuge aussehen könnten, lässt der Bericht offen. Im Hinblick auf die in vielen Fällen minderjährigen Täter müsse man auch einen stärkeren Fokus auf die Täterprävention legen.
In der Zukunft wird es mehr Ressourcen brauchen, um zu verhindern, dass Kinder zu Opfern von Missbrauch werden – oder zu Tätern.