Mit KI können Stimmen täuschend echt gefälscht oder in Sekundenschnelle Nacktbilder erzeugt werden. Das wissen auch Kriminelle immer mehr für sich zu nutzen.
Wie Kriminelle mit KI operieren
Hören und abonnieren Sie den Podcast «NZZ Akzent» auch auf Spotify, Apple Podcasts oder Castbox.
Haben Sie ein Feedback zum Podcast? Sagen Sie uns Ihre Meinung.
In dieser Podcast-Episode:
Jennifer DeStefano war sich sicher, dass es ihre Tochter Briana war, die sie am Telefon weinen hörte und die rief: «Hilf mir, hilf mir!» Es war ihre Stimme. Danach hörte DeStefano eine Männerstimme, die drohte, ihre Tochter mit Drogen vollzupumpen, wenn sie sich nicht an die Anweisungen halte und Geld bezahle.
Doch wie sich später herausstellte: DeStefanos Tochter ging es gut. Ihre Stimme war von Kriminellen mit künstlicher Intelligenz gefälscht worden. Dazu genügten einige Sekunden Audio, zum Beispiel von einem Social-Media-Video, erzählt die Technologie-Redaktorin Gioia da Silva im Podcast. Die gefälschte Stimme ist erstaunlich gut und kann dann alles sagen, was man ihr vorgibt. Trickanrufe werden dadurch unglaublich überzeugend.
Auch Bild-KI wird mittlerweile von Kriminellen genutzt. So lassen sich auf Knopfdruck Hunderte Nacktbilder herstellen. Damit können Opfer erpresst werden. Wenn dereinst all diese Techniken ausgereift sind und kombiniert werden, ist das Risiko noch grösser, dass die Fälschungen nicht erkannt werden.
Alle Episoden von «NZZ Akzent» finden Sie in dieser Übersicht.