Künstliche Intelligenz braucht immer mehr Daten. Nun spähen Firmen auf private Inhalte der Nutzer und wollen sie für KI auswerten. Bei Meta bremsen nun aber die Datenschutzbehörden.
Anfang Juni schickte der Meta-Konzern E-Mails an seine Nutzer, Betreff: «Wir aktualisieren unsere Datenschutzrichtlinie, da wir KI bei Meta ausweiten.» Eine jener E-Mails, die die meisten Nutzer ignorieren dürften. In diesem Fall zu Unrecht.
Denn mit dieser E-Mail gab sich Meta die Erlaubnis, Bilder, Texte und Informationen, die Nutzer auf Instagram und Facebook geteilt haben, für seine künstliche Intelligenz (KI) zu verwenden. Einzig Inhalte, die Nutzer in privaten Nachrichten geteilt haben, und Daten von minderjährigen Nutzern nimmt das Unternehmen aus.
Meta ist nicht das einzige Unternehmen, das die Daten seiner Nutzer als Trainingsmaterial für KI verwenden und verwerten will. Auf geltendes Recht wird dabei meist nur wenig Rücksicht genommen. Das sorgt für Unmut bei Nutzern und Datenschützern. Bei Meta sind nun die Behörden eingeschritten.
Was in KI einfliesst, kann sie wieder ausspucken
Dass Meta die Bilder und Posts von seinen Nutzern verwenden will, um KI zu trainieren, ist so bedenklich, wie es klingt. Denn Daten, die bei der Erstellung der KI, dem sogenannten Training, in ein Modell einfliessen, bleiben zum Teil darin gespeichert.
So kam es, dass Chat-GPT ganze Artikel der «New York Times» Wort für Wort ausspuckte. Und Bildgeneratoren erzeugen immer wieder Bilder, die einzelnen Bildern im Trainingsmaterial zum Verwechseln ähnlich sind.
Das zeigen Untersuchungen, unter anderem eine von Florian Tramèr, der an der ETH eine Forschungsgruppe zur Sicherheit von KI-Systemen leitet. Sie beweist, dass der Bildgenerator Stable Diffusion nicht nur Bekanntes wie Filmplakate oder Firmenlogos reproduziert, sondern auch Gesichter von nicht prominenten Menschen. «Ich verstehe den Aufschrei um KI-Training mit Nutzerdaten», sagt Tramèr deshalb.
Es gibt zwar technische Möglichkeiten, die es zumindest unwahrscheinlicher machen, dass Trainingsdaten ganz genau wiedergegeben werden, doch noch sind diese kein Standard. Bisher war das vor allem ein Copyright-Problem. Doch Tramèr sagt: «Je mehr Daten von Nutzern in Modelle einfliessen, desto mehr wird es eine Privatsphären-Frage.»
EU-Behörden bremsen Metas Pläne
In den meisten Weltregionen informierte Meta seine Nutzer kaum über die neue Datennutzung. In der EU und der Schweiz ist es dazu gezwungen. Denn hiesige Bürger haben ein Recht auf Datenschutz. Wer ihre Daten verarbeiten will, muss sich eine Einwilligung holen. Je persönlicher und heikler die Daten sind, desto strenger sind die Vorgaben dazu.
Deshalb kritisierten viele Datenschützer auch, dass Meta seine Nutzer nur auf ihr Widerspruchsrecht hinwies, anstatt eine explizite Einwilligung einzuholen. Wer nicht wollte, dass seine Daten von der KI verarbeitet werden, musste eigens ein Formular ausfüllen.
Peter Hense ist als Anwalt auf IT-Recht spezialisiert. Seiner Ansicht nach reicht Metas Opt-out-Angebot bei weitem nicht als explizites und informiertes Einverständnis der Nutzer, das von Rechts wegen nötig wäre. «Das Vorgehen von Meta hat offensichtlich massive Probleme», sagt er. Dass Datenschutzbehörden eingeschritten seien, um die Sache genauer zu untersuchen, sei folgerichtig.
Aufruhr um veränderte Nutzungsbedingungen bei Adobe
Meta ist nicht das einzige Unternehmen, dessen Nutzer sich im Moment sorgen, ihre Daten könnten in KI einfliessen.
Auch Adobe hat gerade grosse Kritik auf sich gezogen, weil es seine Nutzungsbedingungen per Pop-up-Fenster änderte. Um ihre Adobe-Programme zu öffnen, mussten Nutzer akzeptieren, dass ihre Inhalte maschinell verarbeitet werden dürfen.
So am I reading this, right? @Adobe @Photoshop
I can’t use Photoshop unless I’m okay with you having full access to anything I create with it, INCLUDING NDA work? pic.twitter.com/ZYbnFCMlkE
— Sam Santala (@SamSantala) June 5, 2024
Es geht um die Dokumente in der Cloud: im Falle von Photoshop und Illustrator um kreative Werke, im Falle des PDF-Readers um teilweise vertrauliche Dokumente.
Zugleich fiel Nutzern nun auf, dass sich Adobe in den Nutzungsbedingungen sehr weitgehende Rechte an den Inhalten der Nutzenden sichert, «um Software zu verbessern». Im KI-Zeitalter hat das einen neuen Beigeschmack. Sofort witterten Nutzer, Adobe plane, ihre Inhalte für KI-Software zu verwenden. Auf sozialen Netzwerken brach ein Sturm der Empörung los.
Adobe reagierte rasch mit einer Klarstellung, es sei bei der Neuerung immer nur darum gegangen, illegale Inhalte aufzustöbern. Nie sei das Ziel gewesen, die Daten der Nutzer zu Trainingsmaterial zu machen.
Der Anwalt Peter Hense ist nicht überzeugt. «In den USA sagt man: ‹Wer vom Goldrausch profitieren will, sollte Schaufeln verkaufen.› Im KI-Goldrausch sind die Daten die Schaufeln.» Trainingsdaten verkaufen sei der Weg, auf dem Adobe und Meta an dem KI-Hype mitverdienen wollen, vermutet er.
Seine Kanzlei bereitet bereits eine Unterlassungsklage vor, wegen Verletzung des Mandatengeheimnisses. Denn um auf PDF zugreifen zu können, mussten zahlende Nutzer die Bedingungen akzeptieren und Adobe damit Einsicht in vertrauliche Inhalte geben.
Auch der KI-Forscher Tramèr sieht die Episode kritisch: «Dass diese Firmen nicht transparent machen, was sie vorhaben, ist ärgerlich und problematisch.»
In Zukunft dürfte der Konflikt nur weiter eskalieren. Denn KI-Firmen setzen auf mehr und mehr Daten, um ihre Systeme zu trainieren. Doch die öffentlich verfügbaren Daten gehen zur Neige. Umso interessanter werden die Inhalte von Nutzern, ob in der Cloud gespeichert oder auf Social Media geteilt.
Nicht immer ist klar, was legal ist – und nicht alle halten sich an die Regeln. Das führt zu bizarren Situationen. So wird vermutet, dass die KI-Firma Open AI für seine KI Youtube-Daten nutzt, während Google, dem Youtube ja gehört, genau das sicher nicht darf, weil es einen Vertrag mit den Erstellern der Videos hat, der diese Nutzung nicht umfasst.
Experten finden Datenschutzstandards der EU sinnvoll
Nachdem die Datenschutzbehörden Rücksprache mit Meta gehalten hatten, gab das Unternehmen bekannt, das Einführen seiner KI-Bots in Europa verzögern zu wollen.
Der Anwalt Peter Hense ist allerdings wenig zuversichtlich, dass Meta nun wirklich davon ablässt, die Daten der europäischen Nutzer für KI zu verarbeiten. Er tippt eher darauf, dass Meta die Daten über eine Tochtergesellschaft des Unternehmens abgreifen wird und im Zweifelsfall lieber später eine Strafe zahlt, wie schon in der Vergangenheit geschehen. Meta steht seit Jahren wegen in Konflikt mit den europäischen Behörden und wurde wegen fragwürdiger Datennutzung immer wieder sanktioniert. Bisher seien die Resultate behördlicher Sanktionen allerdings kaum spürbar, sagt Hense.
In seiner Presseaussendung betont Meta derweil, dass Europa bei KI an einem Scheideweg stehe, und warnt vor «extremistischen Positionen», welche die KI-Entwicklung hemmten. Dieses Argument überzeugt weder Hense noch Tramèr. Die Datenschutzstandards der EU seien sinnvoll und wichtig und stünden echter Innovation auch nicht im Wege.