Ruth Chang befasst sich als Philosophin an der Universität Oxford damit, wie man grosse und kleine Entscheidungen im Leben richtig trifft – und was passiert, wenn wir beginnen, sie an Maschinen auszulagern.
Frau Professor Chang, Sie forschen als Philosophin zu Entscheidungen. Die werden uns immer mehr von Algorithmen abgenommen. Sie weisen uns den Weg per Google Maps, schlagen uns Partner vor, formulieren Texte. Ist das ein Problem?
Manchmal sind Algorithmen sehr hilfreich. Wenn zehn Firmen nach ihrer Profitabilität sortiert werden sollen, ist es toll, wenn eine KI das übernimmt. Die kann alle Informationen verarbeiten und eine akkurate Liste erstellen, und ich muss nicht meine Zeit damit verschwenden. Anders sieht es aus, wenn es darum geht, eine Bombe abzuwerfen oder nicht. Bei so einer Entscheidung kann man die bessere Alternative nicht einfach errechnen. Und ich glaube, dass sehr viele Entscheidungen in unserem Leben so funktionieren. Ob es um Karrieren geht oder darum, mit wem man ausgeht oder das Leben verbringt.
Man kann das Ergebnis nicht errechnen, weil man gar nicht weiss, welche Folgen die Bombe und die Partnerwahl haben werden?
Nicht nur deshalb. Meine These ist, dass wir über solche Vergleiche oft falsch nachdenken. Die meisten Menschen stellen sich Entscheidungen so vor, als würden sie eine kleine Waage aus der Tasche nehmen und all das Für und Wider darauflegen. Dann gibt es drei Möglichkeiten: Die eine Seite geht nach oben, oder die andere Seite geht nach oben, oder die Waage bleibt in Balance, dann sind die Alternativen austauschbar, man könnte auch eine Münze werfen. Doch es gibt eine vierte Option.
Und die wäre?
Manchmal bleiben die Waagschalen in Bewegung: Mal ist die eine unten, dann die andere. Die Alternativen sind nicht gleichwertig. Wenn Sie eine Option etwas verbessern, ist trotzdem nicht klar, was Sie wählen sollen. Sie könnten auch nicht einfach eine Münze werfen, denn die Alternativen sind nicht austauschbar, sondern qualitativ anders. Ich sage dazu: Sie sind «en par».
Können Sie ein Beispiel geben?
Nehmen wir romantische Beziehungen. Es stimmt einfach nicht, dass es die eine Person gibt, die am besten als Lebenspartner zu Ihnen passt. Viele mögliche Partner sind gleichwertig. Adam kann die einen Vorteile haben, Bob andere. Aber je nachdem, wie Sie sich entscheiden, führen Sie ein qualitativ anderes Leben. Nicht besser oder schlechter, sondern anders. Und das macht die Entscheidung schwierig.
Und wie fällt man sie dann?
Die Lösung ist, sich hinter eine Entscheidung zu stellen. Sagen wir, Sie entscheiden sich für Adam und vergessen Bob. Indem Sie sich gegenüber Adam verpflichten, machen Sie ihn zur richtigen Wahl. Im Leben geht es nicht nur darum, Befehle der Welt zu befolgen. Manchmal sagt Ihnen die Welt, dass ein Avocadotoast das bessere Frühstück ist als ein Pizzarest. Aber manchmal sagt die Welt uns, dass die Optionen «en par» sind – dass wir vor einer schwierigen Entscheidung stehen. Durch diese schwierigen Entscheidungen werden wir zu Autoren unseres Lebens.
Zur Person
Ruth Chang – Philosophin und Professorin für Rechtswissenschaft an der Universität Oxford
Ruth Chang ist in den USA aufgewachsen und hat Jura und Philosophie studiert. Nach ihrer Tätigkeit als Juristin entschied sie sich für ein Leben als Philosophin. Sie widmet sich unter anderem der Frage, wie Werte und Normen entstehen, und betrachtet Ethik, Liebe und Engagement philosophisch. Ihr TED-Talk «Wie man schwierige Entscheidungen fällt» wurde mehr als 9 Millionen Mal gesehen.
Dieses Sich-Verpflichten wird heute durch endlose Optionen erschwert, ob beim Online-Shopping oder auf Dating-Apps. Das überfordert viele . . .
Sie beschreiben das Auswahlparadox: Wenn es zu viele Alternativen gibt, haben wir das Gefühl, da sind zu viele Informationen, ich kann keine Entscheidung treffen. Wir können darauf reagieren, indem wir die vielen Informationen so reduzieren, dass die Auswahl überschaubar wird. Nehmen wir an, Sie wollen Snacks für Ihre Kinder kaufen. Ein amerikanischer Supermarkt hat vielleicht 500 Sorten Guetzli, 38 Sorten allein von Oreo. Sie können nun Preis und Zuckeranteil abwägen oder welche Snacks Kinder cool finden. Das ist überfordernd. Doch wenn Sie darüber nachdenken, um was es eigentlich geht, wird es einfacher. Sie wollen einen Snack, der Ihren Kindern schmeckt und sie nicht umbringt. Es bleiben 20 akzeptabel gesunde Snacks übrig. Was Sie davon aussuchen, ist egal, Sie können eine Münze werfen.
Aber beim Sich-Verpflichten geht es um etwas anderes.
Dann geht es nicht ums Werfen einer Münze. Wenn Sie sich hinter eine Wahl stellen, ändert sich die Art, wie Sie die Welt sehen. Sie wollten schon immer einen Lamborghini. Dann heiraten Sie und bekommen Kinder. Ihr Engagement für Ihr Familienleben lässt den Lamborghini anders aussehen – nicht mehr so attraktiv, wie er einmal war.
Wenn es einen Algorithmus für die Keks- und Partnerentscheidung gäbe, wäre er jedoch sicher beliebt. Sehnen wir uns danach, Verantwortung auszulagern, wie eine Firma, die Berater ruft, wenn sie Leute entlassen muss?
Sicher kann man Algorithmen als angebliche Experten nutzen, die vorgeschoben werden, wenn man sich nicht unbeliebt machen will durch eine heikle Entscheidung. Das ist der offensichtliche Fall. Dahinter kann aber auch ein tieferes Problem mit Verantwortung stecken. Dann, wenn es um die Art schwierige Entscheidung geht, von denen ich gesprochen habe. Wenn es darum geht, welche Art Mensch, welche Art Unternehmen man sein will. Solche Fragen kann man weder an Menschen noch an Technologie outsourcen. Vor allem, wenn nicht klar ist, welche Werte der Entscheidung überhaupt zugrunde liegen sollen.
Bei Bewerbungsverfahren werden KI-Systeme bereits genutzt. Früher stellte man Leute eher nach Bauchgefühl ein. Ein Fall, in dem Technologie Dinge besser macht?
Wenn ein System gut gemacht ist, können wir ihm Entscheidungen überlassen. Aber dafür ist es nötig, diesen Fehler, dass es nur die Alternativen «besser», «schlechter» und «gleich» gibt, zu beheben. Es braucht auch den «en par»-Fall. Wenn zwei Kandidaten gut sind, aber auf ganz unterschiedliche Weise, müsste die Maschine stoppen und sagen: «Das ist ein schwieriger Fall. Es braucht ein Werturteil, das ein Mensch treffen muss.» Oft spricht man vom «human in the loop», dem Menschen in der Schleife. Es ist der vielversprechendste Weg, KI mit unseren Werten in Einklang zu bringen.
Experimente zeigen, dass Menschen dazu tendieren, von Maschinen getroffene Entscheidungen zu bestätigen, auch wider besseres Wissen.
Wir haben alle von den Touristen gehört, die in einen See gefahren sind, weil das GPS-System es ihnen vorgegeben hat. Wir Menschen sind Herdentiere. Wir sind ziemlich faul und folgen gerne Befehlen, auch jenen einer Maschine. Eine Ärztin, die unter Druck Entscheidungen treffen muss, wäre wohl dankbar für eine Maschine, die ihr dabei helfen würde. Aber die Welt ist nicht so aufgebaut – es gibt nicht immer eine richtige Antwort auf die Frage, welcher Patient die wertvolle Niere bekommen soll. In den interessantesten Fällen des menschlichen Lebens sind die Optionen «en par». Deshalb sollten KI-Systeme so gestaltet sein, dass sie in schwierigen Fällen eine aktive Entscheidung verlangen.
Wie kann das in der Praxis funktionieren? Israel nutzt etwa ein KI-System, das geeignete Ziele für Bomben aussucht. Menschen müssen das bestätigen. Schwer vorstellbar, dass Waffenhersteller eine Funktion einbauen, die Soldaten fragt, ob die Entscheidung zu ihren Werten passt.
In den USA gibt es eine Vorgabe, nach der Kriegsmaschinen zwar Vorschläge machen dürfen, aber ein Mensch die Entscheidung treffen soll. Mein Modell geht noch weiter. In schwierigen Fällen sollte die Maschine durchaus sagen können: «Hier gibt es keine objektiv bessere Variante. Menschenleben stehen auf dem Spiel. Du musst über die Entscheidung nachdenken und die Verantwortung übernehmen.»
Kann man überhaupt einen Algorithmus programmieren, der nicht einfach optimiert, sondern solche komplexen Wertfragen berücksichtigt?
Man braucht ebendiese vierte Option «en par». Ich habe lange darauf gewartet, dass jemand so etwas programmiert. Jetzt kümmert sich endlich jemand darum: mein Mann. Er ist ein weltbekannter philosophischer Logiker. Unser Modell kombiniert maschinelles Lernen mit klassischem regelbasiertem Programmieren.
Wir haben darüber gesprochen, wie mühsam Entscheidungen sind. Wie realistisch ist es, dass Menschen so ein Werkzeug überhaupt wollen?
Es wird harte Arbeit. Erstens braucht es das mathematische Modell. Dann müssen Sie Leute überzeugen, dass es diese Mühseligkeit wert ist, dass es die Kosten wert ist, KI zu entwickeln, die in schwierigen Fällen den Menschen befragt. Denn das wird die Dinge sehr verlangsamen. Aber ich denke, es ist der einzige Weg zu einer KI, die mit unseren ethischen Werten im Einklang ist, zu einer KI, die sicher ist und bei der der Mensch die Kontrolle behält. Wir machen uns etwas vor, wenn wir glauben, wir können den Fünfer und das Weggli haben.
Ab wann ist es eigentlich ein Problem, Entscheidungen abzugeben? Waffen sind das eine. Aber wenn ich einen Text mit KI schreibe, dann nimmt sie mir ja auch viele kleine Entscheidungen ab, ändert vielleicht das Framing . . .
Sie sind Journalistin. Für Sie kann es eine schwierige Entscheidung sein, ob sie eine Person als «aggressiv» oder «wütend» beschreiben wollen. Wenn Sie Chat-GPT verwenden, wird es Ihnen ein Adjektiv aufzwingen, obwohl es eine schwierige Entscheidung ist. Für mich sind die Alternativen vielleicht austauschbar. Aber Sie sind eine Schreiberin. Es ist absolut entscheidend, ob Sie das eine oder das andere wählen. Es kreiert Ihre Identität: Sind Sie jemand, der in diesem Kontext «aggressiv» oder «wütend» schreibt? Ebenso mag die Entscheidung zwischen zwei Haarschnitten für mich nebensächlich sein, ich kann mich treiben lassen. Aber ein Model gestaltet seine Identität, indem es sich auf einen Haarschnitt festlegt.
Sie können unseren Lesern also nicht sagen, welche KI-Produkte für uns entscheiden können und welche nicht?
Jeder Einzelne kann das sowieso nicht entscheiden. KI-Firmen bauen Produkte, die beliebt sind und die unvermeidlich Teil unseres Alltags werden. So war es auch bei den sozialen Netzwerken. Als ich Facebook probierte, dachte ich: Was für eine Zeitverschwendung! Doch inzwischen verpasse ich einen entscheidenden Ausschnitt des Lebens, wenn ich gar keine dieser Plattformen nutze. KI wird unser Leben verändern, und die Regulierung hinkt hinterher. Wenn wir nicht wollen, dass KI menschliche Werte und Fähigkeiten untergräbt, müssen wir alles, was wir haben, auf das wichtigste offene Problem der KI verwenden: Wie können wir die Werte der KI mit unseren eigenen in Einklang bringen? Bislang haben wir diese Nuss nicht geknackt. KI so zu gestalten, dass sie schwierige Entscheidungen berücksichtigt – oft die wichtigsten Entscheidungen im menschlichen Leben –, ist ein notwendiger und grundlegender erster Schritt.