Schalten Sie den Editor’s Digest kostenlos frei
Roula Khalaf, Herausgeberin der FT, wählt in diesem wöchentlichen Newsletter ihre Lieblingsgeschichten aus.
Stellen Sie sich ein Auto vor, das den Fahrer nicht erlaubt, die Geschwindigkeitsbegrenzung zu überschreiten. Es hört sich recht einfach an, dennoch besteht kein großer Bedarf an einer Maschine, die dem Benutzer moralische Entscheidungen abnimmt. Sogar Teslas geschwindigkeitsbegrenzendes „Sloth“-Modell ist optional; Nutzer seiner selbstfahrenden Autos können auch „Mad Max“ voll ausschöpfen.
In der Welt der KI glauben einige Unternehmen, dass Kunden Produkte mit vorinstallierten Moralvorstellungen bevorzugen würden. Nehmen Sie Anthropic, dessen Claude-Chatbot darauf trainiert ist, „gute Werte zu haben“. Dies macht Anthropic in manchen Kreisen unbeliebt. Das US-Verteidigungsministerium hat gegen Grenzwerte protestiert, die selbstgesteuerte tödliche Angriffe oder massenhaftes Ausspionieren von Bürgern verbieten würden – ein Streit, der am Freitag zu einer angespannten Pattsituation führte.
Rivalen versuchen unterdessen, Anthropics Glaubwürdigkeit, dass Sicherheit an erster Stelle steht, zu untergraben, was das Unternehmen durch eine „Verfassung“ zum Ausdruck bringt, die Claude verpflichtet, Sicherheit, Ethik und Hilfsbereitschaft in dieser Reihenfolge zu priorisieren. Sam Altman von OpenAI hat das Unternehmen als „autoritär“ gebrandmarkt. Elon Musk, Gründer von xAI und des Grok-Chatbots, nannte es „feindlich“, da es sich seiner Meinung nach unter anderem um eine Voreingenommenheit gegenüber weißen Männern handelt.
Interessieren sich die Kunden? Schließlich ist der eigentliche Wachstumstreiber von Anthropic, der rund 80 Prozent des Umsatzes ausmacht, der Verkauf von Tools an Unternehmensanwender, die vor allem auf Effizienz und Gewinn ausgerichtet sind. Ob die KI den Nuklearknopf drücken würde, wie Forscher am King’s College manchmal vermuten, ist für solche Kunden von geringer direkter Bedeutung.
Die Anleger halten die ethischen Stilvorstellungen von Anthropic sicherlich nicht für ein Hindernis. Das Unternehmen hat gerade Geld im Wert von 350 Milliarden US-Dollar eingesammelt und könnte noch in diesem Jahr einen Börsengang anstreben. Die Wirksamkeit von Claude Code, seinem Programmierassistenten, hat dazu beigetragen, den Gesamtwert der S&P 500-Softwareaktien in diesem Jahr um 1 Billion US-Dollar zu senken. Die Behauptung von Anthropic, dass Claude in COBOL, einer schwerfälligen Sprache, die in IT-Großrechnern verwendet wird, programmieren kann, hat die Marktkapitalisierung von IBM an einem einzigen Tag um 30 Milliarden US-Dollar gesenkt.
Es gibt einen Bereich, in dem die Integrität eines Bots heute tatsächlich von Bedeutung ist: Halluzinationen. Peter Gostev vom KI-Bewertungsunternehmen Arena hat einen „Bullshit-Benchmark“ veröffentlicht, der testet, ob Modelle unsinnige Fragen hinterfragen oder einfach nur mit noch mehr Quatsch reagieren. Anthropic schnitt am besten ab; Einige von OpenAIs gehörten zu den schlechtesten. Selbst dann hat dies möglicherweise mehr mit der Analysequalität eines Modells zu tun als mit seinen inhärenten Ansichten zur Wahrhaftigkeit.
Der Übergang zur agentischen KI – Bots, die nicht nur unterstützen, sondern tatsächlich Aufgaben ausführen und Urteilsvermögen ausüben – wird den Einsatz erhöhen. Je menschlicher die KI wird und ihre Rolle im Unternehmen immer wichtiger wird, desto wichtiger wird es, wie sie auf komplexe Herausforderungen und Konflikte reagiert. Wann ist es besser, einen Befehl zu ignorieren? Wann könnte die Verfolgung eines kurzfristigen Ziels zu längerfristigen Problemen führen? Wann ist es in Ordnung, dem Chef zu sagen, er solle es „durchschieben“?
Im Guten wie im Schlechten ist es wirklich nicht anders, was Unternehmen von ihren Mitarbeitern erwarten. Für weniger kritische und stärker prozessgesteuerte Aufgaben suchen Arbeitgeber nach Arbeitskräften, die sich an Regeln halten. Auf höheren Ebenen, wo die Handlungen eines Einzelnen den Wert des gesamten Unternehmens beeinflussen können, ist ein gutes Urteilsvermögen in ungewöhnlichen Situationen wertvoll und erfordert eine höhere Bezahlung.
Natürlich steht zur Debatte, ob die Grundauffassung eines Unternehmens von „ethisch“ mit der von Anthropic übereinstimmt. Eines Tages wird ein Agent gebeten, etwas Schlechtes für die Welt, aber Gutes für den Gewinn eines Unternehmens zu tun. Ein Modell, das Wert auf gutes Benehmen legt, sollte wertvoller sein; In der realen Unternehmenswelt würde eine Welt, die den Shareholder-Value noch stärker schätzt, zweifellos aufräumen.

