Bleiben Sie mit kostenlosen Updates informiert
Einfach anmelden Künstliche Intelligenz Myft Digest – direkt an Ihren Posteingang geliefert.
Lügen sind nach Angaben des Philosophen Harry Frankfurt nicht der größte Feind der Wahrheit. Bullshit ist schlimmer.
Wie er in seinem klassischen Aufsatz erklärte Auf Bullshit (1986), ein Lügner und ein Wahrheitsschilder spielen das gleiche Spiel, nur auf gegenüberliegenden Seiten. Jeder reagiert auf Tatsachen, wie er sie versteht und die Autorität der Wahrheit entgegennimmt oder ablehnt. Aber ein Bullshitter ignoriert diese Anforderungen insgesamt. «Er lehnt die Autorität der Wahrheit nicht ab, wie der Lügner, und lehnt sich gegen sie ab. Er schenkt ihm überhaupt keine Aufmerksamkeit. Auf diese Weise ist Bullshit ein größerer Feind der Wahrheit als Lügen.» Eine solche Person möchte andere überzeugen, unabhängig von den Tatsachen.
Leider starb Frankfurt im Jahr 2023, nur wenige Monate nach der Veröffentlichung von Chatgpt. Aber das Lesen seines Aufsatzes im Zeitalter der generativen künstlichen Intelligenz führt zu einer mutlichen Vertrautheit. In mehrfacher Hinsicht beschreibt Frankfurts Aufsatz die Ausgabe von AI-fähigen Großsprachenmodellen ordentlich. Sie befassen sich nicht mit der Wahrheit, weil sie keine Vorstellung davon haben. Sie arbeiten nach statistischer Korrelation und nicht empirischer Beobachtung.
«Ihre größte Stärke, aber auch ihre größte Gefahr, ist ihre Fähigkeit, in fast jedem Thema unabhängig von der sachlichen Genauigkeit maßgeblich zu klingen. Mit anderen Worten, ihre Supermacht ist ihre übermenschliche Fähigkeit, Bullshit zu erzielen», haben Carl Bergstrom und Jevin West geschrieben. Die beiden Professoren der University of Washington machen einen Online-Kurs-moderne Oracles oder Bullshit-Maschinen? – Diese Modelle prüfen. Andere haben die Ausgabe der Maschinen in Botshit umbenannt.
Eines der bekanntesten und beunruhigenden, aber manchmal interessant kreativen Merkmale von LLMs ist die „Halluzination“ von Fakten-oder einfach nur etwas erfinden. Einige Forscher argumentieren, dass dies ein inhärentes Merkmal probabilistischer Modelle ist, kein Fehler, der behoben werden kann. KI-Unternehmen versuchen jedoch, dieses Problem zu lösen, indem sie die Qualität der Daten verbessern, ihre Modelle fuhren und die Systeme zur Überprüfung und Faktenprüfung aufbauen.
Sie scheinen noch einen Weg zu haben, wenn man einen Anwalt für Anthropic in diesem Monat sagte, dass ihre Anwaltskanzlei selbst unbeabsichtigt einen falschen Zitat eingereicht habe, der von Claude des KI -Unternehmens halluziert wurde. Wie Googles Chatbot an Benutzer flaggt: „Gemini kann Fehler machen, einschließlich der Menschen, also überprüfen Sie es.“ Das hat Google nicht davon abgehalten, einen „KI -Modus“ für alle Hauptdienste in den USA zu veranlassen.
Die Art und Weise, wie diese Unternehmen versuchen, ihre Modelle zu verbessern, einschließlich des Verstärkungslernens aus menschlichem Feedback, selbst gefährdet die Einführung von Voreingenommenheit, Verzerrung und nicht deklarierter Wertschätzungen. Wie die FT gezeigt hat, beschreiben KI -Chatbots von OpenAI, Anthropic, Google, Meta, Xai und Deepseek die Eigenschaften der Geschäftsführer ihrer eigenen Unternehmen und die der Rivalen ganz anders. Elon Musks Grok hat in Südafrika auch Memes über „weiße Völkermord“ in Südafrika gefördert. Xai sagte, es habe den Fehler behoben, den es einer «nicht autorisierten Modifikation» verantwortlich gemacht habe.
Solche Modelle erzeugen laut Sandra Wachter, Brent Mittelstadt und Chris Russell eine neue, noch schlechtere Kategorie potenzieller Schäden – oder „unvorsichtiger Sprache“ in einem Papier des Oxford Internet Institute. Nach ihrer Ansicht kann unachtsame Sprache immaterielle, langfristige und kumulative Schäden verursachen. Es ist wie «Invisible Bullshit», der die Gesellschaft dümmer macht, sagt Wachter.
Zumindest mit einem Politiker oder Verkäufer können wir normalerweise ihre Motivation verstehen. Chatbots haben jedoch keine Intentionalität und sind für Plausibilität und Engagement optimiert, nicht für die Wahrhaftigkeit. Sie werden Fakten ohne Zweck erfinden. Sie können die Wissensbasis der Menschheit auf unergründliche Weise verschmutzen.
Die faszinierende Frage ist, ob KI -Modelle für eine höhere Wahrhaftigkeit ausgelegt sein könnten. Wird es eine Marktnachfrage nach ihnen geben? Oder sollten Modellentwickler gezwungen sein, beispielsweise für Werbetreibende, Anwälte und Ärzte an höheren Wahrheitsstandards einzuhalten? Wachter schlägt vor, dass die Entwicklung von wahrheitsgemäßeren Modellen Zeit, Geld und Ressourcen benötigen würde, die die aktuellen Iterationen sparen sollen. «Es ist, als würde ein Auto ein Flugzeug sein. Sie können ein Auto von einer Klippe schieben, aber es wird sich nicht der Schwerkraft widersetzen», sagt sie.
Alles in allem können generative KI -Modelle immer noch nützlich und wertvoll sein. Viele lukrative Geschäfte – und politische – Karrieren wurden auf Bullshit aufgebaut. Generative KI kann für unzählige Geschäftsanwendungsfälle eingesetzt werden. Aber es ist wahnhaft und gefährlich, diese Modelle mit Wahrheitsautomaten zu verwechseln.