Close Menu
Meilleur en Suisse
  • Finanzen
  • Panorama
  • Reisen
  • Scheinwerfer
  • Schweiz
  • Sport
  • Technologie
  • Welt
  • Wirtschaft
  • Wissenschaft
  • Zürich
Im Trend

Es gab eine heile Welt hinter dem Eisernen Vorhang – Jiři Hájíček auf der Suche nach einem buchstäblich untergegangenen Leben

Juni 23, 2025

Der Antonio Rudiger von Real Madrid soll von Pachucas Gustavo Cabral bei der Club -Weltmeisterschaft rassistisch missbraucht werden

Juni 23, 2025

Branchengebote «Gute Befreiung» für die SEC -Regeln

Juni 23, 2025
Facebook X (Twitter) Instagram
Trendthemen:
  • Feuilleton
  • Gesellschaft
  • Mobilität
  • Panorama
  • Pressemitteilung
  • Scheinwerfer
  • Gaza-Krieg
Login
Facebook X (Twitter) Instagram
Montag, Juni 23
Meilleur en Suisse
Abonnieren Verbinden
  • Finanzen
  • Panorama
  • Reisen
  • Scheinwerfer
  • Schweiz
  • Sport
  • Technologie
  • Welt
  • Wirtschaft
  • Wissenschaft
  • Zürich
Meilleur en Suisse
Startseite » Generative KI -Modelle sind in der Kunst des Bullshits erfahren
Technologie

Generative KI -Modelle sind in der Kunst des Bullshits erfahren

MitarbeiterVon MitarbeiterMai 23, 2025
Aktie Facebook Twitter Pinterest LinkedIn Telegram Email WhatsApp Copy Link

Bleiben Sie mit kostenlosen Updates informiert

Einfach anmelden Künstliche Intelligenz Myft Digest – direkt an Ihren Posteingang geliefert.

Lügen sind nach Angaben des Philosophen Harry Frankfurt nicht der größte Feind der Wahrheit. Bullshit ist schlimmer.

Wie er in seinem klassischen Aufsatz erklärte Auf Bullshit (1986), ein Lügner und ein Wahrheitsschilder spielen das gleiche Spiel, nur auf gegenüberliegenden Seiten. Jeder reagiert auf Tatsachen, wie er sie versteht und die Autorität der Wahrheit entgegennimmt oder ablehnt. Aber ein Bullshitter ignoriert diese Anforderungen insgesamt. «Er lehnt die Autorität der Wahrheit nicht ab, wie der Lügner, und lehnt sich gegen sie ab. Er schenkt ihm überhaupt keine Aufmerksamkeit. Auf diese Weise ist Bullshit ein größerer Feind der Wahrheit als Lügen.» Eine solche Person möchte andere überzeugen, unabhängig von den Tatsachen.

Leider starb Frankfurt im Jahr 2023, nur wenige Monate nach der Veröffentlichung von Chatgpt. Aber das Lesen seines Aufsatzes im Zeitalter der generativen künstlichen Intelligenz führt zu einer mutlichen Vertrautheit. In mehrfacher Hinsicht beschreibt Frankfurts Aufsatz die Ausgabe von AI-fähigen Großsprachenmodellen ordentlich. Sie befassen sich nicht mit der Wahrheit, weil sie keine Vorstellung davon haben. Sie arbeiten nach statistischer Korrelation und nicht empirischer Beobachtung.

«Ihre größte Stärke, aber auch ihre größte Gefahr, ist ihre Fähigkeit, in fast jedem Thema unabhängig von der sachlichen Genauigkeit maßgeblich zu klingen. Mit anderen Worten, ihre Supermacht ist ihre übermenschliche Fähigkeit, Bullshit zu erzielen», haben Carl Bergstrom und Jevin West geschrieben. Die beiden Professoren der University of Washington machen einen Online-Kurs-moderne Oracles oder Bullshit-Maschinen? – Diese Modelle prüfen. Andere haben die Ausgabe der Maschinen in Botshit umbenannt.

Eines der bekanntesten und beunruhigenden, aber manchmal interessant kreativen Merkmale von LLMs ist die „Halluzination“ von Fakten-oder einfach nur etwas erfinden. Einige Forscher argumentieren, dass dies ein inhärentes Merkmal probabilistischer Modelle ist, kein Fehler, der behoben werden kann. KI-Unternehmen versuchen jedoch, dieses Problem zu lösen, indem sie die Qualität der Daten verbessern, ihre Modelle fuhren und die Systeme zur Überprüfung und Faktenprüfung aufbauen.

Sie scheinen noch einen Weg zu haben, wenn man einen Anwalt für Anthropic in diesem Monat sagte, dass ihre Anwaltskanzlei selbst unbeabsichtigt einen falschen Zitat eingereicht habe, der von Claude des KI -Unternehmens halluziert wurde. Wie Googles Chatbot an Benutzer flaggt: „Gemini kann Fehler machen, einschließlich der Menschen, also überprüfen Sie es.“ Das hat Google nicht davon abgehalten, einen „KI -Modus“ für alle Hauptdienste in den USA zu veranlassen.

Die Art und Weise, wie diese Unternehmen versuchen, ihre Modelle zu verbessern, einschließlich des Verstärkungslernens aus menschlichem Feedback, selbst gefährdet die Einführung von Voreingenommenheit, Verzerrung und nicht deklarierter Wertschätzungen. Wie die FT gezeigt hat, beschreiben KI -Chatbots von OpenAI, Anthropic, Google, Meta, Xai und Deepseek die Eigenschaften der Geschäftsführer ihrer eigenen Unternehmen und die der Rivalen ganz anders. Elon Musks Grok hat in Südafrika auch Memes über „weiße Völkermord“ in Südafrika gefördert. Xai sagte, es habe den Fehler behoben, den es einer «nicht autorisierten Modifikation» verantwortlich gemacht habe.

Solche Modelle erzeugen laut Sandra Wachter, Brent Mittelstadt und Chris Russell eine neue, noch schlechtere Kategorie potenzieller Schäden – oder „unvorsichtiger Sprache“ in einem Papier des Oxford Internet Institute. Nach ihrer Ansicht kann unachtsame Sprache immaterielle, langfristige und kumulative Schäden verursachen. Es ist wie «Invisible Bullshit», der die Gesellschaft dümmer macht, sagt Wachter.

Zumindest mit einem Politiker oder Verkäufer können wir normalerweise ihre Motivation verstehen. Chatbots haben jedoch keine Intentionalität und sind für Plausibilität und Engagement optimiert, nicht für die Wahrhaftigkeit. Sie werden Fakten ohne Zweck erfinden. Sie können die Wissensbasis der Menschheit auf unergründliche Weise verschmutzen.

Die faszinierende Frage ist, ob KI -Modelle für eine höhere Wahrhaftigkeit ausgelegt sein könnten. Wird es eine Marktnachfrage nach ihnen geben? Oder sollten Modellentwickler gezwungen sein, beispielsweise für Werbetreibende, Anwälte und Ärzte an höheren Wahrheitsstandards einzuhalten? Wachter schlägt vor, dass die Entwicklung von wahrheitsgemäßeren Modellen Zeit, Geld und Ressourcen benötigen würde, die die aktuellen Iterationen sparen sollen. «Es ist, als würde ein Auto ein Flugzeug sein. Sie können ein Auto von einer Klippe schieben, aber es wird sich nicht der Schwerkraft widersetzen», sagt sie.

Alles in allem können generative KI -Modelle immer noch nützlich und wertvoll sein. Viele lukrative Geschäfte – und politische – Karrieren wurden auf Bullshit aufgebaut. Generative KI kann für unzählige Geschäftsanwendungsfälle eingesetzt werden. Aber es ist wahnhaft und gefährlich, diese Modelle mit Wahrheitsautomaten zu verwechseln.

[email protected]

Weiter Lesen

Der Urheberrechtskrieg zwischen der KI -Industrie und den Kreativen

Metas 14 Mrd. USD Wette auf KI-Chef der 28-jährigen Skala

UK AI Start-up Physicsx nähert sich $ 1 Mrd. $

Mira Muratis Denkmaschinenlabor im Wert von 10 Mrd. USD nach Fundraising in Höhe von 2 Mrd. USD

SoftBank Chief Pitches $ 1TN AI und Robotikkomplex in Arizona

Was steckt hinter dem KI -Talent Goldrausch?

Redakteurfavoriten

Der Antonio Rudiger von Real Madrid soll von Pachucas Gustavo Cabral bei der Club -Weltmeisterschaft rassistisch missbraucht werden

Juni 23, 2025

Branchengebote «Gute Befreiung» für die SEC -Regeln

Juni 23, 2025

Mahmoud Khalil führt die pro-palestinische Rallye in New York | Gaza

Juni 23, 2025

«28 Years Later»: Totgeplagte leben länger

Juni 23, 2025

Hunderte gehen in der Demonstration gegen die NATO -Tage vor dem Major Gipfel auf die Straße der Haag.

Juni 23, 2025

Neueste Nachrichten

Der Urheberrechtskrieg zwischen der KI -Industrie und den Kreativen

Juni 23, 2025

Auf seiner letzten Ferienreise liess sich Karl Marx den Bart rasieren – aber vorher machte er noch ein Porträtbild

Juni 23, 2025

Ayatollah Khomeiny betörte westliche Politiker und Intellektuelle. Bis heute verklären linke und rechte Ideologen sein Terrorregime

Juni 23, 2025
Facebook X (Twitter) Pinterest TikTok Instagram
© 2025 Meilleur en Suisse. Alle Rechte vorbehalten.
  • Datenschutzrichtlinie
  • Nutzungsbedingungen
  • Kontakt

Type above and press Enter to search. Press Esc to cancel.

Sign In or Register

Welcome Back!

Login to your account below.

Lost password?