Close Menu
Meilleur en Suisse
  • Finanzen
  • Panorama
  • Reisen
  • Scheinwerfer
  • Schweiz
  • Sport
  • Technologie
  • Welt
  • Wirtschaft
  • Wissenschaft
  • Zürich
Im Trend

Diese mysteriösen dunklen «Streifen» auf dem Mars glaubten die Wissenschaftler anfangs anfangs

Juni 7, 2025

Analyse von Jamal Musialas bizarrem Eckziel für Deutschland gegen Italien

Juni 7, 2025

Private -Equity -Unternehmen überarbeiten Ausgangsstrategien, wenn der IPO -Markt schließt

Juni 7, 2025
Facebook X (Twitter) Instagram
Trendthemen:
  • Feuilleton
  • Gesellschaft
  • Mobilität
  • Panorama
  • Pressemitteilung
  • Scheinwerfer
  • Gaza-Krieg
Login
Facebook X (Twitter) Instagram
Samstag, Juni 7
Meilleur en Suisse
Abonnieren Verbinden
  • Finanzen
  • Panorama
  • Reisen
  • Scheinwerfer
  • Schweiz
  • Sport
  • Technologie
  • Welt
  • Wirtschaft
  • Wissenschaft
  • Zürich
Meilleur en Suisse
Startseite » Microsoft, um die Sicherheit von KI -Modellen zu bewerten, die an Cloud -Kunden verkauft wurden
Technologie

Microsoft, um die Sicherheit von KI -Modellen zu bewerten, die an Cloud -Kunden verkauft wurden

MitarbeiterVon MitarbeiterJuni 7, 2025
Aktie Facebook Twitter Pinterest LinkedIn Telegram Email WhatsApp Copy Link

Schalte die Digest des Herausgebers kostenlos frei

Roula Khalaf, Herausgeber der FT, wählt ihre Lieblingsgeschichten in diesem wöchentlichen Newsletter aus.

Microsoft wird mit der Rangfolge von künstlichen Intelligenzmodellen basierend auf ihrer Sicherheitsleistung beginnen, da die Softwaregruppe versucht, Vertrauen mit Cloud -Kunden aufzubauen, da sie KI -Angebote von Openai und Elon Musks XAI verkauft.

Sarah Bird, Microsofts Leiter der verantwortlichen KI, sagte, das Unternehmen werde in Kürze eine „Sicherheits“ -Kategorie zu seiner „Modelllangtafel“ hinzufügen, eine Funktion, die es diesen Monat für Entwickler auf den Markt gebracht habe, um Iterationen von einer Reihe von Anbietern zu bewerten, darunter Chinas Deepseek und Frankreichs Mistral.

Es wird erwartet, dass die Rangliste, die von Zehntausenden von Clients mit der Azure Foundry Developer -Plattform zugänglich ist, die KI -Modelle und Anwendungen über Microsoft beeinflussen.

Microsoft bewertet derzeit drei Metriken: Qualität, Kosten und Durchsatz, wie schnell ein Modell eine Ausgabe erzeugen kann. Bird teilte der Financial Times mit, dass das neue Sicherheitsranking sicherstellen würde, dass die Fähigkeiten von KI -Modellen „Menschen einfach direkt einkaufen und verstehen können“, wenn sie entscheiden, welche sie kaufen sollen.

Die Entscheidung, Sicherheitsbenchmarks einzubeziehen, tritt auf die Kunden von Microsoft, die sich mit den potenziellen Risiken von neuen KI -Modellen für Daten und Datenschutzschutz auseinandersetzen, insbesondere wenn sie als autonome „Agenten“ eingesetzt werden, die ohne menschliche Aufsicht funktionieren können.

Die neue Sicherheitsmetrik von Microsoft basiert auf einem eigenen Toxigen -Benchmark, der implizite Hassreden misst, und auf dem Massenvernichtungswaffen des Zentrums für KI -Sicherheit. Letzteres bewertet, ob ein Modell für böswillige Zwecke wie biochemische Waffe verwendet werden kann.

Rankings ermöglichen es den Benutzern, bei der Auswahl aus einem Katalog von mehr als 1.900 KI -Modellen Zugriff auf objektive Metriken zu haben, damit sie eine fundierte Auswahl treffen können.

«Sicherheitsleiter können Unternehmen helfen, die Lärm zu durchschneiden und die Optionen einzugrenzen», sagte Cassie Kozyrkov, Beraterin und ehemalige Hauptentscheidungswissenschaftlerin bei Google. «Die eigentliche Herausforderung besteht darin, die Kompromisse zu verstehen: höhere Leistung zu welchen Kosten? Niedrigere Kosten bei welchem ​​Risiko?»

Neben Amazon und Google gilt die in Seattle ansässige Gruppe als einer der größten „Hyperskaller“, die zusammen den Cloud-Markt dominieren.

Microsoft positioniert sich auch als agnostische Plattform für generative KI und signiert Angebote zum Verkauf von Modellen mit XAI und Anthropic, Rivalen, um Openai zu starten, die es mit rund 14 Mrd. USD an Investitionen unterstützt hat.

Im vergangenen Monat sagte Microsoft, dass es die Grok -Modelsfamilie von Xai unter den gleichen kommerziellen Bedingungen wie OpenAI anbieten würde.

Der Umzug kam trotz einer Version des Alarms von Grok, als eine „nicht autorisierte Änderung“ seines Kodex dazu führte, dass er in Südafrika wiederholt auf „weiße Völkermord“ hinwies, als er auf Abfragen auf der Social -Media -Website X. XAI reagierte.

«Die Modelle sind in einer Plattform erhältlich, es gibt ein gewisses Maß an interner Überprüfung, und dann liegt es an dem Kunden, Benchmarks zu verwenden, um es herauszufinden», sagte Bird.

Es gibt keinen globalen Standard für KI -Sicherheitstests, aber das AI -Gesetz der EU wird später in diesem Jahr in Kraft treten und die Unternehmen dazu zwingen, Sicherheitstests durchzuführen.

Empfohlen

Einige Modellbauer, einschließlich OpenAI, widmen weniger Zeit und Geld, um Risiken zu identifizieren und zu mildern. Die FT berichtete zuvor mehrere Personen, die mit den Sicherheitsprozessen des Start-up vertraut sind. Das Start-up sagte, es habe Effizienzsteigerungen ohne gefährdete Sicherheit identifiziert.

Bird lehnte es ab, sich zu den Sicherheitstests von OpenAI zu äußern, sagte jedoch, es sei unmöglich, ein hochwertiges Modell zu versenden, ohne einen „großen Betrag“ in die Bewertung zu investieren, und diese Prozesse wurden automatisiert.

Microsoft startete im April außerdem einen „KI -Read -Teaming -Agenten“, der den Prozess des Stresstests von Computerprogrammen automatisiert, indem Angriffe gestartet wurden, um Schwachstellen zu identifizieren. «Sie geben nur das Risiko an, Sie geben die Angriffsschwierigkeit an … und dann greifen Sie Ihr System nicht an», sagte Bird.

Es gibt Bedenken, dass AI -Agenten ohne angemessene Überwachung nicht autorisierte Maßnahmen ergreifen könnten, die die Eigentümer für Verbindlichkeiten öffnen.

«Das Risiko besteht darin, dass Leader -Boards Entscheidungsträger in ein falsches Sicherheitsgefühl hinnehmen können», sagte Kozyrkov. «Sicherheitsmetriken sind ein Ausgangspunkt, kein grünes Licht.»

Weiter Lesen

Elon Musks Fehde mit Donald Trump Muddies Xai Schulden für Morgan Stanley,

KI-Start-up Cohere sucht 500 Mio. USD, um Lücke mit OpenAI und Anthropic zu schließen

Silicon Valley -Hype -Hype über Häufigkeit

Wir brauchen einen neuen Deal für das Web

KI -Austausch

Apple und Alibabas KI -Rollout in China verzögerte sich durch Donald Trumps Handelskrieg

Redakteurfavoriten

Analyse von Jamal Musialas bizarrem Eckziel für Deutschland gegen Italien

Juni 7, 2025

Private -Equity -Unternehmen überarbeiten Ausgangsstrategien, wenn der IPO -Markt schließt

Juni 7, 2025

Ronaldo lehnt sich an, bei der FIFA Club World Cup | zu spielen | Fußballnachrichten

Juni 7, 2025

Die Europäische Kommission geht in die Offensive in NGO -Anschuldigungen vor

Juni 7, 2025

Microsoft, um die Sicherheit von KI -Modellen zu bewerten, die an Cloud -Kunden verkauft wurden

Juni 7, 2025

Neueste Nachrichten

Umwelt -DNA, ein „revolutionärer“ Schlüssel zur Erschließung der Geheimnisse unserer Ozeane

Juni 7, 2025

Liverpool eingereicht ein verbessertes 134 -Mio. € Transferangebot für Leverkusens Florian Wirtz

Juni 7, 2025

Wise’s Weckruf für London

Juni 7, 2025
Facebook X (Twitter) Pinterest TikTok Instagram
© 2025 Meilleur en Suisse. Alle Rechte vorbehalten.
  • Datenschutzrichtlinie
  • Nutzungsbedingungen
  • Kontakt

Type above and press Enter to search. Press Esc to cancel.

Sign In or Register

Welcome Back!

Login to your account below.

Lost password?