Schalte die Digest des Herausgebers kostenlos frei

Microsoft wird mit der Rangfolge von künstlichen Intelligenzmodellen basierend auf ihrer Sicherheitsleistung beginnen, da die Softwaregruppe versucht, Vertrauen mit Cloud -Kunden aufzubauen, da sie KI -Angebote von Openai und Elon Musks XAI verkauft.

Sarah Bird, Microsofts Leiter der verantwortlichen KI, sagte, das Unternehmen werde in Kürze eine „Sicherheits“ -Kategorie zu seiner „Modelllangtafel“ hinzufügen, eine Funktion, die es diesen Monat für Entwickler auf den Markt gebracht habe, um Iterationen von einer Reihe von Anbietern zu bewerten, darunter Chinas Deepseek und Frankreichs Mistral.

Es wird erwartet, dass die Rangliste, die von Zehntausenden von Clients mit der Azure Foundry Developer -Plattform zugänglich ist, die KI -Modelle und Anwendungen über Microsoft beeinflussen.

Microsoft bewertet derzeit drei Metriken: Qualität, Kosten und Durchsatz, wie schnell ein Modell eine Ausgabe erzeugen kann. Bird teilte der Financial Times mit, dass das neue Sicherheitsranking sicherstellen würde, dass die Fähigkeiten von KI -Modellen „Menschen einfach direkt einkaufen und verstehen können“, wenn sie entscheiden, welche sie kaufen sollen.

Die Entscheidung, Sicherheitsbenchmarks einzubeziehen, tritt auf die Kunden von Microsoft, die sich mit den potenziellen Risiken von neuen KI -Modellen für Daten und Datenschutzschutz auseinandersetzen, insbesondere wenn sie als autonome „Agenten“ eingesetzt werden, die ohne menschliche Aufsicht funktionieren können.

Die neue Sicherheitsmetrik von Microsoft basiert auf einem eigenen Toxigen -Benchmark, der implizite Hassreden misst, und auf dem Massenvernichtungswaffen des Zentrums für KI -Sicherheit. Letzteres bewertet, ob ein Modell für böswillige Zwecke wie biochemische Waffe verwendet werden kann.

Rankings ermöglichen es den Benutzern, bei der Auswahl aus einem Katalog von mehr als 1.900 KI -Modellen Zugriff auf objektive Metriken zu haben, damit sie eine fundierte Auswahl treffen können.

«Sicherheitsleiter können Unternehmen helfen, die Lärm zu durchschneiden und die Optionen einzugrenzen», sagte Cassie Kozyrkov, Beraterin und ehemalige Hauptentscheidungswissenschaftlerin bei Google. «Die eigentliche Herausforderung besteht darin, die Kompromisse zu verstehen: höhere Leistung zu welchen Kosten? Niedrigere Kosten bei welchem ​​Risiko?»

Neben Amazon und Google gilt die in Seattle ansässige Gruppe als einer der größten „Hyperskaller“, die zusammen den Cloud-Markt dominieren.

Microsoft positioniert sich auch als agnostische Plattform für generative KI und signiert Angebote zum Verkauf von Modellen mit XAI und Anthropic, Rivalen, um Openai zu starten, die es mit rund 14 Mrd. USD an Investitionen unterstützt hat.

Im vergangenen Monat sagte Microsoft, dass es die Grok -Modelsfamilie von Xai unter den gleichen kommerziellen Bedingungen wie OpenAI anbieten würde.

Der Umzug kam trotz einer Version des Alarms von Grok, als eine „nicht autorisierte Änderung“ seines Kodex dazu führte, dass er in Südafrika wiederholt auf „weiße Völkermord“ hinwies, als er auf Abfragen auf der Social -Media -Website X. XAI reagierte.

«Die Modelle sind in einer Plattform erhältlich, es gibt ein gewisses Maß an interner Überprüfung, und dann liegt es an dem Kunden, Benchmarks zu verwenden, um es herauszufinden», sagte Bird.

Es gibt keinen globalen Standard für KI -Sicherheitstests, aber das AI -Gesetz der EU wird später in diesem Jahr in Kraft treten und die Unternehmen dazu zwingen, Sicherheitstests durchzuführen.

Einige Modellbauer, einschließlich OpenAI, widmen weniger Zeit und Geld, um Risiken zu identifizieren und zu mildern. Die FT berichtete zuvor mehrere Personen, die mit den Sicherheitsprozessen des Start-up vertraut sind. Das Start-up sagte, es habe Effizienzsteigerungen ohne gefährdete Sicherheit identifiziert.

Bird lehnte es ab, sich zu den Sicherheitstests von OpenAI zu äußern, sagte jedoch, es sei unmöglich, ein hochwertiges Modell zu versenden, ohne einen „großen Betrag“ in die Bewertung zu investieren, und diese Prozesse wurden automatisiert.

Microsoft startete im April außerdem einen „KI -Read -Teaming -Agenten“, der den Prozess des Stresstests von Computerprogrammen automatisiert, indem Angriffe gestartet wurden, um Schwachstellen zu identifizieren. «Sie geben nur das Risiko an, Sie geben die Angriffsschwierigkeit an … und dann greifen Sie Ihr System nicht an», sagte Bird.

Es gibt Bedenken, dass AI -Agenten ohne angemessene Überwachung nicht autorisierte Maßnahmen ergreifen könnten, die die Eigentümer für Verbindlichkeiten öffnen.

«Das Risiko besteht darin, dass Leader -Boards Entscheidungsträger in ein falsches Sicherheitsgefühl hinnehmen können», sagte Kozyrkov. «Sicherheitsmetriken sind ein Ausgangspunkt, kein grünes Licht.»

Exit mobile version