Schalte die Digest des Herausgebers kostenlos frei
Roula Khalaf, Herausgeber der FT, wählt ihre Lieblingsgeschichten in diesem wöchentlichen Newsletter aus.
Ende letzten Jahres hat Kalifornien fast ein Gesetz verabschiedet, das die Hersteller großer künstlicher Intelligenzmodelle zwingen würde, über das Potenzial zu kommen, um große Schäden zu verursachen. Es scheiterte. Jetzt versucht New York ein eigenes Gesetz. Solche Vorschläge haben Falten und riskieren, das Innovationstempo zu verlangsamen. Aber sie sind immer noch besser, als nichts zu tun.
Die Risiken der KI sind seit Kaliforniens Fummel im vergangenen September zugenommen. Der chinesische Entwickler Deepseek hat gezeigt, dass leistungsstarke Modelle auf einem Schuhlauf gemacht werden können. Motoren, die zu komplexen „Argumentation“ fähig sind, ersetzen diejenigen, die einfach schnelle Antworten ausspucken. Und vielleicht die größte Verschiebung: KI -Entwickler bauen wütend „Agenten“, die Aufgaben ausführen und mit anderen Systemen mit minimaler menschlicher Aufsicht in Kontakt treten sollen.
Wie erstelle ich Regeln für etwas, das so schnell bewegt wird? Selbst zu entscheiden, was zu regulieren ist, ist eine Herausforderung. Die Anwaltskanzlei BCLP hat Hunderte von Rechnungen über alles von der Privatsphäre bis hin zu zufälliger Diskriminierung verfolgt. Die Gesetzesvorlage von New York konzentriert sich auf die Sicherheit: Große Entwickler müssten Pläne erstellen, um das Risiko zu verringern, dass ihre Modelle Massenopfer oder große finanzielle Verluste produzieren, Modelle zurückhalten, die „unangemessenes Risiko“ darstellen, und die staatlichen Behörden innerhalb von drei Tagen nach dem Auftreten eines Vorfalls benachrichtigen.
Selbst mit den besten Absichten können Gesetze, die neue Technologien regeln, wie Milch altern. Aber wenn sich KI skaliert, tun es auch die Bedenken. Ein Bericht, der am Dienstag von einer Bande kalifornischer AI -Leuchten veröffentlicht wurde, beschreibt einige: Zum Beispiel übertrifft OpenAs O3 -Modell 94 Prozent der Expertenvirologen. Der Beweis dafür, dass ein Modell die Produktion von chemischen oder Atomwaffen erleichtern könnte, fügt es in Echtzeit heraus.
Die Verbreitung gefährlicher Informationen an schlechte Schauspieler ist nur eine Gefahr. Die Einhaltung von Modellen an die Ziele der Benutzer ist ebenfalls die Bedenken. Der kalifornische Bericht stellt bereits fest, dass die Modelle im Labor, aber nicht in freier Wildbahn, nachweisen, dass die Modelle nachweisen. Sogar der Papst befürchtet, dass KI eine Bedrohung für „menschliche Würde, Gerechtigkeit und Arbeit“ darstellen könnte.
Viele AI -Booster sind sich natürlich nicht einig. Das Risikokapitalunternehmen Andreessen Horowitz, ein Unterstützer von OpenAI, argumentiert, dass Regeln auf Benutzer und keine Modelle abzielen sollten. Das fehlt Logik in einer Welt, in der Agenten so konzipiert sind, dass sie mit minimalen Benutzereingaben handeln.
Das Silicon Valley erscheint auch nicht bereit, sich in der Mitte zu treffen. Andreessen hat das New Yorker Gesetz als „dumm“ bezeichnet. Eine Lobbygruppe, die das vorgeschlagene New Yorker Gesetz gründete, befreit einen Entwickler von 50 Mrd. USD oder weniger KI-spezifische Einnahmen, hat Lex erfahren. Das würde Openai, Meta und Google ersparen – mit anderen Worten, alle von Substanz.

Big Tech sollte diese Haltung überdenken. Auch Leitplanken kommen den Anlegern zugute, und es besteht eine geringe Wahrscheinlichkeit einer sinnvollen Regelsierung des Bundes. Wie Lehman Brothers oder AIGs ehemalige Aktionäre bestätigen können, macht es keinen Spaß, ein Unternehmen zu unterstützen, das systemisches Unglück bringt.
Der Weg vor uns beinhaltet viel Pferdehandeln; Der Gouverneur von New York, Kathy Hochul, hat bis Ende 2025 Änderungsanträge für die Gesetzesvorlage des Staates beantragt. Einige Republikaner im Kongress haben vorgeschlagen, die AI insgesamt zu blockieren. Und mit jeder Woche, die vergeht, enthüllt KI neue Kräfte. Die regulatorische Landschaft ist ein Chaos, aber es wird eine weitaus größere und schwierigere Aufräumarbeiten schaffen.