Große Versicherer versuchen, Risiken der künstlichen Intelligenz aus ihren Unternehmenspolicen auszuschließen, da Unternehmen mit Ansprüchen in Höhe von mehreren Milliarden Dollar konfrontiert sind, die aus der sich schnell entwickelnden Technologie entstehen könnten.
AIG, Great American und WR Berkley gehören zu den Gruppen, die kürzlich die Erlaubnis der US-Aufsichtsbehörden beantragt haben, Policen anzubieten, die Haftungen ausschließen, die an Unternehmen gebunden sind, die KI-Tools wie Chatbots und Agenten einsetzen.
Die Zurückhaltung der Versicherungsbranche bei der Bereitstellung eines umfassenden Versicherungsschutzes ist darauf zurückzuführen, dass die Unternehmen sich beeilt haben, die Spitzentechnologie einzuführen. Dies hat bereits zu peinlichen und kostspieligen Fehlern geführt, wenn Models „halluzinieren“ oder Dinge erfinden.
Ein von WR Berkley vorgeschlagener Ausschluss würde Ansprüche im Zusammenhang mit „jeglicher tatsächlicher oder angeblicher Nutzung“ von KI ausschließen, einschließlich aller Produkte oder Dienstleistungen, die von einem Unternehmen verkauft werden, das die Technologie „einbezieht“.
Als Antwort auf eine Anfrage der Versicherungsaufsichtsbehörde von Illinois zu den Ausschlüssen sagte AIG in einer Einreichung, dass generative KI eine „weitreichende Technologie“ sei und die Möglichkeit von Ereignissen, die zu künftigen Ansprüchen führen würden, „mit der Zeit wahrscheinlich zunehmen werde“.
AIG teilte der Financial Times mit, dass es zwar Ausschlüsse für generative KI eingereicht habe, aber „derzeit keine Pläne habe, diese umzusetzen“. Die Genehmigung der Ausschlüsse würde dem Unternehmen die Möglichkeit geben, diese später umzusetzen.
WR Berkley und Great American lehnten eine Stellungnahme ab.
Versicherer betrachten die Ergebnisse von KI-Modellen zunehmend als zu unvorhersehbar und undurchsichtig, um sie zu versichern, sagte Dennis Bertram, Leiter der Cyberversicherung für Europa bei Mosaik. „Es ist zu sehr eine Blackbox.“
Sogar Mosaic, ein Spezialversicherer auf dem Lloyd’s of London-Marktplatz, der Schutz für einige KI-gestützte Software bietet, hat es abgelehnt, Risiken aus großen Sprachmodellen wie ChatGPT zu zeichnen.
„Niemand weiß, wer haftet, wenn etwas schief geht“, sagte Rajiv Dattani, Mitbegründer der Artificial Intelligence Underwriting Company, einem Start-up für KI-Versicherungen und Wirtschaftsprüfung.
Diese Schritte erfolgen vor dem Hintergrund einer wachsenden Zahl auffälliger KI-bedingter Fehler. Wolf River Electric, ein Solarunternehmen, verklagte Google wegen Verleumdung und forderte Schadensersatz in Höhe von mindestens 110 Millionen US-Dollar, nachdem behauptet wurde, dass in der Funktion „KI-Übersicht“ fälschlicherweise angegeben wurde, dass das Unternehmen vom Generalstaatsanwalt von Minnesota verklagt werde.
Unterdessen ordnete ein Gericht letztes Jahr an, dass Air Canada einen Rabatt anerkennen muss, den ihr Kundenservice-Chatbot ausgehandelt hatte.
Im vergangenen Jahr verlor der britische Maschinenbaukonzern Arup 200 Mio. Hongkong-Dollar (25 Mio. US-Dollar), nachdem Betrüger eine digital geklonte Version eines leitenden Managers nutzten, um während einer Videokonferenz Finanztransfers anzuordnen.
Kevin Kalinich, Cyber-Chef bei Aon, sagte, die Versicherungsbranche könne es sich leisten, einen Verlust von 400 bis 500 Millionen US-Dollar an ein Unternehmen zu zahlen, das künstliche Intelligenz eingesetzt habe, die falsche Preise oder medizinische Diagnosen geliefert habe.
„Was sie sich nicht leisten können, ist, wenn ein KI-Anbieter einen Fehler macht, der zu 1.000 oder 10.000 Verlusten führt – ein systemisches, korreliertes, aggregiertes Risiko“, fügte er hinzu.
KI-Halluzinationen fallen in der Regel nicht in den Standard-Cyberschutz, der durch Sicherheits- oder Datenschutzverletzungen ausgelöst wird. Sogenannte technische „Fehler und Auslassungen“-Richtlinien decken KI-Fehler eher ab, aber neue Ausgliederungen könnten den Umfang der angebotenen Deckung einschränken.
Ericson Chan, Chief Information Officer von Zurich Insurance, sagte, wenn Versicherer andere technologiebedingte Fehler bewerteten, könnten sie „die Verantwortung leicht identifizieren“. Im Gegensatz dazu betrifft das KI-Risiko möglicherweise viele verschiedene Parteien, darunter Entwickler, Modellbauer und Endbenutzer. Infolgedessen könnten die potenziellen Marktauswirkungen KI-gesteuerter Risiken „exponentiell sein“, sagte er.
Einige Versicherer haben versucht, die Rechtsunsicherheit durch sogenannte „Vermerke“ – eine Änderung einer Police – von KI-bezogenen Risiken zu klären. Makler warnen jedoch davor, dass diese einer genauen Prüfung bedürfen, da dies in bestimmten Fällen zu einer geringeren Deckung geführt habe.
Durch eine Empfehlung des Versicherers QBE wurde ein Teil der Deckung für Bußgelder und andere Strafen im Rahmen des EU-KI-Gesetzes ausgeweitet, das als weltweit strengste Regelung zur Regulierung der Entwicklung der Technologie gilt.
Nach Angaben eines großen Maklers begrenzte die Billigung, die inzwischen auch andere Versicherer übernommen haben, die Auszahlung von Bußgeldern, die sich aus dem Einsatz von KI ergeben, auf 2,5 Prozent der gesamten Versicherungssumme.
QBE teilte der Financial Times mit, dass es „die potenzielle Lücke (im KI-bezogenen Risiko) schließt, die möglicherweise nicht durch andere Versicherungspolicen abgedeckt wird“.
In den Maklerverhandlungen stimmte das in Zürich ansässige Unternehmen Chubb Bedingungen zu, die einige KI-Risiken abdecken würden, schloss jedoch „weit verbreitete“ KI-Vorfälle aus, etwa ein Problem mit einem Modell, das viele Kunden gleichzeitig betreffen würde. Chubb lehnte eine Stellungnahme ab.
In der Zwischenzeit haben andere Add-ons eingeführt, die eng definierte KI-Risiken abdecken – zum Beispiel einen Chatbot, der durcheinander gerät.
Versicherungsmakler und Anwälte sagten, sie befürchteten, dass Versicherer anfangen würden, Ansprüche vor Gericht zu bekämpfen, wenn die durch KI verursachten Schäden deutlich zunehmen.
Aaron Le Marquer, Leiter des Teams für Versicherungsstreitigkeiten bei der Anwaltskanzlei Stewarts, sagte: „Es wird wahrscheinlich ein großes systemisches Ereignis erfordern, bis die Versicherer sagen: Moment, wir hatten nie vor, diese Art von Ereignis abzudecken.“

