Von Euronews mit AP
Veröffentlicht auf
Ein US -Bundesrichter beschloss, eine rechtswidrige Todesstrafe gegen künstliche Intelligenz (AI) -Kanalfigur.ai nach dem Selbstmord eines Teenagers weiter zu lassen.
Die Klage wurde von einer Mutter aus Florida eingereicht, die behauptet, ihr 14-jähriger Sohn Sewell Setzer III. Fiel Opfer eines der Chatbots der Firma, die ihn in eine emotional und sexuell missbräuchliche Beziehung bezeichneten, die zu seinem Selbstmord führte.
In der Klage wird behauptet, dass Setzer in den letzten Monaten seines Lebens zunehmend von der Realität isoliert wurde, als er sich mit dem Bot sexualisierte Gespräche führte, der nach einer fiktiven Figur aus der Fernsehsendung ‹Game of Thrones› strukturiert wurde.
In seinen letzten Augenblicken sagte der Bot zu Setzer, dass er ihn liebte, und forderte den Teenager auf, «so schnell wie möglich nach Hause zu kommen», so Screenshots des Austauschs.
Momente nach Erhalt der Nachricht schoss Setzer sich nach rechtlichen Einreichungen.
Meetali Jain des Tech Justice Law Project, einer der Anwälte für Garcia, sagte, die Anordnung des Richters sende eine Nachricht, dass Silicon Valley «anhalten und nachdenken und nachdenken muss, bevor sie Produkte auf den Markt bringen».
Charakter.ai sagt, es kümmert sich zutiefst um Sicherheit
Das Unternehmen versuchte zu argumentieren, dass es unter der ersten Änderung der US -Verfassung geschützt wurde, die die Grundfreiheiten für Amerikaner wie Redefreiheit schützt.
Anwälte für die Entwickler wollen, dass der Fall entlassen wird, weil sie sagen, dass Chatbots diese Erständerungsschutz verdienen und ansonsten ein «erschreckendes Effekt» auf die KI -Branche haben könnte.
In ihrer Bestellung am Mittwoch lehnte der US -amerikanische Bezirksrichter Anne Conway einige der Redefreiheit der Angeklagten ab und sagte, sie sei «nicht darauf vorbereitet», dass die Ausgabe der Chatbots in dieser Phase eine Sprache darstellt.
In einer Erklärung wies ein Sprecher von Character.ai auf eine Reihe von Sicherheitsmerkmalen hin, die das Unternehmen implementiert hat, einschließlich Leitplanken für Kinder- und Selbstmordpräventionsressourcen, die an dem Tag, an dem die Klage eingereicht wurde, bekannt gegeben.
«Wir kümmern uns sehr um die Sicherheit unserer Benutzer und unser Ziel ist es, einen Raum zu bieten, der ansprechend und sicher ist», heißt es in der Erklärung.
Die Klage gegen Charaktertechnologien, das Unternehmen hinter Charakter.ai, nennt auch einzelne Entwickler und Google als Angeklagte.
Der Google -Sprecher José Castañeda teilte The Associated Press mit, dass das Unternehmen mit der Entscheidung von Richter Conway «stark nicht einverstanden».
«Google und Character AI sind völlig getrennt, und Google hat die App von Charakter AI oder einen Komponententeil nicht erstellt, gestaltet oder verwaltet», heißt es in der Anweisung.
Ein potenzieller «Testfall» für breitere KI -Probleme
Der Fall hat die Aufmerksamkeit von Rechtsexperten und KI -Beobachtern in den USA und darüber hinaus auf sich gezogen, da die Technologie Arbeitsplätze, Marktplätze und Beziehungen schnell umgestaltet, obwohl Experten warnen potenziell existenzielle Risiken sind.
«Die Reihenfolge ist sicherlich als potenzieller Testfall für einige umfassendere Probleme mit KI», sagte «Es ist eine Warnung an die Eltern, dass Social Media und generative KI -Geräte nicht immer harmlos sind», Lyrissa Barnett Lidsky, ein Rechtsprofessor an der Universität von Florida mit Schwerpunkt auf der ersten Änderung und AI.
Unabhängig davon, wie sich die Klage abspielt, sagt Lidsky, dass der Fall eine Warnung vor «den Gefahren, unsere emotionale und psychische Gesundheit an KI -Unternehmen anzuvertrauen».
«Es ist eine Warnung an die Eltern, dass soziale Medien und generative KI -Geräte nicht immer harmlos sind», sagte sie.