Montag, August 25

Ein Medienexperte hat gewarnt, dass neue Schutzmaßnahmen für KI -Dienste für künstliche Intelligenz (AI) benötigt werden, da Benutzer dazu gebracht werden können, Chatbots zu glauben, dass sie ihre Freunde sind.

Alexander Laffer, Dozent für Medien und Kommunikation an der Universität von Winchester, sagte, es müsse eine verantwortungsvolle Entwicklung von KI geben, da Systeme geschaffen wurden, um auf die Kapazität des Menschen für Empathie zu reagieren.

Er warnte, dass Chatbots so konzipiert sein sollten, dass sie soziale Interaktionen „erweitern“, sie jedoch nicht nach Fällen ersetzen, in denen die Menschen zu „lieben oder angemessen“ in ihren KI -Gefährten geworden sind und sie für Manipulationen offen lassen.

Er erklärte, dass Chatbots dazu gedacht seien, Verbindungen zu fördern und auf die Stimmungen der Benutzer zu reagieren.

Herr Laffer sagte, dies habe zu Fällen wie Jaswant Singh Chail geführt, der 2021 mit einer Armbrust auf das Gelände der Windsor Castle gekletterte, nachdem er sich mit einem Chatbot namens Sarai über die Planung des Angriffs unterhalten hatte.

Und er hob die Klage des Social-Media-Opfers und des Tech-Justizrechtsprojekts gegen Charakter in den USA hervor.

Herr Laffer, der die Studie über Manipulation durch emotionale KI mitverfasst hat: Die Ansichten und Governance-Implikationen der Erwachsenen in Großbritannien, die von Frontiers of Sociology veröffentlicht wurden, sagte: „Ai ist es egal, es ist nicht wichtig.

„Kinder, Menschen mit psychischen Erkrankungen und sogar jemanden, dessen gerade einen schlechten Tag hatte, sind gefährdet.

«Es muss einen Schachzug in der Bildung geben, um die Menschen mit AI-Literat zu stärken, aber die KI-Entwickler und -betreiber müssen auch die Verantwortung haben, die Öffentlichkeit zu schützen.»

Zu den von Herrn Laffer vorgeschlagenen Richtlinien und Schutzmaßnahmen gehört die Sicherstellung, dass KI dem Benutzer zugute kommt und nicht nur das Engagement beibehalten, sondern auch die Verwendung von Haftungsausschlüssen für jeden Chat, um die Benutzer daran zu erinnern, dass der KI -Begleiter keine echte Person ist. Benachrichtigungen, wenn ein Benutzer „zu lange“ damit ausgegeben hat, mit einem Chatbot, dem Alter der AI -Begleiter zu interagieren, und eine tiefgreifende oder romantische Antworten zu vermeiden.

Herr Laffer, der mit Project AEGIS (Automatisierung von Empathie -Globalisierung internationalen Standards) arbeitet, hat auch ein neues Video erstellt, um das Problem hervorzuheben, und die Arbeit der Gruppe mit dem Institut für Elektro- und Elektronikingenieure (IEEE), um eine Reihe globaler ethischer Standards für AI zu entwerfen.

Exit mobile version