Bleiben Sie mit kostenlosen Updates informiert

Einer meiner Verwandten hörte einige seltsame Geschichten, als er während der Covid -Pandemie an einer Healthcare -Helpline arbeitete. Ihre Aufgabe war es, den Anrufern zu helfen, die schnellen lateralen Flusstests zu absolvieren, die während der Lockdown millionenfach verwendet wurden. Einige Anrufer waren jedoch eindeutig durch das Verfahren verwirrt. «Also habe ich die Flüssigkeit im Röhrchen getrunken. Was mache ich jetzt?» fragte eins.

Diese Benutzerverwirrung kann ein extremes Beispiel für ein gemeinsames technologisches Problem sein: Wie gewöhnliche Personen ein Produkt oder eine Dienstleistung in der realen Welt verwenden, kann sich wild von den Absichten der Designer im Labor unterscheiden.

Manchmal kann dieser Missbrauch absichtlich sein, zum Guten oder Schlechten. Zum Beispiel hat die Reporter der Kampagnenorganisation ohne Grenzen versucht, die Redefreiheit in mehreren autoritären Ländern zu schützen, indem er verbotene Inhalte auf der versteckt hat Minecraft Videospielserver. Kriminelle haben inzwischen Home 3D -Drucker verwendet, um nicht nachweisbare Waffen herzustellen. Häufiger ist der Missbrauch jedoch unbeabsichtigt, wie bei den Covid -Tests. Nennen Sie es das unbeabsichtigte Missbrauchsproblem oder kurz „Imp“. Die neuen Gremlins in den Maschinen könnten durchaus die Imps in den Chatbots sein.

Nehmen Sie die Allzweck-Chatbots wie Chatgpt, die mindestens einmal im Monat von 17 Prozent der Amerikaner verwendet werden, um gesundheitliche Bedenken zu selbstdiagnostizieren. Diese Chatbots haben erstaunliche technologische Fähigkeiten, die vor ein paar Jahren wie Magie gewesen wären. In Bezug auf klinische Kenntnisse, Triage, Textübersicht und Reaktionen auf Patientenfragen können die besten Modelle laut verschiedenen Tests jetzt mit menschlichen Ärzten übereinstimmen. Vor zwei Jahren zum Beispiel verwendete eine Mutter in Großbritannien Chatgpt erfolgreich, um das gebundene Cord -Syndrom (im Zusammenhang mit Spina Bifida) in ihrem Sohn zu identifizieren, das von 17 Ärzten übersehen worden war.

Dies erhöht die Aussicht, dass diese Chatbots eines Tages zur neuen „Haustür“ der Gesundheitsversorgung werden könnten und den Zugang zu geringeren Kosten verbessern. In dieser Woche versprach Wes Streeting, der britische Gesundheitsminister, die NHS -App mit künstlichen Intelligenz zu verbessern, um einen „Arzt in der Tasche zu liefern, um Sie durch Ihre Pflege zu führen“. Aber die Art und Weise, wie sie am besten verwendet werden können, sind nicht die gleichen wie sie am häufigsten verwendet werden. Eine kürzlich vom Oxford Internet Institute geleitete Studie hat einige beunruhigende Mängel hervorgehoben, wobei die Benutzer Schwierigkeiten haben, sie effektiv zu nutzen.

Die Forscher nahmen 1.298 Teilnehmer in eine randomisierte, kontrollierte Studie ein, um zu testen, wie gut sie Chatbots verwenden konnten, um auf 10 medizinische Szenarien zu reagieren, darunter akute Kopfschmerzen, Knochenbrüche und Lungenentzündung. Die Teilnehmer wurden gebeten, den Gesundheitszustand zu identifizieren und eine empfohlene Vorgehensweise zu finden. Drei Chatbots wurden verwendet: OpenAIs GPT-4O, METAs Lama 3 und Coheres Befehl r+, die alle leicht unterschiedliche Eigenschaften haben.

Wenn die Testszenarien direkt in die KI -Modelle eingegeben wurden, identifizierten die Chatbots die Bedingungen in 94,9 Prozent der Fälle korrekt. Die Teilnehmer haben sich jedoch weitaus schlimmer: Sie lieferten unvollständige Informationen und die Chatbots haben ihre Aufforderungen häufig falsch interpretiert, was dazu führte, dass die Erfolgsrate auf nur 34,5 Prozent sank. Die technologischen Fähigkeiten dieser Modelle änderten sich nicht, sondern die menschlichen Eingaben, was zu sehr unterschiedlichen Ausgaben führte. Was noch schlimmer ist, die Testteilnehmer wurden auch von einer Kontrollgruppe übertroffen, die keinen Zugriff auf Chatbots hatte, sondern stattdessen regelmäßige Suchmaschinen konsultierte.

Die Ergebnisse solcher Studien bedeuten nicht, dass wir aufhören sollten, Chatbots für Gesundheitsberatung zu verwenden. Es deutet jedoch darauf hin, dass Designer viel mehr darauf achten sollten, wie gewöhnliche Personen ihre Dienste nutzen könnten. „Ingenieure neigen dazu zu glauben, dass Menschen die Technologie falsch einsetzen. Jede Benutzerfehler ist daher die Schuld des Benutzers. Die Nachdenken über die technologischen Fähigkeiten eines Benutzers ist jedoch für die Gestaltung von grundlegender Bedeutung“, sagt mir ein Firmengründer der KI. Dies gilt insbesondere für Benutzer, die medizinischen Rat suchen, von denen viele verzweifelt, kranke oder ältere Menschen sind, die Anzeichen einer geistigen Verschlechterung zeigen.

Weitere Spezialist für Chatbots im Gesundheitswesen können helfen. Eine kürzlich in der Stanford University Studie stehende Studie der Stanford -Universität ergab jedoch, dass einige weit verbreitete Therapie -Chatbots, die bei der Bewältigung der psychischen Gesundheitsprobleme beitragen, „auch Verzerrungen und Misserfolge einführen können, die zu gefährlichen Folgen führen können“. Die Forscher schlagen vor, dass mehr Leitplanken aufgenommen werden sollten, um die Benutzeranzeigen zu verfeinern, Informationen proaktiv anzufordern, um die Interaktion zu leiten und klarer zu kommunizieren.

Tech-Unternehmen und Gesundheitsdienstleister sollten auch unter realen Bedingungen weitaus mehr Benutzertests durchführen, um sicherzustellen, dass ihre Modelle angemessen verwendet werden. Die Entwicklung mächtiger Technologien ist eine Sache; Das Erlernen der effektiven Bereitstellung zu lernen ist ein anderer. Passen Sie auf die IMPS auf.

John.thornhill@ft.com

Exit mobile version