Eine zu schnelle Einführung von KI-Systemen ohne umfassende Tests könnte zu „Fehlern des Gesundheitspersonals“ führen: WHO

Als die künstliche Intelligenz Der Zug läuft weiter, ohne Anzeichen einer Verlangsamung – einige Studien haben sogar vorhergesagt, dass die KI bis 2030 um mehr als 37 % pro Jahr wachsen wird –, hat die Weltgesundheitsorganisation (WHO) eine Empfehlung herausgegeben, in der sie „sichere und ethische KI für“ fordert Gesundheit.”

Die Agentur empfahl Vorsicht bei der Verwendung „KI-generierter Tools für große Sprachmodelle (LLMs) zum Schutz und zur Förderung des menschlichen Wohlbefindens, der menschlichen Sicherheit und Autonomie sowie zur Erhaltung der öffentlichen Gesundheit.“

ChatGPTBard und Bert gehören derzeit zu den beliebtesten LLMs.

In einigen Fällen hat sich gezeigt, dass die Chatbots echten Ärzten hinsichtlich der Qualität ihrer Antworten auf medizinische Fragen Konkurrenz machen.

In einer Blindstudie wurde festgestellt, dass CHATGPT eine bessere medizinische Beratung bietet als echte Ärzte: „Das wird bahnbrechend sein“

Während die WHO anerkennt, dass „erhebliche Aufregung“ über das Potenzial besteht, diese Chatbots für gesundheitsbezogene Bedürfnisse zu nutzen, betont die Organisation die Notwendigkeit, die Risiken sorgfältig abzuwägen.

„Dazu gehört die weit verbreitete Einhaltung zentraler Werte wie Transparenz, Inklusion, öffentliches Engagement, fachkundige Aufsicht und strenge Bewertung.“

Die Weltgesundheitsorganisation (WHO) hat eine Empfehlung herausgegeben, in der sie „sichere und ethische KI für die Gesundheit“ fordert. (iStock)

Die Behörde warnte davor, dass eine zu schnelle Einführung von KI-Systemen ohne gründliche Tests zu „Fehlern des Gesundheitspersonals“ führen und „den Patienten Schaden zufügen könnte“.

Die WHO bringt konkrete Bedenken zum Ausdruck

In ihrer Empfehlung warnte die WHO, dass LLMs wie ChatGPT auf der Grundlage voreingenommener Daten geschult werden könnten, was möglicherweise „irreführende oder ungenaue Informationen generiert, die ein Risiko für gesundheitliche Chancengleichheit und Inklusivität darstellen könnten“.

„Vorsicht ist für die Patientensicherheit und Privatsphäre von größter Bedeutung.“

Es bestehe auch das Risiko, dass diese KI-Modelle falsche Antworten auf Gesundheitsfragen generieren könnten, während sie dennoch selbstbewusst und maßgeblich wirken, so die Agentur.

CHATGPT, ESSENPLANUNG UND LEBENSMITTELALLERGIEN: STUDIE MESSTE DIE SICHERHEIT DER „ROBO-DIÄT“, WÄHREND EXPERTEN WARNUNGEN AUSGEBEN

„LLMs können missbraucht werden, um äußerst überzeugende Desinformationen in Form von Text-, Audio- oder Videoinhalten zu generieren und zu verbreiten, die für die Öffentlichkeit schwer von zuverlässigen Gesundheitsinhalten zu unterscheiden sind“, erklärte die WHO.

Kranke Frau schreibt SMS

Es bestehe die Gefahr, dass KI-Modelle falsche Antworten auf Gesundheitsfragen generieren könnten – und dennoch selbstbewusst und maßgeblich wirken, so die Agentur. (iStock)

Eine weitere Sorge besteht darin, dass LLMs möglicherweise ohne die Zustimmung derjenigen, die sie ursprünglich bereitgestellt haben, anhand von Daten geschult werden – und dass sie möglicherweise nicht über den angemessenen Schutz für die sensiblen Daten verfügen, die Patienten eingeben, wenn sie Rat suchen.

„LLMs generieren Daten, die genau und definitiv erscheinen, aber möglicherweise völlig falsch sind.“

„Obwohl die WHO sich dafür einsetzt, neue Technologien, einschließlich KI und digitale Gesundheit, zur Verbesserung der menschlichen Gesundheit zu nutzen, empfiehlt sie den politischen Entscheidungsträgern, die Sicherheit und den Schutz der Patienten zu gewährleisten, während Technologieunternehmen an der Kommerzialisierung von LLMs arbeiten“, sagte die Organisation.

KI-Experte wägt Risiken und Nutzen ab

Manny Krakaris, CEO der Sitz in San Francisco Das Gesundheitstechnologieunternehmen Augmedix sagte, er unterstütze die Empfehlung der WHO.

„Dies ist ein sich schnell entwickelndes Thema und Vorsicht ist für die Patientensicherheit und den Datenschutz von größter Bedeutung“, sagte er Fox News Digital in einer E-Mail.

NEUES KI-TOOL HILFT ÄRZTEN, DIE DOKUMENTATION ZU REINIGEN UND SICH AUF PATIENTEN ZU FOKUSIEREN

Augmedix nutzt LLMs zusammen mit anderen Technologien, um medizinische Dokumentations- und Datenlösungen zu erstellen.

„Wenn LLMs mit geeigneten Leitplanken und menschlicher Aufsicht zur Qualitätssicherung eingesetzt werden, können sie ein hohes Maß an Effizienz bringen“, sagte Krakaris. „Mit ihnen können beispielsweise Zusammenfassungen bereitgestellt und große Datenmengen schnell optimiert werden.“

Große Sprachmodelle

Die Agentur empfahl Vorsicht bei der Verwendung „KI-generierter Tools für große Sprachmodelle (LLMs) zum Schutz und zur Förderung des menschlichen Wohlbefindens, der menschlichen Sicherheit und Autonomie sowie zur Erhaltung der öffentlichen Gesundheit.“ (iStock)

Er hat hervorgehoben einige potenzielle RisikenJedoch.

„Während LLMs als unterstützendes Instrument eingesetzt werden können, können sich Ärzte und Patienten nicht auf LLMs als eigenständige Lösung verlassen“, sagte Krakaris.

„LLMs generieren Daten, die genau und endgültig erscheinen, aber möglicherweise völlig falsch sind, wie die WHO in ihrer Empfehlung feststellte“, fuhr er fort. „Das kann insbesondere im Gesundheitswesen katastrophale Folgen haben.“

KLICKEN SIE HIER, UM UNSEREN GESUNDHEITS-NEWSLETTER ZU ANMELDEN

Bei der Erstellung seiner Ambient-Medizindokumentationsdienste kombiniert Augmedix LLMs mit automatischer Spracherkennung (ASR), Verarbeitung natürlicher Sprache (NLP) und strukturierten Datenmodellen, um sicherzustellen, dass die Ausgabe korrekt und relevant ist, sagte Krakaris.

KI ist „vielversprechend“, erfordert aber Vorsicht und Tests

Krakaris sagte, er sehe viel Potenzial für den Einsatz von KI im Gesundheitswesensolange diese Technologien mit Vorsicht eingesetzt, ordnungsgemäß getestet und unter menschlicher Beteiligung geleitet werden.

KLICKEN SIE HIER, UM DIE FOX NEWS-APP ZU ERHALTEN

„KI wird den Menschen nie vollständig ersetzen, aber wenn sie mit den richtigen Parametern eingesetzt wird, um sicherzustellen, dass die Qualität der Pflege nicht beeinträchtigt wird, kann sie zu Effizienzsteigerungen führen und letztendlich einige der größten Probleme lösen, die die Gesundheitsbranche heute plagen, darunter Ärztemangel und Burnout.“ ,” er sagte.

source site

Leave a Reply