Mediziner nutzen KI zur Beurteilung von Betäubungsmittelverordnungen: Bericht

Einem Bericht zufolge greifen Gesundheitsbehörden und Strafverfolgungsbehörden bei ihren Bemühungen zur Bekämpfung der weit verbreiteten Opioidabhängigkeit auf künstliche Intelligenz (KI).

Datengesteuerte Überwachungssysteme wie NarxCare bieten numerische Bewertungen der Medikationshistorie von Patienten, die Ärzten eine rudimentäre Vorstellung von ihren Risiken geben. Laut einem Bericht von MarketPlace sind sich Fachleute jedoch uneinig über ihre Wirksamkeit.

„Wir müssen sehen, was vor sich geht, um sicherzustellen, dass wir nicht mehr schaden als nützen“, sagte der Gesundheitsökonom Jason Gibbons der Verkaufsstelle.

FRAGEN SIE EINEN DOC: 25 BRENNENDE FRAGEN ZU KI UND GESUNDHEITSVERSORGUNG, BEANTWORTET VON EINEM EXPERTEN

Gezeigt wird eine Anordnung von Pillen des Opioids Oxycodon-Paracetamol, auch bekannt als Percocet. Technologiefirmen haben damit begonnen, Suchtwarnsysteme anzubieten, die mit künstlicher Intelligenz betrieben werden. (Assoziierte Presse)

Er fügte hinzu: „Wir befürchten, dass es nicht wie beabsichtigt funktioniert und den Patienten schadet.“

Algorithmische Bewertungen einzelner Patienten werden von KI-Modellen erstellt, um Fachkräften dabei zu helfen, ihr Suchtrisiko zu ermitteln.

Die Bewertungen basieren auf mehreren Datenpunkten, darunter der Anzahl der Verschreibungen, Dosierungsinformationen und den Ärzten, die dem Patienten zuvor verschrieben haben. Die Bewertungen sollen nicht die endgültige Entscheidung über die Patientenversorgung treffen, und Technologiefirmen fordern Ärzte dringend auf, neben der Technologie auch ihr eigenes Urteilsvermögen zu nutzen.

CHATGPT, ESSENPLANUNG UND LEBENSMITTELALLERGIEN: STUDIE MESSTE DIE SICHERHEIT DER „ROBO-DIÄT“, WÄHREND EXPERTEN WARNUNGEN AUSGEBEN

Während der Zug der künstlichen Intelligenz ohne Anzeichen einer Verlangsamung weiter voranschreitet – einige Studien haben sogar vorhergesagt, dass die KI bis 2030 um mehr als 37 % pro Jahr wachsen wird – hat die Weltgesundheitsorganisation (WHO) eine Empfehlung herausgegeben, in der sie „sicher“ fordert und ethische KI für die Gesundheit.“

Schweizer Hauptsitz der Weltgesundheitsorganisation

Das Logo der Weltgesundheitsorganisation ist in der Nähe ihres Hauptsitzes in Genf zu sehen. (REUTERS/Denis Balibouse/File Photo)

Die Agentur empfahl Vorsicht bei der Verwendung „KI-generierter Tools für große Sprachmodelle (LLMs) zum Schutz und zur Förderung des menschlichen Wohlbefindens, der menschlichen Sicherheit und Autonomie sowie zur Erhaltung der öffentlichen Gesundheit.“

Während die WHO „erhebliche Begeisterung“ über das Potenzial anerkennt, diese Chatbots und Algorithmen für gesundheitsbezogene Bedürfnisse einzusetzen, unterstreicht die Organisation die Notwendigkeit, die Risiken sorgfältig abzuwägen.

KLICKEN SIE HIER, UM DIE FOX NEWS-APP ZU ERHALTEN

„Dazu gehört die weit verbreitete Einhaltung der Schlüsselwerte Transparenz, Inklusion, öffentliches Engagement, fachkundige Aufsicht und strenge Bewertung“, hieß es.

Melissa Rudy von Fox News Digital hat zu diesem Bericht beigetragen.

source site

Leave a Reply