Einem Bericht zufolge greifen Gesundheitsbehörden und Strafverfolgungsbehörden bei ihren Bemühungen zur Bekämpfung der weit verbreiteten Opioidabhängigkeit auf künstliche Intelligenz (KI).
Datengesteuerte Überwachungssysteme wie NarxCare bieten numerische Bewertungen der Medikationshistorie von Patienten, die Ärzten eine rudimentäre Vorstellung von ihren Risiken geben. Laut einem Bericht von MarketPlace sind sich Fachleute jedoch uneinig über ihre Wirksamkeit.
„Wir müssen sehen, was vor sich geht, um sicherzustellen, dass wir nicht mehr schaden als nützen“, sagte der Gesundheitsökonom Jason Gibbons der Verkaufsstelle.
FRAGEN SIE EINEN DOC: 25 BRENNENDE FRAGEN ZU KI UND GESUNDHEITSVERSORGUNG, BEANTWORTET VON EINEM EXPERTEN
Er fügte hinzu: „Wir befürchten, dass es nicht wie beabsichtigt funktioniert und den Patienten schadet.“
Algorithmische Bewertungen einzelner Patienten werden von KI-Modellen erstellt, um Fachkräften dabei zu helfen, ihr Suchtrisiko zu ermitteln.
Die Bewertungen basieren auf mehreren Datenpunkten, darunter der Anzahl der Verschreibungen, Dosierungsinformationen und den Ärzten, die dem Patienten zuvor verschrieben haben. Die Bewertungen sollen nicht die endgültige Entscheidung über die Patientenversorgung treffen, und Technologiefirmen fordern Ärzte dringend auf, neben der Technologie auch ihr eigenes Urteilsvermögen zu nutzen.
CHATGPT, ESSENPLANUNG UND LEBENSMITTELALLERGIEN: STUDIE MESSTE DIE SICHERHEIT DER „ROBO-DIÄT“, WÄHREND EXPERTEN WARNUNGEN AUSGEBEN
Während der Zug der künstlichen Intelligenz ohne Anzeichen einer Verlangsamung weiter voranschreitet – einige Studien haben sogar vorhergesagt, dass die KI bis 2030 um mehr als 37 % pro Jahr wachsen wird – hat die Weltgesundheitsorganisation (WHO) eine Empfehlung herausgegeben, in der sie „sicher“ fordert und ethische KI für die Gesundheit.“
Die Agentur empfahl Vorsicht bei der Verwendung „KI-generierter Tools für große Sprachmodelle (LLMs) zum Schutz und zur Förderung des menschlichen Wohlbefindens, der menschlichen Sicherheit und Autonomie sowie zur Erhaltung der öffentlichen Gesundheit.“
Während die WHO „erhebliche Begeisterung“ über das Potenzial anerkennt, diese Chatbots und Algorithmen für gesundheitsbezogene Bedürfnisse einzusetzen, unterstreicht die Organisation die Notwendigkeit, die Risiken sorgfältig abzuwägen.
KLICKEN SIE HIER, UM DIE FOX NEWS-APP ZU ERHALTEN
„Dazu gehört die weit verbreitete Einhaltung der Schlüsselwerte Transparenz, Inklusion, öffentliches Engagement, fachkundige Aufsicht und strenge Bewertung“, hieß es.
Melissa Rudy von Fox News Digital hat zu diesem Bericht beigetragen.