Künstliche Intelligenz ist laut Studien nicht immer hilfreich, um das Burnout bei Ärzten zu reduzieren

Neue Forschungsergebnisse deuten darauf hin, dass der Einsatz generativer KI möglicherweise nicht dazu beiträgt, Burnout im Gesundheitswesen zu reduzieren.

Frühere Untersuchungen haben gezeigt, dass der erhöhte Zeitaufwand für die Nutzung elektronischer Patientenakten (EHR) und die Abwicklung administrativer Aufgaben eine Belastung für Ärzte darstellt.

Einige Leute hatten künstliche Intelligenz als mögliche Lösung angepriesen – doch aktuelle Untersuchungen von US-Gesundheitssystemen ergaben, dass große Sprachmodelle (LLMs) die täglichen Aufgaben von Ärzten nicht vereinfachen.

WAS IST KÜNSTLICHE INTELLIGENZ (KI)?

Beispielsweise untersuchte eine Beobachtungsstudie aus dem Jahr 2023 am Brigham and Women’s Hospital in Boston, Massachusetts, die Auswirkungen des Einsatzes von KI für elektronische Patientennachrichten.

Die Forscher veranlassten ein großes Sprachmodell, auf simulierte Fragen von Krebspatienten zu antworten – und verglichen dann seine Ergebnisse mit den Antworten von sechs staatlich geprüften Radioonkologen.

Anschließend bearbeiteten Mediziner die von der KI generierten Antworten in „klinisch akzeptable“ Antworten, die sie an die Patienten verschickten.

Neue Studien deuten darauf hin, dass generative KI möglicherweise nicht gegen Burnout bei Ärzten hilft, wie bisher angenommen wurde. (iStock)

Die in The Lancet Digital Health veröffentlichte Studie ergab, dass die LLM-Entwürfe „bei 11 von 156 Umfrageantworten das Risiko schwerer Schäden und bei einer Umfrageantwort das Risiko des Todes“ darstellten.

„Die meisten schädlichen Reaktionen waren darauf zurückzuführen, dass die Schärfe des Szenarios und die empfohlenen Maßnahmen falsch bestimmt oder vermittelt wurden“, schreiben die Forscher.

ERSTE AUGMENTED-REALITY-BAUCHCHIRURGIE IN CHILE DURCHGEFÜHRT: „EINE REVOLUTION“

Die Forscher kamen zu dem Schluss, dass LLM-unterstützte Ergebnisse (die von Ärzten bearbeitet wurden) ein „Best-of-Both-Worlds-Szenario“ darstellten – eine Reduzierung der Arbeitsbelastung der Ärzte und gleichzeitig Sicherstellung, dass Patienten genaue Informationen erhalten.

„Diese frühen Erkenntnisse … weisen auf die Notwendigkeit hin, LLMs in ihrem beabsichtigten klinischen Kontext gründlich zu bewerten und dabei die genaue Aufgabe und den Grad der menschlichen Aufsicht widerzuspiegeln“, kam die Studie zu dem Schluss.

Ärztin gibt Patienteninformationen ein

Die Forscher kamen zu dem Schluss, dass die LLM-unterstützten Ergebnisse ein „Best-of-Both-Worlds-Szenario“ darstellen, das die Arbeitsbelastung der Ärzte verringert, gleichzeitig die Konsistenz der Antworten sicherstellt und die Aufklärung der Patienten verbessert. (iStock)

Medizinische Abrechnungscodes

Eine weitere Studie des New Yorker Mount Sinai Health System wertete aus vier verschiedene Arten großer Sprachmodelle für Leistung und Fehlermuster bei der Abfrage medizinischer Abrechnungscodes.

GOOGLE BARD-ÜBERGÄNGE ZU GEMINI: WAS SIE ÜBER DAS KI-UPGRADE WISSEN SOLLTEN

Die in der Fachzeitschrift NEJM AI veröffentlichte Studie ergab, dass alle getesteten LLMs bei der Abfrage medizinischer Codes schlecht abschnitten und „häufig Codes generierten, die ungenaue oder erfundene Informationen übermittelten“.

Die Studie kam zu dem Schluss, dass „LLMs ohne zusätzliche Forschung nicht für den Einsatz bei medizinischen Kodierungsaufgaben geeignet sind.“ Die Studie wurde von der AGA Research Foundation und den National Institutes of Health (NIH) finanziert.

Illustration eines High-Tech-Arzts

Eine Studie ergab, dass alle getesteten LLMs bei der Abfrage medizinischer Codes schlecht abschnitten – und dass das Problem weiterer Forschung bedarf. (iStock)

Die Forscher stellten fest, dass diese Modelle zwar „die Bedeutung vieler Codes annähern können“, aber auch „einen inakzeptablen Mangel an Präzision und eine hohe Neigung zur Fälschung von Codes aufweisen“.

„Dies hat erhebliche Auswirkungen auf die Abrechnung, die klinische Entscheidungsfindung, die Qualitätsverbesserung, die Forschung und die Gesundheitspolitik“, schreiben die Forscher.

Patientennachrichten und Zeit des Arztes

In einer dritten vom JAMA Network veröffentlichten Studie der University of California San Diego School of Medicine wurden KI-verfasste Antworten auf Patientennachrichten und die von Ärzten für deren Bearbeitung aufgewendete Zeit ausgewertet.

In einer Studie wurde festgestellt, dass CHATGPT Ungenauigkeiten bei der Beantwortung von Fragen zu Medikamenten verbreitet

Man ging davon aus, dass generative KI-Entwürfe den Zeitaufwand eines Arztes für diese Aufgaben verringern würden – doch die Ergebnisse zeigten das Gegenteil.

„Mit generativer KI erstellte Antworten waren mit einer deutlich längeren Lesezeit, keiner Änderung der Antwortzeit, einer deutlich längeren Antwortlänge usw. verbunden [only] einige wahrgenommene Vorteile“, ergab die Studie.

Die Forscher schlugen vor, dass „strenge empirische Tests“ erforderlich seien, um die Leistung der KI und die Erfahrungen der Patienten weiter zu bewerten.

gestresster Arzt, umgeben von Werkzeugen und Technologie

In der Studie der UC San Diego wurde festgestellt, dass generative KI zu „einer längeren Lesezeit, keiner Änderung der Antwortzeit“ führt [and] „deutlich erhöhte Antwortlänge“ in Patientennachrichten. (iStock)

Gedanken des Arztes zur KI

David Atashroo, MD, Chief Medical Officer von Qventus, einer KI-gestützten chirurgischen Managementlösung in Mountain View, Kalifornien, reagierte in einem Interview mit Fox News Digital auf die Forschungsergebnisse. (Er war nicht an der Forschung beteiligt.)

„Wir sehen ein immenses Potenzial für KI, risikoärmere, aber dennoch hochgradig automatisierbare Aufgaben zu übernehmen, die traditionell auf die wesentlichen, aber oft übersehenen ‚Klebstoffrollen‘ im Gesundheitswesen fallen – wie Planer, medizinische Assistenten, Fallmanager und Pflegenavigatoren.“ er sagte.

„Es ist entscheidend, realistische Erwartungen zu setzen [AI’s] Leistung.’

„Diese Fachkräfte sind entscheidend für die Aufrechterhaltung von Prozessen, die direkt mit klinischen Ergebnissen verknüpft sind, verbringen jedoch einen erheblichen Teil ihrer Zeit mit Verwaltungsaufgaben wie dem Parsen von Faxen, dem Zusammenfassen von Notizen und dem Sichern der erforderlichen Dokumentation.“

KLICKEN SIE HIER, UM UNSEREN GESUNDHEITS-NEWSLETTER ZU ANMELDEN

Durch die Automatisierung dieser Aufgaben schlug Atashroo vor, dass generative KI dazu beitragen könnte, die Effizienz und Effektivität der klinischen Versorgung zu verbessern.

„Wenn man über den Einsatz generativer KI nachdenkt, ist es entscheidend, realistische Erwartungen an ihre Leistung zu setzen“, sagte er.

„Der Maßstab kann nicht immer Perfektion sein, da selbst die Menschen, die diese Aufgaben derzeit ausführen, nicht unfehlbar sind.“

Menschen und Ärzte, die durch ein Krankenhaus laufen

„Der Standard kann nicht immer Perfektion sein, da selbst die Menschen, die diese Aufgaben derzeit ausführen, nicht unfehlbar sind“, sagte ein KI-Experte. (iStock)

In einigen Szenarien, so schlug er vor, könnte KI als „Sicherheitsnetz“ dienen, um etwaige Versäumnisse von Teammitgliedern aufzuspüren.

Manchmal bleiben Aufgaben unberücksichtigt, „einfach weil nicht genug Zeit ist, sie anzugehen“, bemerkte Atashroo.

„Generative KI kann dazu beitragen, Fälle konsistenter zu verwalten, als es unsere derzeitige Kapazität zulässt.“

„Wenn man über den Einsatz generativer KI nachdenkt, ist es entscheidend, realistische Erwartungen an deren Leistung zu setzen.“

Sicherheit und Wirksamkeit seien bei KI-Anwendungen „von größter Bedeutung“, stellte der Arzt außerdem fest.

„Das bedeutet nicht nur die Entwicklung von Modellen mit strengen Qualitätsprüfungen, sondern auch die Einbeziehung regelmäßiger Bewertungen durch menschliche Experten, um ihre Leistung zu validieren“, sagte er.

KLICKEN SIE HIER, UM DIE FOX NEWS-APP ZU ERHALTEN

„Diese zweischichtige Verifizierung stellt sicher, dass unsere KI-Lösungen sowohl verantwortungsvoll als auch zuverlässig sind, bevor sie skaliert werden.“

Atashroo stellte außerdem fest, dass „Transparenz bei der Entwicklung und Implementierung von KI-Technologien für den Aufbau von Vertrauen zwischen Krankenhauspartnern und Patienten von entscheidender Bedeutung ist.“

Weitere Gesundheitsartikel finden Sie unter www.foxnews.com/health.

source site

Leave a Reply