Immer mehr Ärzte nutzen ChatGPT, um bei hohem Arbeitspensum zu helfen, aber ist KI ein zuverlässiger Assistent?

Melden Sie sich bei Fox News an, um Zugriff auf diesen Inhalt zu erhalten

Plus spezieller Zugriff auf ausgewählte Artikel und andere Premium-Inhalte mit Ihrem Account – kostenlos.

Bitte geben Sie eine gültige E-Mail-Adresse ein.

Indem Sie Ihre E-Mail-Adresse eingeben und auf „Weiter“ klicken, stimmen Sie den Nutzungsbedingungen und der Datenschutzrichtlinie von Fox News zu, zu denen auch unser Hinweis zu finanziellen Anreizen gehört. Um auf den Inhalt zuzugreifen, überprüfen Sie Ihre E-Mails und befolgen Sie die bereitgestellten Anweisungen.

Probleme haben? Klicken Sie hier.

Dr. AI wird Sie jetzt sehen.

Das ist vielleicht gar nicht so weit von der Wahrheit entfernt, denn immer mehr Ärzte wenden sich der Wahrheit zu künstliche Intelligenz um ihnen die stressige Arbeit zu erleichtern.

Studien haben gezeigt, dass mittlerweile bis zu 10 % der Ärzte ChatGPT verwenden, ein großes Sprachmodell (LLM) von OpenAI – aber wie genau sind die Antworten?

WAS IST KÜNSTLICHE INTELLIGENZ (KI)?

Ein Forscherteam des University of Kansas Medical Center beschloss, das herauszufinden.

„Jedes Jahr werden etwa eine Million neue medizinische Artikel in wissenschaftlichen Fachzeitschriften veröffentlicht, aber vielbeschäftigte Ärzte haben nicht so viel Zeit, sie zu lesen“, sagte Dan Parente, leitender Studienautor und Assistenzprofessor an der Universität, gegenüber Fox News Digital .

Ein Forscherteam der University of Kansas hat beschlossen, herauszufinden, ob KI Ärzten wirklich hilft. (iStock)

„Wir haben uns gefragt, ob große Sprachmodelle – in diesem Fall ChatGPT – könnte Ärzten dabei helfen, die medizinische Literatur schneller zu durchsuchen und Artikel zu finden, die für sie möglicherweise am relevantesten sind.“

WAS IST CHATGPT?

Für eine neue Studie, die in den Annals of Family Medicine veröffentlicht wurde, verwendeten die Forscher ChatGPT 3.5, um 140 von Experten begutachtete Studien aus 14 medizinischen Fachzeitschriften zusammenzufassen.

Anschließend überprüften sieben Ärzte unabhängig voneinander die Antworten des Chatbots und bewerteten sie hinsichtlich Qualität, Genauigkeit und Voreingenommenheit.

Es wurde festgestellt, dass die KI-Antworten 70 % kürzer waren als die Antworten echter Ärzte, die Antworten wurden jedoch hinsichtlich ihrer Genauigkeit (92,5 %) und Qualität (90 %) als hoch bewertet und es wurde keine Verzerrung festgestellt.

ChatGPT

In einer neuen Studie wurde festgestellt, dass KI-Antworten, wie die von ChatGPT, 70 % kürzer waren als die Antworten echter Ärzte. (Frank Rumpenhorst/Picture Alliance über Getty Images)

Schwerwiegende Ungenauigkeiten und Halluzinationen seien „ungewöhnlich“ gewesen und nur in vier von 140 Zusammenfassungen zu finden.

„Ein Problem bei großen Sprachmodellen besteht auch darin, dass sie manchmal ‚halluzinieren‘ können, was bedeutet, dass sie Informationen erfinden, die einfach nicht wahr sind“, bemerkte Parente.

In einer Studie wurde festgestellt, dass CHATGPT Ungenauigkeiten bei der Beantwortung von Fragen zu Medikamenten verbreitet

„Wir befürchteten, dass dies ein ernstes Problem sein würde, stellten jedoch fest, dass schwerwiegende Ungenauigkeiten und Halluzinationen sehr selten waren.“

Von den 140 Zusammenfassungen seien nur zwei halluziniert gewesen, sagte er.

Kleinere Ungenauigkeiten kamen jedoch etwas häufiger vor und traten in 20 von 140 Zusammenfassungen auf.

Mann-Herz-Termin

Eine neue Studie ergab, dass ChatGPT Ärzten auch dabei half, herauszufinden, ob eine ganze Zeitschrift für ihr medizinisches Fachgebiet relevant war. (iStock)

„Wir haben auch herausgefunden, dass ChatGPT Ärzten im Allgemeinen dabei helfen kann, herauszufinden, ob eine ganze Zeitschrift für einen relevant ist medizinisches Fachgebiet – zum Beispiel an einen Kardiologen oder an einen Hausarzt –, aber es war viel schwieriger zu erkennen, wann ein einzelner Artikel für ein medizinisches Fachgebiet relevant war“, fügte Parente hinzu.

In einer Blindstudie wurde festgestellt, dass CHATGPT eine bessere medizinische Beratung bietet als echte Ärzte: „Das wird bahnbrechend sein“

Basierend auf diesen Erkenntnissen stellte Parente fest, dass ChatGPT vielbeschäftigten Ärzten und Wissenschaftlern dabei helfen könnte, zu entscheiden, welche neuen Artikel in medizinischen Fachzeitschriften für sie die Lektüre am lohnenswertesten sind.

„Die Menschen sollten ihre Ärzte ermutigen, über neue Fortschritte in der Medizin auf dem Laufenden zu bleiben, damit sie eine evidenzbasierte Versorgung anbieten können“, sagte er.

„Gehen Sie vorsichtig damit um“

Dr. Harvey Castro, a Sitz in Dallas, Texas Der staatlich geprüfte Notfallmediziner und nationale Redner zum Thema künstliche Intelligenz im Gesundheitswesen war nicht an der Studie der University of Kansas beteiligt, bot aber seine Erkenntnisse zur ChatGPT-Nutzung durch Ärzte an.

„KIs Integration in das Gesundheitswesen„Insbesondere bei Aufgaben wie der Interpretation und Zusammenfassung komplexer medizinischer Studien verbessert sich die klinische Entscheidungsfindung erheblich“, sagte er gegenüber Fox News Digital.

Dr. Harvey Castro

Dr. Harvey Castro aus Dallas, Texas, stellte fest, dass ChatGPT und andere KI-Modelle einige Einschränkungen aufweisen. (Dr. Harvey Castro sagte, KI habe „die klinische Entscheidungsfindung erheblich verbessert“.)

„Diese technologische Unterstützung ist in Umgebungen wie der Notaufnahme von entscheidender Bedeutung, wo Zeit von entscheidender Bedeutung ist und die Arbeitsbelastung überwältigend sein kann.“

Castro wies jedoch darauf hin, dass ChatGPT und andere KI-Modelle einige Einschränkungen aufweisen.

„Es ist wichtig zu überprüfen, ob die KI uns vernünftige und genaue Antworten gibt.“

„Trotz des Potenzials der KI gibt das Vorhandensein von Ungenauigkeiten in KI-generierten Zusammenfassungen – wenn auch minimal – Anlass zur Sorge hinsichtlich der Zuverlässigkeit der Verwendung von KI als einziger Quelle für die klinische Entscheidungsfindung“, sagte Castro.

„Der Artikel hebt einige gravierende Ungenauigkeiten in KI-generierten Zusammenfassungen hervor und unterstreicht die Notwendigkeit einer vorsichtigen Integration von KI-Tools in klinische Umgebungen.“

Arzt, medizinische Fachkraft, Medizin

Es sei für Ärzte immer noch wichtig, alle KI-generierten Inhalte zu überprüfen und zu überwachen, bemerkte ein KI-Experte. (Cyberguy.com)

Angesichts dieser potenziellen Ungenauigkeiten, insbesondere in Hochrisikoszenarien, betonte Castro, wie wichtig es sei, dies zu tun medizinische Fachkräfte Überwachung und Validierung von KI-generierten Inhalten.

Die Forscher stimmten zu und wiesen darauf hin, wie wichtig es sei, die hilfreichen Vorteile von LLMs wie ChatGPT mit der gebotenen Vorsicht abzuwägen.

KLICKEN SIE HIER, UM UNSEREN GESUNDHEITS-NEWSLETTER ZU ANMELDEN

„Wie jedes Elektrowerkzeug müssen wir vorsichtig damit umgehen“, sagte Parente gegenüber Fox News Digital.

„Wenn wir ein großes Sprachmodell mit einer neuen Aufgabe beauftragen – in diesem Fall mit der Zusammenfassung medizinischer Abstracts – ist es wichtig zu überprüfen, ob die KI uns vernünftige und genaue Antworten gibt.“

KLICKEN SIE HIER, UM DIE FOX NEWS-APP ZU ERHALTEN

Da KI im Gesundheitswesen immer häufiger zum Einsatz kommt, sagte Parente: „Wir sollten darauf bestehen, dass Wissenschaftler, Kliniker, Ingenieure und andere Fachleute sorgfältige Arbeit geleistet haben, um sicherzustellen, dass diese Instrumente sicher, genau und nützlich sind.“

Weitere Gesundheitsartikel finden Sie unter www.foxnews.com/health.

source site

Leave a Reply