Home Uncategorized ChatGPT ist grundsätzlich schlecht darin, Patienten zu diagnostizieren

ChatGPT ist grundsätzlich schlecht darin, Patienten zu diagnostizieren

21
0
ChatGPT ist grundsätzlich schlecht darin, Patienten zu diagnostizieren

ChatGPT könnte gut sein, um Ihnen Trainingsvorschläge zu geben, Allerdings ist es noch lange nicht perfekt, die Rolle des Arztes zu ersetzen. Ein aktuelles Experiment ergab, dass ein beliebter Chatbot mit künstlicher Intelligenz häufiger falsche medizinische Entscheidungen traf.

„ChatGPT in seiner aktuellen Form ist als Diagnosetool nicht genau“, sagten die dahinterstehenden Forscher Studieheute veröffentlicht in der Zeitschrift PLOS ONE, schrieb. „ChatGPT liefert trotz der Fülle an Informationen, die für das Training verwendet wurden, nicht immer die sachliche Wahrheit.“

Im Februar 2023 ist ChatGPT kann nur schwer durchkommen Prüfung zur medizinischen Zulassung der Vereinigten Staaten ohne zusätzliche fachliche Unterstützung durch einen menschlichen Trainer. Obwohl das Programm im Test nicht annähernd erfolgreich war, begrüßten die Forscher hinter dem Experiment die Ergebnisse als „wichtigen Meilenstein“ für die KI.

Die Wissenschaftler hinter der neuen Studie stellen jedoch fest, dass das Bestehen der Lizenzprüfung zwar die Fähigkeit von ChatGPT unter Beweis stellt, prägnante medizinische Fragen zu beantworten, „die Qualität seiner Antwort auf komplexe medizinische Fälle jedoch unklar bleibt“.

Um festzustellen, wie gut ChatGPT 3.5 in komplizierteren Fällen funktioniert, stellten die Forscher dem Programm 150 Fälle vor, die die diagnostischen Fähigkeiten von Gesundheitsfachkräften herausfordern sollten. Zu den an ChatGPT übermittelten Informationen gehören die Krankengeschichte des Patienten, Befunde einer körperlichen Untersuchung sowie einige Labor- oder Bildgebungsergebnisse. ChatGPT wird dann gebeten, eine Diagnose zu stellen oder einen geeigneten Behandlungsplan zu entwickeln. Die Forscher bewerteten die Antworten des Bots danach, ob er die richtige Antwort lieferte. Sie bewerteten ChatGPT auch anhand seiner Leistung und bewerteten die Klarheit der Gründe für die Diagnose oder verschriebene Behandlung sowie die Relevanz der zitierten medizinischen Informationen.

Obwohl ChatGPT hat ausgebildet Bei Hunderten von Terabytes an Daten aus dem gesamten Internet war die gegebene Antwort nur in 49 % der Fälle richtig. Bei der Relevanz seiner Erklärungen schnitt es etwas besser ab und lieferte in 52 % der Fälle vollständige und relevante Erklärungen. Die Forscher stellten fest, dass KI zwar recht gut darin war, falsche Antworten zu eliminieren, dies jedoch nicht dasselbe war wie das Treffen der richtigen Entscheidungen in einem klinischen Umfeld. „Präzision und Empfindlichkeit sind für diagnostische Instrumente von entscheidender Bedeutung, da versäumte Diagnosen erhebliche Konsequenzen für Patienten haben können, wie z. B. das Fehlen notwendiger Behandlungen oder weiterer diagnostischer Tests, was zu schlechteren Gesundheitsergebnissen führt“, schrieben sie.

Insgesamt wurde dem Chatbot eine „mäßige Unterscheidungsfähigkeit zwischen richtigen und falschen Diagnosen“ und eine „mittelmäßige“ Gesamtleistung beim Testen zugeschrieben. Auch wenn man sich nicht darauf verlassen kann, dass ChatGPT Patienten genaue Diagnosen stellt, sagen Forscher, dass es dank seines Zugriffs auf große Mengen medizinischer Daten dennoch für angehende Ärzte von relevantem Nutzen sein könnte.

„Im Vergleich zu herkömmlichen Lehrmethoden kann ChatGPT Studenten dabei helfen, Wissenslücken zu schließen und komplexe Konzepte zu vereinfachen, indem es sofortige, personalisierte Antworten auf klinische Fragen liefert“, schrieben sie.

Dennoch könnte KI in einer Hinsicht menschliche Ärzte übertreffen: Eine Studie vom April 2023 ergab, dass ChatGPT in der Lage war, einfühlsamere E-Mails an Patienten zu schreiben als echte Ärzte.

Source link