Die Forscher fanden außerdem heraus, dass Ärzte einer KI-Erklärung eher vertrauen, wenn diese einen bestimmten Bereich auf einem Röntgenbild lokalisiert.
Während Künstliche Intelligenz (KI) Da es sich um ein revolutionäres Werkzeug in der Medizin handelt, können sich Radiologen einer neuen Studie zufolge zu sehr auf seinen Rat verlassen, wenn es einen bestimmten Teil einer Röntgenaufnahme hervorhebt.
Ein Team von US-Forschern rekrutierte 220 Ärzte an mehreren Standorten im Land mit der Aufgabe, neben KI-generierten Ratschlägen auch Röntgenaufnahmen des Brustkorbs zu überprüfen.
Zu den Teilnehmern gehörten Radiologen sowie Internisten oder Notfallmediziner, die mit Hilfe eines KI-Assistenten die Aufgabe hatten, Röntgenbilder auszuwerten. Die Ärzte könnten die KI-Vorschläge annehmen, ändern oder ablehnen.
Die Studie, veröffentlicht in der Zeitschrift Radiologieuntersuchte, wie sich die Art der lokalen oder globalen KI-Beratung und ihre Genauigkeit auf eine Diagnose auswirkten.
Eine lokale Erklärung liegt vor, wenn die KI bestimmte Bereiche von Interesse in einem Röntgenbild hervorhebt, während eine globale Erklärung darin besteht, dass die KI Bilder aus ähnlichen früheren Fällen bereitstellt, um zu zeigen, wie sie den Vorschlag gemacht hat.
„Wir haben herausgefunden, dass lokale Erklärungen die Diagnosegenauigkeit verbesserten und die Interpretationszeit verkürzten, wenn der Rat der KI korrekt war“, sagte Dr. Paul H Yi, einer der Co-Autoren der Studie und Direktor für intelligente Bildinformatik am St. Jude Children’s Research Hospital, gegenüber Euronews Health.
Wenn die KI genaue Ratschläge lieferte, führten lokale Erklärungen dazu, dass die Gutachter eine diagnostische Genauigkeitsrate von 92,8 Prozent und globale Erklärungen eine Genauigkeitsrate von 85,3 Prozent erreichten.
Wenn die Diagnose der KI jedoch falsch war, sank die Diagnosegenauigkeit bei lokalen Erklärungen auf 23,6 Prozent und bei Ärzten mit globalen Erklärungen auf 26,1 Prozent.
„Diese Ergebnisse unterstreichen, wie wichtig es ist, KI-Tools sorgfältig zu entwerfen. Durchdachtes Erklärungsdesign ist nicht nur ein Zusatz; Es ist ein entscheidender Faktor, um sicherzustellen, dass KI die klinische Praxis verbessert, anstatt unbeabsichtigte Risiken mit sich zu bringen“, sagte Yi.
„Art der KI-Erklärung“ kann sich auf das Vertrauen auswirken
Eine unerwartete Erkenntnis war, wie schnell Ärzte, sowohl Radiologen als auch Nichtradiologen, lokalen Erklärungen vertrauten, selbst wenn die KI falsch war.
„Dies offenbart eine subtile, aber entscheidende Erkenntnis: Die Art der KI-Erklärung kann Vertrauen und Entscheidungsfindung auf eine Weise beeinflussen, die den Benutzern möglicherweise nicht einmal bewusst ist“, fügte er hinzu.
Er hat mehrere Vorschläge, um das Risiko einer „Automatisierungsverzerrung“ zu mindern – die menschliche Tendenz, sich zu sehr auf Automatisierung zu verlassen.
Er sagte, dass Ärzte durch jahrelanges Training und Wiederholung lernen, einem Muster oder einer Checkliste zu folgen.
„Die Idee ist, dass dadurch eine Routine entsteht. Es minimiert Abweichungen, die zu unerwarteten Fehlern führen können“, sagte er.
Die Einführung von KI-Tools fügt jedoch einen neuen Faktor hinzu und kann diese Routine zum Scheitern bringen.
„Wir müssen uns an unsere Checklisten halten und sicherstellen, dass wir sie einhalten. Aber ich stelle mir eine Zukunft vor, in der sich unsere Checklisten tatsächlich ändern werden, um KI einzubeziehen“, sagte Yi und fügte hinzu, dass die Mensch-Computer-Interaktion auch unter Berücksichtigung von Faktoren wie Stress oder Müdigkeit untersucht werden sollte.