Viele KI-Systeme arbeiten intransparent, d.h. der Anwenderin oder dem Anwender wird nicht erklärt, auf welcher Basis eine Diagnose erstellt wird. In dieser Arbeit wird erstmals der Einsatz von Explainable AI (XAI) in der Dermatologie untersucht, die im Gegensatz zu konventioneller AI präzise und spezifische Erklärungen für angebotene Differentialdiagnosen liefert. In dieser mehrphasigen prospektiven Studie wird gezeigt, dass XAI im Vergleich zu konventioneller KI das Vertrauen der Anwenderinnen und Anwender in die eigenen Diagnosen und in das verwendete KI-System erhöht und damit die Akzeptanz für den Einsatz im Alltag steigern könnte.
Tirtha Chanda, Katja Hauser, Sarah Hobelsberger, Tabea-Clara Bucher, Carina Nogueira Garcia, Christoph Wies, Harald Kittler, Philipp Tschandl, Cristian Navarrete-Dechent, Sebastian Podlipnik, Emmanouil Chousakos, Iva Crnaric, Jovana Majstorovic, Linda Alhajwan, Tanya Foreman, Sandra Peternel, Sergei Sarap, İrem Özdemir, Raymond L. Barnhill, Mar Llamas-Velasco, Gabriela Poch, Sören Korsing, Wiebke Sondermann, Frank Friedrich Gellrich, Markus V. Heppt, Michael Erdmann, Sebastian Haferkamp, Konstantin Drexler, Matthias Goebeler, Bastian Schilling, Jochen S. Utikal, Kamran Ghoreschi, Stefan Fröhling, Eva Krieghoff-Henning, Reader Study Consortium & Titus J. Brinker. Dermatologist-like explainable AI enhances trust and confidence in diagnosing melanoma. Nat Commun 15, 524 (2024). doi:10.1038/s41467-023-43095-4
Zur Arbeitsgruppe "Digitale Biomarker für die Onkologie" des Deutschen Krebfsforschungszentrums