DD 01|2023
Eigentlich wollten die Autoren der im April dieses Jahres veröffentlichten Studie untersuchen, ob ein moderner KI-Chatbot menschliche Ärzt:innen dabei unterstützen könnte, die immer größere Anzahl der über digitale Kanäle eingehenden Patientenfragen zu beantworten. Sie haben dazu nach dem Zufallsprinzip 195 Fragen aus einem öffentlichen Social-Media-Forum ausgewählt, die bereits von verifizierten menschlichen Ärzt:innen beantwortet worden waren. Diese Fragen wurden nun in ChatGPT eingegeben, einem KI-Chatbot des Unternehmens OpenAI. Die Antworten der KI wurden dann ebenso wie die Antworten der echten Ärzt:innen jeweils dreifach von einem Expertengremium in einem verblindeten Setting mit einer fünfteiligen Skala bewertet, und zwar nach inhaltlicher und empathischer Qualität.
Die Antworten des Chatbots wurden in der überwiegenden Mehrzahl der Fälle (78%) besser bewertet als jene der Ärzt:innen aus Fleisch und Blut. Was die inhaltliche Qualität betraf, so lag etwa der Anteil der Bewertungen in der Kategorie „gut“ bzw. „sehr gut“ beim Chatbot bei 78,5%, bei den Ärzt:innen lediglich bei 22,1%. Als besonders bemerkenswert stufen die Autor:innen ein, dass die Chatbot-Antworten auch deutlich häufiger als „empathisch“ bzw. „sehr empathisch“ bewertet wurden (45,1% vs. 4,6%). Auch waren die Antworten der KI mit durchschnittlich 211 Wörtern deutlich umfangreicher als jene der Ärzt:innen mit 52 Wörtern.
KI-Chatbots könnten sich grundsätzlich dafür eignen, für die Beantwortung von Patientenanfragen über virtuelle Kanäle Entwürfe zu erstellen, die von den menschlichen Ärzt:innen nur noch geprüft und editiert werden müssen. Dies könnte Zeit sparen und gleichzeitig die Qualität verbessern.