Bridging the Trust Gap: Clinician-Validated Hybrid Explainable AI for Maternal Health Risk Assessment in Bangladesh
该研究提出了一个混合可解释人工智能(XAI)框架,用于孕产妇健康风险评估。该框架结合了前置的模糊逻辑和后置的SHAP解释方法,并通过临床医生的系统性反馈进行验证。研究团队基于1,014份孕产妇健康记录开发了一个模糊-XGBoost模型,实现了88.67%的准确率和0.9703的ROC-AUC值。在孟加拉国进行的14名医疗专业人员验证研究显示,71.4%的医生更倾向于混合解释方法,54.8%表示信任该系统可用于临床实践。SHAP分析发现医疗可及性是主要预测因素,而工程化的模糊风险评分排名第三,验证了临床知识的整合(相关系数r=0.298)。医生认可集成的临床参数,但也指出了关键缺口:产科病史、孕