人工智能和机器学习 (AI/ML) 技术不断在多个学科中寻找新的应用。医学也不例外,人工智能/机器学习被用于各种疾病的诊断、预后、风险评估和治疗反应评估。特别是,AI/ML 模型在医学图像分析中的应用越来越多。这包括 X 射线、计算机断层扫描和磁共振图像。在医学成像中成功实施 AI/ML 模型的一个关键要求是确保它们的正确设计、培训和使用。然而,在现实中,开发适用于所有人口成员并且可以推广到所有情况的 AI/ML 模型极具挑战性。
与人类非常相似,AI/ML 模型可能存在偏差,并可能导致对医学上相似的病例进行差别对待。尽管存在与引入此类偏差相关的因素,但解决这些偏差并确保对用于医学成像的 AI/ML 的公平、公正和信任非常重要。这需要确定医学成像 AI/ML 中可能存在的偏差来源,并制定减轻这些偏差的策略。如果不这样做,可能会给患者带来不同的好处,加剧医疗保健获取的不平等。
据《医学影像学杂志》(JMI)报道,来自医学影像和数据资源中心 (MIDRC) 的多机构专家团队——包括医学物理学家、AI/ML 研究人员、统计学家、医生和来自监管机构的科学家——解决了这个问题。在这份综合报告中,他们确定了在从数据收集、数据准备和注释、模型开发、模型评估和模型部署的开发和实施医学影像 AI/ML 的五个关键步骤中可能出现的 29 个潜在偏差来源,其中有许多识别出可能在多个步骤中发生的偏差。讨论了偏差缓解策略,并且还在MIDRC 网站上提供了信息。
偏差的主要来源之一在于数据收集。例如,从一家医院或单一类型的扫描仪获取图像可能会导致数据收集有偏差。数据收集偏差也可能由于在研究期间和整个医疗保健系统内如何对待特定社会群体的差异而产生。此外,随着医学知识和实践的发展,数据可能会过时。这在基于此类数据训练的 AI/ML 模型中引入了时间偏差。
其他偏差来源在于数据准备和注释,并与数据收集密切相关。在此步骤中,可以根据数据在输入 AI/ML 模型进行训练之前的标记方式引入偏差。这种偏见可能源于注释者的个人偏见,或者源于与数据本身如何呈现给负责标记的用户有关的疏忽。
标签:
免责声明:本文由用户上传,如有侵权请联系删除!