导读 来自纽约格伦奥克斯 Zucker Hillside 医院的医学博士 Michael L Birnbaum 及其同事使用来自 89 名参与者的视听数据(41 名患有精
来自纽约格伦奥克斯 Zucker Hillside 医院的医学博士 Michael L. Birnbaum 及其同事使用来自 89 名参与者的视听数据(41 名患有精神分裂症谱系障碍、21名双相情感障碍患者和 27 名健康志愿者。
机器学习模型是基于从参与者访谈中提取的声学和面部运动特征开发的。在五重交叉验证中使用接收器操作特征曲线下面积 (AUROC) 评估模型性能。
研究人员发现,在聚合面部和语音特征时,该模型成功区分了精神分裂症谱系障碍和双相情感障碍(AUROC,0.73)。男性最强的信号出现在面部动作单位,包括抬脸肌肉和抬下巴肌肉(AUROC,分别为 0.64 和 0.74)。对于女性来说,最强的信号是由声音特征提供的,包括1 到 4 kHz频带中的能量和频谱谐波(AUROC,分别为 0.80 和 0.78)。
对于男性和女性,唇角拉动肌肉信号可区分诊断(AUROC,分别为 0.61 和 0.62)。某些精神体征和症状被成功推断,包括迟钝的情感、意志力、缺乏声音变化、社交性和无价值(AUROCs,分别为 0.81、0.72、0.71、0.63 和 0.61)。
“整合视听数据可以改变心理健康临床医生诊断和监测患者的方式,从而更快、更准确地识别疾病,并增强个性化的医疗方法,”作者写道。
标签:
免责声明:本文由用户上传,如有侵权请联系删除!