聊天机器人越来越成为世界各地医疗保健的一部分,但它们是否鼓励偏见?这就是科罗拉多大学医学院的研究人员在深入研究患者使用模拟对话的人工智能 (AI) 程序时所提出的问题。
“有时被忽视的是聊天机器人的样子——它的化身,”研究人员在发表于《内科医学年鉴》的一篇新论文中写道。“当前的聊天机器人化身从不露面的卫生系统徽标到卡通人物或类人漫画不等。聊天机器人有一天可能成为患者医生的数字化版本,具有该医生的肖像和声音。聊天机器人化身远非无害的设计决定,而是提出了新的道德规范关于助推和偏见的问题。”
这篇题为“不仅仅是一张漂亮的脸蛋?聊天机器人中的轻推和偏见”的论文挑战研究人员和医疗保健专业人员通过健康公平的视角仔细检查聊天机器人,并调查该技术是否真正改善了患者的治疗效果。
2021 年,Greenwall 基金会授予 CU Division of General Internal Medicine 副教授 Matthew DeCamp 医学博士和他在 CU 医学院的研究人员团队研究围绕聊天机器人的伦理问题。研究团队还包括医学博士、MBA 医学博士 Annie Moore 教授、Joyce 和 Dick Brown 捐赠的患者体验同情教授、即将入学的医学生 Marlee Akerson 以及 UCHealth 体验和创新经理 Matt Andazola。
“如果聊天机器人是患者对医疗保健系统的所谓‘第一次接触’,我们真的需要了解他们的体验以及对信任和同情心的影响,”摩尔说。
到目前为止,该团队已经调查了 300 多人并采访了另外 30 人,了解他们与医疗保健相关的聊天机器人的互动情况。对于领导调查工作的 Akerson 来说,这是她第一次接触生物伦理学研究。
“我很高兴我有机会在生物伦理学和人文科学中心工作,更让我兴奋的是我可以在CU读医的同时继续这项工作,”她说。
标签:
免责声明:本文由用户上传,如有侵权请联系删除!