导读 最近,一篇论文报道了一项全球道德偏好调查,涉及无人驾驶汽车在不可避免的事故中应该拯救哪一方。研究成果结合了全球参与者贡献的4000万个
最近,一篇论文报道了一项全球道德偏好调查,涉及无人驾驶汽车在不可避免的事故中应该拯救哪一方。研究成果结合了全球参与者贡献的4000万个决策,或为制定能够被社会普遍接受的人工智能(AI)伦理标准提供参考信息。
无人驾驶汽车不仅应该能够导航路线,还应该在不可避免的事故中独自应对道德困境。因此,有必要制定一套伦理准则来指导AI系统处理此类场景。如果无人驾驶汽车一定会被广泛使用,我们首先要确定社会普遍接受的道德标准。
麻省理工学院的伊亚德拉赫万和他的同事们建立了一个名为“道德机器”的大规模在线调查平台,统计世界各地人们的道德偏好。参与者被置于一个不可避免的事故现场,当时一辆无人驾驶汽车正在双向街道上行驶。每一个场景都会把行人和乘客置于不同的危险之中,汽车可以选择不变道或者转向另一条车道。参与者必须选择谁来保存并决定汽车的路线。这个实验记录了大约4000万个这样的决定。
研究人员已经确定了许多共同的道德偏好,例如拯救大多数而不拯救少数,拯救年轻人而不拯救老年人,以及拯救动物。作者还发现了不同文化之间道德偏好的差异。例如,来自中美洲和南美洲国家、法国、前法国海外领土和目前法国领土的参与者表现出强烈的偏好,首先拯救妇女和强者。然而,来自收入差距较大国家的参与者在决定储蓄对象时,往往会考虑自己的社会地位。相关论文于《自然》在线发表。
最后,研究人员指出,在让汽车做出道德选择之前,需要进行全球对话,将人们的偏好告知实施监督的道德算法设计公司和政策制定者。
标签:
免责声明:本文由用户上传,如有侵权请联系删除!