生成式人工智能工具,如 ChatGPT(一种人工智能驱动的语言工具)和 Midjourney(一种人工智能驱动的图像生成器),可以为各种残疾人士提供潜在帮助。这些工具可以总结内容、撰写消息或描述图像。然而,这种潜力的程度是一个悬而未决的问题,因为除了经常出现错误和基本推理失败之外,这些工具还可能延续能力歧视偏见。
今年,华盛顿大学的七名研究人员利用他们自己作为残疾人和非残疾人的经历进行了为期三个月的自民族志研究,以测试人工智能工具的可访问性实用性。尽管研究人员发现这些工具很有用,但他们也发现人工智能工具在大多数用例中都存在重大问题,无论是生成图像、编写 Slack 消息、总结写作还是试图提高文档的可访问性。
该团队于 10 月 22 日在纽约举行 的ASSETS 2023 会议上公布了其研究结果。
“当技术迅速变化时,残疾人总是有被抛在后面的风险,”资深作者、华盛顿大学保罗·G·艾伦计算机科学与工程学院教授詹妮弗·曼考夫(Jennifer Mankoff)说。“我非常相信第一人称账户能够帮助我们理解事物。因为我们团队中有很多人可以像残疾人一样体验人工智能,并了解哪些有效,哪些无效,所以我们认为我们有一个独特的机会来讲述一个故事并了解这一点。”
该小组以七个小片段的形式展示了其研究成果,通常将经验合并到单个账户中以保持匿名。例如,在第一个帐户中,患有间歇性脑雾的“Mia”部署了总结 PDF 的 ChatPDF.com 来帮助工作。虽然该工具有时是准确的,但它经常给出“完全错误的答案”。
在一个案例中,该工具既不准确,又存在体能歧视,将一篇论文的论点改变为听起来研究人员应该与护理人员交谈,而不是与慢性病患者交谈。“米娅”能够捕捉到这一点,因为研究人员非常了解这篇论文,但曼科夫表示,这种微妙的错误是使用人工智能的一些“最阴险”的问题,因为它们很容易被忽视。
标签:
免责声明:本文由用户上传,如有侵权请联系删除!