研究发现,人们认为智能人工智能助手对结果负责

放大字体  缩小字体 2023-08-31 13:34  浏览次数:

People hold smart AI assistants respo<em></em>nsible for outcomes

一项新的研究表明,即使人类将基于人工智能的助手纯粹视为工具,他们也会将决策的部分责任归咎于它们。

未来基于人工智能的系统可能会在没有人工输入的情况下引导自动驾驶汽车通过交通。研究表明,人们认为这种未来的人工智能系统在做出自主交通决策时与人类一样负责任。然而,现实生活中的人工智能助手离这种自主性还很远。它们为人类用户提供导航和驾驶辅助等支持性信息。

那么,在现实生活中,当事情变得正确或错误时,谁应该负责呢?人类用户?或者人工智能助手?由心理哲学主席路易斯·朗金领导的一个团队现在调查了人们在这些情况下是如何评估责任的。他们的研究结果发表在《科学》杂志上。

“我们口袋里都有智能助手,”朗金说。“然而,我们掌握的很多关于责任差距的实验证据都集中在机器人或自动驾驶汽车上,人工智能实际上是坐在驾驶座上,为我们做决定。在我们仍是做最终决定的人的情况下,调查人工智能更像是一个复杂的工具,这是至关重要的。”

专门研究人类与人工智能互动的哲学家朗金与同事巴哈多·巴赫拉米博士和心灵哲学主席奥菲莉亚·德罗伊教授合作,调查了940名参与者如何使用智能人工智能语音助手、智能人工智能触觉助手或非人工智能导航仪器来判断人类司机。参与者还表明了他们是否认为导航辅助设备是负责任的,以及它在多大程度上是一种工具。

智能助手的矛盾状态

研究结果揭示了一种矛盾的心理:参与者强烈主张智能助手只是工具,但他们认为智能助手对咨询他们的人类司机的成败负有部分责任。对于非人工智能驱动的仪器,则没有这种责任划分。

同样让作者感到惊讶的是,智能助手也被认为对积极结果负有更大的责任,而不是消极结果。

“人们可能会用不同的道德标准来评价赞扬和谴责。当危机得以避免且没有造成伤害时,标准就会放松,这使得人们更容易把功劳归到非人类系统身上,而不是归咎于它,”研究集体责任的专家巴赫拉米博士建议道。

语言的作用与此无关

在这项研究中,作者发现使用语言的智能助手和那些通过触觉震动来警告用户的智能助手没有区别。

奥菲莉亚·德罗伊(Ophelia Deroy)说:“在这种情况下,两者提供了相同的信息,‘嘿,小心,前方有东西’,但当然,ChatGPT在实践中提供了更多的信息。”她的研究考察了我们对人工智能的矛盾态度,将其视为一种万物有灵论的信仰。与ChatGPT等新型基于语言的人工智能系统提供的额外信息相比,德罗伊补充说:“互动越丰富,就越容易人格化。”

“总而言之,我们的研究结果支持这样一种观点,即人工智能助手被视为不仅仅是推荐工具,但仍远未达到人类的标准,”朗金说。

作者认为,这项新研究的发现将对人工智能助手的设计和社会话语产生深远的影响:“开发和发布智能助手的组织应该考虑如何影响社会和道德规范,”朗金总结道。

更多信息:Louis Longin等人,智能带来责任——即使是智能人工智能助手也要承担责任,iScience(2023)。DOI: 10.1016/j.i ssn .2023.107494期刊信息:iScience

由慕尼黑路德维希马克西米利安大学提供
引用:人们让智能人工智能助手做出反应 不可能的结果,研究发现(2023,August 30) 2023年8月30日检索自https://techxplore.com/news/2023-08-people-smart-ai-responsible-outcomes.html本文档 作品受版权保护。除为私人学习或研究目的而进行的任何公平交易外,未经书面许可,不得转载任何部分。的有限公司 内容仅供参考之用。

热门搜索排行
声明:本站信息均由用户注册后自行发布,本站不承担任何法律责任。如有侵权请告知,立即做删除处理。
违法不良信息举报邮箱
晋ICP备17002844号
中国互联网举报中心