用户对人工智能的信任不亚于对人工识别问题内容的信任

放大字体  缩小字体 2022-09-17 12:57  浏览次数:

typing on laptop

宾夕法尼亚州立大学的研究人员表示,社交媒体用户可能信任人工智能(AI),就像信任人类编辑一样,可以标记仇恨言论和有害内容。

研究人员表示,当用户想到机器的积极属性时,比如它们的准确性和客观性,他们会对人工智能表现出更多的信任。然而,如果用户被提醒机器不能做出主观决定,他们的信任就会降低。

Donald P. Bellisario传播学院媒体效应James P. Jimirro教授、媒体效应研究实验室联合主任S. Shyam Sundar说,这些发现可能有助于开发人员设计更好的ai驱动的内容管理系统,可以处理当前生成的大量信息,同时避免材料被审查或分类不准确的感觉。

“社交媒体和更普遍的在线媒体都迫切需要内容审核,”桑达尔说,他也是宾夕法尼亚州立大学计算与数据科学研究所的成员。“在传统媒体中,我们有新闻编辑充当把关人的角色。但在网络上,大门是如此的大开着,人类未必能够完成把关工作,特别是在产生大量信息的情况下。因此,随着该行业日益向自动化解决方案发展,这项研究着眼于人工内容审查员和自动化内容审查员之间的区别,以及人们对他们的反应。”

人工编辑器和人工智能编辑器各有优缺点。这项研究的第一作者、密歇根州立大学广告与公共关系学助理教授玛丽亚·d·莫利纳(Maria D. Molina)说,人类往往更准确地评估内容是否有害,比如它是否带有种族主义色彩或可能引发自我伤害。然而,人们无法处理现在在网上生成和共享的大量内容。

另一方面,虽然人工智能编辑可以迅速分析内容,但人们往往不信任这些算法,无法做出准确的推荐,还担心信息可能被审查。

莫利纳说:“当我们想到自动化的内容审核时,它提出了一个问题,即人工智能编辑是否侵犯了个人的言论自由。”“这就产生了一个矛盾,一方面我们需要内容监管——因为人们在分享所有这些有问题的内容——另一方面,人们担心人工智能监管内容的能力。所以,最终,我们想知道如何构建人们可以信任的AI内容审查员,同时又不侵犯言论自由。”

透明度和交互透明度

根据Molina的说法,在审核过程中将人和人工智能结合在一起可能是建立一个值得信任的审核系统的一种方法。她补充说,透明度——或向用户发出机器参与调节的信号——是提高对人工智能信任的一种方法。然而,允许用户向人工智能提供建议,研究人员称之为“交互透明”,似乎能进一步增强用户的信任。

为了研究透明度和互动透明度,在其他变量中,研究人员招募了676名参与者与内容分类系统互动。参与者被随机分配到18个实验条件中的一个,旨在测试调节的来源——人工智能、人类或两者都有——透明度——常规、交互式或不透明——可能会影响参与者对人工智能内容编辑器的信任。研究人员测试了分类决策——内容是否被归类为有害或可恨的“标记”或“未标记”。“有害的”测试内容涉及自杀意念,而“可恨的”测试内容包括仇恨言论。

在其他发现中,研究人员发现,用户的信任取决于人工智能内容调解员的存在是否调用了机器的积极属性,如其准确性和客观性,或消极属性,如他们无法对人类语言的细微差别做出主观判断。

让用户有机会帮助人工智能系统判断在线信息是否有害,也可能提高他们的信任。研究人员表示,将自己的词汇添加到人工智能选择的用于分类帖子的词汇列表的结果中的研究参与者信任人工智能编辑和信任人类编辑一样多。

伦理问题

桑达尔说,让人们不必再审阅内容,不仅仅是让员工从繁琐的工作中得到喘息。他说,雇佣人工编辑来做这项工作意味着这些工作人员要接触数小时仇恨和暴力的图片和内容。

桑达尔说:“自动化内容审核在道德上是有需要的。”桑达尔同时也是宾夕法尼亚州立大学社会责任人工智能中心的主任。“有必要保护人类内容审查员——他们这样做是在为社会造福——不让他们日复一日地接触有害内容。”

根据莫利纳的说法,未来的工作可以着眼于如何帮助人们不仅信任人工智能,而且理解它。她补充说,互动透明度可能也是理解人工智能的一个关键部分。

莫利纳说:“真正重要的不仅仅是对系统的信任,还要让人们以一种真正理解人工智能的方式参与进来。”“我们如何利用这种互动透明的概念和其他方法来帮助人们更好地理解人工智能?”我们如何才能最好地呈现AI,让它在欣赏机器能力和怀疑其弱点之间取得恰当的平衡?这些问题值得研究。”

研究人员在最新一期的《计算机媒介通信杂志》上发表了他们的发现。

热门搜索排行
声明:本站信息均由用户注册后自行发布,本站不承担任何法律责任。如有侵权请告知,立即做删除处理。
违法不良信息举报邮箱
晋ICP备17002844号
中国互联网举报中心