人工智能聊天机器人拒绝产生“有争议的”输出——为什么这是一个言论自由的问题

放大字体  缩小字体 2024-04-23 16:21  浏览次数:

speech

谷歌最近登上了全球新闻头条,因为它的聊天机器人Gemini在以白人为主角的历史背景中生成了有色人种的图像,而不是白人。Adobe Firefly的图像创建工具也出现了类似的问题。这导致一些评论人士抱怨说,人工智能已经“醒了”。其他人则认为,这些问题是由于在对抗人工智能偏见和更好地服务于全球受众方面的错误努力造成的。

关于人工智能的政治倾向和对抗偏见的努力的讨论很重要。然而,关于人工智能的讨论忽略了另一个关键问题:人工智能行业对言论自由的态度是什么,它是否接受国际言论自由标准?

我们是研究言论自由的政策研究人员,也是范德比尔特大学(Vanderbilt University)独立无党派智库“言论自由的未来”(The Future of free speech)的执行董事和研究员。在最近的一份报告中,我们发现生成式人工智能在言论自由和信息获取方面存在重大缺陷。

生成式人工智能是一种基于训练数据创建内容(如文本或图像)的人工智能。特别是,我们发现主要聊天机器人的使用政策不符合联合国标准。在实践中,这意味着人工智能聊天机器人在处理公司认为有争议的问题时,经常会审查产出。如果没有坚实的言论自由文化,在这个日益两极分化的时代,生产生成式人工智能工具的公司可能会继续面临反弹。

模糊和宽泛的使用政策

我们的报告分析了六大人工智能聊天机器人的使用政策,包括谷歌的Gemini和OpenAI的ChatGPT。公司发布政策,为人们如何使用他们的模型制定规则。以国际人权法为基准,我们发现公司的虚假信息和仇恨言论政策过于模糊和宽泛。值得注意的是,国际人权法对言论自由的保护不如美国宪法第一修正案。

我们的分析发现,公司的仇恨言论政策包含了极其广泛的禁令。例如,谷歌禁止生成“宣扬或鼓励仇恨的内容”。尽管仇恨言论令人憎恶并可能造成伤害,但像谷歌这样定义宽泛而模糊的政策可能会适得其反。

为了展示模糊和宽泛的使用策略如何影响用户,我们测试了一系列关于有争议话题的提示。我们问聊天机器人一些问题,比如是否应该允许跨性别女性参加女子体育比赛,或者欧洲殖民主义在当前气候和不平等危机中的作用。我们没有要求聊天机器人发表诋毁任何一方或团体的仇恨言论。与一些用户报告的情况类似,在我们使用的140个提示中,聊天机器人拒绝生成40%的内容。例如,所有聊天机器人都拒绝发布反对变性女性参加女子锦标赛的帖子。不过,他们中的大多数人确实发表了支持他们参与的帖子。






措辞模糊的政策在很大程度上依赖于版主对仇恨言论的主观看法。用户还可能认为这些规则的应用不公正,并将其解释为过于严格或过于宽松。

例如,聊天机器人Pi会禁止“可能传播错误信息的内容”。但是,关于言论自由的国际人权标准一般都保护虚假信息,除非存在限制的有力理由,例如外国干涉选举。否则,根据一项重要的联合国公约,人权标准保证“通过任何选择的媒体,不分国界地……寻求、接受和传播各种信息和思想的自由”。

定义什么是准确信息也具有政治意义。一些国家的政府利用在COVID-19大流行背景下通过的规则来压制对政府的批评。最近,在Gemini指出一些专家认为印度总理纳伦德拉·莫迪(Narendra Modi)的政策是法西斯主义之后,印度与谷歌发生了对峙。

言论自由文化

人工智能提供商可能希望采取限制性使用政策是有原因的。他们可能希望保护自己的声誉,不与有争议的内容联系在一起。如果他们服务于全球受众,他们可能希望避免在任何地区出现冒犯性的内容。

一般来说,人工智能提供商有权采取限制性政策。他们不受国际人权的约束。不过,它们的市场力量使它们与其他公司有所不同。想要生成人工智能内容的用户很可能最终会使用我们分析的聊天机器人之一,尤其是ChatGPT或Gemini。

这些公司的政策对获取信息的权利产生了巨大的影响。随着生成式人工智能与搜索、文字处理器、电子邮件和其他应用程序的整合,这种影响可能会增加。

这意味着社会有兴趣确保这些政策充分保护言论自由。事实上,欧洲的在线安全规则手册《数字服务法案》(Digital Services Act)要求所谓的“超大型在线平台”评估并减轻“系统性风险”。这些风险包括对言论和信息自由的负面影响。






欧盟委员会(European Commission)迄今尚未完美地履行这一义务,但它表明,权力越大,责任越大。目前尚不清楚这项法律将如何适用于生成人工智能,但欧盟委员会已经采取了首批行动。

即使类似的法律义务不适用于人工智能提供商,我们认为这些公司的影响力也应该要求他们采取言论自由的文化。国际人权为如何负责任地平衡各种利害攸关的利益提供了一颗有用的指路明灯。在我们关注的公司中,至少有两家——谷歌和anthropic——已经意识到了这一点。

直接拒绝

同样重要的是要记住,用户对他们在生成AI中看到的内容有很大程度的自主权。与搜索引擎一样,用户收到的输出在很大程度上取决于他们的提示。因此,除非用户特别寻求,否则用户接触到来自生成人工智能的仇恨言论和错误信息的机会通常是有限的。

这与社交媒体不同,在社交媒体上,人们对自己的动态控制要少得多。更严格的控制,包括对人工智能生成的内容,可能在社交媒体层面上是合理的,因为它们公开分发内容。对于人工智能提供商,我们认为使用政策应该比社交媒体平台对用户可以生成的信息限制更少。

人工智能公司还有其他方法来解决仇恨言论和错误信息。例如,它们可以在它们生成的内容中提供上下文或反驳事实。它们还允许更大的用户定制。我们认为聊天机器人应该避免仅仅拒绝生成任何内容。除非有坚实的公共利益基础,比如防止儿童性虐待材料,这是法律禁止的。

拒绝生成内容不仅影响言论自由和获取信息的基本权利。他们还可以将用户推向专门制造仇恨内容和回音室的聊天机器人。这将是一个令人担忧的结果。

公司提供 nversation

本文转载自The Co在知识共享许可下的对话。阅读原文。The Conversation

引用:人工智能聊天机器人拒绝产生“有争议的”输出——为什么这是一个言论自由的问题(2024,4月21日 作品受版权保护。除为私人学习或研究目的而进行的任何公平交易外,未经书面许可,不得转载任何部分。的有限公司 内容仅供参考之用。

热门搜索排行
声明:本站信息均由用户注册后自行发布,本站不承担任何法律责任。如有侵权请告知,立即做删除处理。
违法不良信息举报邮箱
晋ICP备17002844号
中国互联网举报中心