确定人工智能的道德标准需要非洲人的参与

放大字体  缩小字体 2021-11-30 14:00  浏览次数:

artificial intelligence

人工智能(AI)曾经是科幻小说的素材。但它正变得越来越普遍。它被应用于手机技术和汽车上。它为农业和医疗保健工具提供动力。

但人们对人工智能和机器学习等相关技术的问责性产生了担忧。2020年12月,计算机科学家蒂姆尼特·格布鲁(Timnit Gebru)被谷歌的Ethical AI团队解雇。此前,她曾就人工智能技术中偏见的社会影响发出警告。例如,在2018年的一篇论文中,格布鲁和另一位研究人员乔伊·博拉姆维尼(Joy Buolamwini)表明,面部识别软件在识别女性和有色人种方面的准确性不如白人男性。训练数据中的偏差可能会产生深远而意想不到的影响。

目前已经有大量关于人工智能伦理的研究。这突出了确保技术不会使偏见恶化甚至带来新的社会危害的原则的重要性。正如教科文组织关于人工智能伦理的建议草案所指出的:“我们需要国际和国家政策和监管框架,以确保这些新兴技术有益于整个人类。”

近年来,已经创建了许多框架和指南,以确定伦理人工智能的目标和优先事项。

这无疑是朝着正确方向迈出的一步。但在解决偏见或包容性问题时,超越技术解决方案也至关重要。偏见可能出现在谁制定目标和平衡优先事项的层面上。

在最近的一篇论文中,我们认为包容性和多样性也需要首先确定价值和定义什么是伦理AI的框架。考虑到人工智能研究和机器学习在非洲大陆的发展,这一点尤为重要。

上下文

人工智能和机器学习技术的研发在非洲国家不断发展。数据科学非洲、数据科学尼日利亚和深度学习Indaba及其卫星IndabaX活动等项目,迄今已在27个不同的非洲国家举行,说明了对该领域的兴趣和人力投资。

人工智能和相关技术在促进非洲增长、发展和民主化机会方面的潜力是这项研究的关键驱动力。

然而,迄今为止,只有很少的非洲声音参与了旨在指导研究的国际伦理框架。如果这些框架中的原则和价值具有通用的应用,这可能不是一个问题。但目前还不清楚他们是否会这么做。

例如,欧洲的AI4People框架提供了六个其他伦理框架的综合。它将尊重自治作为其主要原则之一。这一原则在生物伦理学的应用伦理领域受到了批评。它被认为未能公正地对待整个非洲共同的社群主义价值观。这些方案较少侧重于个人,而更多地侧重于社区,甚至要求为维护这一原则作出例外,以便进行有效的干预。

像这样的挑战——甚至是承认可能存在这样的挑战——在伦理AI的讨论和框架中基本上都是缺失的。

正如培训数据会加深现有的不平等和不公正一样,未能认识到不同的价值观可能在不同的社会、文化和政治背景下存在差异,也会造成同样的后果。

无法使用的结果

此外,不考虑社会、文化和政治背景可能意味着,即使是一个看似完美的道德技术解决方案,在实施后也可能无效或被误导。

为了让机器学习能够有效地做出有用的预测,任何学习系统都需要访问训练数据。这涉及到感兴趣的数据样本:以多种特征或测量的形式输入,以及科学家想要预测的标签的输出。在大多数情况下,这些特性和标签都需要人类了解问题。但是,不能正确地考虑本地上下文可能会导致系统表现不佳。

例如,移动电话记录被用来估计灾难前后的人口规模。然而,弱势群体不太可能使用移动设备。所以,这种方法可能产生的结果是没有用的。

同样地,在使用不同建筑材料的地区,用于识别不同类型结构的计算机视觉技术可能表现不佳。在这两种情况下,正如我们和其他同事在最近的另一篇论文中讨论的那样,不考虑地区差异可能会对从救灾援助到自治系统的性能等任何事情产生深远的影响。

展望未来

人工智能技术不能简单地恶化或吸收当前人类社会的问题方面。

对不同环境的敏感和包容对于设计有效的技术解决方案至关重要。同样重要的是,不要认为价值观是普遍的。那些开发人工智能的人需要开始包括不同背景的人:不仅在设计数据集等技术方面,而且在定义可以用来制定和设置目标和优先级的价值方面。

热门搜索排行
声明:本站信息均由用户注册后自行发布,本站不承担任何法律责任。如有侵权请告知,立即做删除处理。
违法不良信息举报邮箱
晋ICP备17002844号
中国互联网举报中心