人工智能可以基于种族、性别和年龄进行歧视

放大字体  缩小字体 2022-01-22 16:01  浏览次数:

Artificial intelligence can discriminate on the basis of race and gender, and also age

我们已经接受了在复杂过程中使用人工智能(AI)——从医疗保健到我们日常使用社交媒体——往往没有进行批判性的调查,直到为时已晚。在现代社会中,人工智能的使用是不可避免的,它可能会在用户没有意识到任何偏见的情况下使歧视延续下去。当医疗保健提供者依赖有偏见的技术时,就会产生真实的有害影响。

最近,一项研究表明,脉搏血氧仪(测量血液中的氧含量,一直是临床管理covid -19的重要工具)对肤色较深的人的准确度低于肤色较浅的人,这一点变得清晰起来。这一发现导致了一项广泛的种族偏见审查,目前正在进行中,试图为医疗设备的测试建立国际标准。

在医疗保健、商业、政府和日常生活中,有一些例子表明,有偏见的算法会导致问题,比如性别歧视搜索和对犯罪者再次犯罪可能性的种族主义预测。

人工智能通常被认为比人类更客观。然而,在现实中,人工智能算法基于人类标注的数据做出决策,这可能是有偏见的和排他的。目前关于人工智能偏见的研究主要集中在性别和种族方面。但与年龄有关的偏见呢?人工智能会是年龄歧视吗?

又技术?

2021年,世界卫生组织发布了一份关于老龄化的全球报告,呼吁采取紧急行动打击年龄歧视,因为它对健康和福祉产生了广泛影响。

年龄歧视被定义为“一种因为人们是老人而对他们有系统的刻板印象和歧视的过程。”它可以是显性的,也可以是隐性的,可以采取消极态度、歧视性活动或制度化的做法的形式。

在2019冠状病毒病大流行期间,普遍存在的年龄歧视问题被置于风口浪尖。老年人被贴上“社会负担”的标签,在一些司法管辖区,年龄已经被用作挽救生命的治疗的唯一标准。

当基于年龄的偏见和歧视被技术创造或支持时,数字年龄歧视就存在了。最近的一份报告指出,每天产生的“数字世界”的数据量超过2.5万亿字节。然而,尽管老年人越来越多地使用科技,并从中受益,但他们仍然是最不可能接触电脑和互联网的年龄段。

当年龄歧视态度影响技术设计时,或者当年龄歧视使老年人更难获得和享受数字技术的全部好处时,就会出现数字年龄歧视。






世界卫生组织针对年龄歧视的运动。

周期的不公正

技术、个人和社会偏见相互作用,产生、强化和助长了数字年龄歧视,这是几个相互交织的不公正循环。

技术获取的障碍可能会将老年人排除在数字技术的研究、设计和开发过程之外。他们在技术设计和开发方面的缺位,也可能是由于年龄歧视,认为老年人没有能力使用技术。因此,老年人及其观点很少参与人工智能及相关政策、资金和支持服务的开发。

老年人的独特体验和需求被忽视了,尽管年龄比其他人口统计特征(包括种族和性别)更能预测技术使用。

人工智能是由数据训练的,而老年人的缺失可能会在其输出中重现甚至放大上述年龄歧视的假设。许多人工智能技术关注的是老年人健康状况不佳的刻板形象——这是忽视健康老龄化的一小部分人口。这就形成了一个负反馈循环,不仅阻碍老年人使用人工智能,而且还会导致这些人口统计数据的进一步丢失,从而提高人工智能的准确性。

即使将老年人包含在大型数据集中,他们也经常被开发人员按照任意的划分进行分组。例如,老年人可以被定义为年龄在50岁及以上的人,尽管较年轻的年龄组被划分为较窄的年龄范围。因此,人工智能系统可能会忽视老年人及其需求。

通过这种方式,人工智能系统强化了不平等,放大了对部分人口的社会排斥,创造了一个主要由老年人、穷人、种族主义和边缘化群体组成的“数字下层阶级”。

解决数字年龄歧视

随着越来越多的老年人使用科技产品,我们必须了解与年龄相关的偏见所带来的风险和危害。

第一步是让研究人员和开发人员认识到数字年龄歧视以及其他形式的算法偏见(如种族主义和性别歧视)的存在。他们需要努力识别和测量它。下一步是为人工智能系统开发保障措施,以减轻年龄歧视的后果。

从监管或法律的角度来看,目前对人工智能驱动的活动的培训、审计或监督很少。例如,加拿大目前的人工智能监管制度极其缺乏。

这是一个挑战,但也是一个机会,将年龄歧视和其他形式的偏见和歧视纳入需要切除的范围。为了对抗数字时代的年龄歧视,老年人必须以一种有意义的、合作的方式参与新技术的设计。

如今,人工智能中的偏见已被认为是亟需采取紧急行动的关键问题,现在是时候考虑老年人的数字年龄歧视经历,并了解在日益数字化的世界中,变老如何可能加剧社会不平等、排斥和边缘化。

热门搜索排行
声明:本站信息均由用户注册后自行发布,本站不承担任何法律责任。如有侵权请告知,立即做删除处理。
违法不良信息举报邮箱
晋ICP备17002844号
中国互联网举报中心