人工智能技术显示出文化偏见——以下是原因和可以采取的措施

放大字体  缩小字体 2024-05-09 07:34  浏览次数:

ai system

莫道克大学信息技术学院的人工智能专家Kevin Wong教授表示,为了解决人工智能中的文化偏见问题,了解不同人工智能技术的基本原理非常重要。

“机器学习技术,包括生成式人工智能,需要大量的‘代表性’数据来训练复杂的系统,”黄博士说。

“数据驱动的机器学习技术依赖于数据来建立系统的智能,这意味着当使用的数据不够全面,或者分布不平衡时,就会出现偏差。”

他说,虽然许多大型科技公司正在努力确保用于训练生成式人工智能的数据中的公平性、多样性和道德问题得到解决,但如果没有适当的处理,该技术的行为仍然是不可预测的。

一些可公开访问的人工智能系统被指责无法生成跨种族夫妇的图像,这是一个更大问题的征兆。

黄教授说,需要一个“全面的评估和测试策略”。

推动全系统变革的是长期、全面的评估,以建立一个更大的数据库,并改进人工智能架构,但黄教授表示,有一些策略可以处理这类问题。

这包括将人类能够更好地控制和理解的其他人工智能技术结合起来,例如可解释的人工智能和可解释的人工智能。

这些系统确保人类保持智力监督,使人工智能给出的决策和答案可预测。

这与其他形式的AI不同,即使设计师也无法解释他们的某些结果。

黄教授说,负责任的人工智能是另一个新兴的重要领域,它是一种“规则手册”,由人工智能的原则组成,指导人工智能的发展。

“没有一个简单的解决方案可以在一夜之间解决这个问题;可能需要采用多维度和分层的方法来处理这些复杂的问题。

黄教授说:“问题是如何最好地调整已开发的人工智能系统,以处理文化、多样性、公平、隐私和道德等敏感问题,这些都是指导用户接受的重要领域。”

“如果调整一些参数或数据集以包括对这些广泛问题的处理,那么在推出人工智能系统之前,是否有一种系统的方法可以在不伤害任何人的情况下对其进行全面测试?”

虽然目前存在多样性和人工智能的问题,但黄教授表示,如果使用得当,人工智能可以成为“帮助缩小公平和多样性差距”的有力途径。

他说:“重要的是,要根据一些规则和道德考虑来制定一个通用系统,然后使其适应不同的文化和个人需求。”

“然而,在广泛使用之前,彻底的测试和评估是必不可少的,因为一些结果可能会导致世界各地一些人群的敏感和脆弱情绪。”

莫道克大学提供
引用人工智能技术显示出文化偏见——以下是原因和可以做些什么(2024年5月6日 作品受版权保护。除为私人学习或研究目的而进行的任何公平交易外,未经书面许可,不得转载任何部分。的有限公司 内容仅供参考之用。

热门搜索排行
声明:本站信息均由用户注册后自行发布,本站不承担任何法律责任。如有侵权请告知,立即做删除处理。
违法不良信息举报邮箱
晋ICP备17002844号
中国互联网举报中心