当使用更了解人口多样性的算法时,深度伪造检测会得到改进

放大字体  缩小字体 2024-04-19 07:07  浏览次数:

deepfake

深度造假——本质上是以一种非常可信的方式把话放进别人嘴里——正变得越来越复杂,越来越难以发现。最近深度伪造的例子包括泰勒·斯威夫特(Taylor Swift)的裸照、乔·拜登(Joe Biden)总统告诉新罕布什尔州居民不要投票的录音,以及乌克兰总统弗拉基米尔·泽伦斯基(Volodymyr zelensky)呼吁军队放下武器的视频。

尽管公司已经创建了检测器来帮助发现深度伪造,但研究发现,用于训练这些工具的数据中的偏见可能导致某些人口群体成为不公平的目标。

我和我的团队发现了新的方法,可以提高用于检测深度伪造的算法的公平性和准确性。

为此,我们使用了一个大型面部伪造数据集,让像我们这样的研究人员训练我们的深度学习方法。我们的工作是围绕最先进的异常检测算法进行的,该算法是深度伪造检测系统广泛使用的基础,可以以91.5%的准确率检测深度伪造。

为了鼓励公平性,我们创建了两种独立的深度伪造检测方法。

其中一个重点是通过按性别和种族标记数据集,使算法更加了解人口多样性,以尽量减少代表性不足群体的错误。

另一个目标是通过关注人眼不可见的特征来提高公平性,而不依赖于人口统计标签。

事实证明,第一种方法效果最好。它将准确率从基线的91.5%提高到94.17%,这比我们的第二种方法以及我们测试的其他几种方法的提高幅度更大。此外,它提高了准确性,同时提高了公平性,这是我们的主要关注点。

我们认为,如果公众要接受人工智能技术,公平和准确至关重要。当像ChatGPT这样的大型语言模型“产生幻觉”时,它们可能会永久保留错误的信息。这影响了公众的信任和安全。

同样,如果不能快速准确地检测到深度伪造的图像和视频,它们可能会破坏人工智能的采用。提高这些检测算法的公平性,使某些人口群体不会受到不成比例的伤害,这是一个关键方面。

我们的研究解决了深度伪造检测算法的公平性,而不仅仅是试图平衡数据。它提供了一种以人口公平为核心的算法设计新方法。

公司提供 nversation

本文转载自The Co在知识共享许可下的对话。阅读原文。The Conversation

引用:当使用更了解人口多样性的算法时,Deepfake检测得到了改进(2024年,4月16日) 作品受版权保护。除为私人学习或研究目的而进行的任何公平交易外,未经书面许可,不得转载任何部分。的有限公司 内容仅供参考之用。

热门搜索排行
声明:本站信息均由用户注册后自行发布,本站不承担任何法律责任。如有侵权请告知,立即做删除处理。
违法不良信息举报邮箱
晋ICP备17002844号
中国互联网举报中心