人工智能可能并不是阻止假新闻传播的解决方案

放大字体  缩小字体 2021-11-30 14:00  浏览次数:

Artificial intelligence may not actually be the solution for stopping the spread of fake news

虚假信息一直被用于战争和军事战略中。但不可否认的是,智能技术和社交媒体的使用加剧了这种趋势。这是因为这些通信技术提供了一种相对低成本、低障碍的方式,基本上可以在任何地方传播信息。

那么,最重要的问题是:这个由技术产生的规模和范围问题也能用技术解决吗?

事实上,新技术解决方案的不断发展,如人工智能(AI),可能提供部分解决方案。

科技公司和社交媒体企业正致力于通过自然语言处理、机器学习和网络分析来自动检测假新闻。其想法是,一种算法将信息识别为“假新闻”,并将其排名降低,以降低用户遇到它的概率。

重复暴露

从心理学的角度来看,反复接触同一条信息会让人更有可能相信它。当人工智能发现虚假信息并降低其流通频率时,就可以打破强化信息消费模式的循环。

然而,人工智能检测仍然不可靠。首先,当前检测是基于对文本(内容)及其社交网络的评估来确定其可信度。尽管确定了假新闻的来源和传播模式,但根本问题在于人工智能如何验证内容的真实性质。

从理论上讲,如果训练数据量足够,人工智能支持的分类模型将能够解释一篇文章是否包含假新闻。然而,事实是,做出这样的区分需要事先掌握政治、文化和社会知识,或常识,而这些是自然语言处理算法仍然缺乏的。

此外,一项预印研究显示,如果假新闻被故意修改为“看起来像真实新闻,但包含虚假或操纵性信息”,假新闻可能会非常微妙。






BBC关于深度造假危险的报道。

Human-AI伙伴关系

分类分析也受到主题的严重影响——ai经常区分主题,而不是真正地确定问题的内容来确定其真实性。例如,与COVID-19相关的文章比其他话题更容易被贴上假新闻的标签。

一种解决方案是雇人与人工智能一起核实信息的真实性。例如,2018年,立陶宛国防部开发了一个人工智能程序,“在虚假信息发布后两分钟内标记出来,并将这些报告发送给人类专家进行进一步分析。”

加拿大也可以采取类似的做法,建立一个国家特别单位或部门来打击虚假信息,或者支持智库、大学和其他第三方研究针对虚假新闻的人工智能解决方案。

避免审查

在某些情况下,控制假新闻的传播可能被视为审查和对言论和表达自由的威胁。即使是人类也很难判断信息是否虚假。因此,也许更大的问题是:谁和什么决定了假新闻的定义?我们如何确保人工智能过滤器不会将我们拖入假阳性陷阱,不会因为相关数据而将信息错误地标记为假?

识别假新闻的人工智能系统可能会有邪恶的应用。例如,威权政府可能会利用人工智能作为借口,为删除任何文章辩护,或起诉不支持当局的个人。因此,任何人工智能的部署——以及由此产生的任何相关法律或测量——都需要一个有第三方监控的透明系统。

未来的挑战仍然是虚假信息——尤其是与外国干预相关的信息——是一个持续存在的问题。今天发明的算法可能无法检测出未来的假新闻。

例如,深度造假——“高度逼真且难以察觉的音频或视频数字操纵”——很可能在未来的信息战中发挥更大的作用。由于端到端加密,通过WhatsApp和Signal等信息应用传播的虚假信息正变得越来越难以跟踪和拦截。

最近的一项研究显示,50%的加拿大受访者定期通过私人消息应用收到假新闻。规范这一点需要在隐私、个人安全和打击虚假信息之间取得平衡。

虽然利用人工智能来打击虚假信息绝对值得投入资源,但考虑到潜在的后果,谨慎和透明是必要的。不幸的是,新的技术解决方案可能不是灵丹妙药。

热门搜索排行
声明:本站信息均由用户注册后自行发布,本站不承担任何法律责任。如有侵权请告知,立即做删除处理。
违法不良信息举报邮箱
晋ICP备17002844号
中国互联网举报中心