【TechCrunch Disrupt 2023】生成式人工智能如何加速虚假信息传播
人们对虚假信息的认识比以前更加明晰。根据最近的一项民意调查,十名美国成年人中有九名会核实新闻的事实,96%的人希望限制虚假信息的传播。
但随着生成式人工智能工具的出现,遏制虚假信息的火箭炮变得越来越困难,而不是更容易。
这是TechCrunch Disrupt 2023上AI舞台上有关虚假信息和人工智能的高层次讨论的主要结论,该讨论由NewsGuard的合作伙伴关系执行副总裁Sarah Brandt和Adobe的内容真实性计划(CAI)高级总监Andy Parsons组成。与会者讨论了AI生成的虚假信息威胁以及在选举年来临之际可能的解决方案。
Parsons用相当严厉的措辞形容了风险:
坦率地说,如果没有一个核心基础和我们可以分享的客观真理,民主面临着风险,这绝非言过其实。能够与其他人就共享真相进行客观对话也岌岌可危。
Brandt和Parsons都承认,无论是否借助AI,网络上的虚假信息并不是一个新现象。Parsons提到了2019年前众议院议长南希·佩洛西(D-CA)的病毒视频剪辑,该视频使用粗糙的编辑手法使佩洛西看起来好像是以含糊、尴尬的方式发言。
但Brandt也指出,多亏了人工智能,特别是生成式人工智能,现在生成和大规模传播虚假信息变得更加便宜和简单。
她引用了她在NewsGuard工作中的统计数据,该公司为新闻和信息网站开发了一个评级系统,并提供诸如虚假信息跟踪和广告品牌安全等服务。今年五月,NewsGuard识别出了49个新闻和信息网站,这些网站似乎几乎全部由人工智能工具编写。自那时以来,该公司已经发现了数百个额外的不可靠的、由人工智能生成的网站。
"这真的是一个数量游戏," Parsons说道。"他们只是每天制作数百篇甚至数千篇文章,这是一场广告收入游戏。在某些情况下,他们只是试图获得大量内容,进入搜索引擎并获得一些程序化广告收入。在某些情况下,我们看到他们传播虚假信息和假消息。"
而进入这个领域的门槛正在降低。
NewsGuard在今年三月底发布的另一项研究发现,OpenAI的旗舰文本生成模型GPT-4在受到启发时更有可能传播虚假信息,而不是其前任GPT-3.5。NewsGuard的测试发现,GPT-4在各种格式中更善于以更具说服力的方式提升虚假叙述,包括“新闻文章、Twitter帖子和模仿俄罗斯和中国国家媒体、健康谣言传播者和著名阴谋论者的电视剧本。”
那么,对于这一困境,答案是什么?目前还不清楚。
Parsons指出,Adobe维护着一系列生成式人工智能产品称为Firefly,实施了一些防止滥用的保护措施,如过滤器。而Adobe于2019年与纽约时报和Twitter共同创立的“内容真实性倡议”推广了一项有关出处元数据的行业标准。
但CAI的标准使用是完全自愿的,并且仅因为Adobe正在实施保护措施并不意味着其他公司会效仿,或者这些保护措施不会被绕过。
与此同时,与会者们提出了水印技术作为另一种有用的措施,尽管不是灵丹妙药。
许多组织正在探索用于生成媒体的水印技术,包括DeepMind,该公司最近提出了一种标准SynthID,用于标记人工智能生成的图像,这种标记对于人眼来说是难以察觉的,但可以轻松被专用检测器发现。法国初创公司Imatag,于2020年推出了一种水印工具,声称不受图像调整、裁剪、编辑或压缩的影响,类似于SynthID。另一家名为Steg.AI的公司采用人工智能模型来应用可以在调整大小和其他编辑后保留的水印。
事实上,提到市场上一些水印方面的工作和技术,Brandt表达了对“经济激励”的乐观看法,认为这将鼓励那些正在开发生成式人工智能工具的公司更加深思熟虑如何使用这些工具,以及如何设计它们以防止被滥用。
她说:“对于生成式人工智能公司来说,他们的内容必须值得信赖,否则人们不会使用它。”“如果它继续产生幻觉,继续传播虚假信息,继续不引用来源——那将比那些正在努力确保其内容可靠性的生成式人工智能公司不可靠。”
我不太确定,尤其是在高度能力出众、没有保护措施的开源生成式人工智能模型变得普遍可用的情况下。我想,像所有事情一样,时间会告诉我们答案。