首页 500强 活动 榜单 商业 科技 领导力 专题 品牌中心
杂志订阅

面对人工智能生成的不实信息,我们如何做好准备?

“我们必须小心,不要被科幻问题分散注意力,而要专注于最迫切的具体风险。”

文本设置
小号
默认
大号
Plus(0条)

人工智能系统的爆炸式增长为用户提供了一系列惊人的任务解决方案。由于大型语言模型(LLM)生成式人工智能工具的蓬勃发展,例如ChatGPT-4和Bard等等,如今创建文本、图像和视频变得更加容易,与人类创作的作品往往无法区分。

因为这些模型校准用于创建原创内容,因此生成不正确的产品无可避免,甚至是预期会发生的,这种情况已经被充分记载。因此,这些工具也使得在网上捏造与散播不实信息变得容易很多。

这些技术的进展速度让一些有识之士感到相当紧张。在近期的一封公开信里,包括埃隆·马斯克和史蒂夫·沃兹尼亚克在内的技术专家们纷纷出面呼吁暂停研发人工智能六个月,他们问:“我们是否应该任由机器使用宣传和谎言淹没我们的信息渠道?”

无论这些人工智能系统的进展速度如何,我们都将必须习惯于数量庞大的不实信息,研究网上社交互动的凯洛格学院管理与组织学教授威廉·布雷迪表示。

“我们必须要小心,不要被科幻问题分散注意力,而要专注于最迫切的具体风险。”布雷迪说道。

在下文中,布雷迪破解了关于人工智能生成的不实信息的常见恐惧,并且澄清我们如何能够学习与其共存。

不实信息比虚假信息问题更大

布雷迪很快对不实信息和虚假信息进行区分。不实信息是误导或不是事实的内容,虚假信息则是用来欺骗受众的策略性创建和采用的信息。

知道两者的不同之处是评估风险的第一步,布雷迪表示。他指出,大部分时候,当人们担心生成式人工智能的潜在伤害时,他们害怕它会导致虚假信息暴增。

“大型语言模型的一种明显用途是它比以往任何时候都更容易创造虚假信息和深度伪造等事物。”布雷迪说,“这个问题也许会随着大型语言模型的进展变得更严重,但它事实上仅仅是一个更普遍性问题中的一部分。”

虽然深度伪造因为意图误导而会有问题,但它们在所有网络内容中的整体渗透率很低。

“毫无疑问,生成式人工智能将成为虚假政治信息的主要来源之一。”他表示。“它是否真的具有巨大影响力则有待观察。”

布雷迪称,持续存在不实信息,比容易制造不实信息更可能出现问题。大型语言模型通过扫描数十亿份文件进行模式识别训练,因此它们可以展现权威,但在偏离基准时,却缺乏辨识能力。当人们受人工智能制造的小错误导却又把它们当作来自专家的信息那样信任时,就会出现问题。

“大型语言模型学习如何表现出信心十足,但不一定准确。”布雷迪说道。

这是否意味着我们对生成式人工智能用得越多,不实信息将呈指数级增长?布雷迪表示,我们无法确定。他指出,根据这项研究,社交媒体平台上的不实信息数量很少,有些人估计仅仅占整体信息生态系统的1%至2%。

他说:“ChatGPT因为增加不实信息供应量而突然使不实信息问题变大,这种想法没有实证。心理因素导致不实信息的传播,这个问题比供应量的问题更大。”

我们也是不实信息背后的问题

布雷迪认为,或许不实信息带来的最大挑战不仅仅来自于毫无节制的技术进展,人们相信机器的心理倾向也难辞其咎。他表示,我们不倾向删减人工智能生成的内容,因为这么做很劳心费力。换句话说,如果我们不花时间和精力去严格审视在互联网上读到的信息,我们就会更容易让自己去相信不实信息。

“人们有一种‘自动化偏见’,这种偏见使我们认定由电脑模型生成的信息比人类创造的信息更正确。”布雷迪称。结果是,人们通常不太怀疑人工智能创造的内容。

当人们相信不实信息,并且不去质疑其真实性就进行分享,不实信息就传播出去了。布雷迪说,人们需要更加留意,了解自己通过哪些方式在不知不觉中促成不实信息的创造与传播。布雷迪将此称为一个“污染问题”。

布雷迪说:“不实信息的问题往往出在消费者这一边,与人们在社交上如何分享与做出结论息息相关,与自己制造出的信息相关较小。人们相信自己读到的东西,并在分享时添油加醋。事实上,他们已经被误导,而且在放大夸张。”

接受教育

布雷迪表示,在现实中,我们不能等待监管机构的监督或公司的控制来遏止不实信息,他们对内容如何创建与分发的影响力微不足道。鉴于人工智能的增长势不可挡,我们需要学习如何更加认识到可能在何时与何地遇到不实信息。

在理想的世界中,公司会扮演一个重要的角色。

“公司必须根据自己推出的产品做出负责的介入行动。”他说,“如果内容被标记为有问题,至少人们就能够决定它可不可信。”

布雷迪希望看到类似做法应用在不实信息和生成式人工智能上。他赞成网络平台通过标注生成式人工智能内容来帮助用户检测不实信息。但他知道等待技术公司推出有效的控制方法是不合理的期待。

“公司不总是因为做出所有应该做的事情而获得奖励,而且那样做也不会改变我们目前的情况。但我们其实也可以把这个权力赋予个人。”布雷迪表示。

培养用户对不实信息最可能出现的情境的察觉能力,或许能够降低不实信息散播的可能性。

既然年纪较大的成年人最可能成为不实信息的受害者,向那些互联网精通程度不及Z世代的成年人提供比如数字扫盲培训视频或游戏化网站等基础教育,对压制网络不实信息可能很有助益。这些努力可以包括设计各种活动唤起大众注意力,让人们察觉算法在过度推广特定类型的内容(包括极端的政治内容)中扮演的角色。

“这是关于教育人们了解有关自己最容易受到不实信息影响的背景情况。”(财富中文网)

财富中文网所刊载内容之知识产权为财富媒体知识产权有限公司及/或相关权利人专属所有或持有。未经许可,禁止进行转载、摘编、复制及建立镜像等任何使用。
0条Plus
精彩评论
评论

撰写或查看更多评论

请打开财富Plus APP

前往打开