首页 500强 活动 榜单 商业 科技 领导力 专题 品牌中心
杂志订阅

对生成式人工智能的重大利弊权衡

像ChatGPT这样的工具可以提高个人层面的效率,但也可能带来重大社会问题。

文本设置
小号
默认
大号
Plus(0条)

如果你已经开始在工作流程中加入生成式人工智能工具,例如ChatGPT,你就可能已经注意到了一个相当惊人的情况:虽然人工智能可以帮助你更有效率地写作或编码或画图,但它也需要花费许多功夫才能够把作品调整成类似于由你自己创作的东西。

因此,对于生成式人工智能,用户面临着一个基本的利弊权衡。为了最大限度地提高其效率优势,你需要牺牲一些对作品的“保真度”,也就是生成式人工智能在维持你独特风格或观点上的忠实或准确度。

“如果重点在于加快工作速度以及提高生产力,那么为了提高速度,你可能就必须在某个地方放弃某些东西。”凯洛格学院的管理经济学和决策学助理教授塞巴斯蒂安·马丁说道。

对个人来说,这种利弊取舍虽然痛苦,但至少直截了当。你可以把人工智能生成的作品视为“足够好”而接受它,或是投入更多的时间将作品个性化,比如通过事前提供更多信息、调整提示或事后对作品进行编辑。对于具有独特风格或观点的个人,他们甚至可能认为对人工智能作品进行个性化是弊大于利的麻烦事,因此干脆弃之不用。

然而,当每一个人都开始使用这些工具时,会是什么情况呢?速度与保真度之间的利弊取舍是否会对社会具有更广泛的短期与长期影响?

马丁在一项与美国加州大学洛杉矶分校同事弗朗西斯科·卡斯特罗和高健(译音)共同进行的新研究中发现,使用人工智能创建内容会增加我们集体产出作品的同质性,即使我们试图把作品进行个性化也不会改变。此外,这些内容还会继承人工智能在训练过程中可能学到的任何偏见。换句话说,少数人工智能公司的工作者的品味与偏见可能最终会渗透到整个社会之中。研究还发现,这些效应的负面影响会随着人工智能生成的作品用来训练下一代人工智能而加剧。

然而,从更积极的角度来看,该研究表明,创建鼓励用户提供信息以及促进手动编辑的人工智能工具能够预防出现这些结果的最糟糕的情况。

机遇与风险并存

马丁非常熟悉生成式人工智能具有的速度与保真度之间的利弊权衡。毕竟他的母语是法语,他经常需要依赖语法检查软件Grammarly来提高他的书面英语。他说:“我节省了大量时间!”

尽管如此,马丁也承认使用这个工具无可避免地会影响他写的文章。这倒不是什么严重的问题,最多就是个人惯用的标点符号、遣词用字和句子结构受到影响。“Grammarly写出来的东西不会和我自己写的东西一模一样。”他说,“同样的事物可以用不同的方式写出来,有时仅仅是风格不同而已。”

但其他时候,差异具有较大的意义。无论我们将一个事件描述为“抗议”或“骚乱”,或是从中间偏右或中间偏左的观点撰写一则新闻,都会有意义地塑造读者对事件的印象。更广泛地说,随着时间的推移,当每个人的集体品味都受到相同算法的影响时,会出现什么样的情况?

为了找到答案,马丁、卡斯特罗和高健建立了一个数学模型来模拟整个社会使用相同人工智能工具的结果。

在他们的模型中,具有各种不同偏好的用户使用人工智能执行相同的任务,并且能够选择依照自己的喜好把作品进行个性化。这些个性化是通过交换关于每一个用户的偏好信息来实现的。用户根据自己的情况决定要花费多少精力:提供更多信息意味着人工智能将可以更好地展现独特偏好,但这也需要更多的工作。提供较少的信息会更快更容易,但会产生更加一般化的结果,没有特殊性。如果用户提供的信息有限,那么即便是最好的人工智能也无法猜出用户的真正偏好,但它能够在训练过程中通过学习整个群体各式各样的偏好来做出有根据的猜测。

研究人员想知道,个人用户会如何决定这些工具的使用,以及他们的选择总体而言意味着什么?

受到算法启发

该模型证实,对具有最常见或中间偏好的用户来说,最佳的决定是按照原样接受人工智能产出的作品;但是,具有不太常见偏好的用户则会被激励向人工智能提供额外信息或编辑人工智能作品以使其与默认作品不同。而对具有边缘偏好的用户而言,人工智能根本不会节省时间,这类用户最好自己创建内容。

该模型也发现,人工智能生成内容的同质性总是高于用户生成内容,这个结论在个人层面是正确的,在此层面人工智能的益处来自于将我们自己的一些折衷偏好来代替更流行的偏好。该结论在群体层面也同样正确。人工智能生成内容呈现的偏好范畴比群体的偏好范围变化更小,这是因为具有边缘品味的用户根本不使用这项工具,以至于效果被放大。

此外,这种一致性会随着时间推移而累积,因为人工智能生成的内容会用来训练下一代人工智能,于是形成了一种研究人员称为的同质性“死亡螺旋”。新人工智能用同质性更高的数据加以训练,因此创造出同质性内容的可能性更大。于是用户需要花费更多的时间与精力来调整人工智能生成的作品以符合自己的偏好,有些人不愿意这么做,从而导致更加同质化。

该模型显示,人工智能的另一个问题,即偏见,也会随着时间的推移而累积。由于大多数人工智能是由少数人创建与训练(典型方式是采用RLHF,即基于人类反馈的强化学习),因此一些偏见渗入初始人工智能产出的作品几乎不可避免。用户可以通过一些努力来消除这种偏见,不过如果偏见够小,大多数人可能就会认为不值得去处理,或者甚至根本没有注意到。

但如果我们都这样做,那这种能够理解的个人行为就会累积。随着时间的推移,“任何人工智能偏见实际上可能转变为社会偏见。”马丁说道。

这让人工智能公司对社会产出作品具有巨大影响,即使用户竭尽所能加以限制也无法改变。

前进的道路

研究人员发现,有一些方法可以缓解与人工智能相关的社会问题。最有希望的一个方法是让更多的人与人工智能互动并且自己编辑人工智能生成的作品。只要模型生成的作品能够反映出用户的真实偏好,同质性和偏见便不会泛滥失控,而要能做到反映真实偏好就需要用户清楚表达自己的偏好。

在实践中,这或许意味着人工智能在生成结果之前先询问用户一些问题,以便更好地了解用户的独特风格或观点。这也许还意味着提供多个作品版本。

“不是给你一个版本,而是尝试给你两个截然不同的版本让你选择。”马丁表示。

他承认,这些建议在短期内会减慢用户的速度,从而使该技术的用处稍有降低。但从长远来看,无论对于用户还是对于人工智能工具来说,这种策略“肯定非常好”。

马丁对生成式人工智能在内容创作中发挥的作用仍然持乐观态度——只要它继续反映人类的全方位偏好。事实上,让大量新作家、艺术家或程序员更容易进行创作甚至可能会带来好处。

他说:“人工智能还可以让更多的人从事他们以前无法做到的事情,这可能会增加一点多样性。”(财富中文网)

财富中文网所刊载内容之知识产权为财富媒体知识产权有限公司及/或相关权利人专属所有或持有。未经许可,禁止进行转载、摘编、复制及建立镜像等任何使用。
0条Plus
精彩评论
评论

撰写或查看更多评论

请打开财富Plus APP

前往打开