首页 500强 活动 榜单 商业 科技 领导力 专题 品牌中心
杂志订阅

伪造视频危害有多大?这位首席安全官拿本公司CEO作示范

Jenn Brice
2024-12-16

深度伪造技术对企业声誉构成了真正威胁,可能会削弱人们对领导层的信任。

文本设置
小号
默认
大号
Plus(0条)

Qualtrics首席安全官阿萨夫·克伦(Assaf Keren)期望同事们能更深刻地认识到深度伪造技术的质量正不断提升,其危险性日益加剧。为此,他制作了一段视频,在该视频中,公司首席执行官被塑造成一个从未来穿越而来的邪恶人工智能角色,警告员工视频和语音模仿的威胁迫在眉睫。

他仅花费20美元便完成了这项实验。在上周于旧金山举办的《财富》人工智能头脑风暴大会上,克伦表示:“这并非因为我无法免费完成这项实验,而是因为我偷懒。”

他承认,在线调查提供商Qualtrics可能不是网络攻击的主要目标,而像他的前雇主贝宝(PayPal)这样的知名金融公司则可能成为攻击目标。益博睿集团(Experian)的首席创新官凯瑟琳·彼得斯(Kathleen Peters)指出,她确实认为深度伪造技术对企业声誉构成了真正威胁,可能会削弱人们对领导层的信任。

如今,克隆首席执行官和普通人的视频和语音已司空见惯。克伦说:"我们经常在现实生活中看到这种情况。”在一个例子中,攻击者利用未经确认公司的财报电话会议记录来训练人工智能,进而对该公司的财务人员实施网络钓鱼攻击,这样就可以更准确地模仿高管的讲话方式。

克伦提到,两年前的情形与现在大不相同。他回忆道,当时人们对于深度伪造技术的讨论还停留在:“技术上虽然能够实现这一点,但我们在现实生活中还未发现实例。”

克伦补充说:“这是一种持续演进中的攻击手段,”只是黑客工具箱中众多人工智能工具之一。

安全软件公司Okta的客户身份云业务总裁希夫·拉姆吉(Shiv Ramji)预测,在不久的将来,人类将难以区分深度伪造内容与真实内容。而且,机器将比人类更擅于发现伪造内容。

尽管不受控制的人工智能会带来风险,但信息安全领域的领导者仍希望员工尝试新技术,但在尝试的过程中需要保持谨慎。

彼得斯建议公司成立风险委员会,或由拥有安全措施执行权限的高管组成的小组,以促使领导层在考虑收入增长的同时,给予安全问题同等重视。

拉姆吉指出,随着部分企业开始使用人工智能代理来替代人类员工执行工作任务,团队应考虑授权这些代理处理的数据和任务范畴。他说,人类仍应在整个流程中验证代理的活动,并且预见到未来代理之间的互动将呈现“爆炸式”的增长态势。

拉姆吉说:“这是机器与机器之间的对话,它们将全年不间断地进行这样的交流,且不受人类输入模式和交互模式的限制。"(财富中文网)

译者:中慧言-王芳

Qualtrics首席安全官阿萨夫·克伦(Assaf Keren)期望同事们能更深刻地认识到深度伪造技术的质量正不断提升,其危险性日益加剧。为此,他制作了一段视频,在该视频中,公司首席执行官被塑造成一个从未来穿越而来的邪恶人工智能角色,警告员工视频和语音模仿的威胁迫在眉睫。

他仅花费20美元便完成了这项实验。在上周于旧金山举办的《财富》人工智能头脑风暴大会上,克伦表示:“这并非因为我无法免费完成这项实验,而是因为我偷懒。”

他承认,在线调查提供商Qualtrics可能不是网络攻击的主要目标,而像他的前雇主贝宝(PayPal)这样的知名金融公司则可能成为攻击目标。益博睿集团(Experian)的首席创新官凯瑟琳·彼得斯(Kathleen Peters)指出,她确实认为深度伪造技术对企业声誉构成了真正威胁,可能会削弱人们对领导层的信任。

如今,克隆首席执行官和普通人的视频和语音已司空见惯。克伦说:"我们经常在现实生活中看到这种情况。”在一个例子中,攻击者利用未经确认公司的财报电话会议记录来训练人工智能,进而对该公司的财务人员实施网络钓鱼攻击,这样就可以更准确地模仿高管的讲话方式。

克伦提到,两年前的情形与现在大不相同。他回忆道,当时人们对于深度伪造技术的讨论还停留在:“技术上虽然能够实现这一点,但我们在现实生活中还未发现实例。”

克伦补充说:“这是一种持续演进中的攻击手段,”只是黑客工具箱中众多人工智能工具之一。

安全软件公司Okta的客户身份云业务总裁希夫·拉姆吉(Shiv Ramji)预测,在不久的将来,人类将难以区分深度伪造内容与真实内容。而且,机器将比人类更擅于发现伪造内容。

尽管不受控制的人工智能会带来风险,但信息安全领域的领导者仍希望员工尝试新技术,但在尝试的过程中需要保持谨慎。

彼得斯建议公司成立风险委员会,或由拥有安全措施执行权限的高管组成的小组,以促使领导层在考虑收入增长的同时,给予安全问题同等重视。

拉姆吉指出,随着部分企业开始使用人工智能代理来替代人类员工执行工作任务,团队应考虑授权这些代理处理的数据和任务范畴。他说,人类仍应在整个流程中验证代理的活动,并且预见到未来代理之间的互动将呈现“爆炸式”的增长态势。

拉姆吉说:“这是机器与机器之间的对话,它们将全年不间断地进行这样的交流,且不受人类输入模式和交互模式的限制。"(财富中文网)

译者:中慧言-王芳

Qualtrics chief security officer Assaf Keren wanted to make his colleagues more aware of the increasing quality and dangers of deepfakes. So he created a video that showed the company’s CEO as an evil AI persona who was sent from the future to warn workers about the looming threat of video and voice impersonations.

He spent just $20 on the experiment. “Because I was lazy, not because I couldn’t do it for free,” Keren said at Fortune’s Brainstorm AI in San Francisco this week.

He acknowledged that Qualtrics, a provider of online surveys, might not be a prime target for cyberattacks. But high-profile finance companies like his former employer, PayPal, might be. And Experian’s chief innovation officer, Kathleen Peters, said she does think of deepfakes as a real risk to corporate reputations that can erode trust in leaders.

Today, video and voice clones of CEOs and regular people alike are common. “We’re seeing it in the wild all the time,” Keren said. In one example, the threat actor trained AI on transcripts of an unidentified company’s earnings calls to create a phishing attack targeting that organization’s finance employees, so that it would more accurately mimic how an executive speaks, he said.

Two years ago that wasn’t necessarily the case, Keren said. Back then, he recalled, the conversation about deepfakes was, “the technology can do this, but we’re not seeing it in the wild.”

“It’s an evolving attack vector,” Keren added, and just one of various AI-powered tools in a hackers’ toolbox.

Shiv Ramji, president of customer identity cloud at the security software company Okta, predicted that it won’t be long before humans are unable to distinguish deepfakes from authentic content. And machines will be better than humans at detecting the inauthentic stuff.

While unchecked AI is a risk, information security leaders still want their workers to experiment with new technology—but with caution.

Peters suggests that companies set up a risk council, or a group of senior executives with authority to enforce safety measures, that can push leadership to think about security just as much as they do about growing revenue.

And as some organizations start to play with agentic AI that carries out tasks on behalf of human workers, Ramji said teams should think about the data and tasks that those agents are authorized for. A human should still be in the loop to verify the agent’s activities, he said, foreseeing an “explosion” of inter-agent interactions.

“It’s machines talking to themselves, and they’ll be doing this 24/7, all year. They’re not limited by the human input model, interaction model,” Ramji said.

财富中文网所刊载内容之知识产权为财富媒体知识产权有限公司及/或相关权利人专属所有或持有。未经许可,禁止进行转载、摘编、复制及建立镜像等任何使用。
0条Plus
精彩评论
评论

撰写或查看更多评论

请打开财富Plus APP

前往打开