首页 500强 活动 榜单 商业 科技 领导力 专题 品牌中心
杂志订阅

如何利用生成式人工智能形成竞争优势?

SHANE LUKE
2023-10-02

公司必须为安全应用生成式人工智能技术制定策略。

文本设置
小号
默认
大号
Plus(0条)

压力来袭。幸运的是,我们在人工智能革命中已经走的够远,因此我们知道哪些因素必不可少。图片来源:GETTY IMAGES

2022年11月,OpenAI发布ChatGPT之后,生成式人工智能很快从深奥的罕见之物,变成了主流,启发人们的思考。之后,几乎所有行业都变得更加迫切地想要应用这项技术。各行各业都渴望抓住这波技术浪潮,因此在这种疯狂冲动之下,出现了各种各样的应用,如快速医学研发(人工智能最近帮助发现了一种可杀死超级细菌的抗生素),在软件开发领域加快编程速度,或者优化业务流程从而加快数据驱动决策等。

虽然人工智能在商界很快成为焦点,商界领袖们也看好它增强劳动力和提高生产力的能力,但Workday的《全球高管人工智能指数报告》(C-Suite Global AI Indicator Report)显示,只有44%的公司推出了人工智能产品或扩大应用规模。近一半(49%)CEO表示,由于缺乏工具、技能和知识,其所在公司尚未做好采用人工智能和机器学习(ML)的准备。

但对于许多公司而言,这种情况不会持续太久。据麦肯锡(McKinsey)统计,未来三年,有超过三分之二的公司计划增加人工智能投资。人工智能潜力巨大,而且公司有强烈的意愿释放这种潜力。现在,公司必须为安全应用这项技术制定策略。

充分利用生成式人工智能的能力和减少其所带来的风险,需要满足三个基本条件:优质数据、负责任的执行和高管与IT部门之间的战略合作。

数据质量:生成式人工智能的基础

ChatGPT以及其他类似应用背后的大语言模型,通常使用网络抓取的海量大数据进行训练。事实证明,它们能够非常有效地生成长格式、有条理的自然语言。然而,这些模型也经常会生成令人不满意的结果,例如存在事实错误(即所谓的“幻觉”),甚至不良的或有偏见的内容。这并不令人意外,因为这些问题本身就存在于训练这些模式所使用的数据当中。

因此,数据完整性是高管们担心的一个重要问题。Workday的人工智能指数报告显示,约三分之二(67%)CEO认为“潜在错误”是整合人工智能和机器学习的最大风险,而且只有4%的受访者表示,他们的数据可以完全访问。

这种观点可谓一针见血。许多公司能生成高质量的纯净数据,但他们还没有建立强大的数据基础。相反,他们要应对孤岛式的、无法访问的数据,或者结构不统一甚至未充分数字化的数据。

高管们若想创建和执行生成式人工智能工具,首先需要奠定必要的基础:高质量、可靠和容易访问的数据。如果没有这个基础,对人工智能的投资不可能创造持续的价值。

好消息是,最近值得关注的大多数与生成式人工智能有关的问题,如结果不准确或侵犯知识产权等,都是由于使用了广泛的、从网络上抓取的数据集。在商业背景下,数据集通常质量更高。这些数据集规模更小,重点更突出,而且属于专有数据,这都可以帮助减少部分风险。

负责任的执行:以人为本的方法

以负责任的方式应用生成式人工智能,意味着在执行过程中,必须以尊重隐私、安全和人类判断为基础。最近技术进步的爆火,以及大语言模型暴露出来的一些广为人知的问题,令许多公司领导者意识到这项技术的潜在风险,并着手积极解决这些问题。

而这些问题的核心就是隐私、安全和准确性,这也是在Workday的报告中CEO们最担心的问题。麦肯锡发现,只有21%的公司表示,针对员工如何在工作中使用生成式人工智能,公司有负责任的人工智能治理计划,这表明仍有巨大的改进空间。在创建生成式人工智能系统时,应该采用安全和负责任的方式,使用安全透明的数据集,这样做不仅能避免偏见,还能带来实实在在的好处。

只要以恰当的方式使用人工智能,它就能带来许多好处,如提高员工保留率、改善审计或对高级劳动力技能进行分析等,而且它并不会取代人类。要在员工和客户当中建立信任和获得支持,重要的一步是开发负责任的治理计划,以清晰地传达以人为本的人工智能道德准则。

IT部门:你的战略合作伙伴

人工智能对职场的影响,与互联网带来的颠覆性影响类似,需要有全公司范围的综合策略,而IT部门应该是实现人工智能的效益并将效益最大化的合作伙伴。高管的战略愿景和IT部门的专业技术相结合,能够促进创新,为公司获得竞争优势。

随着人工智能和机器学习应用日益增多,并成为让公司保持全球竞争力的关键核心,这种合作的力度则变得至关重要。此外,通过合作发现和减少执行人工智能可能存在的陷阱,也有助于增强风险管理。通过强有力的合作,公司可以建立必要的“护栏”,保证以负责任的方式应用人工智能,同时将生成式人工智能技术的实际商业效益最大化。

随着现成的企业级生成式人工智能工具越来越多,在人工智能领域继续观望将不再是明智之举。保持竞争力意味着要充分利用人工智能的变革潜力。这不只是一种选择,而是获得竞争优势和保证未来在日益数字化的世界不被淘汰的决定性一步。(财富中文网)

本文作者沙恩·卢克为Workday副总裁兼人工智能与机器学习总监。Workday是《财富》人工智能头脑风暴大会的合作伙伴。

翻译:刘进龙

审校:汪皓

2022年11月,OpenAI发布ChatGPT之后,生成式人工智能很快从深奥的罕见之物,变成了主流,启发人们的思考。之后,几乎所有行业都变得更加迫切地想要应用这项技术。各行各业都渴望抓住这波技术浪潮,因此在这种疯狂冲动之下,出现了各种各样的应用,如快速医学研发(人工智能最近帮助发现了一种可杀死超级细菌的抗生素),在软件开发领域加快编程速度,或者优化业务流程从而加快数据驱动决策等。

虽然人工智能在商界很快成为焦点,商界领袖们也看好它增强劳动力和提高生产力的能力,但Workday的《全球高管人工智能指数报告》(C-Suite Global AI Indicator Report)显示,只有44%的公司推出了人工智能产品或扩大应用规模。近一半(49%)CEO表示,由于缺乏工具、技能和知识,其所在公司尚未做好采用人工智能和机器学习(ML)的准备。

但对于许多公司而言,这种情况不会持续太久。据麦肯锡(McKinsey)统计,未来三年,有超过三分之二的公司计划增加人工智能投资。人工智能潜力巨大,而且公司有强烈的意愿释放这种潜力。现在,公司必须为安全应用这项技术制定策略。

充分利用生成式人工智能的能力和减少其所带来的风险,需要满足三个基本条件:优质数据、负责任的执行和高管与IT部门之间的战略合作。

数据质量:生成式人工智能的基础

ChatGPT以及其他类似应用背后的大语言模型,通常使用网络抓取的海量大数据进行训练。事实证明,它们能够非常有效地生成长格式、有条理的自然语言。然而,这些模型也经常会生成令人不满意的结果,例如存在事实错误(即所谓的“幻觉”),甚至不良的或有偏见的内容。这并不令人意外,因为这些问题本身就存在于训练这些模式所使用的数据当中。

因此,数据完整性是高管们担心的一个重要问题。Workday的人工智能指数报告显示,约三分之二(67%)CEO认为“潜在错误”是整合人工智能和机器学习的最大风险,而且只有4%的受访者表示,他们的数据可以完全访问。

这种观点可谓一针见血。许多公司能生成高质量的纯净数据,但他们还没有建立强大的数据基础。相反,他们要应对孤岛式的、无法访问的数据,或者结构不统一甚至未充分数字化的数据。

高管们若想创建和执行生成式人工智能工具,首先需要奠定必要的基础:高质量、可靠和容易访问的数据。如果没有这个基础,对人工智能的投资不可能创造持续的价值。

好消息是,最近值得关注的大多数与生成式人工智能有关的问题,如结果不准确或侵犯知识产权等,都是由于使用了广泛的、从网络上抓取的数据集。在商业背景下,数据集通常质量更高。这些数据集规模更小,重点更突出,而且属于专有数据,这都可以帮助减少部分风险。

负责任的执行:以人为本的方法

以负责任的方式应用生成式人工智能,意味着在执行过程中,必须以尊重隐私、安全和人类判断为基础。最近技术进步的爆火,以及大语言模型暴露出来的一些广为人知的问题,令许多公司领导者意识到这项技术的潜在风险,并着手积极解决这些问题。

而这些问题的核心就是隐私、安全和准确性,这也是在Workday的报告中CEO们最担心的问题。麦肯锡发现,只有21%的公司表示,针对员工如何在工作中使用生成式人工智能,公司有负责任的人工智能治理计划,这表明仍有巨大的改进空间。在创建生成式人工智能系统时,应该采用安全和负责任的方式,使用安全透明的数据集,这样做不仅能避免偏见,还能带来实实在在的好处。

只要以恰当的方式使用人工智能,它就能带来许多好处,如提高员工保留率、改善审计或对高级劳动力技能进行分析等,而且它并不会取代人类。要在员工和客户当中建立信任和获得支持,重要的一步是开发负责任的治理计划,以清晰地传达以人为本的人工智能道德准则。

IT部门:你的战略合作伙伴

人工智能对职场的影响,与互联网带来的颠覆性影响类似,需要有全公司范围的综合策略,而IT部门应该是实现人工智能的效益并将效益最大化的合作伙伴。高管的战略愿景和IT部门的专业技术相结合,能够促进创新,为公司获得竞争优势。

随着人工智能和机器学习应用日益增多,并成为让公司保持全球竞争力的关键核心,这种合作的力度则变得至关重要。此外,通过合作发现和减少执行人工智能可能存在的陷阱,也有助于增强风险管理。通过强有力的合作,公司可以建立必要的“护栏”,保证以负责任的方式应用人工智能,同时将生成式人工智能技术的实际商业效益最大化。

随着现成的企业级生成式人工智能工具越来越多,在人工智能领域继续观望将不再是明智之举。保持竞争力意味着要充分利用人工智能的变革潜力。这不只是一种选择,而是获得竞争优势和保证未来在日益数字化的世界不被淘汰的决定性一步。(财富中文网)

本文作者沙恩·卢克为Workday副总裁兼人工智能与机器学习总监。Workday是《财富》人工智能头脑风暴大会的合作伙伴。

翻译:刘进龙

审校:汪皓

When OpenAI launched ChatGPT in November 2022, generative artificial intelligence instantly went from esoteric curiosity to mainstream and provocative. Since then, the urgency to apply this technology across nearly all industries has only intensified. Applications as varied as rapid medical science discoveries (AI recently helped identify a new superbug-killing antibiotic), quicker coding in software development, or optimization of business processes to accelerate data-driven decision-making have all been part of this frenzied rush to ride this technology wave.

While AI has quickly become a topic of conversation in the business world, and business leaders are optimistic about its ability to augment the workforce and drive productivity, only 44% of organizations are rolling out or scaling up adoption, according to Workday’s C-Suite Global AI Indicator Report. Nearly half (49%) of CEOs say their organization is unprepared to adopt AI and machine learning (ML), because of a lack of tools, skills, and knowledge.

But for many companies, that won’t be the case for long. More than two-thirds of organizations plan to increase their AI investments in the next three years, according to McKinsey. The potential benefits, and the will to realize them, are huge. Now organizations must form a strategy to safely capitalize on the technology.

Fully leveraging the capabilities of generative AI, and mitigate its risks, requires three essential things: quality data, responsible implementation, and a strategic partnership between the C-suite and IT.

Data quality: Generative AI’s foundation

The large language models (LLMs) behind ChatGPT and similar applications are usually trained on broad swaths of language data scraped from the web. They have proven very effective at outputting long-form, well-structured natural language. However, they have also been shown to frequently produce undesirable outputs, like things that are factually incorrect (known as “hallucinations”), or even toxic or biased content. That is not very surprising, given how those things are present in the data they were trained on.

As a result, data integrity is a major concern for the C-suite. About two-thirds (67%) of CEOs view “potential errors” as a top risk of AI and ML integration, and only 4% of all respondents said their data is completely accessible, according to Workday’s AI Indicator report.

That perception is on point. Many organizations generate high-quality, clean data, but have yet to build a strong data foundation. Instead, they’re struggling with siloed, inaccessible data or data that’s not uniformly structured or even fully digitized.

Executives who want to create and implement generative AI tools need to put the necessary building blocks in place first: high-quality, reliable, and easily accessible data. Without that, investment in AI is unlikely to produce sustained value.

The good news is that most of the recent, noteworthy generative AI problems—incorrect outputs or IP infringements—were a result of using those broad, web-scraped data sets. In a business context, data sets are usually higher-quality. They’re smaller, more focused, and proprietary, all of which help mitigate some of the risks.

Responsible implementation: A human-centric approach

Applying generative AI in a responsible way means implementation must be grounded in respect for privacy, security, and human judgment. The tremendous publicity around recent advancements, and some of the publicly visible issues LLMs have demonstrated, have made many leaders aware of potential risks to the technology, and they’re being proactive in addressing them.

Privacy, security, and accuracy—top concerns flagged by CEOs in Workday’s report—should stay front and center. Still, just 21% of companies report having a responsible AI governance program for how employees can use generative AI at work, McKinsey found, showing there is plenty of room for improvement. Generative AI systems can be built out safely and responsibly, with secure, transparent data sets that protect against bias and delivers tangible benefits.

When used properly, AI can do things like boost employee retention, improve auditing, or do advanced workforce skill mapping, and it can do all of that without displacing people. An important step in building trust and securing buy-in among employees and customers is developing a responsible governance program to articulate AI ethics principles that puts people at the center.

The IT department: Your strategic partner

The influence of AI on the world of work, similar to the transformative impact of the internet, requires a comprehensive company-wide approach, with IT positioned as a partner to drive and maximize its benefits. The C-suite’s strategic vision and IT’s technical expertise can be combined to drive innovation and gain a competitive advantage.

As AI and ML applications multiply, and become central to running a globally competitive business, the strength of this partnership is crucial. Moreover, it strengthens risk management by identifying, and mitigating, potential pitfalls in AI implementation. With a strong partnership in place, organizations can establish the necessary guardrails to ensure responsible AI practices while maximizing the tangible business benefits of generative AI technologies.

With a growing number of off-the-shelf enterprise generative AI tools now available, sitting on the AI sidelines is no longer an option. Remaining competitive means fully leveraging AI’s transformative potential. This is not just a choice; it is the defining step toward securing a competitive edge and ensuring future relevance in an increasingly digital world.

Shane Luke is vice president, head of AI and machine learning at Workday. Workday is a partner of Fortune‘s Brainstorm A.I.

财富中文网所刊载内容之知识产权为财富媒体知识产权有限公司及/或相关权利人专属所有或持有。未经许可,禁止进行转载、摘编、复制及建立镜像等任何使用。
0条Plus
精彩评论
评论

撰写或查看更多评论

请打开财富Plus APP

前往打开