2022年11月,OpenAI發布ChatGPT之后,生成式人工智能很快從深奧的罕見之物,變成了主流,啟發人們的思考。之后,幾乎所有行業都變得更加迫切地想要應用這項技術。各行各業都渴望抓住這波技術浪潮,因此在這種瘋狂沖動之下,出現了各種各樣的應用,如快速醫學研發(人工智能最近幫助發現了一種可殺死超級細菌的抗生素),在軟件開發領域加快編程速度,或者優化業務流程從而加快數據驅動決策等。
雖然人工智能在商界很快成為焦點,商界領袖們也看好它增強勞動力和提高生產力的能力,但Workday的《全球高管人工智能指數報告》(C-Suite Global AI Indicator Report)顯示,只有44%的公司推出了人工智能產品或擴大應用規模。近一半(49%)CEO表示,由于缺乏工具、技能和知識,其所在公司尚未做好采用人工智能和機器學習(ML)的準備。
但對于許多公司而言,這種情況不會持續太久。據麥肯錫(McKinsey)統計,未來三年,有超過三分之二的公司計劃增加人工智能投資。人工智能潛力巨大,而且公司有強烈的意愿釋放這種潛力。現在,公司必須為安全應用這項技術制定策略。
充分利用生成式人工智能的能力和減少其所帶來的風險,需要滿足三個基本條件:優質數據、負責任的執行和高管與IT部門之間的戰略合作。
數據質量:生成式人工智能的基礎
ChatGPT以及其他類似應用背后的大語言模型,通常使用網絡抓取的海量大數據進行訓練。事實證明,它們能夠非常有效地生成長格式、有條理的自然語言。然而,這些模型也經常會生成令人不滿意的結果,例如存在事實錯誤(即所謂的“幻覺”),甚至不良的或有偏見的內容。這并不令人意外,因為這些問題本身就存在于訓練這些模式所使用的數據當中。
因此,數據完整性是高管們擔心的一個重要問題。Workday的人工智能指數報告顯示,約三分之二(67%)CEO認為“潛在錯誤”是整合人工智能和機器學習的最大風險,而且只有4%的受訪者表示,他們的數據可以完全訪問。
這種觀點可謂一針見血。許多公司能生成高質量的純凈數據,但他們還沒有建立強大的數據基礎。相反,他們要應對孤島式的、無法訪問的數據,或者結構不統一甚至未充分數字化的數據。
高管們若想創建和執行生成式人工智能工具,首先需要奠定必要的基礎:高質量、可靠和容易訪問的數據。如果沒有這個基礎,對人工智能的投資不可能創造持續的價值。
好消息是,最近值得關注的大多數與生成式人工智能有關的問題,如結果不準確或侵犯知識產權等,都是由于使用了廣泛的、從網絡上抓取的數據集。在商業背景下,數據集通常質量更高。這些數據集規模更小,重點更突出,而且屬于專有數據,這都可以幫助減少部分風險。
負責任的執行:以人為本的方法
以負責任的方式應用生成式人工智能,意味著在執行過程中,必須以尊重隱私、安全和人類判斷為基礎。最近技術進步的爆火,以及大語言模型暴露出來的一些廣為人知的問題,令許多公司領導者意識到這項技術的潛在風險,并著手積極解決這些問題。
而這些問題的核心就是隱私、安全和準確性,這也是在Workday的報告中CEO們最擔心的問題。麥肯錫發現,只有21%的公司表示,針對員工如何在工作中使用生成式人工智能,公司有負責任的人工智能治理計劃,這表明仍有巨大的改進空間。在創建生成式人工智能系統時,應該采用安全和負責任的方式,使用安全透明的數據集,這樣做不僅能避免偏見,還能帶來實實在在的好處。
只要以恰當的方式使用人工智能,它就能帶來許多好處,如提高員工保留率、改善審計或對高級勞動力技能進行分析等,而且它并不會取代人類。要在員工和客戶當中建立信任和獲得支持,重要的一步是開發負責任的治理計劃,以清晰地傳達以人為本的人工智能道德準則。
IT部門:你的戰略合作伙伴
人工智能對職場的影響,與互聯網帶來的顛覆性影響類似,需要有全公司范圍的綜合策略,而IT部門應該是實現人工智能的效益并將效益最大化的合作伙伴。高管的戰略愿景和IT部門的專業技術相結合,能夠促進創新,為公司獲得競爭優勢。
隨著人工智能和機器學習應用日益增多,并成為讓公司保持全球競爭力的關鍵核心,這種合作的力度則變得至關重要。此外,通過合作發現和減少執行人工智能可能存在的陷阱,也有助于增強風險管理。通過強有力的合作,公司可以建立必要的“護欄”,保證以負責任的方式應用人工智能,同時將生成式人工智能技術的實際商業效益最大化。
隨著現成的企業級生成式人工智能工具越來越多,在人工智能領域繼續觀望將不再是明智之舉。保持競爭力意味著要充分利用人工智能的變革潛力。這不只是一種選擇,而是獲得競爭優勢和保證未來在日益數字化的世界不被淘汰的決定性一步。(財富中文網)
本文作者沙恩·盧克為Workday副總裁兼人工智能與機器學習總監。Workday是《財富》人工智能頭腦風暴大會的合作伙伴。
翻譯:劉進龍
審校:汪皓
2022年11月,OpenAI發布ChatGPT之后,生成式人工智能很快從深奧的罕見之物,變成了主流,啟發人們的思考。之后,幾乎所有行業都變得更加迫切地想要應用這項技術。各行各業都渴望抓住這波技術浪潮,因此在這種瘋狂沖動之下,出現了各種各樣的應用,如快速醫學研發(人工智能最近幫助發現了一種可殺死超級細菌的抗生素),在軟件開發領域加快編程速度,或者優化業務流程從而加快數據驅動決策等。
雖然人工智能在商界很快成為焦點,商界領袖們也看好它增強勞動力和提高生產力的能力,但Workday的《全球高管人工智能指數報告》(C-Suite Global AI Indicator Report)顯示,只有44%的公司推出了人工智能產品或擴大應用規模。近一半(49%)CEO表示,由于缺乏工具、技能和知識,其所在公司尚未做好采用人工智能和機器學習(ML)的準備。
但對于許多公司而言,這種情況不會持續太久。據麥肯錫(McKinsey)統計,未來三年,有超過三分之二的公司計劃增加人工智能投資。人工智能潛力巨大,而且公司有強烈的意愿釋放這種潛力。現在,公司必須為安全應用這項技術制定策略。
充分利用生成式人工智能的能力和減少其所帶來的風險,需要滿足三個基本條件:優質數據、負責任的執行和高管與IT部門之間的戰略合作。
數據質量:生成式人工智能的基礎
ChatGPT以及其他類似應用背后的大語言模型,通常使用網絡抓取的海量大數據進行訓練。事實證明,它們能夠非常有效地生成長格式、有條理的自然語言。然而,這些模型也經常會生成令人不滿意的結果,例如存在事實錯誤(即所謂的“幻覺”),甚至不良的或有偏見的內容。這并不令人意外,因為這些問題本身就存在于訓練這些模式所使用的數據當中。
因此,數據完整性是高管們擔心的一個重要問題。Workday的人工智能指數報告顯示,約三分之二(67%)CEO認為“潛在錯誤”是整合人工智能和機器學習的最大風險,而且只有4%的受訪者表示,他們的數據可以完全訪問。
這種觀點可謂一針見血。許多公司能生成高質量的純凈數據,但他們還沒有建立強大的數據基礎。相反,他們要應對孤島式的、無法訪問的數據,或者結構不統一甚至未充分數字化的數據。
高管們若想創建和執行生成式人工智能工具,首先需要奠定必要的基礎:高質量、可靠和容易訪問的數據。如果沒有這個基礎,對人工智能的投資不可能創造持續的價值。
好消息是,最近值得關注的大多數與生成式人工智能有關的問題,如結果不準確或侵犯知識產權等,都是由于使用了廣泛的、從網絡上抓取的數據集。在商業背景下,數據集通常質量更高。這些數據集規模更小,重點更突出,而且屬于專有數據,這都可以幫助減少部分風險。
負責任的執行:以人為本的方法
以負責任的方式應用生成式人工智能,意味著在執行過程中,必須以尊重隱私、安全和人類判斷為基礎。最近技術進步的爆火,以及大語言模型暴露出來的一些廣為人知的問題,令許多公司領導者意識到這項技術的潛在風險,并著手積極解決這些問題。
而這些問題的核心就是隱私、安全和準確性,這也是在Workday的報告中CEO們最擔心的問題。麥肯錫發現,只有21%的公司表示,針對員工如何在工作中使用生成式人工智能,公司有負責任的人工智能治理計劃,這表明仍有巨大的改進空間。在創建生成式人工智能系統時,應該采用安全和負責任的方式,使用安全透明的數據集,這樣做不僅能避免偏見,還能帶來實實在在的好處。
只要以恰當的方式使用人工智能,它就能帶來許多好處,如提高員工保留率、改善審計或對高級勞動力技能進行分析等,而且它并不會取代人類。要在員工和客戶當中建立信任和獲得支持,重要的一步是開發負責任的治理計劃,以清晰地傳達以人為本的人工智能道德準則。
IT部門:你的戰略合作伙伴
人工智能對職場的影響,與互聯網帶來的顛覆性影響類似,需要有全公司范圍的綜合策略,而IT部門應該是實現人工智能的效益并將效益最大化的合作伙伴。高管的戰略愿景和IT部門的專業技術相結合,能夠促進創新,為公司獲得競爭優勢。
隨著人工智能和機器學習應用日益增多,并成為讓公司保持全球競爭力的關鍵核心,這種合作的力度則變得至關重要。此外,通過合作發現和減少執行人工智能可能存在的陷阱,也有助于增強風險管理。通過強有力的合作,公司可以建立必要的“護欄”,保證以負責任的方式應用人工智能,同時將生成式人工智能技術的實際商業效益最大化。
隨著現成的企業級生成式人工智能工具越來越多,在人工智能領域繼續觀望將不再是明智之舉。保持競爭力意味著要充分利用人工智能的變革潛力。這不只是一種選擇,而是獲得競爭優勢和保證未來在日益數字化的世界不被淘汰的決定性一步。(財富中文網)
本文作者沙恩·盧克為Workday副總裁兼人工智能與機器學習總監。Workday是《財富》人工智能頭腦風暴大會的合作伙伴。
翻譯:劉進龍
審校:汪皓
When OpenAI launched ChatGPT in November 2022, generative artificial intelligence instantly went from esoteric curiosity to mainstream and provocative. Since then, the urgency to apply this technology across nearly all industries has only intensified. Applications as varied as rapid medical science discoveries (AI recently helped identify a new superbug-killing antibiotic), quicker coding in software development, or optimization of business processes to accelerate data-driven decision-making have all been part of this frenzied rush to ride this technology wave.
While AI has quickly become a topic of conversation in the business world, and business leaders are optimistic about its ability to augment the workforce and drive productivity, only 44% of organizations are rolling out or scaling up adoption, according to Workday’s C-Suite Global AI Indicator Report. Nearly half (49%) of CEOs say their organization is unprepared to adopt AI and machine learning (ML), because of a lack of tools, skills, and knowledge.
But for many companies, that won’t be the case for long. More than two-thirds of organizations plan to increase their AI investments in the next three years, according to McKinsey. The potential benefits, and the will to realize them, are huge. Now organizations must form a strategy to safely capitalize on the technology.
Fully leveraging the capabilities of generative AI, and mitigate its risks, requires three essential things: quality data, responsible implementation, and a strategic partnership between the C-suite and IT.
Data quality: Generative AI’s foundation
The large language models (LLMs) behind ChatGPT and similar applications are usually trained on broad swaths of language data scraped from the web. They have proven very effective at outputting long-form, well-structured natural language. However, they have also been shown to frequently produce undesirable outputs, like things that are factually incorrect (known as “hallucinations”), or even toxic or biased content. That is not very surprising, given how those things are present in the data they were trained on.
As a result, data integrity is a major concern for the C-suite. About two-thirds (67%) of CEOs view “potential errors” as a top risk of AI and ML integration, and only 4% of all respondents said their data is completely accessible, according to Workday’s AI Indicator report.
That perception is on point. Many organizations generate high-quality, clean data, but have yet to build a strong data foundation. Instead, they’re struggling with siloed, inaccessible data or data that’s not uniformly structured or even fully digitized.
Executives who want to create and implement generative AI tools need to put the necessary building blocks in place first: high-quality, reliable, and easily accessible data. Without that, investment in AI is unlikely to produce sustained value.
The good news is that most of the recent, noteworthy generative AI problems—incorrect outputs or IP infringements—were a result of using those broad, web-scraped data sets. In a business context, data sets are usually higher-quality. They’re smaller, more focused, and proprietary, all of which help mitigate some of the risks.
Responsible implementation: A human-centric approach
Applying generative AI in a responsible way means implementation must be grounded in respect for privacy, security, and human judgment. The tremendous publicity around recent advancements, and some of the publicly visible issues LLMs have demonstrated, have made many leaders aware of potential risks to the technology, and they’re being proactive in addressing them.
Privacy, security, and accuracy—top concerns flagged by CEOs in Workday’s report—should stay front and center. Still, just 21% of companies report having a responsible AI governance program for how employees can use generative AI at work, McKinsey found, showing there is plenty of room for improvement. Generative AI systems can be built out safely and responsibly, with secure, transparent data sets that protect against bias and delivers tangible benefits.
When used properly, AI can do things like boost employee retention, improve auditing, or do advanced workforce skill mapping, and it can do all of that without displacing people. An important step in building trust and securing buy-in among employees and customers is developing a responsible governance program to articulate AI ethics principles that puts people at the center.
The IT department: Your strategic partner
The influence of AI on the world of work, similar to the transformative impact of the internet, requires a comprehensive company-wide approach, with IT positioned as a partner to drive and maximize its benefits. The C-suite’s strategic vision and IT’s technical expertise can be combined to drive innovation and gain a competitive advantage.
As AI and ML applications multiply, and become central to running a globally competitive business, the strength of this partnership is crucial. Moreover, it strengthens risk management by identifying, and mitigating, potential pitfalls in AI implementation. With a strong partnership in place, organizations can establish the necessary guardrails to ensure responsible AI practices while maximizing the tangible business benefits of generative AI technologies.
With a growing number of off-the-shelf enterprise generative AI tools now available, sitting on the AI sidelines is no longer an option. Remaining competitive means fully leveraging AI’s transformative potential. This is not just a choice; it is the defining step toward securing a competitive edge and ensuring future relevance in an increasingly digital world.
Shane Luke is vice president, head of AI and machine learning at Workday. Workday is a partner of Fortune‘s Brainstorm A.I.