精品国产_亚洲人成在线高清,国产精品成人久久久久,国语自产偷拍精品视频偷拍

首頁 500強 活動 榜單 商業 科技 領導力 專題 品牌中心
雜志訂閱

從安永到強生,大公司如何與AI對話?

RYAN S. GLADWIN
2024-02-16

不明確的提示語可能導致錯誤和低效。

文本設置
小號
默認
大號
Plus(0條)
?
攝影:BORIS ZHITKOV —— 蓋蒂圖片社

公司之間在人工智能應用方面的競爭格局正在發生變化:它們不再僅僅爭相采用這一技術,而更加關注如何有效地運用這些強大的工具。隨著企業逐漸認識到,不明確的提示語,即指示人工智能執行特定任務的指令,以及非專業模型的使用,會導致不準確的結果和低效率,因此它們的態度開始發生改變。

這樣的例子不勝枚舉。強生(Johnson & Johnson)等公司正在創建提示語數據庫,供員工使用,以提高人工智能輸出結果的質量。星巴克(Starbucks)等其他公司則更進一步,正在創建內部模型。

需要強調的是,企業在使用大型語言模型如ChatGPT等時,應提供明確的提示語,例如“總結這篇故事”等簡單的指令。這種明確的提示對于有效應用人工智能至關重要。

斯坦福大學(Stanford University)計算機科學與語言學教授、斯坦福人工智能實驗室(Stanford Artificial Intelligence Laboratory)主任克里斯托弗·曼寧對《財富》雜志表示:“提示語可以分為兩個部分。第一部分需要準確描述你希望完成的任務,然后需要進行不斷的調整,因為人們會很快發現某些提示語的效果更佳。研究表明,那些簡單、友好的指令,比如‘務必仔細考慮’等,通常能夠產生良好的效果。”

提示語數據庫可以是開啟人工智能對話的一個話術集,就像強生公司內部使用的數據庫一樣,旨在降低員工使用其內部生成式人工智能聊天機器人時的困難。

強生發言人表示:“我們使用[我們的聊天機器人]上傳內部文件,生成摘要或提出特定問題。我們創建了一個由啟發性話題組成的提示語數據庫,以幫助員工探索與不同業務領域有關的潛在使用案例。”

一些提示語的設計旨在降低“幻覺”風險,或以盡可能高效的方式生成答案。所謂的“幻覺”風險指的是人工智能頻繁生成聽起來合理但實際并不準確的陳述。

創意機構GUT的首席情報官兼合伙人克里斯蒂安·皮埃爾對《財富》雜志表示:“我們根據使用案例或預期結果,創建了不同提示語數據庫。 [我們的]策略師和數據分析師共用一個數據庫和一個“關鍵詞參考手冊”,其中列出的關鍵詞可以明顯改變輸出結果。例如,我們知道,只要添加‘以布爾查詢的方式回答’,ChatGPT就會編寫布爾查詢語句,這些語句可用于我們的社交傾聽工具。”

通常情況下,導致不盡如人意的結果出現的原因之一是相關數據集中缺乏必要的知識。例如,如果一個提示語問及為什么約翰被車撞到,大型語言模型可能會嘗試提供答案,盡管它之前并不了解與約翰或事故有關的任何信息。

曼寧教授表示:“如果有事實作為參考,這些模型將依據這些事實來生成答案。但如果沒有相關事實可依,[它可能會]在沒有事實依據的情況下盡量編寫看似合理的答案。”

因此,要編寫完善的提示語,需要提供豐富的背景信息,仔細思考關鍵詞,并確切描述所期望的回應形式。那些自豪于創作出完美提示語的人通常自稱為"提示語工程師"。

更進一步

很可惜,大多數經過優化的提示語,可能無法滿足大公司的需求。

安永(Ernst & Young)全球咨詢數據與人工智能負責人比阿特麗斯·桑斯·賽茲對《財富》雜志表示:“這些大語言模型的訓練基于一般化數據。而我們正在嘗試引入最優秀的人才,例如稅務專業人士,真正對這些模型進行調整、維護和反復操練。”

安永創建了一個內部人工智能平臺EY.ai。微軟(Microsoft)為該公司提供了盡早使用Azure OpenAI的權限,用于創建一個安全、專業的系統。這幫助安永提高了系統運行速度,保護了敏感數據,而且最重要的是,使安永能夠根據預期結果調整模型。

曼寧教授解釋說:“假設你需要執行某項任務,比如審閱保險索賠并起草相關處理方案和理由等,如果你有大量以往的業務實例可供參考,那么你可以通過微調模型,使其特別擅長處理這種任務。”

對模型的微調由具備機器學習經驗的人負責,而不是由提示語工程師進行調整。在這個階段,公司可以決定刪除不必要的內容,以精簡數據集,例如寫俳句的能力,或者將模型固定為提供特定的功能。

安永還創建了一個嵌入數據庫,提高了系統的專業化程度。

賽茲表示:“[嵌入]可以理解為輸入到模型中的附加數據集。我們可以整合稅務知識、國家法規甚至行業知識,將所有信息串聯起來。”

通過將這些額外的數據集添加到模型中,可以使模型更加適應其預期的用途。公司發現,最有效地利用人工智能的方法之一是創建一個受控的數據集,將其嵌入到數據庫中,并使用自定義提示語進行查詢。

賽茲解釋稱:“通常情況下,目前我們能做的是基于安永多年來積累的集體智慧,而不是個別稅務團隊的專業經驗,對客戶進行評估。而且我們不止在一個地區這樣做,而是在全球多個地區采用這種做法。”

賽茲認為,通過微調內部模型和整合數據庫,將人工智能模型個性化,將成為未來公司使用人工智能的關鍵。她還預測,隨著人工智能的智能水平不斷提高,提示語的重要性將逐漸降低。

然而,曼寧教授認為未來有多種可能。未來,既會有專業系統用于處理大工作量的任務,也會有廣義模型,需要根據經過設計的提示語處理非常規任務,例如編寫招聘廣告。

曼寧教授對《財富》雜志表示:“現在你可以把這些重要的任務交給ChatGPT來完成。我認為,許多公司可以成功地培養出專門人才,學習并精通編寫提示語,從而讓ChatGPT生成令人滿意的結果。”(財富中文網)

翻譯:劉進龍

審校:汪皓

攝影:BORIS ZHITKOV —— 蓋蒂圖片社

公司之間在人工智能應用方面的競爭格局正在發生變化:它們不再僅僅爭相采用這一技術,而更加關注如何有效地運用這些強大的工具。隨著企業逐漸認識到,不明確的提示語,即指示人工智能執行特定任務的指令,以及非專業模型的使用,會導致不準確的結果和低效率,因此它們的態度開始發生改變。

這樣的例子不勝枚舉。強生(Johnson & Johnson)等公司正在創建提示語數據庫,供員工使用,以提高人工智能輸出結果的質量。星巴克(Starbucks)等其他公司則更進一步,正在創建內部模型。

需要強調的是,企業在使用大型語言模型如ChatGPT等時,應提供明確的提示語,例如“總結這篇故事”等簡單的指令。這種明確的提示對于有效應用人工智能至關重要。

斯坦福大學(Stanford University)計算機科學與語言學教授、斯坦福人工智能實驗室(Stanford Artificial Intelligence Laboratory)主任克里斯托弗·曼寧對《財富》雜志表示:“提示語可以分為兩個部分。第一部分需要準確描述你希望完成的任務,然后需要進行不斷的調整,因為人們會很快發現某些提示語的效果更佳。研究表明,那些簡單、友好的指令,比如‘務必仔細考慮’等,通常能夠產生良好的效果。”

提示語數據庫可以是開啟人工智能對話的一個話術集,就像強生公司內部使用的數據庫一樣,旨在降低員工使用其內部生成式人工智能聊天機器人時的困難。

強生發言人表示:“我們使用[我們的聊天機器人]上傳內部文件,生成摘要或提出特定問題。我們創建了一個由啟發性話題組成的提示語數據庫,以幫助員工探索與不同業務領域有關的潛在使用案例。”

一些提示語的設計旨在降低“幻覺”風險,或以盡可能高效的方式生成答案。所謂的“幻覺”風險指的是人工智能頻繁生成聽起來合理但實際并不準確的陳述。

創意機構GUT的首席情報官兼合伙人克里斯蒂安·皮埃爾對《財富》雜志表示:“我們根據使用案例或預期結果,創建了不同提示語數據庫。 [我們的]策略師和數據分析師共用一個數據庫和一個“關鍵詞參考手冊”,其中列出的關鍵詞可以明顯改變輸出結果。例如,我們知道,只要添加‘以布爾查詢的方式回答’,ChatGPT就會編寫布爾查詢語句,這些語句可用于我們的社交傾聽工具。”

通常情況下,導致不盡如人意的結果出現的原因之一是相關數據集中缺乏必要的知識。例如,如果一個提示語問及為什么約翰被車撞到,大型語言模型可能會嘗試提供答案,盡管它之前并不了解與約翰或事故有關的任何信息。

曼寧教授表示:“如果有事實作為參考,這些模型將依據這些事實來生成答案。但如果沒有相關事實可依,[它可能會]在沒有事實依據的情況下盡量編寫看似合理的答案。”

因此,要編寫完善的提示語,需要提供豐富的背景信息,仔細思考關鍵詞,并確切描述所期望的回應形式。那些自豪于創作出完美提示語的人通常自稱為"提示語工程師"。

更進一步

很可惜,大多數經過優化的提示語,可能無法滿足大公司的需求。

安永(Ernst & Young)全球咨詢數據與人工智能負責人比阿特麗斯·桑斯·賽茲對《財富》雜志表示:“這些大語言模型的訓練基于一般化數據。而我們正在嘗試引入最優秀的人才,例如稅務專業人士,真正對這些模型進行調整、維護和反復操練。”

安永創建了一個內部人工智能平臺EY.ai。微軟(Microsoft)為該公司提供了盡早使用Azure OpenAI的權限,用于創建一個安全、專業的系統。這幫助安永提高了系統運行速度,保護了敏感數據,而且最重要的是,使安永能夠根據預期結果調整模型。

曼寧教授解釋說:“假設你需要執行某項任務,比如審閱保險索賠并起草相關處理方案和理由等,如果你有大量以往的業務實例可供參考,那么你可以通過微調模型,使其特別擅長處理這種任務。”

對模型的微調由具備機器學習經驗的人負責,而不是由提示語工程師進行調整。在這個階段,公司可以決定刪除不必要的內容,以精簡數據集,例如寫俳句的能力,或者將模型固定為提供特定的功能。

安永還創建了一個嵌入數據庫,提高了系統的專業化程度。

賽茲表示:“[嵌入]可以理解為輸入到模型中的附加數據集。我們可以整合稅務知識、國家法規甚至行業知識,將所有信息串聯起來。”

通過將這些額外的數據集添加到模型中,可以使模型更加適應其預期的用途。公司發現,最有效地利用人工智能的方法之一是創建一個受控的數據集,將其嵌入到數據庫中,并使用自定義提示語進行查詢。

賽茲解釋稱:“通常情況下,目前我們能做的是基于安永多年來積累的集體智慧,而不是個別稅務團隊的專業經驗,對客戶進行評估。而且我們不止在一個地區這樣做,而是在全球多個地區采用這種做法。”

賽茲認為,通過微調內部模型和整合數據庫,將人工智能模型個性化,將成為未來公司使用人工智能的關鍵。她還預測,隨著人工智能的智能水平不斷提高,提示語的重要性將逐漸降低。

然而,曼寧教授認為未來有多種可能。未來,既會有專業系統用于處理大工作量的任務,也會有廣義模型,需要根據經過設計的提示語處理非常規任務,例如編寫招聘廣告。

曼寧教授對《財富》雜志表示:“現在你可以把這些重要的任務交給ChatGPT來完成。我認為,許多公司可以成功地培養出專門人才,學習并精通編寫提示語,從而讓ChatGPT生成令人滿意的結果。”(財富中文網)

翻譯:劉進龍

審校:汪皓

BORIS ZHITKOV—GETTY IMAGES

The race among companies to adapt AI has evolved: Instead of simply striving to be first, firms have turned their attention to learning how to deploy these powerful tools effectively. This development comes as companies discover that poorly crafted prompts—the set of instructions used to tell AI to perform a given task—and the use of unspecialized models are spawning inaccuracies and inefficiencies.

There are many examples of this evolution. Firms like Johnson & Johnson are creating libraries of prompts to share among staff to improve the quality of AI output. Other companies, including Starbucks, are taking things further by creating in-house models.

For context, it’s helpful to know that using a so-called large language model, like ChatGPT, requires entering a prompt for the AI that can be as simple as “summarize this story.”

“There are two parts of prompting. One part is just to give a good description of what you want done,” Christopher Manning, professor of computer science and linguistics at Stanford University and director of the Stanford Artificial Intelligence Laboratory, told Fortune. “After that, there’s a lot of fiddling that goes on because people quickly find that some prompts work better than others. It turns out that giving grandmotherly instructions like ‘make sure you think carefully about it’ actually tend to do good.”

Prompt libraries can be as simple as a collection of conversation starters like the library Johnson & Johnson’s uses in order to reduce friction for employees who use its internal generative AI chatbot.

“We’re using [our chatbot] to upload internal documents and create summaries or ask ad hoc questions,” a spokesperson for Johnson & Johnson said. “We created a prompt library with thought-starters to help employees explore potential use cases relevant to different areas of the business.”

Meanwhile other prompts aim to minimize the risk of hallucination—the term for the frequent occurrence of AI producing facts that sound plausible but aren’t true—or to format answers in the most efficient way possible.

“We have different prompting libraries depending on the use case or expected output,” Christian Pierre, Chief Intelligence Officer & Partner at creative agency GUT, told Fortune. “[Our] strategists and data analysts share a library and a ‘keyword cheat sheet’ with specific keywords that can drastically change the output. For instance, we know that just by adding ‘Provide it as a boolean query,’ ChatGPT will write boolean queries that we can use in our social listening tools.”

Often undesired outputs are the result of the absence of knowledge in the relevant data set. For example, a language model will likely supply an answer to a prompt asking why John got hit by a car—even if it has no information about John or the accident in the first place.

“The tendency of all of these models is that if there are facts, they will use them.” Professor Manning said, “And if there aren’t facts, [it will] write plausible ones with no basis in truth.”

Thus crafting the perfect prompt requires providing an intense level of context, the tweaking of keywords, and a precise description of the desired form. Those who pride themselves on creating these call themselves prompt engineers.

Taking it even further

Unfortunately, even the most optimized prompt can fall short of what big companies are looking for.

“These large language models are very generically trained,” Beatriz Sanz Sáiz, global consulting data and AI leader at Ernst & Young, told Fortune. “What we are trying to achieve is really bring in the best, let’s say tax professionals, to really fine-tune, retain, and retrain.”

Ernst & Young has created an in-house AI platform called EY.ai. Microsoft provided the firm early access to Azure OpenAI, in order to build a secure and specialized system. This has helped increase the speed of the system and protect sensitive data and, most importantly, provided EY with the ability to adjust the model to fit its desired outcomes.

“If there’s one task that you want to do—like reading insurance claims, writing out what we’re doing with them, and what the reason for it was—and if you’ve got a fair number of examples of that from your past business,” Professor Manning explained, “you can then fine-tune the model to be especially good at that.”

Fine-tuning is done by someone with machine learning experience, rather than a prompt engineer. At this stage, the company may decide to shrink the dataset by removing unnecessary stuff, like the ability to write haiku, to fixate the model on a specific function.

Ernst & Young has specialized its system further by creating a library of embeddings.

“Think of [embeddings] as additional data sets that you put into the model,” Sáiz said. “We can connect all the dots by bringing together the tax knowledge, the country regulation, maybe also the sector knowledge.”

By plugging-in these additional datasets, the model becomes hyper-specific to its purpose. Companies are finding the best AI recipe entails building on a controlled dataset, injecting it with a library of embeddings, and querying with customized prompts.

“Typically now what we’ll be able to do is assess clients, not on the expertise of an individual tax team but on the collective knowledge that EY has created for years,” Sáiz explained. “And not just in one jurisdiction, but globally across multiple jurisdictions.”

Sáiz believes that the personalization of AI models through finely tuned in-house models and embedding libraries will be crucial to the future of companies using AI. She also predicts that the importance of prompts will decrease as AI gets more intelligent.

However, Professor Manning believes the future will be mixed. While specialized systems will exist for high volume tasks there is also room for generalized models that require engineered prompts for irregular tasks, such as writing a job advertisement.

“Those are great tasks you can give to ChatGPT these days,” Professor Manning told Fortune. “I think a huge space of companies can very successfully have someone who learns a bit and gets perfectly decent at writing prompts and getting great results out of ChatGPT.”

財富中文網所刊載內容之知識產權為財富媒體知識產權有限公司及/或相關權利人專屬所有或持有。未經許可,禁止進行轉載、摘編、復制及建立鏡像等任何使用。
0條Plus
精彩評論
評論

撰寫或查看更多評論

請打開財富Plus APP

前往打開

            主站蜘蛛池模板: 会宁县| 泾川县| 杭州市| 定州市| 凌云县| 蓬溪县| 湘阴县| 镇康县| 贞丰县| 调兵山市| 筠连县| 瑞丽市| 西吉县| 怀化市| 福建省| 黑山县| 通城县| 武城县| 阿鲁科尔沁旗| 清水河县| 磐安县| 崇礼县| 安岳县| 浮山县| 潜江市| 应城市| 上高县| 平安县| 开鲁县| 阆中市| 锡林浩特市| 福泉市| 万源市| 洛阳市| 临安市| 昆山市| 京山县| 修武县| 巨野县| 新源县| 栖霞市|