精品国产_亚洲人成在线高清,国产精品成人久久久久,国语自产偷拍精品视频偷拍

首頁 500強 活動 榜單 商業 科技 領導力 專題 品牌中心
雜志訂閱

離職高級AI研究員,觸及了谷歌哪條神經?

JEREMY KAHN
2020-12-10

答案或許已經浮現:為了這項“特殊技術”的成功,谷歌投入了很多。

文本設置
小號
默認
大號
Plus(0條)

近日,一名受人尊敬的谷歌人工智能研究人員離職,引爆輿論發問:對于關鍵人工智能技術的道德之憂,谷歌公司是否有掩蓋之圖?

離職的人工智能研究員叫蒂姆尼特·格布魯。在她離開谷歌之前,公司曾要求她撤回一篇她參與撰稿的關于大型語言模型倫理的研究論文。這些模型通過篩選龐大的文本庫創建,用以幫助創建搜索引擎及數字助手,以便更好地理解用戶并對其作出回應。

谷歌拒絕就格布魯的離職發表評論,但其示意媒體參考一封由谷歌人工智能研究部門高級副總裁杰夫·迪恩寫給員工的電子郵件。這封郵件泄露在科技通訊平臺Platformer上,迪恩在郵件中說,格布魯與另外四名谷歌研究人員和華盛頓大學的一名研究人員合作進行的這項研究,沒有達到公司的標準。

然而,格布魯和她的前人工智能倫理團隊成員都對這一觀點提出了質疑。

目前,包括2200名谷歌員工在內的5300多人簽署了一封公開信,對谷歌處理格布魯的方式表示抗議,并要求谷歌做出解釋。

據政治新聞網站Axios透露,12月9日,谷歌首席執行官桑達爾·皮查伊對員工表示,他將調查格布魯離開公司的原因,并將努力恢復大家的信任。

格布魯及其合作者質疑大型語言模型的倫理問題,到底觸及了谷歌哪條神經?答案或許已經浮現:為了這項“特殊技術”的成功,谷歌投入了很多。

在所有大型語言模型的背后,都隱藏著一種特殊的神經網絡,一種松散地基于人類大腦的人工智能軟體框架。這一名為Transformer的神經網絡由谷歌研究人員在2017年首創,現在已經被工業界廣泛采用,用于語言和視覺處理等各種用途。

這些大型語言算法建立的統計模型十分龐大,需要數億甚至數千億的變量。因此,這些模型非常擅長精準預測句子中缺失的單詞。但事實上,它們也在此過程中學會了其他技能:如回答文章附加的問題,總結文件中的關鍵信息,找出文中哪個代詞指代哪個人等等。這些事情聽起來不難,但之前的語言軟件必須得經過專門的訓練,才能最后掌握其中的某一項技能,況且效果也不好。

它們中最龐大的一個,還有更多的技能花樣:舊金山人工智能公司OpenAI創建的大型語言模型GPT-3包含了大約1750億個變量,可以根據一個簡單的人工提示寫出連貫的長篇文章。想象一下,當你寫下博客的標題和第一句話,GPT-3就能完成編寫其余的內容。目前OpenAI已經將GPT-3授權給了一些科技初創公司以及微軟,為自家服務賦能。其中一家公司用GPT-3從幾個要點中生成完整的電子郵件。

谷歌有自己的大型語言模型BERT,用以幫助增強包括英語在內的多種語言的搜索結果,而其他公司也在使用BERT構建自家語言處理軟件。

BERT經過優化,可以在谷歌自己的專門人工智能計算機處理器上運行,且僅向谷歌云計算服務的客戶提供——因此,谷歌有明確的商業動機來推動BERT的廣泛使用。而且,倘若公司想要訓練和運行自己的語言模型,必然租用大量的云計算服務,因此所有的云計算提供商都很樂意看到目前大語言模型的趨勢。

舉個例子:去年的一項研究估計,在谷歌的云平臺上培訓BERT大約花費7000美元,而同時OpenAI的首席執行官Sam Altman暗示,培訓GPT-3要花費數百萬美元。

技術研究公司弗雷斯特(Forrester)的分析師謝爾·卡爾森表示,盡管這些所謂的大型“Transformer語言模型”目前的市場相對較小,但爆炸式增長隨時可能發生。“在最近所有人工智能中,這些大型Transformer網絡對人工智能的未來來說最重要。”他說。

其中一個原因是,大型語言模型讓構建語言處理工具變得更加容易,幾乎是上手即用。卡爾森說:“只需稍加調整,您就可以擁有定制的聊天機器人,幫您處理任何事情。”不僅如此,預先訓練的大型語言模型還可以幫助編寫軟件,總結文本,以及創建常見問題及其解答。

市場研究公司Tractica于2017年發布的一份報告預測,到2025年,各類NLP(自然語言處理)軟件的年市場規模將達到223億美元。這份報告被廣泛引用,而報告中的分析是在諸如BERT和GPT-3這樣的大型語言模型出現之前進行的——這就是格布魯的論文中所詬病的市場商機。

在格布魯和她的同事看來,大型語言模型到底存在什么問題?答案很明確:很多問題。

首先,因為各種大型語言模型是在龐大的現有文本語料庫上進行訓練的,而這些系統往往會摻雜很多歧視內容,尤其是關于性別和種族的歧視。此外,論文的合著者說,這些模型太大,吸收了太多的數據,極難審計和調試,因此其中一些歧視性信息可能會被遺漏。

其次,論文還指出,在耗電量大的服務器上訓練和運行大規模的語言模型,會對環境造成碳排放量大等負面影響。論文指出,訓練一次谷歌的語言模型BERT就會產生大約1438磅二氧化碳,相當于從紐約到舊金山的一趟往返航班的排放量。

這項研究還注意到一個事實:在構建愈發龐大的語言模型上花費更多的金錢和精力,會漸漸消解人類原有的真正“理解”語言并高效學習語言的努力。

論文中對大型語言模型的許多批評,之前已經有人提出過。艾倫人工智能研究所(Allen Institute for AI)此前發表了一篇論文,研究GPT-2(GPT-3的前身)產生的種族主義語言和歧視性語言。

而實際上,OpenAI自己發布的關于GPT-3的論文就有一章概述了與偏見和環境危害有關的潛在問題,格布魯和她的合著者對這些問題進行了強調和重申。OpenAI發布的這篇論文還在今年的神經信息處理系統大會(Neural Information Processing Systems Conference)上獲得了“最佳論文”獎,據了解,這一大會在AI研究領域久負盛名。

可以說,OpenAI與谷歌有同樣的商業動機去粉飾GPT-3的缺陷,更何況GPT-3還是OpenAI目前唯一的商業產品,而谷歌早在BERT出現之前就已經賺了數千億美元了。

但話又說回來,OpenAI的運作方式更像是一家科技初創公司,而不是諸如谷歌之類的大型科技企業。大公司出于本性,不愿意給公開批評自己技術的員工發高薪,因為他們清楚,公開批評會對數十億美元的市場商機構成威脅。(財富中文網)

編譯:楊二一

近日,一名受人尊敬的谷歌人工智能研究人員離職,引爆輿論發問:對于關鍵人工智能技術的道德之憂,谷歌公司是否有掩蓋之圖?

離職的人工智能研究員叫蒂姆尼特·格布魯。在她離開谷歌之前,公司曾要求她撤回一篇她參與撰稿的關于大型語言模型倫理的研究論文。這些模型通過篩選龐大的文本庫創建,用以幫助創建搜索引擎及數字助手,以便更好地理解用戶并對其作出回應。

谷歌拒絕就格布魯的離職發表評論,但其示意媒體參考一封由谷歌人工智能研究部門高級副總裁杰夫·迪恩寫給員工的電子郵件。這封郵件泄露在科技通訊平臺Platformer上,迪恩在郵件中說,格布魯與另外四名谷歌研究人員和華盛頓大學的一名研究人員合作進行的這項研究,沒有達到公司的標準。

然而,格布魯和她的前人工智能倫理團隊成員都對這一觀點提出了質疑。

目前,包括2200名谷歌員工在內的5300多人簽署了一封公開信,對谷歌處理格布魯的方式表示抗議,并要求谷歌做出解釋。

據政治新聞網站Axios透露,12月9日,谷歌首席執行官桑達爾·皮查伊對員工表示,他將調查格布魯離開公司的原因,并將努力恢復大家的信任。

格布魯及其合作者質疑大型語言模型的倫理問題,到底觸及了谷歌哪條神經?答案或許已經浮現:為了這項“特殊技術”的成功,谷歌投入了很多。

在所有大型語言模型的背后,都隱藏著一種特殊的神經網絡,一種松散地基于人類大腦的人工智能軟體框架。這一名為Transformer的神經網絡由谷歌研究人員在2017年首創,現在已經被工業界廣泛采用,用于語言和視覺處理等各種用途。

這些大型語言算法建立的統計模型十分龐大,需要數億甚至數千億的變量。因此,這些模型非常擅長精準預測句子中缺失的單詞。但事實上,它們也在此過程中學會了其他技能:如回答文章附加的問題,總結文件中的關鍵信息,找出文中哪個代詞指代哪個人等等。這些事情聽起來不難,但之前的語言軟件必須得經過專門的訓練,才能最后掌握其中的某一項技能,況且效果也不好。

它們中最龐大的一個,還有更多的技能花樣:舊金山人工智能公司OpenAI創建的大型語言模型GPT-3包含了大約1750億個變量,可以根據一個簡單的人工提示寫出連貫的長篇文章。想象一下,當你寫下博客的標題和第一句話,GPT-3就能完成編寫其余的內容。目前OpenAI已經將GPT-3授權給了一些科技初創公司以及微軟,為自家服務賦能。其中一家公司用GPT-3從幾個要點中生成完整的電子郵件。

谷歌有自己的大型語言模型BERT,用以幫助增強包括英語在內的多種語言的搜索結果,而其他公司也在使用BERT構建自家語言處理軟件。

BERT經過優化,可以在谷歌自己的專門人工智能計算機處理器上運行,且僅向谷歌云計算服務的客戶提供——因此,谷歌有明確的商業動機來推動BERT的廣泛使用。而且,倘若公司想要訓練和運行自己的語言模型,必然租用大量的云計算服務,因此所有的云計算提供商都很樂意看到目前大語言模型的趨勢。

舉個例子:去年的一項研究估計,在谷歌的云平臺上培訓BERT大約花費7000美元,而同時OpenAI的首席執行官Sam Altman暗示,培訓GPT-3要花費數百萬美元。

技術研究公司弗雷斯特(Forrester)的分析師謝爾·卡爾森表示,盡管這些所謂的大型“Transformer語言模型”目前的市場相對較小,但爆炸式增長隨時可能發生。“在最近所有人工智能中,這些大型Transformer網絡對人工智能的未來來說最重要。”他說。

其中一個原因是,大型語言模型讓構建語言處理工具變得更加容易,幾乎是上手即用。卡爾森說:“只需稍加調整,您就可以擁有定制的聊天機器人,幫您處理任何事情。”不僅如此,預先訓練的大型語言模型還可以幫助編寫軟件,總結文本,以及創建常見問題及其解答。

市場研究公司Tractica于2017年發布的一份報告預測,到2025年,各類NLP(自然語言處理)軟件的年市場規模將達到223億美元。這份報告被廣泛引用,而報告中的分析是在諸如BERT和GPT-3這樣的大型語言模型出現之前進行的——這就是格布魯的論文中所詬病的市場商機。

在格布魯和她的同事看來,大型語言模型到底存在什么問題?答案很明確:很多問題。

首先,因為各種大型語言模型是在龐大的現有文本語料庫上進行訓練的,而這些系統往往會摻雜很多歧視內容,尤其是關于性別和種族的歧視。此外,論文的合著者說,這些模型太大,吸收了太多的數據,極難審計和調試,因此其中一些歧視性信息可能會被遺漏。

其次,論文還指出,在耗電量大的服務器上訓練和運行大規模的語言模型,會對環境造成碳排放量大等負面影響。論文指出,訓練一次谷歌的語言模型BERT就會產生大約1438磅二氧化碳,相當于從紐約到舊金山的一趟往返航班的排放量。

這項研究還注意到一個事實:在構建愈發龐大的語言模型上花費更多的金錢和精力,會漸漸消解人類原有的真正“理解”語言并高效學習語言的努力。

論文中對大型語言模型的許多批評,之前已經有人提出過。艾倫人工智能研究所(Allen Institute for AI)此前發表了一篇論文,研究GPT-2(GPT-3的前身)產生的種族主義語言和歧視性語言。

而實際上,OpenAI自己發布的關于GPT-3的論文就有一章概述了與偏見和環境危害有關的潛在問題,格布魯和她的合著者對這些問題進行了強調和重申。OpenAI發布的這篇論文還在今年的神經信息處理系統大會(Neural Information Processing Systems Conference)上獲得了“最佳論文”獎,據了解,這一大會在AI研究領域久負盛名。

可以說,OpenAI與谷歌有同樣的商業動機去粉飾GPT-3的缺陷,更何況GPT-3還是OpenAI目前唯一的商業產品,而谷歌早在BERT出現之前就已經賺了數千億美元了。

但話又說回來,OpenAI的運作方式更像是一家科技初創公司,而不是諸如谷歌之類的大型科技企業。大公司出于本性,不愿意給公開批評自己技術的員工發高薪,因為他們清楚,公開批評會對數十億美元的市場商機構成威脅。(財富中文網)

編譯:楊二一

The recent departure of a respected Google artificial intelligence researcher has raised questions about whether the company was trying to conceal ethical concerns over a key piece of A.I. technology.

The departure of the researcher, Timnit Gebru, came after Google had asked her to withdraw a research paper she had coauthored about the ethics of large language models. These models, created by sifting through huge libraries of text, help create search engines and digital assistants that can better understand and respond to users.

Google has declined to comment about Gebru’s departure, but it has referred reporters to an email to staff written by Jeff Dean, the senior vice president in charge of Google’s A.I. research division, that was leaked to the tech newsletter Platformer. In the email Dean said that the study in question, which Gebru had coauthored with four other Google scientists and a University of Washington researcher, didn’t meet the company’s standards.

That position, however, has been disputed by both Gebru and members of the A.I. ethics team she formerly co-led.

More than 5,300 people, including over 2,200 Google employees, have now signed an open letter protesting Google’s treatment of Gebru and demanding that the company explain itself.

On Wednesday, Sundar Pichai, Google’s chief executive officer, told staff he would investigate the circumstances under which Gebru left the company and would work to restore trust, according to a report from news service Axios, which obtained Pichai’s memo to Google employees.

But why might Google have been particularly upset with Gebru and her coauthors questioning the ethics of large language models? Well, as it turns out, Google has quite a lot invested in the success of this particular technology.

Beneath the hood of all large language models is a special kind of neural network, A.I. software loosely based on the human brain, that was pioneered by Google researchers in 2017. Called a Transformer, it has since been adopted industrywide for a variety of different uses in both language and vision tasks.

The statistical models that these large language algorithms build are enormous, taking in hundreds of millions, or even hundreds of billions, of variables. In this way, they get very good at being able to accurately predict a missing word in a sentence. But it turns out that along the way, they pick up other skills too, like being able to answer questions about a text, summarize key facts about a document, or figure out which pronoun refers to which person in a passage. These things sound simple, but previous language software had to be trained specifically for each one of these skills, and even then it often wasn’t that good.

The biggest of these large language models can do some other nifty things as well: GPT-3, a large language model created by San Francisco A.I. company OpenAI, encompasses some 175 billion variables and can write long passages of coherent text from a simple human prompt. So imagine writing just a headline and a first sentence for a blog post with GPT-3 then composing the rest. OpenAI has licensed GPT-3 to a number of technology startups, plus Microsoft, to power their own services, which include one company’s using the software to enable users to generate full emails from just a few bullet points.

Google has its own large language model, called BERT, that it has used to help power search results in several languages including English. Other companies are also using BERT to build their own language processing software.

BERT is optimized to run on Google’s own specialized A.I. computer processors, available exclusively to customers of its cloud computing service. So Google has a clear commercial incentive to encourage companies to use BERT. And, in general, all of the cloud computing providers are happy with the current trend toward large language models, because if a company wants to train and run one of its own, it must rent a lot of cloud computing time.

For instance, one study last year estimated that training BERT on Google’s cloud costs about $7,000. Sam Altman, the CEO of OpenAI, meanwhile, has implied that it cost many millions to train GPT-3.

And while the market for these large so-called Transformer language models is relatively small at the moment, it is poised to explode, according to Kjell Carlsson, an analyst at technology research firm Forrester. “Of all the recent A.I. developments, these large Transformer networks are the ones that are most important to the future of A.I. at the moment,” he says.

One reason is that the large language models make it far easier to build language processing tools, almost right out of the box. “With just a little bit of fine-tuning, you can have customized chatbots for everything and anything,” Carlsson says. More than that, the pretrained large language models can help write software, summarize text, or create frequently asked questions with their answers, he notes.

A widely cited 2017 report from market research firm Tractica forecast that NLP (natural language processing) software of all kinds would be a $22.3 billion annual market by 2025. And that analysis was made before large language models such as BERT and GPT-3 arrived on the scene. So this is the market opportunity that Gebru’s research criticized.

What exactly did Gebru and her colleagues say was wrong with large language models? Well, lots. For one thing, because they are trained on huge corpora of existing text, the systems tend to bake in a lot of existing human bias, particularly about gender and race. What’s more, the paper’s coauthors said, the models are so large and take in so much data, they are extremely difficult to audit and test, so some of this bias may go undetected.

The paper also pointed to the adverse environmental impact, in terms of carbon footprint, that training and running such large language models on electricity-hungry servers can have. It noted that BERT, Google’s own language model, produced, by one estimate, about 1,438 pounds of carbon dioxide, or about the amount of a roundtrip flight from New York to San Francisco.

The research also looked at the fact that money and effort spent on building ever larger language models took away from efforts to build systems that might actually “understand” language and learn more efficiently, in the way humans do.

Many of the criticisms of large language models made in the paper have been made previously. The Allen Institute for AI had published a paper looking at racist and biased language produced by GPT-2, the forerunner system to GPT-3.

In fact, the paper from OpenAI itself on GPT-3, which won an award for “best paper” at this year’s Neural Information Processing Systems Conference (NeurIPS), one of the A.I. research field’s most prestigious conferences, contained a meaty section outlining some of the same potential problems with bias and environmental harm that Gebru and her coauthors highlighted.

OpenAI, arguably, has as much—if not more—financial incentive to sugarcoat any faults in GPT-3. After all, GPT-3 is literally OpenAI’s only commercial product at the moment. Google was making hundreds of billions of dollars just fine before BERT came along.

But then again, OpenAI still functions more like a tech startup than the megacorporation that Google’s become. It may simply be that large corporations are, by their very nature, allergic to paying big salaries to people to publicly criticize their own technology and potentially jeopardize billion-dollar market opportunities.

財富中文網所刊載內容之知識產權為財富媒體知識產權有限公司及/或相關權利人專屬所有或持有。未經許可,禁止進行轉載、摘編、復制及建立鏡像等任何使用。
0條Plus
精彩評論
評論

撰寫或查看更多評論

請打開財富Plus APP

前往打開

            主站蜘蛛池模板: 辽中县| 阜城县| 鹤山市| 神农架林区| 和田市| 商河县| 原平市| 天峻县| 黔西| 深泽县| 紫阳县| 浮山县| 盱眙县| 孙吴县| 渝中区| 措美县| 东丽区| 文水县| 闻喜县| 阿拉善左旗| 莱芜市| 五原县| 苗栗县| 儋州市| 阿巴嘎旗| 南召县| 满洲里市| 中卫市| 繁峙县| 淳安县| 鄂州市| 石屏县| 瓦房店市| 和平县| 奇台县| 巴南区| 竹山县| 汾阳市| 江达县| 申扎县| 新昌县|