精品国产_亚洲人成在线高清,国产精品成人久久久久,国语自产偷拍精品视频偷拍

首頁 500強 活動 榜單 商業 科技 領導力 專題 品牌中心
雜志訂閱

“審慎”是人工智能成功的關鍵嗎?

Jeremy Kahn
2020-09-26

根據一位專家的觀點,所有的人工智能應用都應該以三個基本支柱為基礎。

文本設置
小號
默認
大號
Plus(0條)

今年4月,當新冠疫情在世界許多地方達到頂峰時,我采訪了Pactera Edge公司的首席人工智能官艾哈邁爾·伊納姆。當時,在這家位于華盛頓州雷德蒙德市的科技咨詢公司,伊納姆正潛心研究新冠疫情是如何讓基于歷史數據訓練的人工智能模型陷于動蕩的。

上周,我再次采訪了伊納姆。他最近一直在思考為什么人工智能項目經常失敗,尤其是在大型組織中。在伊納姆看來,這個問題(以及圍繞這種技術的許多其他問題)的答案,是一種叫做“審慎的人工智能”(Mindful A.I.)的東西。

“審慎就是有意識。”伊納姆說,“審慎的人工智能是指有目的地意識到人工智能體驗的意圖,以及我們希望通過這種體驗喚起的情感。”

好吧,我承認,當他說這句話的時候,我覺得,這聽起來有點不切實際,就像伊納姆應該一兩個星期不吃東西似的。此外,“審慎的人工智能”有種噱頭式口號的感覺。但伊納姆越是解釋他的意思,我就越覺得他言之有理。(需要澄清的是,“審慎的人工智能”并不是伊納姆創造的。這個術語的創建主要應該歸功于微軟公司的首席創意總監奧維塔·桑普森和加州大學伯克利分校教授吳德愷。)

伊納姆主張,對人工智能的使用應該遵循第一原理。他說,組織經常出錯,是因為它們采用人工智能的原因都是錯的:要么是因為最高管理層錯誤地認為這是一種高科技靈丹妙藥,足以解決業務中存在的根本問題;要么是因為公司迫切希望削減成本;要么是因為它們聽說競爭對手都在使用人工智能,害怕被甩在后面。伊納姆說,這些因素本身都不是采用這項技術的好理由。

相反,根據伊納姆的觀點,所有的人工智能應用都應該以三個基本支柱為基礎:

? 首先,它應該“以人為中心”。這意味著不僅要認真思考人工智能系統要解決的人類挑戰是什么,還要非常認真地思考這項技術會對使用它的人(比如公司員工),以及那些受到軟件產出影響的人(比如客戶)帶來什么影響。

? 第二,人工智能必須值得信賴。這個支柱包含可解釋性等概念,但它還關注企業中的所有利益相關者是否會相信該系統能夠生成好的產出。

? 第三,人工智能必須符合倫理。這意味著要仔細審查用來訓練人工智能系統的數據來自何處,這些數據存在哪些偏差。它還意味著要認真考慮如何使用這項技術:例如,如果使用一種面部識別算法來強化一種有偏見的警務策略,那么即使它再完美,可能也是不道德的。“這意味著要審慎地意識到人類自身的歷史,以及各種有意或無意的偏見。”伊納姆說。

對人工智能的使用采取審慎的態度,往往會使企業不再采用許多技術供應商提供的現成解決方案和預先訓練好的人工智能模型。對于預先訓練好的人工智能模型,我們很難足夠深入地了解這套系統的關鍵要素——它究竟使用了什么數據、數據來自哪里、數據可能會帶來什么偏見或倫理問題。同樣重要的是,企業很難確切地發現這種人工智能模式可能會失敗的地方和方式。

我最喜歡的例子是IBM的“面孔多樣性”數據集。它的出發點是好的:太多用于建立面部識別系統的公共面部數據集沒有足夠的黑人或拉丁裔圖像。而在這些系統中發現的注釋也往往會強化種族和性別刻板印象。為了解決這個問題,IBM在2019年1月發布了一個包含100萬張人臉的開源數據集。如此一來,這個數據集應該更加多樣化,其問題標簽也應該少得多吧。

聽起來都不錯,對吧?哪家公司不愿意使用這種更加多樣化的數據集來訓練自己的面部識別系統呢?好吧,但有一個問題:IBM是在未經允許的情況下,從人們的Flickr賬戶中抓取圖片來創建這個數據集的。因此,盲目采用這個新數據集的用戶確實避免了一個人工智能倫理問題,卻在無意中陷入了另一個問題。

遵循伊納姆所說的三大支柱,還會產生另一個結果:人工智能項目不能操之過急。運行一個以人為中心的設計流程,并想清楚所有與可信賴性和倫理相關的潛在問題,是需要時間的。但好消息是,伊納姆說,由此生成的系統遠比快速投入生產的系統更有可能真正地實現其目標。

伊納姆指出,為了滿足這三大支柱,必須讓持有不同觀點的人參與進來——參與者不僅要有不同的種族、性別和個人背景,還要讓組織內的不同職能部門參與其中。“這必須是一個跨學科的群體。”他說。

很多時候,構建人工智能軟件的團隊都嚴重缺乏這種多樣性。相反,管理層只是簡單地要求工程部門構建一款能夠滿足某種商業目的的人工智能工具,而在人工智能系統的概念化和測試階段,公司的其他部門幾乎沒有任何投入。沒有多樣化的團隊,就很難搞清楚該問什么問題——無論是關于算法偏見,還是關于法律和監管問題——更遑論你是否獲得了好的答案。

就在伊納姆向我解釋的時候,我突然想起了那句古老的格言:“戰爭太重要了,不能完全委之于將軍。”嗯,事實證明,人工智能太重要了,不能完全委之于工程師。(財富中文網)

譯者:任文科

今年4月,當新冠疫情在世界許多地方達到頂峰時,我采訪了Pactera Edge公司的首席人工智能官艾哈邁爾·伊納姆。當時,在這家位于華盛頓州雷德蒙德市的科技咨詢公司,伊納姆正潛心研究新冠疫情是如何讓基于歷史數據訓練的人工智能模型陷于動蕩的。

上周,我再次采訪了伊納姆。他最近一直在思考為什么人工智能項目經常失敗,尤其是在大型組織中。在伊納姆看來,這個問題(以及圍繞這種技術的許多其他問題)的答案,是一種叫做“審慎的人工智能”(Mindful A.I.)的東西。

“審慎就是有意識。”伊納姆說,“審慎的人工智能是指有目的地意識到人工智能體驗的意圖,以及我們希望通過這種體驗喚起的情感。”

好吧,我承認,當他說這句話的時候,我覺得,這聽起來有點不切實際,就像伊納姆應該一兩個星期不吃東西似的。此外,“審慎的人工智能”有種噱頭式口號的感覺。但伊納姆越是解釋他的意思,我就越覺得他言之有理。(需要澄清的是,“審慎的人工智能”并不是伊納姆創造的。這個術語的創建主要應該歸功于微軟公司的首席創意總監奧維塔·桑普森和加州大學伯克利分校教授吳德愷。)

伊納姆主張,對人工智能的使用應該遵循第一原理。他說,組織經常出錯,是因為它們采用人工智能的原因都是錯的:要么是因為最高管理層錯誤地認為這是一種高科技靈丹妙藥,足以解決業務中存在的根本問題;要么是因為公司迫切希望削減成本;要么是因為它們聽說競爭對手都在使用人工智能,害怕被甩在后面。伊納姆說,這些因素本身都不是采用這項技術的好理由。

相反,根據伊納姆的觀點,所有的人工智能應用都應該以三個基本支柱為基礎:

? 首先,它應該“以人為中心”。這意味著不僅要認真思考人工智能系統要解決的人類挑戰是什么,還要非常認真地思考這項技術會對使用它的人(比如公司員工),以及那些受到軟件產出影響的人(比如客戶)帶來什么影響。

? 第二,人工智能必須值得信賴。這個支柱包含可解釋性等概念,但它還關注企業中的所有利益相關者是否會相信該系統能夠生成好的產出。

? 第三,人工智能必須符合倫理。這意味著要仔細審查用來訓練人工智能系統的數據來自何處,這些數據存在哪些偏差。它還意味著要認真考慮如何使用這項技術:例如,如果使用一種面部識別算法來強化一種有偏見的警務策略,那么即使它再完美,可能也是不道德的。“這意味著要審慎地意識到人類自身的歷史,以及各種有意或無意的偏見。”伊納姆說。

對人工智能的使用采取審慎的態度,往往會使企業不再采用許多技術供應商提供的現成解決方案和預先訓練好的人工智能模型。對于預先訓練好的人工智能模型,我們很難足夠深入地了解這套系統的關鍵要素——它究竟使用了什么數據、數據來自哪里、數據可能會帶來什么偏見或倫理問題。同樣重要的是,企業很難確切地發現這種人工智能模式可能會失敗的地方和方式。

我最喜歡的例子是IBM的“面孔多樣性”數據集。它的出發點是好的:太多用于建立面部識別系統的公共面部數據集沒有足夠的黑人或拉丁裔圖像。而在這些系統中發現的注釋也往往會強化種族和性別刻板印象。為了解決這個問題,IBM在2019年1月發布了一個包含100萬張人臉的開源數據集。如此一來,這個數據集應該更加多樣化,其問題標簽也應該少得多吧。

聽起來都不錯,對吧?哪家公司不愿意使用這種更加多樣化的數據集來訓練自己的面部識別系統呢?好吧,但有一個問題:IBM是在未經允許的情況下,從人們的Flickr賬戶中抓取圖片來創建這個數據集的。因此,盲目采用這個新數據集的用戶確實避免了一個人工智能倫理問題,卻在無意中陷入了另一個問題。

遵循伊納姆所說的三大支柱,還會產生另一個結果:人工智能項目不能操之過急。運行一個以人為中心的設計流程,并想清楚所有與可信賴性和倫理相關的潛在問題,是需要時間的。但好消息是,伊納姆說,由此生成的系統遠比快速投入生產的系統更有可能真正地實現其目標。

伊納姆指出,為了滿足這三大支柱,必須讓持有不同觀點的人參與進來——參與者不僅要有不同的種族、性別和個人背景,還要讓組織內的不同職能部門參與其中。“這必須是一個跨學科的群體。”他說。

很多時候,構建人工智能軟件的團隊都嚴重缺乏這種多樣性。相反,管理層只是簡單地要求工程部門構建一款能夠滿足某種商業目的的人工智能工具,而在人工智能系統的概念化和測試階段,公司的其他部門幾乎沒有任何投入。沒有多樣化的團隊,就很難搞清楚該問什么問題——無論是關于算法偏見,還是關于法律和監管問題——更遑論你是否獲得了好的答案。

就在伊納姆向我解釋的時候,我突然想起了那句古老的格言:“戰爭太重要了,不能完全委之于將軍。”嗯,事實證明,人工智能太重要了,不能完全委之于工程師。(財富中文網)

譯者:任文科

Back in April, when the pandemic was at its peak in many parts of the world, I spoke to Ahmer Inam, the chief A.I. officer at Pactera Edge, a technology consulting firm in Redmond, Washington. At the time, Inam was focused on how the pandemic was wreaking havoc with A.I. models trained from historical data.

Last week, I caught up with Inam again. Lately, he’s been thinking a lot about why A.I. projects so often fail, especially in large organizations. To Inam, the answer to this problem—and to many others surrounding the technology—is something called “Mindful A.I.”

“Being mindful is about being intentional,” Inam says. “Mindful A.I. is about being aware and purposeful about the intention of, and emotions we hope to evoke through, an artificially intelligent experience.”

OK, I admit that when he said that, I thought, it sounds kinda out there, like maybe Inam should lay off the edibles for a week or two—and Mindful A.I. has the ring of a gimmicky catchphrase. But the more Inam explained what he meant, the more I began to think he was on to something. (And just to be clear, Inam did not coin the term Mindful A.I.. Credit should primarily go to Orvetta Sampson, the principal creative director at Microsoft, and De Kai, a professor at the University of California at Berkeley.)

Inam is arguing for a first-principles approach to A.I. He says that too often organizations go wrong because they adopt A.I. for all the wrong reasons: because the C-suite wrongly believes it’s some sort of technological silver bullet that will fix a fundamental problem in the business, or because the company is desperate to cut costs, or because they’ve heard competitors are using A.I. and they are afraid of being left behind. None of these are, in and of themselves, good reasons to adopt the technology, Inam says.

Instead, according to Inam, three fundamental pillars should undergird any use of A.I.

? First, it should “human-centric.” That means thinking hard about what human challenge the technology is meant to be solving and also thinking very hard about what the impact of the technology will be, both on those who will use it—for instance, the company’s employees—and those who will be affected by the output of any software, such as customers.

? Second, A.I. must be trustworthy. This pillar encompasses ideas like explainability and interpretability—but it goes further, looking at whether all stakeholders in a business are going to believe that the system is arriving at good outputs.

? Third, A.I. must be ethical. This means scrutinizing where the data used to train an A.I. system comes from and what biases exist in that data. But it also means thinking hard about how that technology will be used: even a perfect facial recognition algorithm, for instance, might not be ethical if it is going to be used to reinforce a biased policing strategy. “It means being mindful and aware of our own human histories and biases that are intended or unintended,” Inam says.

A mindful approach to A.I. tends to lead businesses away from adopting off-the-shelf solutions and pre-trained A.I. models that many technology providers offer. With pre-trained A.I. models, it’s simply too difficult to get enough insight into critical elements of such systems—exactly what data was used, where it came from, and what biases or ethical issues it might present. Just as important, it can be difficult for a business to find out exactly where and how that A.I. model might fail.

My favorite example of this is IBM's "Diversity in Faces" dataset. The intention was a good one: Too many public datasets of faces being used to build facial-recognition systems didn't have enough images of Black or Latino individuals. And too often the annotations found in these systems can reinforce racial and gender stereotypes. In an effort to solve this problem, in January 2019, IBM released an open-source dataset of 1 million human faces that were supposed to be far more diverse and with much less problematic labels.

All sounds good, right? What company wouldn't want to use this more diverse dataset to train its facial-recognition system? Well, there was just one problem: IBM had created the dataset by scraping images from people's Flickr accounts without their permission. So users who blindly adopted the new dataset were unwittingly trading one A.I. ethics problem for another.

Another consequence of Inam's three pillars is that A.I. projects can't be rushed. Running a human-centric design process and thinking through all the potential issues around trustworthiness and ethics takes time. But the good news, Inam says, is that the resulting system is far more likely to actually meet its goals than one that is sped into production.

To meet all three pillars, Inam says it is essential to involve people with diverse perspectives, both in terms of race, gender and personal backgrounds, but also in terms of roles within the organization. “It has to be interdisciplinary group of people,” he says.

Too often, the teams building A.I. software sorely lack such diversity. Instead, engineering departments are simply told by management to build an A.I. tool that fulfills some business purpose, with little input during the conceptualization and testing phases from other parts of the company. Without diverse teams, it can be hard to figure out what questions to ask—whether on algorithmic bias or legal and regulatory issues—let alone whether you've got good answers.

As Inam was speaking, I was reminded of that old adage, “War is too important to be the left to the generals.” Well, it turns out, A.I. is too important to be left to the engineers.

財富中文網所刊載內容之知識產權為財富媒體知識產權有限公司及/或相關權利人專屬所有或持有。未經許可,禁止進行轉載、摘編、復制及建立鏡像等任何使用。
0條Plus
精彩評論
評論

撰寫或查看更多評論

請打開財富Plus APP

前往打開

            主站蜘蛛池模板: 耒阳市| 进贤县| 丹凤县| 合江县| 五常市| 大连市| 徐闻县| 瓮安县| 江都市| 安图县| 深水埗区| 岫岩| 昌江| 镇康县| 平湖市| 周口市| 锦州市| 鄂州市| 临邑县| 颍上县| 湖口县| 太和县| 伊春市| 正镶白旗| 美姑县| 舟曲县| 杂多县| 武宣县| 怀集县| 巴彦淖尔市| 襄樊市| 兴仁县| 武宣县| 榆中县| 深水埗区| 庄河市| 通州市| 柳江县| 阳朔县| 池州市| 右玉县|