“嘿,Siri,今天天氣如何?”這是蘋果的虛擬助手經常被問及的問題,也一定程度上說明了人工智能已經走進我們的生活。
這樣的體驗在潛移默化之中改變了人類的生活細節,不管是設置鬧鐘、打開流媒體平臺的推薦節目,或是撰寫電子郵件結尾,人工智能都能夠輕松做到,大大便利了我們的生活。
我們很少去刻意察覺人工智能帶來的變化,但它們一旦出現失誤便會引發公眾關注:比如波音(Boeing)的737 Max飛機的安全系統曾經存在缺陷,導致這款噴氣式飛機向下俯沖;又或者,無人駕駛汽車出現故障被召回。
人工智能可謂神通廣大,大到維系公眾安全和抗擊新冠疫情,小到從智能手機中找到某一張照片,這些任務它都可以出色地完成。不過正是這股巨大潛力及其爆炸式發展,讓我們深入思考一個問題:如何通過可靠的方式將其優勢最大化,同時防止錯誤和災難發生?答案其實就藏在人工智能和用戶的關系中:人工智能應該根植于人類的需求。
人工智能的最佳使命可以說是成為強大的輔助工具,將人類從單調或過于繁重的任務中解放出來,從而讓人類最大限度地發揮自身潛力。我們應該通過設計,將這一使命交付給人工智能。簡而言之,人工智能的有效性受制于其用戶體驗,我們在持續開發人工智能系統的過程中必須關注這一環節。如果說人工智能是工具,那么設計便是人類使用這一工具的把手或握桿。
我們的確需要這樣的工具。信息時代讓我們時時刻刻都在與數據打交道,但人類所能處理的數據實在有限。我們可以把大腦想象成一個開口,它能夠處理的數據流就只有這么多。優秀的人工智能設計能夠檢測哪些是重要數據,并只讓它們通過這個開口,從而減輕我們的負載。
在實踐中,我們可以通過以下三條規則來打造既可靠又強大的人工智能工具,同時又保證以人為本:
先有問題后有科技,而不是反過來。人們買鏟子并不是為了擁有它們,而是為了挖洞。很多時候,我們都是先創造高科技,再為其找一個用途。
我們應該先了解客戶的需求,再打造最好的科技來滿足它們。舉個例子,讓實時呼叫轉錄協助警察部門接聽報警電話。人工智能可以通過搜索和標記關鍵信息(例如緊急情況發生的位置和類型)來滿足用戶的需求,使接聽的人能夠專心解決求救者的問題。
接納明確性和模糊性,以保留人類的能動性。人工智能作為一項輔助技術,其工作本質是評估事件發生的可能性。那么,它就必須用通俗易懂的方式來呈現信息,其中包括表達不確定性和疑問的能力。舉個例子,我們在設計應用人工智能的轉錄系統時,可以讓其改變錄入信息的字體來指示含義不明確的信息。如果詞匯越難辨讀,便代表人工智能越不確定是否正確轉錄了信息。
另一種方法則是傳遞沒有歧義的結果,這會幫助人類縮小選擇范圍,也因此削弱了我們的能動性。在這一點上,不同的設計會有不同的結果。清晰的溝通方式能夠帶來雙向的好處:人工智能越了解用戶,就越可以快速識別重要信息。
此外,如果信息足夠透明,也能夠幫助一些用戶對其他人類的利益盡責。科幻小說家亞瑟·查爾斯·克拉克曾經說過:“任何足夠先進的科技都與魔法無異。”但是,對于公共安全官員等需要就決策原因進行溝通的用戶來說,人工智能算法輸入和產出內容之間的關系必須明確。
適當協調使用環境,以分清責任界限。設計人工智能來解決特定問題,并打造一套具體的工作流程,這看似不符合正常預期,但其實從長遠來看,這種經過實測的方法反而可以更集中地傳遞用戶體驗的價值。它讓人工智能根植于一個更宏大的工作流程,通過政策和程序來減少道德過失、濫用及誤用情況,從而減輕我們對隱私的擔憂。
上文提到的波音737 Max飛機的例子,便闡明了人工智能的使用環境應該以人為本。這款飛機的軟件采用了這樣的設計:如果傳感器檢測到飛機仰角過大,便會降低機頭。而如果傳感器失靈,飛行員只有幾秒鐘的時間來解除該系統,但其實他們并不知道飛機中有這樣一項設計。
設計其實和人工智能一樣,雖然無處不在,但往往不引人注意。你喜歡坐這把椅子而非另一把,你選擇這款應用程序而非功能一致的另一款,這些其實都和設計有關。
如果我們在設計工作流程時能夠以終端用戶為重,或許系統就可以提醒工作人員注意顯而易見的危險,并給出清晰的指示讓他們改用手控。一個更加優秀的人工智能設計,應該專心協助人類更好地決策,而不是取代人類智慧,這樣或許就能防止悲劇。
本文作者馬赫什·薩普塔里希博士是摩托羅拉系統公司(Motorola Solutions)的執行副總裁兼軟件企業及手機視頻部的首席技術官。他在卡耐基梅隆大學(Carnegie Mellon University)獲得了機器學習博士學位,是一位備受尊敬的技術專家和思想領袖,大量科學出版物、文章和專利出自其手。(財富中文網)
譯者:Kayson
“嘿,Siri,今天天氣如何?”這是蘋果的虛擬助手經常被問及的問題,也一定程度上說明了人工智能已經走進我們的生活。
這樣的體驗在潛移默化之中改變了人類的生活細節,不管是設置鬧鐘、打開流媒體平臺的推薦節目,或是撰寫電子郵件結尾,人工智能都能夠輕松做到,大大便利了我們的生活。
我們很少去刻意察覺人工智能帶來的變化,但它們一旦出現失誤便會引發公眾關注:比如波音(Boeing)的737 Max飛機的安全系統曾經存在缺陷,導致這款噴氣式飛機向下俯沖;又或者,無人駕駛汽車出現故障被召回。
人工智能可謂神通廣大,大到維系公眾安全和抗擊新冠疫情,小到從智能手機中找到某一張照片,這些任務它都可以出色地完成。不過正是這股巨大潛力及其爆炸式發展,讓我們深入思考一個問題:如何通過可靠的方式將其優勢最大化,同時防止錯誤和災難發生?答案其實就藏在人工智能和用戶的關系中:人工智能應該根植于人類的需求。
人工智能的最佳使命可以說是成為強大的輔助工具,將人類從單調或過于繁重的任務中解放出來,從而讓人類最大限度地發揮自身潛力。我們應該通過設計,將這一使命交付給人工智能。簡而言之,人工智能的有效性受制于其用戶體驗,我們在持續開發人工智能系統的過程中必須關注這一環節。如果說人工智能是工具,那么設計便是人類使用這一工具的把手或握桿。
我們的確需要這樣的工具。信息時代讓我們時時刻刻都在與數據打交道,但人類所能處理的數據實在有限。我們可以把大腦想象成一個開口,它能夠處理的數據流就只有這么多。優秀的人工智能設計能夠檢測哪些是重要數據,并只讓它們通過這個開口,從而減輕我們的負載。
在實踐中,我們可以通過以下三條規則來打造既可靠又強大的人工智能工具,同時又保證以人為本:
先有問題后有科技,而不是反過來。人們買鏟子并不是為了擁有它們,而是為了挖洞。很多時候,我們都是先創造高科技,再為其找一個用途。
我們應該先了解客戶的需求,再打造最好的科技來滿足它們。舉個例子,讓實時呼叫轉錄協助警察部門接聽報警電話。人工智能可以通過搜索和標記關鍵信息(例如緊急情況發生的位置和類型)來滿足用戶的需求,使接聽的人能夠專心解決求救者的問題。
接納明確性和模糊性,以保留人類的能動性。人工智能作為一項輔助技術,其工作本質是評估事件發生的可能性。那么,它就必須用通俗易懂的方式來呈現信息,其中包括表達不確定性和疑問的能力。舉個例子,我們在設計應用人工智能的轉錄系統時,可以讓其改變錄入信息的字體來指示含義不明確的信息。如果詞匯越難辨讀,便代表人工智能越不確定是否正確轉錄了信息。
另一種方法則是傳遞沒有歧義的結果,這會幫助人類縮小選擇范圍,也因此削弱了我們的能動性。在這一點上,不同的設計會有不同的結果。清晰的溝通方式能夠帶來雙向的好處:人工智能越了解用戶,就越可以快速識別重要信息。
此外,如果信息足夠透明,也能夠幫助一些用戶對其他人類的利益盡責。科幻小說家亞瑟·查爾斯·克拉克曾經說過:“任何足夠先進的科技都與魔法無異。”但是,對于公共安全官員等需要就決策原因進行溝通的用戶來說,人工智能算法輸入和產出內容之間的關系必須明確。
適當協調使用環境,以分清責任界限。設計人工智能來解決特定問題,并打造一套具體的工作流程,這看似不符合正常預期,但其實從長遠來看,這種經過實測的方法反而可以更集中地傳遞用戶體驗的價值。它讓人工智能根植于一個更宏大的工作流程,通過政策和程序來減少道德過失、濫用及誤用情況,從而減輕我們對隱私的擔憂。
上文提到的波音737 Max飛機的例子,便闡明了人工智能的使用環境應該以人為本。這款飛機的軟件采用了這樣的設計:如果傳感器檢測到飛機仰角過大,便會降低機頭。而如果傳感器失靈,飛行員只有幾秒鐘的時間來解除該系統,但其實他們并不知道飛機中有這樣一項設計。
設計其實和人工智能一樣,雖然無處不在,但往往不引人注意。你喜歡坐這把椅子而非另一把,你選擇這款應用程序而非功能一致的另一款,這些其實都和設計有關。
如果我們在設計工作流程時能夠以終端用戶為重,或許系統就可以提醒工作人員注意顯而易見的危險,并給出清晰的指示讓他們改用手控。一個更加優秀的人工智能設計,應該專心協助人類更好地決策,而不是取代人類智慧,這樣或許就能防止悲劇。
本文作者馬赫什·薩普塔里希博士是摩托羅拉系統公司(Motorola Solutions)的執行副總裁兼軟件企業及手機視頻部的首席技術官。他在卡耐基梅隆大學(Carnegie Mellon University)獲得了機器學習博士學位,是一位備受尊敬的技術專家和思想領袖,大量科學出版物、文章和專利出自其手。(財富中文網)
譯者:Kayson
"Hey Siri, what's the weather?" It's one of the most common questions asked of Apple’s virtual assistant, but it’s also one of the many ways artificial intelligence (A.I.) is already a part of your life.
Such experiences have become the ambient noise of our daily lives, making things easier in a thousand little-noticed ways like setting a timer, populating Netflix recommendations, or proposing words to finish an email.
What does grab the public’s attention are A.I. failures: The airplane safety system that reportedly caused Boeing 737 Max?jets to nose-dive or the recall of self-driving cars.
A.I.’s vast potential–whether in?aiding public safety,?fighting the COVID-19 pandemic or helping you find a photograph on your smartphone–and?explosive growth raise the question of how to responsibly maximize its upside while safeguarding against mistakes and disasters. The answer lies in the relationship between A.I. and its users: rooting A.I. in human need.
A.I’s best mission statement is arguably to maximize human potential by being a powerful assistive tool that liberates human intelligence from mundane or overwhelming tasks. Design is that mission’s connective tissue. Simply put, an A.I.’s effectiveness is bounded by its user’s experience, a link upon which we must focus as we continue to evolve A.I. systems. If A.I. is a tool, design is the handle or grip which allows humans to wield it.
And we need those tools. While the information age has left us awash in data, humans can only process a finite amount of it. Think of our brains as openings through which only so much data can flow. Well-designed A.I. can identify what’s important, limiting what we try to squeeze through the opening.
In practical terms, there are three rules for creating responsible, powerful A.I. tools by keeping them human-centered:
Suit the tech to the problem, not the other way around. People don’t buy shovels to have them–they want to dig holes. Too often in high tech, we create first and find a use later.
Identify customer needs and then design the best technology to solve them. For example, real-time call transcription can assist police departments in taking 911 calls. A.I. can address the user's need by searching for and flagging key information, such as location and type of emergency, enabling the respondent to focus on the caller and address their problem.
Preserve human agency by embracing clarity–and ambiguity. As an assistive technology, and one which evaluates along a spectrum of likelihood, A.I. must be able to present information in an easily understandable way, including the ability to express uncertainty and doubt. For example, the A.I.-powered transcription can be designed to adjust the transcript’s font to indicate uncertainty. The harder to read a word, the less certain the A.I. is of having transcribed it properly.
The alternative–communicating results shorn of ambiguity–can erode human agency by narrowing options. Design is the difference. The benefits of clarity flow both ways: The better an A.I. understands its user, the more quickly it will be able to identify important information.
Transparency also helps users who are responsible to other human stakeholders. Arthur C. Clarke memorably said that “any sufficiently advanced technology is indistinguishable from magic.” However, for those who need to communicate why decisions were made, such as public safety officials, the relationship between what an A.I. algorithm produces and its inputs needs to be clear.
Optimize for accountability by properly contextualizing. Designing A.I. to solve unique problems and work in specific workflows might seem counterintuitive, but such a measured approach will mean a more focused delivery of user-experience value in the long run. It can allay privacy concerns, for example, by grounding A.I. in a larger workflow that has policies and procedures to mitigate against ethical lapses, misuses, and mistakes.
The example of the 737 Max illustrates the importance of ensuring a human-focused context. Its software was designed to lower the plane’s nose if a sensor detected that it was rising up too high. When that sensor malfunctioned, the pilots had only seconds to disengage the system–but they were unaware it was part of the airplane’s design.
Like A.I., design is everywhere and often goes unnoticed. It is the difference between your favorite chair and the one you avoid, or why you choose one app over another which performs much the same function.
A workflow that is focused on the end-users may have alerted the crew of the apparent danger and given them a clear way to override the A.I. Better design of A.I., which focuses on assisting humans to make better decisions and not replacing human intelligence, might have prevented a tragic outcome.
Mahesh Saptharishi, Ph.D, is the executive vice president and CTO of Software Enterprise & Mobile Video at Motorola Solutions. A highly respected technology expert and thought leader, Saptharishi earned a doctorate degree in machine learning from Carnegie Mellon University and has authored numerous scientific publications, articles, and patents.