安迪?泰勒的目標既適度又雄心勃勃:首次將人工智能引入空中交通管制。作為一名職業空中交通管制員,泰勒很快就意識到了計算機視覺技術的改進可以為他的職業帶來潛在的好處。
示例:每次飛機離開跑道時,空中交通管制員都必須進行標記,并通知下一架飛機跑道可以使用。這項簡單、重復的任務占據了管制員所有的注意力,使其無法觀察到停機坪上發生的其他任何情況。即使稍有耽擱,在一天中累積起來所產生的影響也不能小覷,尤其是在泰勒工作的倫敦希思羅機場,該機場的航班預訂從早上六點到晚上11點30分從不間斷。
如果人工智能系統能夠自動處理此項工作,會怎么樣?NATS是英國唯一的空中交通管制服務提供商,泰勒現在帶頭進行NATS的開創性工作,以回答該問題,并采用人工智能來承擔這項工作以及相關的空中交通管制任務。
他創新路上的最大障礙是什么?人工智能航空安全法規尚未成型。
缺乏法規可能會阻礙像泰勒這樣的創新者,有些人可能會認為這種說法有悖常理。畢竟,通常情況下,無阻礙創新的支持者與那些擔心不受約束的競爭會造成社會危害的人們在圍繞監管進行爭論時一直都站在對立面。
特朗普政府加入了前一陣營,主張各機構對新法規采取“低干預”的手段,其認為新的法規“不必要且會阻礙人工智能創新和發展”。
作為一個日益強大的政治主體,許多硅谷的精英們也同意這種觀點,其對監管的厭惡眾所周知。
但是,盡管不干預的手段可能會促進互聯網、航空和其他行業的創新,但它可能會成為進步的障礙。我在加利福尼亞大學伯克利分校(UC Berkeley)的人工智能安全倡議研究中心(AI Security Initiative)的報告中作出了解釋。部分問題在于,航空安全法規范圍太廣,且與人工智能情況嚴重不符,因此需要對現有規則進行大量修訂和補充。
例如,飛機認證過程遵循基于邏輯的方法,其中每一個可能的輸入和輸出都有人關注并對其進行分析。但是這種方法通常對人工智能模型不起作用,其中許多模型的反應不同,甚至對輸入的輕微擾動反應也不同,從而產生了幾乎無限量的結果需要考慮。
應對這一挑戰不僅僅是修改現有監管語言的問題:它需要人們進行新的技術研究,構建行為可預測和可解釋的人工智能系統,以及制定新的技術標準來對標安全性和其他性能標準。在制定這些標準和法規之前,企業必須完全從零開始,為人工智能應用程序構建安全案例。即使對于像NATS這樣的開路先鋒企業來說,這也是一項艱巨的任務。
“這絕對是個挑戰,”泰勒今年早些時候告訴我,“因為沒有指南或要求,我沒辦法指著某個指南或要求說,‘我遵循的就是這個要求。’”
一個更深層次的問題是,空中交通管制企業以及波音公司和空中客車公司等制造商明白,制定人工智能新規則不可避免。雖然他們渴望獲得人工智能帶來的成本和安全方面的好處,但可以理解的是,它們中大多數不愿意進行重大投資,因為他們沒有信心,能夠保證由人工智能產生的產品將符合未來的法規。
其結果可能是采用人工智能的速度大幅放緩:如果監管機構無法獲得更多資源以及白宮不施加強有力的領導,設定標準和制定符合人工智能的法規的過程需要花費幾年甚至幾十年的時間。
即將上任的拜登政府準備進行強有力的領導,這與特朗普政府“治理人工智能”所采取的不干預手段形成了鮮明對比。
在影響拜登政府對待人工智能監管的態度方面,商界領袖和技術專家可以發揮關鍵作用。他們首先可能鼓勵政府優先考慮進行和樹立與支持航空業和其他行業創新的人工智能有關的安全研究和監管框架。或者,他們可以發揮自己的專長:在私營部門開發原型解決方案(例如,見OpenAI關于人工智能治理的監管市場提案)。
如果他們的努力取得成功,安迪?泰勒和其他企業家就可以放開拳腳,在從航空到醫療保健再到軍事等安全至上的行業中進行創新。如果未能取得成功,NATS等少數企業仍將嘗試在這些行業開發新的人工智能應用程序。但這并不容易,而且會增加發生事故的風險。人工智能的潛在好處——改進的醫療診斷、經濟適用的城市空氣流動性等等——在技術上將仍然可行,但總是要幾年時間。
因此,支持創新的商業領袖和技術專家應該減少對新的法規會使人工智能發展減緩的擔心,而是努力制定加快發展所需的智能法規。(財富中文網)
威爾?亨特是喬治敦大學安全與新興技術中心(Georgetown University’s Center for Security and Emerging Technology)的研究分析師以及加州大學伯克利分校(University of California at Berkeley)的政治學在讀博士生。他與別人合作編寫了《華爾街日報》上的科技政策社評。先前,他曾是加州大學伯克利分校人工智能安全倡議研究中心的研究生研究員。
翻譯:曉田
審校:汪皓
安迪?泰勒的目標既適度又雄心勃勃:首次將人工智能引入空中交通管制。作為一名職業空中交通管制員,泰勒很快就意識到了計算機視覺技術的改進可以為他的職業帶來潛在的好處。
示例:每次飛機離開跑道時,空中交通管制員都必須進行標記,并通知下一架飛機跑道可以使用。這項簡單、重復的任務占據了管制員所有的注意力,使其無法觀察到停機坪上發生的其他任何情況。即使稍有耽擱,在一天中累積起來所產生的影響也不能小覷,尤其是在泰勒工作的倫敦希思羅機場,該機場的航班預訂從早上六點到晚上11點30分從不間斷。
如果人工智能系統能夠自動處理此項工作,會怎么樣?NATS是英國唯一的空中交通管制服務提供商,泰勒現在帶頭進行NATS的開創性工作,以回答該問題,并采用人工智能來承擔這項工作以及相關的空中交通管制任務。
他創新路上的最大障礙是什么?人工智能航空安全法規尚未成型。
缺乏法規可能會阻礙像泰勒這樣的創新者,有些人可能會認為這種說法有悖常理。畢竟,通常情況下,無阻礙創新的支持者與那些擔心不受約束的競爭會造成社會危害的人們在圍繞監管進行爭論時一直都站在對立面。
特朗普政府加入了前一陣營,主張各機構對新法規采取“低干預”的手段,其認為新的法規“不必要且會阻礙人工智能創新和發展”。
作為一個日益強大的政治主體,許多硅谷的精英們也同意這種觀點,其對監管的厭惡眾所周知。
但是,盡管不干預的手段可能會促進互聯網、航空和其他行業的創新,但它可能會成為進步的障礙。我在加利福尼亞大學伯克利分校(UC Berkeley)的人工智能安全倡議研究中心(AI Security Initiative)的報告中作出了解釋。部分問題在于,航空安全法規范圍太廣,且與人工智能情況嚴重不符,因此需要對現有規則進行大量修訂和補充。
例如,飛機認證過程遵循基于邏輯的方法,其中每一個可能的輸入和輸出都有人關注并對其進行分析。但是這種方法通常對人工智能模型不起作用,其中許多模型的反應不同,甚至對輸入的輕微擾動反應也不同,從而產生了幾乎無限量的結果需要考慮。
應對這一挑戰不僅僅是修改現有監管語言的問題:它需要人們進行新的技術研究,構建行為可預測和可解釋的人工智能系統,以及制定新的技術標準來對標安全性和其他性能標準。在制定這些標準和法規之前,企業必須完全從零開始,為人工智能應用程序構建安全案例。即使對于像NATS這樣的開路先鋒企業來說,這也是一項艱巨的任務。
“這絕對是個挑戰,”泰勒今年早些時候告訴我,“因為沒有指南或要求,我沒辦法指著某個指南或要求說,‘我遵循的就是這個要求。’”
一個更深層次的問題是,空中交通管制企業以及波音公司和空中客車公司等制造商明白,制定人工智能新規則不可避免。雖然他們渴望獲得人工智能帶來的成本和安全方面的好處,但可以理解的是,它們中大多數不愿意進行重大投資,因為他們沒有信心,能夠保證由人工智能產生的產品將符合未來的法規。
其結果可能是采用人工智能的速度大幅放緩:如果監管機構無法獲得更多資源以及白宮不施加強有力的領導,設定標準和制定符合人工智能的法規的過程需要花費幾年甚至幾十年的時間。
即將上任的拜登政府準備進行強有力的領導,這與特朗普政府“治理人工智能”所采取的不干預手段形成了鮮明對比。
在影響拜登政府對待人工智能監管的態度方面,商界領袖和技術專家可以發揮關鍵作用。他們首先可能鼓勵政府優先考慮進行和樹立與支持航空業和其他行業創新的人工智能有關的安全研究和監管框架。或者,他們可以發揮自己的專長:在私營部門開發原型解決方案(例如,見OpenAI關于人工智能治理的監管市場提案)。
如果他們的努力取得成功,安迪?泰勒和其他企業家就可以放開拳腳,在從航空到醫療保健再到軍事等安全至上的行業中進行創新。如果未能取得成功,NATS等少數企業仍將嘗試在這些行業開發新的人工智能應用程序。但這并不容易,而且會增加發生事故的風險。人工智能的潛在好處——改進的醫療診斷、經濟適用的城市空氣流動性等等——在技術上將仍然可行,但總是要幾年時間。
因此,支持創新的商業領袖和技術專家應該減少對新的法規會使人工智能發展減緩的擔心,而是努力制定加快發展所需的智能法規。(財富中文網)
威爾?亨特是喬治敦大學安全與新興技術中心(Georgetown University’s Center for Security and Emerging Technology)的研究分析師以及加州大學伯克利分校(University of California at Berkeley)的政治學在讀博士生。他與別人合作編寫了《華爾街日報》上的科技政策社評。先前,他曾是加州大學伯克利分校人工智能安全倡議研究中心的研究生研究員。
翻譯:曉田
審校:汪皓
Andy Taylor has a goal both modest and ambitious: bring artificial intelligence, or A.I., to air traffic control for the first time. A career air traffic controller, Taylor was quick to see the potential benefits that advances in computer vision technology could bring to his profession.
Example: Every time a plane clears its runway, an air traffic controller must flag it and notify the next plane that the runway is free. This simple, repetitive task takes controllers’ attention away from everything else that’s happening on the tarmac. Even short delays can add up considerably over the course of a day—especially at airports such as London’s Heathrow, where Taylor works, which has flights booked end-to-end from six in the morning till 11:30 at night.
What if an A.I. system could handle this work autonomously? Taylor now leads the groundbreaking effort by NATS, Britain’s sole air traffic control provider, to answer that question, and to bring A.I. to bear on this and related air traffic control tasks.
His biggest obstacle to innovation? The nonexistence of A.I. safety regulations for aviation.
That a lack of regulations might obstruct innovators like Taylor might be counterintuitive to some. After all, arguments around regulation usually pit proponents of unencumbered innovation against those concerned about social harms resulting from unchecked competition.
The Trump administration falls into the former camp, advocating that agencies adopt a light-touch approach toward new regulations, which it feels could “needlessly hamper A.I. innovation and growth.”
So do many Silicon Valley elites—an increasingly powerful political constituency with a well-documented distaste for regulation.
But while a hands-off approach might foster innovation on the Internet, in aviation and other industries it can be an obstacle to progress. In a report from UC Berkeley’s AI Security Initiative, I explain why. Part of the problem is that safety regulations for aviation are both extensive and deeply incompatible with A.I., necessitating broad revisions and additions to existing rules.
For example, aircraft certification processes follow a logic-based approach in which every possible input and output receives attention and analysis. But this approach often doesn’t work for A.I. models, many of which react differently even to slight perturbations of input, generating a nearly infinite number of outcomes to consider.
Addressing this challenge isn’t a mere matter of modifying existing regulatory language: It requires novel technical research on building A.I. systems with predictable and explainable behavior and the development of new technical standards for benchmarking safety and other performance criteria. Until these standards and regulations are developed, firms will have to build safety cases for A.I. applications entirely from scratch—a tall order, even for pathbreaking firms like NATS.
“It’s absolutely a challenge,” Taylor told me earlier this year, “because there’s no guidance or requirements that I can point to and say, ‘I’m using that particular requirement.’”
A further issue is that air traffic control firms, as well as manufacturers such as Boeing and Airbus, know that new rules for A.I. are inevitable. While they are eager to reap the cost and safety benefits offered by A.I., most are understandably reluctant to make serious investments without confidence that the resulting product will be compatible with future regulations.
The result could be a major slowdown in A.I. adoption: Without more resources for regulators and strong leadership from the White House, the process of setting standards and developing A.I.-appropriate regulations will take years or even decades.
The incoming Biden administration is poised to offer that leadership, striking a contrast with the Trump administration’s light-touch approach to A.I. governance.
Business leaders and technologists have a key role to play in influencing the Biden administration’s attitude toward A.I. regulation. They might start by encouraging the administration to prioritize A.I. safety research and regulatory frameworks for A.I. that support innovation in aviation and other industries. Or they could do what they do best: develop prototype solutions in the private sector (for a great example, see OpenAI’s proposal of regulatory markets for A.I. governance).
If successful, these efforts could free up Andy Taylor and other entrepreneurs to innovate in safety-critical industries from aviation to health care to the military. If not, a handful of companies like NATS will still try to develop new A.I. applications in these industries. But it won’t be easy and could increase the risk of accidents. The potential benefits of A.I.—improved medical diagnoses, affordable urban air mobility, and much more—would remain technically feasible, but always a few years away.
Pro-innovation business leaders and technologists should therefore worry less about new regulations slowing down progress and instead work on developing the smart regulations required to speed it up.
Will Hunt is a research analyst at Georgetown University’s Center for Security and Emerging Technology and a political science Ph.D. student at the University of California at Berkeley. He has coauthored commentary on technology policy in the Wall Street Journal, and he was previously a graduate researcher at the UC Berkeley AI Security Initiative.