OpenAI聯合創始人兼首席執行官山姆·阿爾特曼即將在倫敦大學學院(University College London)的地下禮堂發表演講,禮堂共有985個座位,排隊的人從門口往外排,排滿了幾階樓梯,一直排到街上,然后蜿蜒穿過一個城市街區。再往前走,就會看到六個舉著標語的年輕人,他們呼吁OpenAI放棄開發通用人工智能的努力——在大多數認知相關任務中,人工智能系統可以達到人類大腦同等智慧。一名抗議者拿著擴音器指責阿爾特曼的彌賽亞情結(想要通過拯救他人來實現自救,通過扮演救世主的角色來體現自己的價值),稱他為了實現自我價值而冒著毀滅人類的風險。
指責阿爾特曼有彌賽亞情結可能有點過火了。但在禮堂里,阿爾特曼受到了搖滾明星般的待遇。演講結束后,他被仰慕者團團圍住,讓他擺姿勢進行自拍合影,并就創業公司如何更好地創建“護城河”(結構性競爭優勢)征求他的意見。“這正常嗎?”當我們站在阿爾特曼周圍擁擠的人群中時,一位難以置信的記者向OpenAI的新聞發言人提問。這位發言人表示:“我們這次行程所到之處幾乎都是如此。”
阿爾特曼目前正在進行OpenAI“世界巡回演講”——從里約和拉各斯到柏林和東京等城市——與企業家、開發者和學生們討論OpenAI的技術以及人工智能在更廣泛領域的潛在影響。阿爾特曼以前進行過這樣的世界巡回演講。但今年,隨著人工智能聊天機器人ChatGPT的病毒式流行,它已成為史上增速最快的面向消費者的軟件產品。因此,進行“世界巡回演講”有一種繞場一周慶祝勝利的感覺。阿爾特曼還將與政府主要領導人會面。在倫敦大學學院的演講結束后,他將與英國首相里希·蘇納克共進晚餐,并將在布魯塞爾與歐盟官員會面。
我們從阿爾特曼的演講中了解到什么?除了其他方面外,阿爾特曼認為埃隆·馬斯克讓他意識到深度科技投資的重要性,他還認為高級人工智能將減少全球不平等,他還將教育工作者對OpenAI的ChatGPT感到恐懼與前幾代人對計算器的出現感到絕望相提并論,但他對移民火星不感興趣。
阿爾特曼在美國參議院作證時呼吁政府對人工智能進行監管,最近還與人合寫了一篇博文,呼吁建立一個類似于國際原子能機構(International Atomic Energy Agency)這樣的組織,來監管全球高級人工智能系統的發展。他表示,監管機構應該在美國監管新技術方面的傳統自由放任方式和歐洲采取的積極監管立場之間取得平衡。他說,他希望看到人工智能的開源開發蓬勃發展。他說:“有人呼吁停止開源運動,我認為這將是真正的恥辱。”但“如果有人破解了代碼,并研發出超級人工智能(不管你希望如何定義它)。”他警告說,“可能制定全球性規則是合乎情理的。”
阿爾特曼說:“對于可能研發出超級人工智能的最大規模的系統,我們至少應該像對待核材料一樣認真對待它。”
這位OpenAI首席執行官還警告說,在他自己公司的機器人ChatGPT和文本生成圖像工具DALL-E等技術的助力下,可以輕易生成大量錯誤信息。比起生成式人工智能被用來擴大現有的虛假信息活動規模,阿爾特曼更擔心的是,這項技術有可能生成量身定制的、有針對性的虛假信息。他指出,OpenAI和其他開發專有人工智能模型的公司可以建立更好的護欄來防止此類活動,但他說,開源開發可能會破壞這種努力,因為開源開發允許用戶修改軟件并移除護欄。盡管監管“可能會有所幫助”,但阿爾特曼表示,人們需要成為批判性的信息消費者,并將其與圖像處理軟件Adobe Photoshop首次發布時,人們對數字編輯照片感到擔憂的時期進行比較。他說:“同樣的事情也會發生在這些新技術上。但我認為,我們越早讓人們了解這一點越好,因為這樣做能夠引起更普遍的情感共鳴。”
阿爾特曼對人工智能的看法比以往更為樂觀。雖然有些人認為,生成式人工智能系統會導致普通工人工資下降或造成大規模失業,進而加劇全球不平等,但阿爾特曼表示,他認為事實恰恰相反。他指出,人工智能有助于實現全球經濟增長,并提高生產力,從而幫助人們擺脫貧困,并創造新機會。他說:“我對這項技術感到非常興奮,它能夠恢復過去幾十年失去的生產力,并實現超越追趕。”他提出了基本觀點:全球兩大“限制因素”是智力成本和能源成本。他表示,如果這兩者的成本能夠大幅降低,那么它們對窮人的幫助應該比對富人的幫助更大。“人工智能技術將改變整個世界。”他說。
阿爾特曼還提到,他認為人工智能存在不同版本,包括超級人工智能。一些人,包括阿爾特曼過去曾說過,盡管這種未來技術可能對人類構成嚴重威脅,但它實際上是可以被控制的。他說:“我過去對超級人工智能未來走向的看法是,我們將構建一個極其強大的系統。”他指出,這樣的系統本質上是非常危險的。“我現在認為,我們已經找到了發展路徑:可以創建越來越強大的工具,并且數十億、數萬億的副本能夠在世界各地廣泛使用。它們可以幫助個人提高效率,從而能夠完成更多任務,個人的產出可能顯著增加。超級人工智能的作用不僅僅體現在支持最大的單一神經網絡方面,還體現在我們正在發現的所有新科學和我們正在創造的一切新事物中。
當被問及從不同導師那里學到了什么時,阿爾特曼提到了埃隆·馬斯克。他說:“當然,我從埃隆身上學到什么是能夠完成的,以及你不需要接受這樣的事實:你不能忽視艱苦研發和硬技術的重要性,這是很有價值的。”
阿爾特曼還回答了一個問題,即他是否認為人工智能可以幫助人類在火星上定居。他說:“聽著,我不想去火星生活,這聽起來很可怕,但我對其他人想去火星生活感到高興。”阿爾特曼建議應該首先把機器人送到火星上,幫助改造火星,使它更適合人類居住。
在禮堂外,抗議者繼續高呼反對這位OpenAI首席執行官。但在與會者停下來詢問他們的抗議活動時,他們也停下來與好奇的與會者進行認真交談。
“我們努力做的是提高人們的認識,即人工智能確實對人類構成了威脅和風險,包括就業和經濟、偏見、錯誤信息、社會兩極分化和僵化,但也造成稍長期,卻非真正長期的,更攸關人類存亡的威脅。”幫助組織抗議活動的、時年27歲的倫敦大學學院政治學和倫理學研究生阿利斯泰爾·斯圖爾特說。
斯圖爾特引用了最近對人工智能專家的一項調查,該調查發現,48%的專家認為,高級人工智能系統導致人類滅絕或帶來其他嚴重威脅的可能性為10%或更高。他說,他和其他抗議奧爾特曼出席此類活動的人呼吁暫停開發比OpenAI的GPT-4大型語言模型更強大的人工智能系統,直到研究人員“解決對齊問題”——這一術語意味著找到一種方法來防止未來的超級人工智能系統采取可能對人類文明造成損害的行動。
這一暫停開發的呼吁呼應了包括馬斯克和一些知名人工智能研究人員和企業家在內的數千名公開信的簽名者所發出的呼吁,該信由生命未來研究所(Future of Life Institute)于3月底發表。
斯圖爾特說,他所在的組織希望提高公眾對人工智能所帶來的威脅的認識,這樣他們就可以向政治家施壓,要求他們采取行動,對該技術進行監管。本周早些時候,一個自稱“暫停人工智能”(Pause AI)的組織的抗議者也開始在谷歌DeepMind(另一個高級人工智能研究實驗室)的倫敦辦公室前進行抗議。斯圖爾特說,他所在的組織并不隸屬于“暫停人工智能”,盡管這兩個組織有許多相同的宗旨和目標。 (財富中文網)
譯者:中慧言-王芳
OpenAI聯合創始人兼首席執行官山姆·阿爾特曼即將在倫敦大學學院(University College London)的地下禮堂發表演講,禮堂共有985個座位,排隊的人從門口往外排,排滿了幾階樓梯,一直排到街上,然后蜿蜒穿過一個城市街區。再往前走,就會看到六個舉著標語的年輕人,他們呼吁OpenAI放棄開發通用人工智能的努力——在大多數認知相關任務中,人工智能系統可以達到人類大腦同等智慧。一名抗議者拿著擴音器指責阿爾特曼的彌賽亞情結(想要通過拯救他人來實現自救,通過扮演救世主的角色來體現自己的價值),稱他為了實現自我價值而冒著毀滅人類的風險。
指責阿爾特曼有彌賽亞情結可能有點過火了。但在禮堂里,阿爾特曼受到了搖滾明星般的待遇。演講結束后,他被仰慕者團團圍住,讓他擺姿勢進行自拍合影,并就創業公司如何更好地創建“護城河”(結構性競爭優勢)征求他的意見。“這正常嗎?”當我們站在阿爾特曼周圍擁擠的人群中時,一位難以置信的記者向OpenAI的新聞發言人提問。這位發言人表示:“我們這次行程所到之處幾乎都是如此。”
阿爾特曼目前正在進行OpenAI“世界巡回演講”——從里約和拉各斯到柏林和東京等城市——與企業家、開發者和學生們討論OpenAI的技術以及人工智能在更廣泛領域的潛在影響。阿爾特曼以前進行過這樣的世界巡回演講。但今年,隨著人工智能聊天機器人ChatGPT的病毒式流行,它已成為史上增速最快的面向消費者的軟件產品。因此,進行“世界巡回演講”有一種繞場一周慶祝勝利的感覺。阿爾特曼還將與政府主要領導人會面。在倫敦大學學院的演講結束后,他將與英國首相里希·蘇納克共進晚餐,并將在布魯塞爾與歐盟官員會面。
我們從阿爾特曼的演講中了解到什么?除了其他方面外,阿爾特曼認為埃隆·馬斯克讓他意識到深度科技投資的重要性,他還認為高級人工智能將減少全球不平等,他還將教育工作者對OpenAI的ChatGPT感到恐懼與前幾代人對計算器的出現感到絕望相提并論,但他對移民火星不感興趣。
阿爾特曼在美國參議院作證時呼吁政府對人工智能進行監管,最近還與人合寫了一篇博文,呼吁建立一個類似于國際原子能機構(International Atomic Energy Agency)這樣的組織,來監管全球高級人工智能系統的發展。他表示,監管機構應該在美國監管新技術方面的傳統自由放任方式和歐洲采取的積極監管立場之間取得平衡。他說,他希望看到人工智能的開源開發蓬勃發展。他說:“有人呼吁停止開源運動,我認為這將是真正的恥辱。”但“如果有人破解了代碼,并研發出超級人工智能(不管你希望如何定義它)。”他警告說,“可能制定全球性規則是合乎情理的。”
阿爾特曼說:“對于可能研發出超級人工智能的最大規模的系統,我們至少應該像對待核材料一樣認真對待它。”
這位OpenAI首席執行官還警告說,在他自己公司的機器人ChatGPT和文本生成圖像工具DALL-E等技術的助力下,可以輕易生成大量錯誤信息。比起生成式人工智能被用來擴大現有的虛假信息活動規模,阿爾特曼更擔心的是,這項技術有可能生成量身定制的、有針對性的虛假信息。他指出,OpenAI和其他開發專有人工智能模型的公司可以建立更好的護欄來防止此類活動,但他說,開源開發可能會破壞這種努力,因為開源開發允許用戶修改軟件并移除護欄。盡管監管“可能會有所幫助”,但阿爾特曼表示,人們需要成為批判性的信息消費者,并將其與圖像處理軟件Adobe Photoshop首次發布時,人們對數字編輯照片感到擔憂的時期進行比較。他說:“同樣的事情也會發生在這些新技術上。但我認為,我們越早讓人們了解這一點越好,因為這樣做能夠引起更普遍的情感共鳴。”
阿爾特曼對人工智能的看法比以往更為樂觀。雖然有些人認為,生成式人工智能系統會導致普通工人工資下降或造成大規模失業,進而加劇全球不平等,但阿爾特曼表示,他認為事實恰恰相反。他指出,人工智能有助于實現全球經濟增長,并提高生產力,從而幫助人們擺脫貧困,并創造新機會。他說:“我對這項技術感到非常興奮,它能夠恢復過去幾十年失去的生產力,并實現超越追趕。”他提出了基本觀點:全球兩大“限制因素”是智力成本和能源成本。他表示,如果這兩者的成本能夠大幅降低,那么它們對窮人的幫助應該比對富人的幫助更大。“人工智能技術將改變整個世界。”他說。
阿爾特曼還提到,他認為人工智能存在不同版本,包括超級人工智能。一些人,包括阿爾特曼過去曾說過,盡管這種未來技術可能對人類構成嚴重威脅,但它實際上是可以被控制的。他說:“我過去對超級人工智能未來走向的看法是,我們將構建一個極其強大的系統。”他指出,這樣的系統本質上是非常危險的。“我現在認為,我們已經找到了發展路徑:可以創建越來越強大的工具,并且數十億、數萬億的副本能夠在世界各地廣泛使用。它們可以幫助個人提高效率,從而能夠完成更多任務,個人的產出可能顯著增加。超級人工智能的作用不僅僅體現在支持最大的單一神經網絡方面,還體現在我們正在發現的所有新科學和我們正在創造的一切新事物中。
當被問及從不同導師那里學到了什么時,阿爾特曼提到了埃隆·馬斯克。他說:“當然,我從埃隆身上學到什么是能夠完成的,以及你不需要接受這樣的事實:你不能忽視艱苦研發和硬技術的重要性,這是很有價值的。”
阿爾特曼還回答了一個問題,即他是否認為人工智能可以幫助人類在火星上定居。他說:“聽著,我不想去火星生活,這聽起來很可怕,但我對其他人想去火星生活感到高興。”阿爾特曼建議應該首先把機器人送到火星上,幫助改造火星,使它更適合人類居住。
在禮堂外,抗議者繼續高呼反對這位OpenAI首席執行官。但在與會者停下來詢問他們的抗議活動時,他們也停下來與好奇的與會者進行認真交談。
“我們努力做的是提高人們的認識,即人工智能確實對人類構成了威脅和風險,包括就業和經濟、偏見、錯誤信息、社會兩極分化和僵化,但也造成稍長期,卻非真正長期的,更攸關人類存亡的威脅。”幫助組織抗議活動的、時年27歲的倫敦大學學院政治學和倫理學研究生阿利斯泰爾·斯圖爾特說。
斯圖爾特引用了最近對人工智能專家的一項調查,該調查發現,48%的專家認為,高級人工智能系統導致人類滅絕或帶來其他嚴重威脅的可能性為10%或更高。他說,他和其他抗議奧爾特曼出席此類活動的人呼吁暫停開發比OpenAI的GPT-4大型語言模型更強大的人工智能系統,直到研究人員“解決對齊問題”——這一術語意味著找到一種方法來防止未來的超級人工智能系統采取可能對人類文明造成損害的行動。
這一暫停開發的呼吁呼應了包括馬斯克和一些知名人工智能研究人員和企業家在內的數千名公開信的簽名者所發出的呼吁,該信由生命未來研究所(Future of Life Institute)于3月底發表。
斯圖爾特說,他所在的組織希望提高公眾對人工智能所帶來的威脅的認識,這樣他們就可以向政治家施壓,要求他們采取行動,對該技術進行監管。本周早些時候,一個自稱“暫停人工智能”(Pause AI)的組織的抗議者也開始在谷歌DeepMind(另一個高級人工智能研究實驗室)的倫敦辦公室前進行抗議。斯圖爾特說,他所在的組織并不隸屬于“暫停人工智能”,盡管這兩個組織有許多相同的宗旨和目標。 (財富中文網)
譯者:中慧言-王芳
The line to enter the 985-seat basement auditorium at University College London where OpenAI cofounder and CEO Sam Altman is about to speak stretches out the door, snakes up several flights of stairs, carries on into the street, and then meanders most of the way down a city block. It inches forward, past a half-dozen young men holding signs calling for OpenAI to abandon efforts to develop artificial general intelligence—or A.I. systems that are as capable as humans at most cognitive tasks. One protester, speaking into a megaphone, accuses Altman of having a Messiah complex and risking the destruction of humanity for the sake of his ego.
Messiah might be taking it a bit far. But inside the hall, Altman received a rock star reception. After his talk, he was mobbed by admirers, asking him to pose for selfies and soliciting advice on the best way for a startup to build a “moat.” “Is this normal?” one incredulous reporter asks an OpenAI press handler as we stand in the tight scrum around Altman. “It’s been like this pretty much everywhere we’ve been on this trip,” the spokesperson says.
Altman is currently on an OpenAI “world tour”—visiting cities from Rio and Lagos to Berlin and Tokyo—to talk to entrepreneurs, developers, and students about OpenAI’s technology and the potential impact of A.I. more broadly. Altman has done this kind of world trip before. But this year, after the viral popularity of A.I.-powered chatbot ChatGPT, which has become the fastest growing consumer software product in history, it has the feeling of a victory lap. Altman is also meeting with key government leaders. Following his UCL appearance, he was off to meet U.K. Prime Minister Rishi Sunak for dinner, and he will be meeting with European Union officials in Brussels.
What did we learn from Altman’s talk? Among other things, that he credits Elon Musk with convincing him of the importance of deep tech investing, that he thinks advanced A.I. will reduce global inequality, that he equates educators’ fears of OpenAI’s ChatGPT with earlier generations’ hand-wringing over the calculator, and that he has no interest in living on Mars.
Altman, who has called on government to regulate A.I. in testimony before the U.S. Senate and recently coauthored a blog post calling for the creation of an organization like the International Atomic Energy Agency to police the development of advanced A.I. systems globally, said that regulators should strike a balance between America’s traditional laissez-faire approach to regulating new technologies and Europe’s more proactive stance. He said that he wants to see the open source development of A.I. thrive. “There’s this call to stop the open source movement that I think would be a real shame,” he said. But he warned that “if someone does crack the code and builds a superintelligence, however you want to define that, probably some global rules on that are appropriate.”
“We should treat this as least as seriously as we treat nuclear material, for the biggest scale systems that could give birth to superintelligence,” Altman said.
The OpenAI CEO also warned about the ease of churning out massive amounts of misinformation thanks to technology like his own company’s ChatGPT bot and DALL-E text-to-image tool. More worrisome to Altman than generative A.I. being used to scale up existing disinformation campaigns, he pointed to the tech’s potential to create individually tailored and targeted disinformation. OpenAI and others developing proprietary A.I. models could build better guardrails against such activity, he noted—but he said the effort could be undermined by open source development, which allows users to modify software and remove guardrails. And while regulation “could help some,” Altman said that people will need to become much more critical consumers of information, comparing it to the period when Adobe Photoshop was first released and people were concerned about digitally edited photographs. “The same thing will happen with these new technologies,” he said. “But the sooner we can educate people about it, because the emotional resonance is going to be so much higher, I think the better.”
Altman posited a more optimistic vision of A.I. than he has sometimes suggested in the past. While some have postulated that generative A.I. systems will make global inequality worse by depressing wages for average workers or causing mass unemployment, Altman said he thought the opposite would be true. He noted that enhancing economic growth and productivity globally, ought to lift people out of poverty and create new opportunities. “I’m excited that this technology can, like, bring the missing productivity gains of the last few decades back, and more than catch up,” he said. He noted his basic thesis, that the two “limiting reagents” of the world are the cost of intelligence and the cost of energy. If those two become dramatically less expensive, he said, it ought to help poorer people more than rich people. “This technology will lift all of the world up,” he said.
He also said he thought there were versions of A.I. superintelligence, a future technology that some, including Altman in the past, have said could pose severe dangers to all of humanity, that can be controlled. “The way I used to think about heading towards superintelligence is that we were going to build this one, extremely capable system,” he said, noting that such a system would be inherently very dangerous. “I think we now see a path where we very much build these tools that get more and more powerful, and there are billions of copies, trillions of copies being used in the world, helping individual people be way more effective, capable of doing way more; the amount of output that one person can have can dramatically increase. And where the superintelligence emerges is not just the capability of our biggest single neural network but all of the new science we are discovering, all of the new things we’re creating.”
In response to a question about what he learned from various mentors, Altman cited Elon Musk. “Certainly learning from Elon about what is just, like, possible to do and that you don’t need to accept that, like, hard R&D and hard technology is not something you ignore, that’s been super valuable,” he said.
He also fielded a question about whether he thought A.I. could help human settlement of Mars. “Look, I have no desire to go live on Mars, it sounds horrible,” he said. “But I’m happy other people do.” He said robots should be sent to Mars first to help terraform the planet to make it more hospitable for human habitation.
Outside the auditorium, the protesters kept up their chants against the OpenAI CEO. But they also paused to chat thoughtfully with curious attendees who stopped by to ask them about their protest.
“What we’re trying to do is raise awareness that A.I. does pose these threats and risks to humanity right now in terms of jobs and the economy, bias, misinformation, societal polarization, and ossification, but also slightly longer term, but not really long term, more existential threats,” said Alistair Stewart, a 27-year-old graduate student in political science and ethics at UCL who helped organize the protests.
Stewart cited a recent survey of A.I. experts that found 48% of them thought there was a 10% or greater chance of human extinction or other grave threats from advanced A.I. systems. He said that he and others protesting Altman’s appearance were calling for a pause in the development of A.I. systems more powerful than OpenAI’s GPT-4 large language model until researchers had “solved alignment”—a phrase that basically means figuring out a way to prevent a future superintelligent A.I. system from taking actions that would cause harm to human civilization.
That call for a pause echoes the one made by thousands of signatories of an open letter, including Musk and a number of well-known A.I. researchers and entrepreneurs, that was published by the Future of Life Institute in late March.
Stewart said his group wanted to raise public awareness of the threat posed by A.I. so that they could pressure politicians to take action and regulate the technology. Earlier this week, protesters from a group calling itself Pause AI have also begun picketing the London offices of Google DeepMind, another advanced A.I. research lab. Stewart said his group was not affiliated with Pause AI, although the two groups shared many of the same goals and objectives.