精品国产_亚洲人成在线高清,国产精品成人久久久久,国语自产偷拍精品视频偷拍

首頁 500強 活動 榜單 商業 科技 領導力 專題 品牌中心
雜志訂閱

《人類簡史》作者:人工智能可能在數年后取代人類主宰世界

Chloe Taylor
2023-09-17

人類當前面臨的情況是,威脅并非來自外太空,而是來自美國加州。

文本設置
小號
默認
大號
Plus(0條)

2023年,《人類簡史》的作者尤瓦爾·諾亞·赫拉利在以色列特拉維夫舉辦的一場活動上發表演講,對人工智能的潛在威脅發出了可怕的警告。圖片來源:EYAL WARSHAVSKY—SOPA IMAGES/LIGHTROCKET/GETTY IMAGES

人工智能技術被譽為“革命”,為了推動該領域的發展,人類已經投入數十億美元。不過在著名歷史學家和哲學家尤瓦爾·諾亞·赫拉利看來,人工智能是可能導致人類滅絕的“外來物種”。

“人工智能與歷史上任何事物相比,跟其他發明相比,不管是核武器還是印刷術都完全不一樣。”9月12日,赫拉利在英國倫敦的CogX Festival上對觀眾說。赫拉利是暢銷書《未來簡史》(Homo Deus: A Brief History of Humankind)和《人類簡史》(Sapiens: A Brief History of Humankind)的作者。

“這是歷史上第一個可以自行做決定的工具。原子彈自己做不了決定。轟炸日本廣島的決定是人類做的。”

赫拉利說,獨立思考能力造成的風險是,超智能機器最終可能取代人類主宰世界。

“我們可能要面臨人類歷史的終結——也就是人類統治的終結。”他警告道。“在接下來的幾年里,人工智能很可能迅速吸收人類所有文化,從石器時代以來(所有成就),開始產生外來智慧的新文化。”

赫拉利表示,由此會引發一個問題,即這項技術不僅會影響周圍的物理世界,還會對心理學和宗教等方面造成影響。

“從某些方面來看,人工智能或許比人類更有創造力。”他表示。“說到底,人類的創造力受到有機生物學限制。而人工智能是無機智能,真的像外星智慧。”

“如果我說五年后會出現外來物種,也許非常好,沒準還能夠治愈癌癥,但將奪走人類控制世界的力量,人們會感到恐懼。”

“這就是當前面臨的情況,不過(威脅)并非來自外太空,而是來自美國加州。”

人工智能進化

過去一年,OpenAI推出的生成式人工智能聊天機器人ChatGPT驚人崛起,成為該領域重大投資的催化劑。一時間,科技巨頭競相開發全世界最尖端的人工智能系統。

然而赫拉利指出,人工智能領域的發展速度太迅猛,“所以非常可怕”。赫拉利曾經在作品中縱觀人類的過去和未來。

“如果跟有機進化相比,人工智能現在就像(變形蟲)——在有機進化過程中花了數十萬年才變成恐龍。”他在CogX Festival上告訴人們。“有了人工智能助力,變形蟲可能10年或20年就會演化成霸王龍。問題之一是人類沒有時間適應。其實人類是極擅長適應的生物……但需要時間,現在適應的時間不夠。”

人類下一個“巨大而可怕的實驗”?

赫拉利承認,以前類似蒸汽機和飛機之類技術創新也曾經引發對人類安全的警告,但“最終結果還好”。他堅稱,在人工智能方面“結果可能不會好。”

“人類不擅長新技術,經常犯大錯誤,所以總要做實驗。”他說。

赫拉利指出,例如在工業革命期間,人類就犯過“一些可怕的錯誤”,而歐洲帝國主義、納粹主義也是“巨大而可怕的實驗,曾經奪走數十億人的生命”。

“我們花了一個世紀,一個半世紀的時間,才從失敗的實驗中恢復。”他表示。“也許這次我們無法安然度過。即便最終人類獲勝,又有多少億人會在這個過程里喪失生命。”

引發分裂的技術

隨著人工智能越發普遍,該技術到底會帶來復興還是世界末日,專家的意見并不一致。

在今年夏天僅受邀參加的耶魯大學首席執行官峰會(Yale CEO Summit)上,近一半受訪首席執行官表示,相信在未來五年到十年內,人工智能有可能摧毀人類。

早在今年3月,包括埃隆·馬斯克和蘋果(Apple)的聯合創始人史蒂夫·沃茲尼亞克在內1,100名著名技術人員和人工智能研究人員聯名發布公開信,呼吁研發強大人工智能系統的工作暫停六個月。他們指出,相關人工智能系統有可能變成威脅人類文明的超級智能。

特斯拉(Tesla)和太空探索技術公司(SpaceX)的聯合創始人馬斯克在不同場合表示,該技術會“像小行星一樣”沖擊人類,還警告稱可能“像電影《終結者》(Terminator)一樣”。此后,他成立了自己的人工智能公司xAI,稱目標是為了“了解宇宙”,并防止人類滅絕。

然而并非所有人都同意馬斯克的觀點,即超級智能機器可能消滅人類。

8月,1,300多名專家聯合發聲,希望平息人們對人工智能造出一群“邪惡機器人霸主”的焦慮,其中所謂的人工智能三教父之一直指,擔心該技術可能威脅生存“荒謬至極”。

Meta的一位高管尼克·克萊格在最近一次采訪中也在努力安撫人們對該技術的擔心,他堅稱當前的大型語言模型“相當愚蠢”,完全達不到拯救或摧毀文明的程度。

“時間至關重要”

赫拉利表示,盡管對人工智能發出了嚴重警告,采取措施防止最糟糕的預測成為現實還有時間。

“在人工智能搶下方向盤之前,人類還有幾年時間,我不知道有多久,人類擁有掌控能力的時間或許還有五年、十年、30年。”他說。“這些年的時間應該非常謹慎地使用。”

他建議采取三個實際步驟降低人工智能的風險:不給機器人言論自由,不讓人工智能偽裝成人類,對人工智能領域的重大投資征稅用來資助監管和能夠協助控制技術的機構。

“很多人在努力推進相關舉措。”他說,“我希望盡快(實施),因為時間至關重要。”

他還敦促人工智能領域的從業人員認真考慮,在全世界鋪開創新是否最符合地球的利益。

“不能僅僅阻止技術發展,但開發和使用應該分開。”他說。“開發出來并不意味著必須使用。”(財富中文網)

譯者:夏林

人工智能技術被譽為“革命”,為了推動該領域的發展,人類已經投入數十億美元。不過在著名歷史學家和哲學家尤瓦爾·諾亞·赫拉利看來,人工智能是可能導致人類滅絕的“外來物種”。

“人工智能與歷史上任何事物相比,跟其他發明相比,不管是核武器還是印刷術都完全不一樣。”9月12日,赫拉利在英國倫敦的CogX Festival上對觀眾說。赫拉利是暢銷書《未來簡史》(Homo Deus: A Brief History of Humankind)和《人類簡史》(Sapiens: A Brief History of Humankind)的作者。

“這是歷史上第一個可以自行做決定的工具。原子彈自己做不了決定。轟炸日本廣島的決定是人類做的。”

赫拉利說,獨立思考能力造成的風險是,超智能機器最終可能取代人類主宰世界。

“我們可能要面臨人類歷史的終結——也就是人類統治的終結。”他警告道。“在接下來的幾年里,人工智能很可能迅速吸收人類所有文化,從石器時代以來(所有成就),開始產生外來智慧的新文化。”

赫拉利表示,由此會引發一個問題,即這項技術不僅會影響周圍的物理世界,還會對心理學和宗教等方面造成影響。

“從某些方面來看,人工智能或許比人類更有創造力。”他表示。“說到底,人類的創造力受到有機生物學限制。而人工智能是無機智能,真的像外星智慧。”

“如果我說五年后會出現外來物種,也許非常好,沒準還能夠治愈癌癥,但將奪走人類控制世界的力量,人們會感到恐懼。”

“這就是當前面臨的情況,不過(威脅)并非來自外太空,而是來自美國加州。”

人工智能進化

過去一年,OpenAI推出的生成式人工智能聊天機器人ChatGPT驚人崛起,成為該領域重大投資的催化劑。一時間,科技巨頭競相開發全世界最尖端的人工智能系統。

然而赫拉利指出,人工智能領域的發展速度太迅猛,“所以非常可怕”。赫拉利曾經在作品中縱觀人類的過去和未來。

“如果跟有機進化相比,人工智能現在就像(變形蟲)——在有機進化過程中花了數十萬年才變成恐龍。”他在CogX Festival上告訴人們。“有了人工智能助力,變形蟲可能10年或20年就會演化成霸王龍。問題之一是人類沒有時間適應。其實人類是極擅長適應的生物……但需要時間,現在適應的時間不夠。”

人類下一個“巨大而可怕的實驗”?

赫拉利承認,以前類似蒸汽機和飛機之類技術創新也曾經引發對人類安全的警告,但“最終結果還好”。他堅稱,在人工智能方面“結果可能不會好。”

“人類不擅長新技術,經常犯大錯誤,所以總要做實驗。”他說。

赫拉利指出,例如在工業革命期間,人類就犯過“一些可怕的錯誤”,而歐洲帝國主義、納粹主義也是“巨大而可怕的實驗,曾經奪走數十億人的生命”。

“我們花了一個世紀,一個半世紀的時間,才從失敗的實驗中恢復。”他表示。“也許這次我們無法安然度過。即便最終人類獲勝,又有多少億人會在這個過程里喪失生命。”

引發分裂的技術

隨著人工智能越發普遍,該技術到底會帶來復興還是世界末日,專家的意見并不一致。

在今年夏天僅受邀參加的耶魯大學首席執行官峰會(Yale CEO Summit)上,近一半受訪首席執行官表示,相信在未來五年到十年內,人工智能有可能摧毀人類。

早在今年3月,包括埃隆·馬斯克和蘋果(Apple)的聯合創始人史蒂夫·沃茲尼亞克在內1,100名著名技術人員和人工智能研究人員聯名發布公開信,呼吁研發強大人工智能系統的工作暫停六個月。他們指出,相關人工智能系統有可能變成威脅人類文明的超級智能。

特斯拉(Tesla)和太空探索技術公司(SpaceX)的聯合創始人馬斯克在不同場合表示,該技術會“像小行星一樣”沖擊人類,還警告稱可能“像電影《終結者》(Terminator)一樣”。此后,他成立了自己的人工智能公司xAI,稱目標是為了“了解宇宙”,并防止人類滅絕。

然而并非所有人都同意馬斯克的觀點,即超級智能機器可能消滅人類。

8月,1,300多名專家聯合發聲,希望平息人們對人工智能造出一群“邪惡機器人霸主”的焦慮,其中所謂的人工智能三教父之一直指,擔心該技術可能威脅生存“荒謬至極”。

Meta的一位高管尼克·克萊格在最近一次采訪中也在努力安撫人們對該技術的擔心,他堅稱當前的大型語言模型“相當愚蠢”,完全達不到拯救或摧毀文明的程度。

“時間至關重要”

赫拉利表示,盡管對人工智能發出了嚴重警告,采取措施防止最糟糕的預測成為現實還有時間。

“在人工智能搶下方向盤之前,人類還有幾年時間,我不知道有多久,人類擁有掌控能力的時間或許還有五年、十年、30年。”他說。“這些年的時間應該非常謹慎地使用。”

他建議采取三個實際步驟降低人工智能的風險:不給機器人言論自由,不讓人工智能偽裝成人類,對人工智能領域的重大投資征稅用來資助監管和能夠協助控制技術的機構。

“很多人在努力推進相關舉措。”他說,“我希望盡快(實施),因為時間至關重要。”

他還敦促人工智能領域的從業人員認真考慮,在全世界鋪開創新是否最符合地球的利益。

“不能僅僅阻止技術發展,但開發和使用應該分開。”他說。“開發出來并不意味著必須使用。”(財富中文網)

譯者:夏林

Billions of dollars are being poured into the development of AI, with the technology being hailed as a “revolution”—but famed historian and philosopher Yuval Noah Harari sees it as an “alien species” that could trigger humanity’s extinction.

“AI is fundamentally different from anything we’ve seen in history, from any other invention, whether it’s nuclear weapons or the printing press,” Harari—the bestselling author of Homo Deus and Sapiens: A Brief History of Humankind—told an audience at CogX Festival in London on September 12.

“It’s the first tool in history that can make decisions by itself. Atom bombs could not make decisions. The decision to bomb Hiroshima was taken by a human.”

The risk that comes with this ability to think for itself, Harari said, is that superintelligent machines could ultimately end up usurping the human race as the world’s dominant power.

“Potentially we are talking about the end of human history—the end of the period dominated by human beings,” he warned. “It’s very likely that in the next few years, it will eat up all of human culture, [everything we’ve achieved] since the Stone Age, and start spewing out a new culture coming from an alien intelligence.”

This raises questions, according to Harari, about what the technology will do not just to the physical world around us, but also to things like psychology and religion.

“In certain ways, AI can be more creative [than people],” he argued. “In the end, our creativity is limited by organic biology. This is a nonorganic intelligence. It’s really like an alien intelligence.

“If I said an alien species is coming in five years, maybe they will be nice, maybe they will cure cancer, but they will take our power to control the world from us, people would be terrified.

“This is the situation we’re in, but instead of coming from outer space, [the threat is] coming from California.”

AI evolution

The phenomenal rise of OpenAI’s generative AI chatbot, ChatGPT, over the past year has been a catalyst for major investment in the space, with Big Tech entering into a race to develop the most cutting-edge artificial intelligence systems in the world.

But it’s the pace of development in the AI space, according to Harari—whose written works have examined humanity’s past and future—that “makes it so scary.”

“If you compare it to organic evolution, AI now is like [an amoeba]—in organic evolution, it took them hundreds of thousands of years to become dinosaurs,” he told the crowd at CogX Festival. “With AI, the amoeba could become a T. rex within 10 or 20 years. Part of the problem is we don’t have time to adapt. Humans are amazingly adaptable beings…but it takes time, and we don’t have this time.”

Humanity’s next “huge and terrible experiment”?

Conceding that previous technological innovations, such as the steam engine and airplanes, had sparked similar warnings about human safety and that “in the end it was okay,” Harari insisted when it came to AI, “in the end is not good enough.”

“We are not good with new technology, we tend to make big mistakes, we experiment,” he said.

During the Industrial Revolution, for example, mankind had made “some terrible mistakes,” Harari noted, while European imperialism, Nazism had also been “huge and terrible experiments that cost the lives of billions of people.”

“It took us a century, a century and a half, of all these failed experiments to somehow get it right,” he argued. “Maybe we don’t survive it this time. Even if we do, think about how many hundreds of millions of lives will be destroyed in the process.”

Divisive technology

As AI becomes more and more ubiquitous, experts are divided on whether the tech will deliver a renaissance or doomsday.

At the invitation-only Yale CEO Summit this summer, almost half of the chief executives surveyed at the event said they believed AI has the potential to destroy humanity within the next five to 10 years.

Back in March, 1,100 prominent technologists and AI researchers—including Elon Musk and Apple cofounder Steve Wozniak—signed an open letter calling for a six-month pause on the development of powerful AI systems. They pointed to the possibility of these systems already being on a path to superintelligence that could threaten human civilization.

Tesla and SpaceX cofounder Musk has separately said the tech will hit people “like an asteroid” and warned there is a chance it will “go Terminator.” He has since launched his own AI firm, xAI, in what he says is a bid to “understand the universe” and prevent the extinction of mankind.

Not everyone is on board with Musk’s view that superintelligent machines could wipe out humanity, however.

Last month, more than 1,300 experts came together to calm anxiety around AI creating a horde of “evil robot overlords,” while one of the three so-called Godfathers of A.I. has labeled concerns around the tech becoming an existential threat “preposterously ridiculous.”

Top Meta executive Nick Clegg also attempted to quell concerns about the technology in a recent interview, insisting that large language models in their current form are “quite stupid” and certainly not smart enough yet to save or destroy civilization.

“Time is of the essence”

Despite his own dire warnings about AI, Harari said there was still time for something to be done to prevent the worst predictions from becoming a reality.

“We have a few years, I don’t know how many—five, 10, 30—where we are still in the driver’s seat before AI pushes us to the back seat,” he said. “We should use these years very carefully.”

He suggested three practical steps that could be taken to mitigate the risks around AI: Don’t give bots freedom of speech, don’t let artificial intelligence masquerade as humans, and tax major investments into AI to fund regulation and institutions that can keep the technology under control.

“There are a lot of people trying to push these and other initiatives forward,” he said. “I hope we do [implement them] as soon as possible, because time is of the essence.”

He also urged those working in the AI space to consider whether unleashing their innovations on the world was really in the planet’s best interests.

“We can’t just stop the development of technology, but we need to make the distinction between development and deployment,” he said. “Just because you develop it, doesn’t mean you have to deploy it.”

財富中文網所刊載內容之知識產權為財富媒體知識產權有限公司及/或相關權利人專屬所有或持有。未經許可,禁止進行轉載、摘編、復制及建立鏡像等任何使用。
0條Plus
精彩評論
評論

撰寫或查看更多評論

請打開財富Plus APP

前往打開

            主站蜘蛛池模板: 惠东县| 通河县| 万年县| 丰都县| 旺苍县| 古丈县| 杭锦后旗| 灌云县| 高尔夫| 北京市| 大庆市| 尼玛县| 恩平市| 镇宁| 元氏县| 松江区| 上栗县| 云霄县| 东城区| 客服| 抚顺县| 张家界市| 施秉县| 南雄市| 沈阳市| 澄江县| 诸暨市| 密云县| 连云港市| 靖远县| 嘉鱼县| 江油市| 抚州市| 灵山县| 高邮市| 长岛县| 金华市| 江源县| 苗栗县| 梁平县| 嵩明县|