精品国产_亚洲人成在线高清,国产精品成人久久久久,国语自产偷拍精品视频偷拍

首頁 500強 活動 榜單 商業 科技 領導力 專題 品牌中心
雜志訂閱

微軟首席經濟學家堅信,人工智能將“被壞人利用”

Prarthana Prakash
2023-05-17

在最近興起的生成式人工智能技術中,微軟一直扮演著關鍵角色。

文本設置
小號
默認
大號
Plus(0條)

微軟首席經濟學家邁克爾·施瓦茨在世界經濟論壇2023年年會的小組討論中發言。圖片來源:COURTESY OF WORLD ECONOMIC FORUM

對于那些擔心人工智能技術被用于實現犯罪目的或者其他邪惡目的的人,微軟(Microsoft)的首席經濟學家做出了如下回答:汽車也可能不安全。關鍵是要把保障措施落實到位。

邁克爾·施瓦茨于5月3日在世界經濟論壇(World Economic Forum)的小組討論中談到人工智能時說:“毋庸置疑,我們必須擔心這項技術的安全性——就像其他任何技術一樣?!?/p>

例如,車輛可以將人們帶到他們想去的地方。但由于事故和污染,它們也很危險。

“我希望人工智能永遠不會像內燃機那樣致命?!笔┩叽谋硎?。

即使對從事人工智能研究的公司來說,人工智能的危險也很難忽視,施瓦茨承認,這項技術如果落入壞人之手,可能就會造成傷害。

施瓦茨稱:“我確信,人工智能會被壞人利用,而且這將造成真正的損害。如果落入垃圾郵件發送者、想要操縱選舉的人手里,人工智能就會造成很大的損害?!?/p>

但他指出,其中一些損害是能夠避免的。“一旦我們發現真正的危害,我們就必須問自己一個簡單的問題:‘我們能否以這樣一種方式來監管人工智能,使落入監管范圍無法實現的、但卻可以帶來益處的事情變得不那么重要?’”施瓦茨說?!霸瓌t應該是,監管給社會帶來的好處應該大于其社會成本。”

施瓦茨稱,微軟專注于研究人工智能能夠給社會帶來的益處,并努力開發人工智能,幫助人類提高效率以“取得更多成就”。

微軟的一位發言人對《財富》雜志表示:“我們對人工智能的未來持樂觀態度,我們認為與人工智能帶來的挑戰相比,人工智能的進步將解決更多難題,但我們也一直堅信,當你創造出可以改變世界的技術時,你必須確保人類負責任地使用這項技術?!?/p>

在最近興起的生成式人工智能技術中,微軟一直扮演著關鍵角色。該公司利用OpenAI的技術開發了一個聊天機器人,并將其整合到許多產品里。微軟還計劃在未來幾年向OpenAI投資100億美元,此前微軟已經在2019年和2021年向這家初創公司注資。

施瓦茨對人工智能技術的警告在某種程度上與谷歌(Google)的前副總裁兼工程研究員杰弗里·辛頓最近的言論相呼應。辛頓曾經幫助開發了一些關鍵技術,為當今廣泛使用的人工智能工具提供了支持,被稱為“人工智能教父”。辛頓警告稱,要阻止人工智能被用于欺詐可能很難。

在5月1日發表的《紐約時報》(New York Times)采訪中,辛頓說:“很難想象如何阻止壞人利用它做壞事。”

“我用通常的借口來安慰自己:如果我沒有研發出這些關鍵技術,別人也會研發出來?!?/p>

辛頓的擔憂之一是人工智能工具的出現,讓在幾秒鐘內創建圖像和匯總信息成為可能。它們可能導致虛假內容的傳播,而普通人很難辨別其準確性。

雖然施瓦茨和辛頓擔心壞人可能會濫用人工智能,但兩位專家在人工智能可能對某些工作產生影響的看法上存在分歧。

在世界經濟論壇的小組討論中,施瓦茨表示,人們對自己的工作會被人工智能取代感到“恐懼”,其實他們“不必太擔心”。但從2013年起一直到最近都在谷歌工作的辛頓指出,在人工智能主導的工作環境里,人工智能確實會給人類的工作帶來威脅。

辛頓說:“人工智能取代了艱苦的工作,但它能夠取代的工作可能不止此類工作?!?/p>

呼吁停止開發高級人工智能

今年3月,超過2.5萬名技術專家——從學者到前高管——簽署了一封公開信,要求將高級人工智能系統的開發暫停六個月,以便政府可以更好地理解其影響,并進行相應監管。這封信認為,一些系統,比如OpenAI于3月早些時候推出的GPT-4,正在“成為人類在一般任務方面的競爭者”,帶來產生錯誤信息的威脅,并有可能大規模地實現工作自動化。

谷歌和微軟等科技巨頭的高管們表示,暫停六個月不會解決這一問題。其中包括Alphabet和谷歌的首席執行官桑達爾·皮查伊。

“我認為,在具體細節上,我并不完全清楚你們會如何實現這一目標。”他在今年3月的一次播客采訪中說,他指的是將開發暫停六個月?!爸辽賹ξ叶?,如果不讓政府參與進來,就無法有效地實現這一目標。因此,我認為需要進行更多的思考?!?/p>

微軟的首席科學官在今年4月接受《財富》雜志采訪時稱,除了暫停人工智能開發,還有其他選擇。

微軟的埃里克·霍維茨表示:“對我來說,我寧愿看到更多的知識涌現,甚至加速研發,而不是暫停六個月,我甚至不確定這是否可行。而且,從更廣泛的意義上說,暫停六個月意義不大。我們真的需要在理解、指導甚至監管這項技術上投入更多——參與進來,而不是暫停?!保ㄘ敻恢形木W)

譯者:中慧言-王芳

對于那些擔心人工智能技術被用于實現犯罪目的或者其他邪惡目的的人,微軟(Microsoft)的首席經濟學家做出了如下回答:汽車也可能不安全。關鍵是要把保障措施落實到位。

邁克爾·施瓦茨于5月3日在世界經濟論壇(World Economic Forum)的小組討論中談到人工智能時說:“毋庸置疑,我們必須擔心這項技術的安全性——就像其他任何技術一樣?!?/p>

例如,車輛可以將人們帶到他們想去的地方。但由于事故和污染,它們也很危險。

“我希望人工智能永遠不會像內燃機那樣致命?!笔┩叽谋硎?。

即使對從事人工智能研究的公司來說,人工智能的危險也很難忽視,施瓦茨承認,這項技術如果落入壞人之手,可能就會造成傷害。

施瓦茨稱:“我確信,人工智能會被壞人利用,而且這將造成真正的損害。如果落入垃圾郵件發送者、想要操縱選舉的人手里,人工智能就會造成很大的損害?!?/p>

但他指出,其中一些損害是能夠避免的。“一旦我們發現真正的危害,我們就必須問自己一個簡單的問題:‘我們能否以這樣一種方式來監管人工智能,使落入監管范圍無法實現的、但卻可以帶來益處的事情變得不那么重要?’”施瓦茨說?!霸瓌t應該是,監管給社會帶來的好處應該大于其社會成本?!?/p>

施瓦茨稱,微軟專注于研究人工智能能夠給社會帶來的益處,并努力開發人工智能,幫助人類提高效率以“取得更多成就”。

微軟的一位發言人對《財富》雜志表示:“我們對人工智能的未來持樂觀態度,我們認為與人工智能帶來的挑戰相比,人工智能的進步將解決更多難題,但我們也一直堅信,當你創造出可以改變世界的技術時,你必須確保人類負責任地使用這項技術?!?/p>

在最近興起的生成式人工智能技術中,微軟一直扮演著關鍵角色。該公司利用OpenAI的技術開發了一個聊天機器人,并將其整合到許多產品里。微軟還計劃在未來幾年向OpenAI投資100億美元,此前微軟已經在2019年和2021年向這家初創公司注資。

施瓦茨對人工智能技術的警告在某種程度上與谷歌(Google)的前副總裁兼工程研究員杰弗里·辛頓最近的言論相呼應。辛頓曾經幫助開發了一些關鍵技術,為當今廣泛使用的人工智能工具提供了支持,被稱為“人工智能教父”。辛頓警告稱,要阻止人工智能被用于欺詐可能很難。

在5月1日發表的《紐約時報》(New York Times)采訪中,辛頓說:“很難想象如何阻止壞人利用它做壞事?!?/p>

“我用通常的借口來安慰自己:如果我沒有研發出這些關鍵技術,別人也會研發出來。”

辛頓的擔憂之一是人工智能工具的出現,讓在幾秒鐘內創建圖像和匯總信息成為可能。它們可能導致虛假內容的傳播,而普通人很難辨別其準確性。

雖然施瓦茨和辛頓擔心壞人可能會濫用人工智能,但兩位專家在人工智能可能對某些工作產生影響的看法上存在分歧。

在世界經濟論壇的小組討論中,施瓦茨表示,人們對自己的工作會被人工智能取代感到“恐懼”,其實他們“不必太擔心”。但從2013年起一直到最近都在谷歌工作的辛頓指出,在人工智能主導的工作環境里,人工智能確實會給人類的工作帶來威脅。

辛頓說:“人工智能取代了艱苦的工作,但它能夠取代的工作可能不止此類工作。”

呼吁停止開發高級人工智能

今年3月,超過2.5萬名技術專家——從學者到前高管——簽署了一封公開信,要求將高級人工智能系統的開發暫停六個月,以便政府可以更好地理解其影響,并進行相應監管。這封信認為,一些系統,比如OpenAI于3月早些時候推出的GPT-4,正在“成為人類在一般任務方面的競爭者”,帶來產生錯誤信息的威脅,并有可能大規模地實現工作自動化。

谷歌和微軟等科技巨頭的高管們表示,暫停六個月不會解決這一問題。其中包括Alphabet和谷歌的首席執行官桑達爾·皮查伊。

“我認為,在具體細節上,我并不完全清楚你們會如何實現這一目標?!彼诮衲?月的一次播客采訪中說,他指的是將開發暫停六個月?!爸辽賹ξ叶裕绻蛔屨畢⑴c進來,就無法有效地實現這一目標。因此,我認為需要進行更多的思考。”

微軟的首席科學官在今年4月接受《財富》雜志采訪時稱,除了暫停人工智能開發,還有其他選擇。

微軟的埃里克·霍維茨表示:“對我來說,我寧愿看到更多的知識涌現,甚至加速研發,而不是暫停六個月,我甚至不確定這是否可行。而且,從更廣泛的意義上說,暫停六個月意義不大。我們真的需要在理解、指導甚至監管這項技術上投入更多——參與進來,而不是暫停?!保ㄘ敻恢形木W)

譯者:中慧言-王芳

Microsoft’s chief economist offers the following reply to those concerned about A.I. being misused for crime or other nefarious purposes: Cars can be unsafe, too. The key is putting safeguards in place.

“We do have to worry a lot about [the] safety of this technology—just like with any other technology,” Michael Schwarz said about artificial intelligence during a World Economic Forum panel on May 3.

Vehicles, for example, get people to where they want to go. But they’re also a danger because of accidents and pollution.

“I hope that A.I. will never, ever become as deadly as [an] internal combustion engine is,” Schwarz said.

A.I.’s dangers can be hard to dismiss even for companies working on them, and Schwarz acknowledges that the technology can cause harm in the wrong hands.

“I am quite confident that A.I. will be used by bad actors, and yes it will cause real damage,” Schwarz said. “It can do a lot of damage in the hands of spammers, people who want to manipulate elections and so on.”

But some of that can be avoided, he said. “Once we see real harm, we have to ask ourselves the simple question: ‘Can we regulate that in a way where the good things that will be prevented by this regulation are less important?’” Schwarz said. “The principles should be the benefits from the regulation to our society should be greater than the cost to our society.”

Microsoft is focused on the good that A.I. can bring society and is working to develop A.I. to “help people achieve more” by making them more efficient, Schwarz said.

“We are optimistic about the future of A.I., and we think A.I. advances will solve many more challenges than they present, but we have also been consistent in our belief that when you create technologies that can change the world, you must also ensure that the technology is used responsibly,” a Microsoft spokesperson told Fortune.

Microsoft has been a key player in the recent surge of generative A.I. technology. The company has built a chatbot using technology from OpenAI and has incorporated it into a number of products. Microsoft also plans to invest $10 billion in OpenAI over several years, after having already pumped money into the startup in 2019 and 2021.

Schwarz’s warning about A.I. echoed, to a point, recent remarks by Geoffrey Hinton, a former Google VP and engineering fellow, who helped create some of the key technologies powering the widely used A.I. tools today and who is referred to as “the Godfather of A.I.” He warned that it may be tough to stop A.I. from being used for fraud.

“It is hard to see how you can prevent the bad actors from using it for bad things,” Hinton told the?New York Times in an interview published on May 1.

“I console myself with the normal excuse: If I hadn’t done it, somebody else would have.”

One of Hinton’s concerns is the availability of A.I. tools that can create images and aggregate information in a matter of seconds. They could lead to the spread of fake content whose accuracy the average person would have trouble discerning.

While Schwarz and Hinton worry about how bad actors may misuse A.I., the two experts diverge in how they think A.I. may impact certain jobs.

During the WEF panel, Schwarz said people are “paranoid” about their work being replaced by A.I. and that they “shouldn’t be too worried” about it. But Hinton, who had worked at Google since 2013 until recently, said that there is a real risk to jobs in an A.I.-dominated work environment.

“It takes away the drudge work,” Hinton said. “It might take away more than that.”

Calls to halt advanced A.I. development

In March, over 25,000 tech experts—from academics to former executives—signed an open letter asking for a six-month pause in the development of advanced A.I. systems so that their impact could be better understood and regulated by governments. The letter argued that some systems, such as OpenAI’s GPT-4 introduced earlier that month, are “becoming human-competitive at general tasks,” threatening to help generate misinformation and potentially automating jobs at a large scale.

Executives at tech giants like Google and Microsoft have said that a six-month pause will not solve the problem. Among them is Alphabet and Google CEO Sundar Pichai.

“I think in the actual specifics of it, it’s not fully clear to me how you would do something like that today,” he said during a podcast interview in March, referring to the six-month moratorium. “To me, at least, there is no way to do this effectively without getting governments involved. So I think there’s a lot more thought that needs to go into it.”

Microsoft’s chief scientific officer told?Fortune in an interview in April that there are alternatives to pausing A.I. development.

“To me, I would prefer to see more knowledge, and even an acceleration of research and development, rather than a pause for six months, which I am not sure if it would even be feasible,” said Microsoft’s Eric Horvitz. “In a larger sense, six months doesn’t really mean very much for a pause. We need to really just invest more in understanding and guiding and even regulating this technology—jump in, as opposed to pause.”

財富中文網所刊載內容之知識產權為財富媒體知識產權有限公司及/或相關權利人專屬所有或持有。未經許可,禁止進行轉載、摘編、復制及建立鏡像等任何使用。
0條Plus
精彩評論
評論

撰寫或查看更多評論

請打開財富Plus APP

前往打開

            主站蜘蛛池模板: 武城县| 临湘市| 新乐市| 航空| 岳普湖县| 南江县| 呼伦贝尔市| 金华市| 襄汾县| 什邡市| 鞍山市| 嘉峪关市| 永春县| 永新县| 新乡市| 阳信县| 英山县| 雷州市| 衢州市| 司法| 绥德县| 石嘴山市| 乐平市| 雅安市| 迁安市| 南川市| 南平市| 大竹县| 鸡泽县| 长治县| 云和县| 缙云县| 甘泉县| 淳安县| 海城市| 临澧县| 改则县| 抚松县| 丹棱县| 株洲县| 普定县|