對于那些擔心人工智能技術被用于實現犯罪目的或者其他邪惡目的的人,微軟(Microsoft)的首席經濟學家做出了如下回答:汽車也可能不安全。關鍵是要把保障措施落實到位。
邁克爾·施瓦茨于5月3日在世界經濟論壇(World Economic Forum)的小組討論中談到人工智能時說:“毋庸置疑,我們必須擔心這項技術的安全性——就像其他任何技術一樣?!?/p>
例如,車輛可以將人們帶到他們想去的地方。但由于事故和污染,它們也很危險。
“我希望人工智能永遠不會像內燃機那樣致命?!笔┩叽谋硎?。
即使對從事人工智能研究的公司來說,人工智能的危險也很難忽視,施瓦茨承認,這項技術如果落入壞人之手,可能就會造成傷害。
施瓦茨稱:“我確信,人工智能會被壞人利用,而且這將造成真正的損害。如果落入垃圾郵件發送者、想要操縱選舉的人手里,人工智能就會造成很大的損害?!?/p>
但他指出,其中一些損害是能夠避免的。“一旦我們發現真正的危害,我們就必須問自己一個簡單的問題:‘我們能否以這樣一種方式來監管人工智能,使落入監管范圍無法實現的、但卻可以帶來益處的事情變得不那么重要?’”施瓦茨說?!霸瓌t應該是,監管給社會帶來的好處應該大于其社會成本。”
施瓦茨稱,微軟專注于研究人工智能能夠給社會帶來的益處,并努力開發人工智能,幫助人類提高效率以“取得更多成就”。
微軟的一位發言人對《財富》雜志表示:“我們對人工智能的未來持樂觀態度,我們認為與人工智能帶來的挑戰相比,人工智能的進步將解決更多難題,但我們也一直堅信,當你創造出可以改變世界的技術時,你必須確保人類負責任地使用這項技術?!?/p>
在最近興起的生成式人工智能技術中,微軟一直扮演著關鍵角色。該公司利用OpenAI的技術開發了一個聊天機器人,并將其整合到許多產品里。微軟還計劃在未來幾年向OpenAI投資100億美元,此前微軟已經在2019年和2021年向這家初創公司注資。
施瓦茨對人工智能技術的警告在某種程度上與谷歌(Google)的前副總裁兼工程研究員杰弗里·辛頓最近的言論相呼應。辛頓曾經幫助開發了一些關鍵技術,為當今廣泛使用的人工智能工具提供了支持,被稱為“人工智能教父”。辛頓警告稱,要阻止人工智能被用于欺詐可能很難。
在5月1日發表的《紐約時報》(New York Times)采訪中,辛頓說:“很難想象如何阻止壞人利用它做壞事。”
“我用通常的借口來安慰自己:如果我沒有研發出這些關鍵技術,別人也會研發出來?!?/p>
辛頓的擔憂之一是人工智能工具的出現,讓在幾秒鐘內創建圖像和匯總信息成為可能。它們可能導致虛假內容的傳播,而普通人很難辨別其準確性。
雖然施瓦茨和辛頓擔心壞人可能會濫用人工智能,但兩位專家在人工智能可能對某些工作產生影響的看法上存在分歧。
在世界經濟論壇的小組討論中,施瓦茨表示,人們對自己的工作會被人工智能取代感到“恐懼”,其實他們“不必太擔心”。但從2013年起一直到最近都在谷歌工作的辛頓指出,在人工智能主導的工作環境里,人工智能確實會給人類的工作帶來威脅。
辛頓說:“人工智能取代了艱苦的工作,但它能夠取代的工作可能不止此類工作?!?/p>
呼吁停止開發高級人工智能
今年3月,超過2.5萬名技術專家——從學者到前高管——簽署了一封公開信,要求將高級人工智能系統的開發暫停六個月,以便政府可以更好地理解其影響,并進行相應監管。這封信認為,一些系統,比如OpenAI于3月早些時候推出的GPT-4,正在“成為人類在一般任務方面的競爭者”,帶來產生錯誤信息的威脅,并有可能大規模地實現工作自動化。
谷歌和微軟等科技巨頭的高管們表示,暫停六個月不會解決這一問題。其中包括Alphabet和谷歌的首席執行官桑達爾·皮查伊。
“我認為,在具體細節上,我并不完全清楚你們會如何實現這一目標。”他在今年3月的一次播客采訪中說,他指的是將開發暫停六個月?!爸辽賹ξ叶?,如果不讓政府參與進來,就無法有效地實現這一目標。因此,我認為需要進行更多的思考?!?/p>
微軟的首席科學官在今年4月接受《財富》雜志采訪時稱,除了暫停人工智能開發,還有其他選擇。
微軟的埃里克·霍維茨表示:“對我來說,我寧愿看到更多的知識涌現,甚至加速研發,而不是暫停六個月,我甚至不確定這是否可行。而且,從更廣泛的意義上說,暫停六個月意義不大。我們真的需要在理解、指導甚至監管這項技術上投入更多——參與進來,而不是暫停?!保ㄘ敻恢形木W)
譯者:中慧言-王芳
對于那些擔心人工智能技術被用于實現犯罪目的或者其他邪惡目的的人,微軟(Microsoft)的首席經濟學家做出了如下回答:汽車也可能不安全。關鍵是要把保障措施落實到位。
邁克爾·施瓦茨于5月3日在世界經濟論壇(World Economic Forum)的小組討論中談到人工智能時說:“毋庸置疑,我們必須擔心這項技術的安全性——就像其他任何技術一樣?!?/p>
例如,車輛可以將人們帶到他們想去的地方。但由于事故和污染,它們也很危險。
“我希望人工智能永遠不會像內燃機那樣致命?!笔┩叽谋硎?。
即使對從事人工智能研究的公司來說,人工智能的危險也很難忽視,施瓦茨承認,這項技術如果落入壞人之手,可能就會造成傷害。
施瓦茨稱:“我確信,人工智能會被壞人利用,而且這將造成真正的損害。如果落入垃圾郵件發送者、想要操縱選舉的人手里,人工智能就會造成很大的損害?!?/p>
但他指出,其中一些損害是能夠避免的。“一旦我們發現真正的危害,我們就必須問自己一個簡單的問題:‘我們能否以這樣一種方式來監管人工智能,使落入監管范圍無法實現的、但卻可以帶來益處的事情變得不那么重要?’”施瓦茨說?!霸瓌t應該是,監管給社會帶來的好處應該大于其社會成本?!?/p>
施瓦茨稱,微軟專注于研究人工智能能夠給社會帶來的益處,并努力開發人工智能,幫助人類提高效率以“取得更多成就”。
微軟的一位發言人對《財富》雜志表示:“我們對人工智能的未來持樂觀態度,我們認為與人工智能帶來的挑戰相比,人工智能的進步將解決更多難題,但我們也一直堅信,當你創造出可以改變世界的技術時,你必須確保人類負責任地使用這項技術?!?/p>
在最近興起的生成式人工智能技術中,微軟一直扮演著關鍵角色。該公司利用OpenAI的技術開發了一個聊天機器人,并將其整合到許多產品里。微軟還計劃在未來幾年向OpenAI投資100億美元,此前微軟已經在2019年和2021年向這家初創公司注資。
施瓦茨對人工智能技術的警告在某種程度上與谷歌(Google)的前副總裁兼工程研究員杰弗里·辛頓最近的言論相呼應。辛頓曾經幫助開發了一些關鍵技術,為當今廣泛使用的人工智能工具提供了支持,被稱為“人工智能教父”。辛頓警告稱,要阻止人工智能被用于欺詐可能很難。
在5月1日發表的《紐約時報》(New York Times)采訪中,辛頓說:“很難想象如何阻止壞人利用它做壞事?!?/p>
“我用通常的借口來安慰自己:如果我沒有研發出這些關鍵技術,別人也會研發出來。”
辛頓的擔憂之一是人工智能工具的出現,讓在幾秒鐘內創建圖像和匯總信息成為可能。它們可能導致虛假內容的傳播,而普通人很難辨別其準確性。
雖然施瓦茨和辛頓擔心壞人可能會濫用人工智能,但兩位專家在人工智能可能對某些工作產生影響的看法上存在分歧。
在世界經濟論壇的小組討論中,施瓦茨表示,人們對自己的工作會被人工智能取代感到“恐懼”,其實他們“不必太擔心”。但從2013年起一直到最近都在谷歌工作的辛頓指出,在人工智能主導的工作環境里,人工智能確實會給人類的工作帶來威脅。
辛頓說:“人工智能取代了艱苦的工作,但它能夠取代的工作可能不止此類工作。”
呼吁停止開發高級人工智能
今年3月,超過2.5萬名技術專家——從學者到前高管——簽署了一封公開信,要求將高級人工智能系統的開發暫停六個月,以便政府可以更好地理解其影響,并進行相應監管。這封信認為,一些系統,比如OpenAI于3月早些時候推出的GPT-4,正在“成為人類在一般任務方面的競爭者”,帶來產生錯誤信息的威脅,并有可能大規模地實現工作自動化。
谷歌和微軟等科技巨頭的高管們表示,暫停六個月不會解決這一問題。其中包括Alphabet和谷歌的首席執行官桑達爾·皮查伊。
“我認為,在具體細節上,我并不完全清楚你們會如何實現這一目標?!彼诮衲?月的一次播客采訪中說,他指的是將開發暫停六個月?!爸辽賹ξ叶裕绻蛔屨畢⑴c進來,就無法有效地實現這一目標。因此,我認為需要進行更多的思考。”
微軟的首席科學官在今年4月接受《財富》雜志采訪時稱,除了暫停人工智能開發,還有其他選擇。
微軟的埃里克·霍維茨表示:“對我來說,我寧愿看到更多的知識涌現,甚至加速研發,而不是暫停六個月,我甚至不確定這是否可行。而且,從更廣泛的意義上說,暫停六個月意義不大。我們真的需要在理解、指導甚至監管這項技術上投入更多——參與進來,而不是暫停?!保ㄘ敻恢形木W)
譯者:中慧言-王芳
Microsoft’s chief economist offers the following reply to those concerned about A.I. being misused for crime or other nefarious purposes: Cars can be unsafe, too. The key is putting safeguards in place.
“We do have to worry a lot about [the] safety of this technology—just like with any other technology,” Michael Schwarz said about artificial intelligence during a World Economic Forum panel on May 3.
Vehicles, for example, get people to where they want to go. But they’re also a danger because of accidents and pollution.
“I hope that A.I. will never, ever become as deadly as [an] internal combustion engine is,” Schwarz said.
A.I.’s dangers can be hard to dismiss even for companies working on them, and Schwarz acknowledges that the technology can cause harm in the wrong hands.
“I am quite confident that A.I. will be used by bad actors, and yes it will cause real damage,” Schwarz said. “It can do a lot of damage in the hands of spammers, people who want to manipulate elections and so on.”
But some of that can be avoided, he said. “Once we see real harm, we have to ask ourselves the simple question: ‘Can we regulate that in a way where the good things that will be prevented by this regulation are less important?’” Schwarz said. “The principles should be the benefits from the regulation to our society should be greater than the cost to our society.”
Microsoft is focused on the good that A.I. can bring society and is working to develop A.I. to “help people achieve more” by making them more efficient, Schwarz said.
“We are optimistic about the future of A.I., and we think A.I. advances will solve many more challenges than they present, but we have also been consistent in our belief that when you create technologies that can change the world, you must also ensure that the technology is used responsibly,” a Microsoft spokesperson told Fortune.
Microsoft has been a key player in the recent surge of generative A.I. technology. The company has built a chatbot using technology from OpenAI and has incorporated it into a number of products. Microsoft also plans to invest $10 billion in OpenAI over several years, after having already pumped money into the startup in 2019 and 2021.
Schwarz’s warning about A.I. echoed, to a point, recent remarks by Geoffrey Hinton, a former Google VP and engineering fellow, who helped create some of the key technologies powering the widely used A.I. tools today and who is referred to as “the Godfather of A.I.” He warned that it may be tough to stop A.I. from being used for fraud.
“It is hard to see how you can prevent the bad actors from using it for bad things,” Hinton told the?New York Times in an interview published on May 1.
“I console myself with the normal excuse: If I hadn’t done it, somebody else would have.”
One of Hinton’s concerns is the availability of A.I. tools that can create images and aggregate information in a matter of seconds. They could lead to the spread of fake content whose accuracy the average person would have trouble discerning.
While Schwarz and Hinton worry about how bad actors may misuse A.I., the two experts diverge in how they think A.I. may impact certain jobs.
During the WEF panel, Schwarz said people are “paranoid” about their work being replaced by A.I. and that they “shouldn’t be too worried” about it. But Hinton, who had worked at Google since 2013 until recently, said that there is a real risk to jobs in an A.I.-dominated work environment.
“It takes away the drudge work,” Hinton said. “It might take away more than that.”
Calls to halt advanced A.I. development
In March, over 25,000 tech experts—from academics to former executives—signed an open letter asking for a six-month pause in the development of advanced A.I. systems so that their impact could be better understood and regulated by governments. The letter argued that some systems, such as OpenAI’s GPT-4 introduced earlier that month, are “becoming human-competitive at general tasks,” threatening to help generate misinformation and potentially automating jobs at a large scale.
Executives at tech giants like Google and Microsoft have said that a six-month pause will not solve the problem. Among them is Alphabet and Google CEO Sundar Pichai.
“I think in the actual specifics of it, it’s not fully clear to me how you would do something like that today,” he said during a podcast interview in March, referring to the six-month moratorium. “To me, at least, there is no way to do this effectively without getting governments involved. So I think there’s a lot more thought that needs to go into it.”
Microsoft’s chief scientific officer told?Fortune in an interview in April that there are alternatives to pausing A.I. development.
“To me, I would prefer to see more knowledge, and even an acceleration of research and development, rather than a pause for six months, which I am not sure if it would even be feasible,” said Microsoft’s Eric Horvitz. “In a larger sense, six months doesn’t really mean very much for a pause. We need to really just invest more in understanding and guiding and even regulating this technology—jump in, as opposed to pause.”