OpenAI創(chuàng)始人:AI可能毀滅人類
孫渺
AI的研究真是讓人歡喜讓人憂。從OpenAI創(chuàng)始人Sam Altman話里,讓人感受到,人類面對(duì)AI,不只是丟掉工作那么簡(jiǎn)單,而且還可能丟命。為了避免極端情況發(fā)生,Altman提出開(kāi)發(fā)新技術(shù)來(lái)監(jiān)管和控制AI,也就是“對(duì)抗性機(jī)器學(xué)習(xí)”技術(shù),讓AI系統(tǒng)自我監(jiān)管和糾正錯(cuò)誤,從而避免出現(xiàn)意外的后果。
OpenAI已推出GPT-4,AI技術(shù)不斷得到改進(jìn)。同時(shí)也是正面GPT的偏見(jiàn),積極尋求解決方案。比如,制定一系列的道德準(zhǔn)則,以確保人工智能的安全和道德性;開(kāi)發(fā)諸如對(duì)抗性訓(xùn)練、安全性驗(yàn)證和安全性修復(fù)等技術(shù),來(lái)提高人工智能的安全性;推動(dòng)人工智能安全的研究、合作和實(shí)踐,提高公眾認(rèn)識(shí)等等。
總的說(shuō),AI的發(fā)展是必然的趨勢(shì)。確保AI的發(fā)展符合人類的利益,AI的發(fā)展要做到透明和可控,避免導(dǎo)致無(wú)法預(yù)測(cè)的后果,這需要研發(fā)機(jī)構(gòu)的努力,同樣需要政府和相關(guān)組織加強(qiáng)對(duì)AI的監(jiān)管和研究,確保AI造福人類,而不是相反。
胖胖的圓圓
AI消滅人類的概率恐怕比外星力量消滅人類的概率更大,無(wú)他,只是人類對(duì)人類的憎恨才會(huì)催生出消滅人類的AI,畢竟AI是人類創(chuàng)造的作品,底層運(yùn)行邏輯是人賦予給它,也會(huì)在此基礎(chǔ)上迭代進(jìn)化。