13位OpenAI、Google 員工發布公開信
東木
OpenAI 近期可謂風波不斷。多位重要人員離職,如丹尼爾因拒絕簽署包含不貶損條款的文件而失去股權,這顯示出公司在某些規定上的強硬以及與員工之間的矛盾。他曾希望公司在 AI 安全研究方面加大投入卻未得到回應,這反映出公司在發展方向上可能存在一定的偏差。這些都可做為此次13位聯名公開信的背景。無論公開信背后的原因有多少,但對AI安全這一點,還是再一次引發社會關注。
其實關于AI安全性的討論,從AI研究開始就一直沒間斷。去年10月下旬,圖靈獎得主、“人工智能三巨頭”等學者爆發了一場關于人工智能管控的激烈爭論,24名中外人工智能科學家簽署一份聲明,呼吁對人工智能技術實施更嚴格的控制。關于AI安全問題也是多次發生知名人士的聯名信,包括“ChatGPT 之父”Sam Altman 在內 350 位 AI 權威都簽署的聯名公開信,表達對當前正在開發的 AI 技術可能會對人類構成生存威脅擔憂。該聯名信已經獲得了包括 2018 年圖靈獎得主 Yoshua Bengio、馬斯克、史蒂夫 ? 沃茲尼亞克、Skype 聯合創始人、Pinterest 聯合創始人、Stability AI CEO 等多位知名人士的簽名支持,而且聯名的知名人士已經超過千人。
各國政府和相關組織也不斷采取行動,應對AI安全。去年7月13日,國家網信辦聯合國家有關部門公布《生成式人工智能服務管理暫行辦法》,10月18日,發布《全球人工智能治理倡議》;10月30日,美國總統拜登正式發布《安全、可靠及可信賴的人工智能》行政命令;當日,七國集團(G7)發布《開發先進人工智能系統組織的國際行為準則》。去年11月1日,首屆全球人工智能(AI)安全峰會上,28國聯署關于人工智能國際治理的《布萊切利宣言》,鼓勵相關行為者采取適當措施,如安全測試、評估等,以衡量、監測和減輕AI潛在有害能力及其可能產生的影響。今年2月,美國商務部長宣布成立人工智能安全研究聯盟(AISIC)。3月,一場關于人工智能安全的國際會議在北京隆重舉行。包括圖靈獎得主約書亞?本吉奧、杰弗里?辛頓以及著名學者姚期智在內的數十位中外專家齊聚一堂,共同簽署了由智源研究院發起的《北京AI安全國際共識》。
當然也有另外的聲音,如Meta 公司的首席人工智能科學家Yann LeCun說,對人工智能可能毀滅人類的擔憂是 "荒謬的",這種擔憂更多是基于科幻小說而非現實,在他看來,智能機器根本沒有理由試圖與人類競爭。盡管說法各異,但在 AI 快速發展的當下,安全問題至關重要。而 OpenAI 的這些問題若不能妥善解決,不僅會影響自身的發展,也可能對整個行業產生負面影響。如何平衡創新與安全,協調內部不同意見,將是 OpenAI 乃至整個行業需要深入思考和解決的問題。