目前世界范圍內(nèi)對生成式人工智能技術(shù)的重視不單單僅是重視技術(shù)本身,更體現(xiàn)了對該技術(shù)背后蘊藏的解放和發(fā)展當(dāng)前其他領(lǐng)域生產(chǎn)力潛力的關(guān)注。《生成式人工智能服務(wù)管理辦法(征求意見稿)》的出臺顯示出我國對于生成式人工智能技術(shù)發(fā)展的關(guān)注與支持,為相關(guān)科研機構(gòu)、企業(yè)的發(fā)展納入到合規(guī)、安全的框架之中,這對于構(gòu)建本土化AIGC研發(fā)環(huán)境極其有利。
4月11日,國家互聯(lián)網(wǎng)信息辦公室發(fā)布關(guān)于《生成式人工智能服務(wù)管理辦法(征求意見稿)》(下稱《辦法》)公開征求意見的通知。本《辦法》征求意見稿的出臺可謂在近期大火的生成式人工智能行業(yè)中掀起軒然大波,就此我們對《辦法》的具體條款進行解讀。
第一條:為促進生成式人工智能健康發(fā)展和規(guī)范應(yīng)用,根據(jù)《中華人民共和國網(wǎng)絡(luò)安全法》《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國個人信息保護法》等法律、行政法規(guī),制定本辦法。
解讀:從立法路徑而言,該辦法是在網(wǎng)安法、數(shù)安法、個保法“三駕馬車”的前提下提出的,因此企業(yè)應(yīng)該關(guān)注生成式人工智能服務(wù)的本質(zhì)。該類服務(wù)首先是一個網(wǎng)絡(luò)應(yīng)用,其次是一個“數(shù)據(jù)密集型”應(yīng)用,且極其容易觸碰“個人信息”的雷區(qū),因此在合規(guī)中企業(yè)不僅僅需要關(guān)注本辦法,更多的是關(guān)注監(jiān)管要求的沿革路徑,其相對于網(wǎng)安數(shù)安個保法的基礎(chǔ)性條款有了哪些地方新的升級和新的要求。
第二條:研發(fā)、利用生成式人工智能產(chǎn)品,面向中華人民共和國境內(nèi)公眾提供服務(wù)的,適用本辦法。
本辦法所稱生成式人工智能,是指基于算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等內(nèi)容的技術(shù)。
解讀:本條規(guī)定了《辦法》監(jiān)管對象的范圍。當(dāng)生成式人工智能的產(chǎn)品不再是內(nèi)部的自行使用、測試使用或是為某個領(lǐng)域某個企業(yè)的定向開發(fā),而是在互聯(lián)網(wǎng)上向公眾提供公開的服務(wù)時便需要符合本法規(guī)。
何為“生成式人工智能”,第二條第二款中給出了一個十分寬泛的定義,廣義的“算法模型和規(guī)則生成文本、圖片、聲音的”可以涵蓋大多數(shù)網(wǎng)絡(luò)應(yīng)用,任何人工信息的輸入皆需要經(jīng)過算法模型或者是一定規(guī)則的處理,最終以另一種信息的表現(xiàn)形式呈現(xiàn)在輸出端,因此在實務(wù)中執(zhí)法部門如何理解“生成”二字尤為重要。
第四條:提供生成式人工智能產(chǎn)品或服務(wù)應(yīng)當(dāng)遵守法律法規(guī)的要求,尊重社會公德、公序良俗,符合以下要求:
(一)利用生成式人工智能生成的內(nèi)容應(yīng)當(dāng)體現(xiàn)社會主義核心價值觀,不得含有顛覆國家政權(quán)、推翻社會主義制度,煽動分裂國家、破壞國家統(tǒng)一,宣揚恐怖主義、極端主義,宣揚民族仇恨、民族歧視,暴力、淫穢色情信息,虛假信息,以及可能擾亂經(jīng)濟秩序和社會秩序的內(nèi)容。
(二)在算法設(shè)計、訓(xùn)練數(shù)據(jù)選擇、模型生成和優(yōu)化、提供服務(wù)等過程中,采取措施防止出現(xiàn)種族、民族、信仰、國別、地域、性別、年齡、職業(yè)等歧視。
(三)尊重知識產(chǎn)權(quán)、商業(yè)道德,不得利用算法、數(shù)據(jù)、平臺等優(yōu)勢實施不公平競爭。
(四)利用生成式人工智能生成的內(nèi)容應(yīng)當(dāng)真實準確,采取措施防止生成虛假信息。
(五)尊重他人合法利益,防止傷害他人身心健康,損害肖像權(quán)、名譽權(quán)和個人隱私,侵犯知識產(chǎn)權(quán)。禁止非法獲取、披露、利用個人信息和隱私、商業(yè)秘密。
解讀:此條可謂是實質(zhì)統(tǒng)領(lǐng)性的條款,關(guān)注內(nèi)容、算法、數(shù)據(jù)、平臺不正競爭、用戶隱私等各個層面的問題。首先是以國家統(tǒng)一、國家安全為第一要務(wù),重視內(nèi)容監(jiān)管。生成內(nèi)容不能觸碰違反社會主義核心價值觀的底線,且謹防打著人工智能的旗號進行違法有害內(nèi)容的有意輸出。其次是謹防“算法偏見”現(xiàn)象。除了杜絕主動輸出危害內(nèi)容之外,也對在算法設(shè)計、數(shù)據(jù)選取等較為隱性的服務(wù)實現(xiàn)步驟進行規(guī)制,實現(xiàn)從模型到數(shù)據(jù)的全過程平等無偏見。
同時,提前為可能在算法、算力、數(shù)據(jù)等方面的壟斷的企業(yè)打了“預(yù)防針”。國家提倡數(shù)字時代的共享共治,在保護企業(yè)智力成果、投入成本的同時也謹防惡性競爭、市場壟斷等行為的發(fā)生。
可以看出政府努力引領(lǐng)“可信”生成式人工智能服務(wù)的發(fā)展。對于該類服務(wù)來說“可信”是最難以達成的,黑箱模型使得很少有有效手段阻止模型輸出內(nèi)容的“胡說八道”,即便是行業(yè)頂尖的GPT-4也難以避免該現(xiàn)象的發(fā)生。并且,核心問題指向服務(wù)生成內(nèi)容可信程度的波動化,一時超常的準確表現(xiàn),一時難以分辨的潛藏錯誤是阻礙對該類服務(wù)賦予更多信任的主要原因。因此第四條第四款中只是要求企業(yè)采取一定的措施對生成內(nèi)容準確性進行維護。
第五條:利用生成式人工智能產(chǎn)品提供聊天和文本、圖像、聲音生成等服務(wù)的組織和個人(以下稱“提供者”),包括通過提供可編程接口等方式支持他人自行生成文本、圖像、聲音等,承擔(dān)該產(chǎn)品生成內(nèi)容生產(chǎn)者的責(zé)任;
解讀:第五條進一步明確在公眾用戶和產(chǎn)品服務(wù)提供商之間的關(guān)系,將“生成內(nèi)容生產(chǎn)者”的責(zé)任劃歸到產(chǎn)品服務(wù)提供商(文中稱為“提供者”)之下。在這里有些很有趣的地方,譬如A公司調(diào)用B公司的接口向公眾C提供服務(wù),誰是內(nèi)容提供商?若B公司的接口并不向公眾開放,而是通過其他方式供給于A,那么A才需要承擔(dān)法律上內(nèi)容生產(chǎn)者的責(zé)任;但若B公司也以公開的形式向A公司出售服務(wù),那么AB兩公司權(quán)利義務(wù)關(guān)系依照本辦法可能還存在模糊之處。
《辦法》中將將數(shù)據(jù)合法性也劃歸到“提供者”之下,對服務(wù)背后的數(shù)據(jù)進行統(tǒng)一的要求,可以看出日后提供者身份的“認定”是兵家必爭之地。該條最直接的意義便是對模型輸入端進行優(yōu)化,從而盡可能地保證輸出端內(nèi)容的純凈性、準確性。從長遠的來看,該要求對整個數(shù)據(jù)相關(guān)產(chǎn)業(yè)鏈提出的新的要求,是對整個行業(yè)數(shù)據(jù)收集、傳輸、交易、檢驗、維護與保護的全面規(guī)制。同時也完全符合現(xiàn)行立法對數(shù)據(jù)處理的各方面要求,能夠極大程度防止后續(xù)違法行為的發(fā)生,屬于一舉多得。
第八條:生成式人工智能產(chǎn)品研制中采用人工標注時,提供者應(yīng)當(dāng)制定符合本辦法要求,清晰、具體、可操作的標注規(guī)則,對標注人員進行必要培訓(xùn),抽樣核驗標注內(nèi)容的正確性。
解讀:網(wǎng)絡(luò)中對此條款的爭議很大,說很有可能促使誕生“打標員”這一新職業(yè),人工智能行業(yè)也可以是“勞動密集型”的。事實上,標注的成本不論是過去還是現(xiàn)在都是相當(dāng)?shù)母叩模瑸榱藰俗⒌臏蚀_性,減少錯誤標注的數(shù)據(jù)污染,復(fù)雜的規(guī)則制定、培訓(xùn)、檢驗已經(jīng)成為行業(yè)的基本操作,服務(wù)的開發(fā)者會自發(fā)使得標注盡量標準化來提高模型的表現(xiàn)。
第十條:提供者應(yīng)當(dāng)明確并公開其服務(wù)的適用人群、場合、用途,采取適當(dāng)措施防范用戶過分依賴或沉迷生成內(nèi)容。
解讀:這條的設(shè)立頗具有先見之明的。在過去,網(wǎng)絡(luò)服務(wù)提供內(nèi)容導(dǎo)致用戶沉迷的例子不在少數(shù),而深度合成內(nèi)容具有高度的擬人性和強交互性,讓人難以區(qū)分,很可能會深陷其中,不愿接受現(xiàn)實的樣子。不符合法律規(guī)定的相關(guān)服務(wù)很有可能成為新時代的“賽博大煙”。
第十一條:提供者在提供服務(wù)過程中,對用戶的輸入信息和使用記錄承擔(dān)保護義務(wù)。不得非法留存能夠推斷出用戶身份的輸入信息,不得根據(jù)用戶輸入信息和使用情況進行畫像,不得向他人提供用戶輸入信息。法律法規(guī)另有規(guī)定的,從其規(guī)定。
解讀:信息泄露問題在對話式內(nèi)容生成服務(wù)中已經(jīng)初見端倪。服務(wù)提供者為了根據(jù)用戶的輸入提供“完全個性化”的輸出,需要將輸入投喂到模型當(dāng)中,很難在數(shù)據(jù)處理的過程中保證數(shù)據(jù)的“靜止性”。近期中國支付清算協(xié)會也發(fā)布倡議書,提示支付行業(yè)從業(yè)人員合規(guī)使用ChatGPT等工具,以避免行業(yè)關(guān)鍵數(shù)據(jù)泄露風(fēng)險。
“畫像”是一個行業(yè)中的詞,并沒有規(guī)范的定義,何種行為可以被定義為“畫像”也是至關(guān)重要的問題。對用戶輸入的整合和統(tǒng)計當(dāng)然的可以提供更為個性化的服務(wù),微軟近期的服務(wù)甚至可以將本地文件內(nèi)容整合其中,但是這種行為在本條中似乎被排除。之后行業(yè)如何在不“畫像”的情形下提供更為智能的服務(wù)是整個行業(yè)需要思考的問題。
第十三條:提供者應(yīng)當(dāng)建立用戶投訴接收處理機制,及時處置個人關(guān)于更正、刪除、屏蔽其個人信息的請求;發(fā)現(xiàn)、知悉生成的文本、圖片、聲音、視頻等侵害他人肖像權(quán)、名譽權(quán)、個人隱私、商業(yè)秘密,或者不符合本辦法要求時,應(yīng)當(dāng)采取措施,停止生成,防止危害持續(xù)。
第十五條:對于運行中發(fā)現(xiàn)、用戶舉報的不符合本辦法要求的生成內(nèi)容,除采取內(nèi)容過濾等措施外,應(yīng)在3個月內(nèi)通過模型優(yōu)化訓(xùn)練等方式防止再次生成。
第十九條:提供者發(fā)現(xiàn)用戶利用生成式人工智能產(chǎn)品過程中違反法律法規(guī),違背商業(yè)道德、社會公德行為時,包括從事網(wǎng)絡(luò)炒作、惡意發(fā)帖跟評、制造垃圾郵件、編寫惡意軟件,實施不正當(dāng)?shù)纳虡I(yè)營銷等,應(yīng)當(dāng)暫停或者終止服務(wù)。
解讀:對于生成式人工智能的“非法輸出”,政府可以說是有預(yù)見的,并不是一刀切的禁止,而是給企業(yè)留有相當(dāng)?shù)挠嗟亍R环矫嫣峁┱咝枰⒂脩敉对V接收處理機制,另一方面需要主動進行內(nèi)容核查,發(fā)現(xiàn)違法內(nèi)容及時采取措施,停止服務(wù),防止危害持續(xù)生成,并在限定時間內(nèi)優(yōu)化模型。這對提供商整個模型反饋更新機制提出了很高的要求。
寫在最后
目前《辦法》還處在征求意見階段,未來一定會收納各方意見進行調(diào)整。《辦法》的出臺對于整個行業(yè)的發(fā)展是引導(dǎo)、也是壓力。各個開發(fā)者需要在數(shù)據(jù)維護、模型設(shè)計、模型輸出、用戶交互等全流程進行新的服務(wù)設(shè)計和改進。目前世界范圍內(nèi)對生成式人工智能技術(shù)的重視不單單僅是重視技術(shù)本身,更體現(xiàn)了對該技術(shù)背后蘊藏的解放和發(fā)展當(dāng)前其他領(lǐng)域生產(chǎn)力潛力的關(guān)注。《辦法》的出臺顯示出我國對于生成式人工智能技術(shù)發(fā)展的關(guān)注與支持,為相關(guān)科研機構(gòu)、企業(yè)的發(fā)展納入到合規(guī)、安全的框架之中,這對于構(gòu)建本土化AIGC研發(fā)環(huán)境極其有利。(財富中文網(wǎng))
作者肖颯為財富中文網(wǎng)專欄作家,“科技+金融”深度法律服務(wù)者
本內(nèi)容為作者獨立觀點,不代表財富中文網(wǎng)立場。未經(jīng)允許不得轉(zhuǎn)載。
編輯:劉蘭香