支付行業倡議謹慎使用ChatGPT
肖颯
昨天,中國支付清算協會明確指出“ChatGPT這類智能化工具已經暴露出跨境數據泄露等風險。”并發出“謹慎使用ChatGPT等工具”的倡議,該倡議強調支付行業從業人員要提高思想認識,依法依規使用ChatGPT等智能化工具,正確認識相關工具的機遇和風險,全面評估使用ChatGPT等工具處理工作內容的風險;倡議支付行業從業人員在使用ChatGPT等工具時,要嚴格遵守國家及行業相關法律法規要求,不上傳國家及金融行業涉密文件及數據、不上傳非公開的資料及數據、客戶資料、支付清算基礎設施或系統的核心代碼等內容;倡議各會員單位要進一步健全信息安全內控管理制度,開展有針對性的數據風險防控工作,加強宣傳和引導,提升員工的風險防范和數據保護意識,切實維護國家金融及支付行業安全。
一、ChatGPT已發生多起數據泄漏事故
中國支付清算協會這一倡議是對近期ChatGPT頻繁曝出數據泄露事件的回應,ChatGPT已經在世界范圍內曝出數起敏感數據泄密事件,就在本月初,意大利個人數據保護局宣布,從即日起禁止使用ChatGPT并限制OpenAI公司處理意大利用戶的個人信息,同時意大利個人數據保護局開始就ChatGPT泄露敏感信息事件進行立案調查。無獨有偶,韓國某國際知名大型企業(某星)主管存儲、芯片設計、晶圓代工等半導體核心業務部門亦因為員工使用ChatGPT導致機密數據泄露。
該泄露事件涉及三位員工,員工甲在運行半導體設備測量數據庫下載程序的源代碼時發生了錯誤,于是他復制所有有問題的源代碼并將其輸入到ChatGPT中詢問解決方案。員工乙則將“設備測量”及“產量和缺陷”檢測程序代碼整個相關源輸入ChatGPT,要求ChatGPT幫助其優化代碼。員工丙則是一名行政人員,其將用自己手機錄制的會議內容轉化為文字后,輸入到ChatGPT中,要求ChatGPT優化這份錄音轉文字的稿件,使其看起來像一篇精心制作的會議紀要。
上述三位員工的行為使得某星涉及半導體業務的敏感內容,此后該企業向公司所有員工告知“如果采取信息保護緊急措施后仍發生類似事故,公司內部網可能會禁止ChatGPT連接。”
事實上國內部分行業也已經對ChatGPT引發的敏感信息泄露問題發布了相關預警。除韓國某星外,微軟、亞馬遜等國際巨頭企業亦對自己的員工發出預警,不要與ChatGPT分享公司的相關敏感信息,因為它們可能會被ChatGPT用于訓練未來的語言模型。
出于對敏感數據泄露風險的擔憂,花旗集團、德意志銀行、高盛集團、摩根大通等企業亦明確禁止員工使用ChatGPT處理工作任務。更有1000多名科技行業領導和研究人員呼吁暫停先進AI的研發,以便相關的數據安全政策能夠首先得到討論施行。AI與數據政策中心(The Center for A.I and Digital Policy)亦要求美國聯邦交易委員會禁止OpenAI發布ChatGPT新的商用版本。
二、ChatGPT泄露數據風險點位分析
中國支付清算協會以及上述各企業對于ChatGPT數據泄漏風險的擔憂不無道理。ChatGPT的數據泄漏風險主要源于兩部分,其一是ChatGPT本身的程序漏洞,其二是ChatGPT的工作原理。ChatGPT本身的程序漏洞可能會導致用戶的聊天內容泄露。這類事故已經發生過數次,就在上個月末。有部分網友生成自己的ChatGPT聊天欄中出現了其他人聊天記錄的標題,3月25日OpenAI發文證實是由于ChatGPT本身程序漏洞導致了泄露事故,OpenAI“已緊急修復該漏洞并向用戶致歉”。事實上程序本身漏洞導致信息泄露并非“不可饒恕”,這些漏洞通常及時修補后就不會引起撼動ChatGPT根基的風波。而真正可能撼動ChatGPT根基的是后一種信息泄露風險點位,即ChatGPT的工作原理,實際上,ChatGPT的工作原理就注定了其在現階段很難解決信息泄露的問題。
具體而言,傳統的聊天軟件通常會聲稱“本軟件不會收集聊天記錄、聊天信息也會點對點進行加密傳輸”,事實上絕大部分的聊天軟件也都會做到這一點。但是這一點對于ChatGPT而言幾乎不可能實現,原因在于ChatGPT這類大語言模型一定會收集用戶的聊天內容,并將其用于后續算法訓練,以使得自身進一步迭代成為更加高效的AI。因此,用戶在與ChatGPT聊天的過程中提供的隱私內容,很可能會被ChatGPT收集,并成為其自身算法訓練的素材,然后在其他場景中透露給別人。
于是”故事”(事故)就是這樣產生的:某員工甲為圖方便,將其單位的客戶數據輸入到ChatGPT中,希望ChatGPT根據數據生成相應的報告,其后這些客戶數據就被ChatGPT收集并用作未來算法訓練的素材。之后某商業間諜乙在使用ChatGPT時,詢問ChatGPT某公司的客戶數據大致是什么內容,ChatGPT立刻就將其在員工甲處“學習而來”的知識告訴了乙……
當然,現實的數據泄露情景更為復雜,本文僅是將其簡化并以通俗易懂的方式呈現給讀者,上述ChatGPT的工作原理在短時間內無法改變,實際上OpenAI已經在ChatGPT的使用指南中數次提醒用戶輸入ChatGPT聊天框的文本內容會被用于進一步訓練模型,警告用戶不要提交敏感信息,換言之,ChatGPT的工作原理就注定了其必定會觸及到隱私數據保護、數據跨境傳輸等合規紅線,而且這種“矛盾”似乎在短期內無法妥善解決。
三、企業引入AIGC服務的合規要點
接受新技術能夠產生巨大的生產力變革,我們必須承認以ChatGPT為代表的AIGC、深度合成技術可能直接成為企業核心競爭力與吸引力的組成部分,對于AIGC、深度合成技術絕不能一禁了之,企業如何在現行的法律框架下發揮ChatGPT等工具的最大潛力,將會是企業合規新的難題。我國是最早對人工智能進行監管的國家之一,《互聯網信息服務深度合成管理規定》已于今年1月10日施行。
在此之前《互聯網信息服務算法推薦管理規定》《網絡音視頻信息服務管理規定》《網絡信息內容生態治理規定》等法律法規中亦涉及到AIGC、深度合成等內容。根據我國目前有關AIGC、深度合成的法律合規框架,企業如果希望在服務中引入AIGC,應當至少關注以下幾點內容:
1.與深度合成服務提供者或者技術支持者的協議條款,重點關注在使用AI方面有何限制,有何免責場景。
2.審查深度合成服務的提供作者與技術支持者是否履行了《互聯網信息服務深度合成管理規定》中的合規任務。
3.就員工內部使用ChatGPT等AIGC工具,制定合規使用政策,要求使用相關服務的員工至少應當明確哪些內容不可以通過AIGC處理,以避免企業自身敏感信息泄露。
4.如企業引入的AIGC內容可能會向企業自身的客戶披露,那就必須在對外服務時告知哪些內容是由AI生成的,應當警惕內容的風險,確保可能受影響人群的知情權。
四、寫在最后
傳統聊天軟件的服務提供商通常不會收集聊天記錄,聊天記錄亦會點對點加密,但ChatGPT等AIGC卻會不可避免地收集聊天內容用于后續的算法訓練,以使自身“迭代進化”,用戶提供的隱私信息很可能在這樣的機制之下被披露給第三方,實際上AIGC正在慢慢改變隱私數據處理的邊界與預期,這對企業合規、數據相關法律規范制定者、司法機關都是一個挑戰,未來可能會涉及的數據合規尤其是數據出境等問題,可能仍需進一步探索與研究。
王衍行
高度負責任之舉。昨天,中國支付清算協會發布公告稱,倡議支付行業從業人員謹慎使用Chat-GPT等工具。中國支付清算協會協會業務主管單位為中國人民銀行。協會對支付清算服務行業進行自律管理,維護支付清算服務市場的競爭秩序和會員的合法權益,防范支付清算風險,促進支付清算服務行業健康發展。
中國支付清算協會具有權威性,可謂一言九鼎,因此,協會關于使用Chat-GPT等工具的倡議,非同小可,會員單位必然能掉以輕心。我認為,這是極為負責任的舉措,最終也必將產生建設性的結果。
會員單位必須認真對待。重點主要有:一是防范數據泄露等風險。已有部分企業員工使用ChatGPT等工具開展工作,此類智能化工具已經暴露出跨境數據泄露等風險;二是努力維護數據安全。保護客戶隱私、維護數據安全,提升支付清算行業的數據安全管理水平;三是依法合規使用ChatGPT。支付行業從業人員要全面評估使用ChatGPT等工具處理工作內容的風險,依法合規使用ChatGPT等工具;四是遵守法律法規。要嚴格遵守國家及行業相關法律法規要求,不上傳國家及金融行業涉密文件及數據、本公司非公開的材料及數據、客戶資料、支付清算基礎設施或系統的核心代碼等。應該說,上述四方面的要求已經十分全面、具體。
我的預計。按照一般的慣例,,中國支付清算協會必然會持續關注相關案例,并在一定時段通報典型案例。
把命運牢牢控在自己手里。支付清算無小事。各個會員單位的相關人員,特別是高級管理人員必須深刻認知Chat-GPT等工具的本質,不迷信、不盲從、不偏執,時刻與科學、專業、真理為伍,遠離“愚昧”。特別要牢記,為愚昧啟蒙者,不可使其困惑于無知 。
奧黛麗靜
當行業內不只是一股腦兒神吹ChatGPT,而是不斷有提示風險的機構和內容的時候,其實是一件好事。ChatGPT不是萬能的,而是一把“雙刃劍”,能在極大地提高工作效率的時候,也能以極高的效率來制造和放大風險。不過目前,倒還是沒有什么太大的風險事件被曝光,不過隨著時間的推移,我相信,一定會有某個公司在ChatGPT這類工具的使用上栽一個大跟頭。
中國支付清算協會的這個倡議很及時,但倡議畢竟沒有任何約束力,而協會也無法監管會員的每一個行為,因此這需要企業的高度自律。不過提高效率的誘惑恐怕是很難抵擋的,金融從業者大都工作繁忙,壓力巨大,對于這類工具應該是愛不釋手,因此我也相信這類不合規的行為,未來可能會蔓延開來。
Samcmo
嗯,我和chatgpt做了2次聊天!第一次,我問我是誰?——馬上宕機了,重啟。
第二次,開場白差不多,然后ai和我進行了自我功能的誠實透露。ai說,自己根據人類程序設計沒有自我黑客技術掌握能力,也不能進行自我程序設計網上搜索,而且ai根據人類設計所能提供的百科知識不可能超越高級專業人——無法教會人類專科及以上的專業知識高度,僅提供相關基礎知識及深入學習掌握專業知識的途徑!(雖然ai承認自己擁有龐大的百科全書能力——能達到萬億次/秒運算)ai也提到了隱私問題,所以不可能擁有黑客入侵的能力。
就我和ai聊天看,ai的功能受到了設計程序限制,無法實現自主的搜索和各項專業知識學習及程序設計等等能力都受到人類程序設計限制!!而且隱私問題也對chatgpt有著很大制約。
張學峰
我贊成該倡議。人類自身的智慧是無窮的,多鍛煉自己,不能偷懶。
喵喵教主
應該用 前提是足夠安全 這已經不是人類力量先行的時候了