人工智能系統(tǒng)的爆炸式增長為用戶提供了一系列驚人的任務(wù)解決方案。由于大型語言模型(LLM)生成式人工智能工具的蓬勃發(fā)展,例如ChatGPT-4和Bard等等,如今創(chuàng)建文本、圖像和視頻變得更加容易,與人類創(chuàng)作的作品往往無法區(qū)分。
因為這些模型校準用于創(chuàng)建原創(chuàng)內(nèi)容,因此生成不正確的產(chǎn)品無可避免,甚至是預期會發(fā)生的,這種情況已經(jīng)被充分記載。因此,這些工具也使得在網(wǎng)上捏造與散播不實信息變得容易很多。
這些技術(shù)的進展速度讓一些有識之士感到相當緊張。在近期的一封公開信里,包括埃隆·馬斯克和史蒂夫·沃茲尼亞克在內(nèi)的技術(shù)專家們紛紛出面呼吁暫停研發(fā)人工智能六個月,他們問:“我們是否應(yīng)該任由機器使用宣傳和謊言淹沒我們的信息渠道?”
無論這些人工智能系統(tǒng)的進展速度如何,我們都將必須習慣于數(shù)量龐大的不實信息,研究網(wǎng)上社交互動的凱洛格學院管理與組織學教授威廉·布雷迪表示。
“我們必須要小心,不要被科幻問題分散注意力,而要專注于最迫切的具體風險。”布雷迪說道。
在下文中,布雷迪破解了關(guān)于人工智能生成的不實信息的常見恐懼,并且澄清我們?nèi)绾文軌驅(qū)W習與其共存。
不實信息比虛假信息問題更大
布雷迪很快對不實信息和虛假信息進行區(qū)分。不實信息是誤導或不是事實的內(nèi)容,虛假信息則是用來欺騙受眾的策略性創(chuàng)建和采用的信息。
知道兩者的不同之處是評估風險的第一步,布雷迪表示。他指出,大部分時候,當人們擔心生成式人工智能的潛在傷害時,他們害怕它會導致虛假信息暴增。
“大型語言模型的一種明顯用途是它比以往任何時候都更容易創(chuàng)造虛假信息和深度偽造等事物。”布雷迪說,“這個問題也許會隨著大型語言模型的進展變得更嚴重,但它事實上僅僅是一個更普遍性問題中的一部分。”
雖然深度偽造因為意圖誤導而會有問題,但它們在所有網(wǎng)絡(luò)內(nèi)容中的整體滲透率很低。
“毫無疑問,生成式人工智能將成為虛假政治信息的主要來源之一。”他表示。“它是否真的具有巨大影響力則有待觀察。”
布雷迪稱,持續(xù)存在不實信息,比容易制造不實信息更可能出現(xiàn)問題。大型語言模型通過掃描數(shù)十億份文件進行模式識別訓練,因此它們可以展現(xiàn)權(quán)威,但在偏離基準時,卻缺乏辨識能力。當人們受人工智能制造的小錯誤導卻又把它們當作來自專家的信息那樣信任時,就會出現(xiàn)問題。
“大型語言模型學習如何表現(xiàn)出信心十足,但不一定準確。”布雷迪說道。
這是否意味著我們對生成式人工智能用得越多,不實信息將呈指數(shù)級增長?布雷迪表示,我們無法確定。他指出,根據(jù)這項研究,社交媒體平臺上的不實信息數(shù)量很少,有些人估計僅僅占整體信息生態(tài)系統(tǒng)的1%至2%。
他說:“ChatGPT因為增加不實信息供應(yīng)量而突然使不實信息問題變大,這種想法沒有實證。心理因素導致不實信息的傳播,這個問題比供應(yīng)量的問題更大。”
我們也是不實信息背后的問題
布雷迪認為,或許不實信息帶來的最大挑戰(zhàn)不僅僅來自于毫無節(jié)制的技術(shù)進展,人們相信機器的心理傾向也難辭其咎。他表示,我們不傾向刪減人工智能生成的內(nèi)容,因為這么做很勞心費力。換句話說,如果我們不花時間和精力去嚴格審視在互聯(lián)網(wǎng)上讀到的信息,我們就會更容易讓自己去相信不實信息。
“人們有一種‘自動化偏見’,這種偏見使我們認定由電腦模型生成的信息比人類創(chuàng)造的信息更正確。”布雷迪稱。結(jié)果是,人們通常不太懷疑人工智能創(chuàng)造的內(nèi)容。
當人們相信不實信息,并且不去質(zhì)疑其真實性就進行分享,不實信息就傳播出去了。布雷迪說,人們需要更加留意,了解自己通過哪些方式在不知不覺中促成不實信息的創(chuàng)造與傳播。布雷迪將此稱為一個“污染問題”。
布雷迪說:“不實信息的問題往往出在消費者這一邊,與人們在社交上如何分享與做出結(jié)論息息相關(guān),與自己制造出的信息相關(guān)較小。人們相信自己讀到的東西,并在分享時添油加醋。事實上,他們已經(jīng)被誤導,而且在放大夸張。”
接受教育
布雷迪表示,在現(xiàn)實中,我們不能等待監(jiān)管機構(gòu)的監(jiān)督或公司的控制來遏止不實信息,他們對內(nèi)容如何創(chuàng)建與分發(fā)的影響力微不足道。鑒于人工智能的增長勢不可擋,我們需要學習如何更加認識到可能在何時與何地遇到不實信息。
在理想的世界中,公司會扮演一個重要的角色。
“公司必須根據(jù)自己推出的產(chǎn)品做出負責的介入行動。”他說,“如果內(nèi)容被標記為有問題,至少人們就能夠決定它可不可信。”
布雷迪希望看到類似做法應(yīng)用在不實信息和生成式人工智能上。他贊成網(wǎng)絡(luò)平臺通過標注生成式人工智能內(nèi)容來幫助用戶檢測不實信息。但他知道等待技術(shù)公司推出有效的控制方法是不合理的期待。
“公司不總是因為做出所有應(yīng)該做的事情而獲得獎勵,而且那樣做也不會改變我們目前的情況。但我們其實也可以把這個權(quán)力賦予個人。”布雷迪表示。
培養(yǎng)用戶對不實信息最可能出現(xiàn)的情境的察覺能力,或許能夠降低不實信息散播的可能性。
既然年紀較大的成年人最可能成為不實信息的受害者,向那些互聯(lián)網(wǎng)精通程度不及Z世代的成年人提供比如數(shù)字掃盲培訓視頻或游戲化網(wǎng)站等基礎(chǔ)教育,對壓制網(wǎng)絡(luò)不實信息可能很有助益。這些努力可以包括設(shè)計各種活動喚起大眾注意力,讓人們察覺算法在過度推廣特定類型的內(nèi)容(包括極端的政治內(nèi)容)中扮演的角色。
“這是關(guān)于教育人們了解有關(guān)自己最容易受到不實信息影響的背景情況。”(財富中文網(wǎng))