AI聊天機器人ChatGPT正在全球掀起一股超級旋風,無論是否用過這個軟件的人都無法擺脫其看似無所不在的影響力。關(guān)于ChatGPT是否僅為升級版搜索引擎、是否會取代大量的工作崗位(尤其是知識型工作崗位)以及是否會導致“強者越強,弱者越弱”等方面的爭議,則在持續(xù)發(fā)酵。
眾說紛紜之際,ChatGPT背后的開發(fā)商OpenAI在2月5日也發(fā)話了,該公司首席技術(shù)官Mira Murati表示,“現(xiàn)在需要監(jiān)管機構(gòu)進行介入,以防止ChatGPT等生成式AI系統(tǒng)對社會產(chǎn)生潛在負面影響”。而圍繞如何看待ChatGPT的影響,“財富Plus”的用戶展開了精彩討論,我們選取了其中一些展示如下:
@新媒沈陽
清華大學新聞學院教授、元宇宙文化實驗室主任
關(guān)于ChatGPT以及近期科技發(fā)展的思考:
1、最近是ChatGPT的社會測試使用期,大家在使用中去逐步挖掘一個相對比較強的AI的應用潛力和應用創(chuàng)新。例如考試,在某些領(lǐng)域,ChatGPT相當于211高校中等偏上的本科生水平。預計Bing上線新功能之后就會逐步進入大規(guī)模實際使用期了。
2、ChatGPT不是搜索引擎,但做好了絕對能替代搜索引擎,畢竟搜索引擎Yahoo都出現(xiàn)28年了,技術(shù)的改進并沒有質(zhì)的突破,還是停留在pagerank層面。ChatGPT可以深入到語義層面,可以形成一個篇章結(jié)構(gòu),也就是微觀語法,宏觀大義做了很好的結(jié)合,使用面就很廣了。顯然,ChatGPT不僅僅是引擎,而是腦,即AI大腦。對搜索引擎來說,是高維的不同品類。
3、目前ChatGPT已經(jīng)暴露的最嚴重的兩個問題:在功能上,錯誤的信息源將會輸出錯誤內(nèi)容,ChatGPT甚至有可能成為謠言之源,這是需要改進的。另一個問題是使用中的,當AI能夠代替人腦的一部分思考,人腦的思考價值性就被抵消了一部分。在教育中使用,還怎么訓練學生的思維能力,如果教育無法優(yōu)化教學效果,人類怎么去培育新生代?目前來看ChatGPT有點抄人類的后路,先把青少年學習給AI大腦化,這比計算器對數(shù)學教學的影響要大很多,人類面臨著一個重大而震蕩的適應期。
4、ChatGPT為什么能跑出來,給我們的一個啟發(fā),就是我們原來很多大模型都是熱衷于報參數(shù)多少,似乎參數(shù)越大自己越猛,其實參數(shù)大小只是跟投入的資金有關(guān)。而在參數(shù)之外很重要的是工程調(diào)優(yōu),特別是在實際使用過程中的優(yōu)化,ChatGPT這種海量用戶一旦形成,其優(yōu)化也將日臻完善。現(xiàn)在看來AI=黑盒算法+智能反饋,把算法和工作量龐大的反饋做好了,AI質(zhì)量就上了一個大臺階。如何堅定研發(fā)信仰,持續(xù)投入,不斷優(yōu)化,讓自己的東西在微創(chuàng)新中驚艷眾生?我們自己在這方面也還有很大提升空間。沒有路的地方就是新路的起點。
5、AI看來先革腦力勞動者的命,后革體力勞動者的命,這和大家以前的理解不太一樣。元宇宙里面的進化速度更快,真宇宙物理世界進化更慢。
6、Starship近期將靜態(tài)點火,如果點火成功,意味著二代星鏈衛(wèi)星很快可以上天,三五年內(nèi)手機在全球任意地點直接可以接收衛(wèi)星信號,將是互聯(lián)網(wǎng)接入的一場革命。
7、以Damus為代表的Web3.0應用正在逐步走入大眾,Web3.0今年可能出現(xiàn)億級用戶產(chǎn)品。美國新的技術(shù)突破進展超乎想象,既有硬核技術(shù)突破,也有互聯(lián)網(wǎng)模式創(chuàng)新。Damus代表的趨勢是尊重個人絕對隱私,去中心化參與,這股潮流現(xiàn)在可能不一定是主流,但未來有可能勢頭非常猛。
8、技術(shù)發(fā)展是動態(tài)的,你在發(fā)展,別人也在發(fā)展。0到1的顛覆式創(chuàng)新需要法治化、市場化、國際化的支撐。1到100的創(chuàng)新需要知識的勞動密集型群體、良好的產(chǎn)業(yè)規(guī)劃、廣闊的市場空間等要素。
@朱巖梅
華大基因集團執(zhí)行董事、執(zhí)行副總裁
近日,來自OpenAI公司的新型AI聊天機器人ChatGPT,俘獲了全世界的想象力,OpenAI也確實不是一家尋常的公司。它是2015年由一群科技領(lǐng)袖,包括奧特曼(、和埃隆·馬斯克、彼得·泰爾(《從0到1》作者)、里德·霍夫曼(Linkedin創(chuàng)始人)等人創(chuàng)辦的,目標是確保人工智能不會消滅人類。起初它是一個非營利性的研究實驗室,就像美國其他著名的研究機構(gòu)如Broad Institute、SETI。2018年馬斯克宣布退出。2019年,OpenAI宣布重組為一家“有限盈利(capped-profit)企業(yè)”,并接受了微軟10億美元的投資。傳聞估值已達290億美元,弄得奧特曼趕緊出來表態(tài)降溫,呼吁不要過度炒作,但似乎效果不佳。
里面有個詞:“有限盈利(capped-profit)”,什么意思?很多人可能都第一次聽到這個詞,于是我問了下ChatGPT,得到如下回答,標準的“ChatGPT式”回答(以后這可能會成為一個習慣用語):
“有限利潤”,也稱為“利潤上限”,是一個術(shù)語,指的是對公司可以賺取的利潤的限制。這種類型的限制通常是由監(jiān)管機構(gòu)或政府施加的,這些行業(yè)的服務或產(chǎn)品的提供被認為是公共產(chǎn)品,或者產(chǎn)品或服務的價格受政府監(jiān)管。作為OpenAI開發(fā)和擁有的AI語言模型,我不是一家公司,也沒有傳統(tǒng)意義上的盈利能力,也不產(chǎn)生傳統(tǒng)意義上的利潤。我在OpenAI的創(chuàng)建者可能會對我的使用方式或我要執(zhí)行的任務類型設置限制,但這些限制與利潤無關(guān)。相反,它們是為了確保我以負責任和有道德的方式被使用,并且不會用我干壞事。
同時,我用Google搜下“capped-profit”,搜出的信息大多是和OpenAI相關(guān)的。顯然,ChatGPT的回答更有趣和清晰。“有限盈利”指的是一種商業(yè)模式,公司對其可以賺取的利潤金額設置了限制或上限。這類商業(yè)模式旨在確保公司的重點,是服務客戶和為更大的利益做出貢獻,而不是利潤最大化。這其實就是“社會企業(yè)(Social Enterprise)”。
ChatGPT的優(yōu)異表現(xiàn),讓文字工作者、程序員等從業(yè)者都感受到了威脅,甚至可能取代谷歌搜索引擎。想起最近和幾位熟悉Google,甚至是從Google出來的朋友聊天,他們都為Google惋惜,似乎也患上“大企業(yè)病”。以往Google那種Cool、創(chuàng)意無邊的形象似乎在遠去。這就是大企業(yè)的宿命,如果不去抑制“熵增”、主動更新的話,“恐龍”必然失去生存能力。而微軟此次在OpenAI上的歷史性影響,恰恰說明大企業(yè)還是有機會重新煥發(fā)活力的。
Google的著名口號"不作惡(Don't be evil)",影響深遠。如今,“不作惡”恐怕已經(jīng)不夠了,這樣再次啟示我們:企業(yè)要“為善”,方能走遠。
@蘇牧野
資深媒體人
ChatGPT 在很多外媒上,被稱作 “autocomplete on steroids”,意即“服用了興奮劑(加強版)的自動填詞功能”,就是那種你在搜索引擎上輸入一個詞,系統(tǒng)猜測你的喜好幫你填寫完整的那種功能。還挺形象的。
ChatGPT的工作原理似乎是,通過被“喂”無數(shù)的人類文本,它通曉了不同語詞之間的最佳排列組合方式。這使得它在輸出答案時,語言表達上要比過去的機器人流暢得多,也地道得多,給人一種它已經(jīng)具備自主思考能力的感覺。但這只是一種錯覺。它本質(zhì)上是一個搜索引擎,離“智能”還很遠。
我還沒有深度使用它,但是基于對它工作原理的粗淺理解,我對它有三大問:
一、 在不同的時間、以不同的方式對它提出同樣的問題,它能否給出前后一致的回答?
ChatGPT在回答事實性問題的時候,是不給出答案出處的,讓人無從判斷答案是否準確。也由于數(shù)據(jù)來源模糊,讓人擔心同樣的問題以稍稍不同的方式(比如不同的語序)提出,會不會得到同樣的答案。一位朋友最近與它的聊天就顯示出,僅僅幾分鐘內(nèi),他對本質(zhì)相同的兩個問題給出了不同的答案,再度證明它沒有“理解”兩個問題之間的關(guān)聯(lián)。
二、兩個價值觀不同的人,帶著價值傾向,問ChatGPT同樣的問題,是否會從它這里得到不同的答案?
比方說,我朋友圈里兩位朋友對《滿江紅》有著兩極化的評價,一個高度贊譽,一個掩飾不住鄙夷。如果兩個人向ChatGPT提出同一個問題:你怎么評價《滿江紅》?它會不會根據(jù)問題中流露出的觀點傾向,給出迎合提問者的答案?換言之,ChatGPT是不是有前后一致的價值觀?
三、如果ChatGPT能取代這么多人的工作,是否本身就說明了,我們的很多工作本身就是缺乏原創(chuàng)性的,重復的,甚至無用的?
如果ChatGPT本質(zhì)上只是在人類已經(jīng)積累的知識富礦中搜索,將語詞重新排列組合后輸出,那它是不是比較終極的“天下文章一大抄”?如果只是這樣,它就能編寫劇本、發(fā)言稿、博士論文甚至代碼,這是不是又意味著,很多時候我們自以為原創(chuàng)的東西,本質(zhì)上都是在走前人們走過的路?消極地看,這的確要讓我們很多人灰心喪氣。積極地看,ChatGPT的步步緊逼,將迫使人類思考如何更具原創(chuàng)性。
@聶日明
上海金融與法律研究院研究員
使用chatGPT的感覺,chatGPT擅長的內(nèi)容包括:1,搭建文章提綱,可以面面俱到,經(jīng)常會超出自己的預期,因為自己的考慮可能不如AI全面;2,給定主題,撰寫年度總結(jié),摘要,以及不需要基于事實的觀點評論;3,它格外擅長寫那些讀下來不知所云的廢話,像一些評論人寫的車轱轆一樣的廢話。chatGPT尤其適合高考作文這種假大空的風格,大多數(shù)學生寫的議論文或者記敘文都不是真情實感,憑空想象,并且愛用升華的句式,用華麗的排比語句,這些都是chatGPT的專長。
chatGPT的這些個特點,可能和AI的訓練有關(guān),他吃了海量的文獻內(nèi)容,在全面性上自然會更專業(yè),在翻來覆去的廢話上,自然也有大量的素材可以借鑒。
那么chatGPT不擅長什么?1,在事實核查上,他對于常識性的事實核查不算太吃力,相當于使用搜索引擎了,但稍微復雜一點的事實,幾乎沒有核查的能力,同樣的問題,換個不同的角度,就會給出不同的答案,這可能是因為素材里本來就有沖突的答案,他沒辦法識別哪些是更優(yōu)質(zhì)的內(nèi)容,自然無法給出準確的答案。
2,他幾乎沒有審美,現(xiàn)實中各種素材其實是有質(zhì)量差異的,谷歌搜索早先處理排序的時候,就要處理每一份材料的權(quán)重。AI訓練時,肯定也需要訓練這個權(quán)重,但這個相對比較專業(yè),需要專業(yè)的人員進行標注,在測試chatGPT的時候,我沒有發(fā)現(xiàn)他的審美有什么優(yōu)勢。
3,總的來說,chatGPT是一個通用的AI,所以應付常識性問題,相對容易一些。這也意味著稍微復雜或者深入一些問題,他就沒辦法應對,應對的質(zhì)量不如WIKI的專業(yè)詞條。
從未來來看,對人類尤其是專業(yè)人員來說,chatGPT的進化會進一步為繞來繞去的套套邏輯去魅,而事實、一手經(jīng)驗感受和創(chuàng)造性強的內(nèi)容仍然是chatGPT無法勝任的。
@張林
評級機構(gòu)研究員
ChatGPT 據(jù)說威脅到了很多行業(yè),不過像我這樣的經(jīng)濟和社會問題研究者不會太擔心,因為這個行當從來都是一個充分競爭的行當,誰都能說上幾句,而且事實上看,大部分專業(yè)人員提供的觀點基本都是一致的,能說出來新的角度,對于人工智能來說并不容易。另外就是機器學習是學習已經(jīng)公開發(fā)表的觀點和信息,所以我感覺人工智能模仿出來的東西也會大概像官話和套話。但是對于碼農(nóng)這些行業(yè),可能影響的確會比較大。
@何山壯
鯨魚星球COO、企業(yè)戰(zhàn)略顧問
“孩子該學什么?”——確實值得思考。
當機器對語言的翻譯越來越準確(甚至某天會像“流浪地球2”那樣,在全世界不同語言之間同步翻譯)、當人工智能能快速生成程序,那今天還讓孩子去卷外語、編程,還有意義嗎?
也許有一天,面對無孔不入的機器和人工智能,人類最牛逼的能力,就是像《三體》羅輯那樣,閉口不言,卻構(gòu)建完整閉環(huán)的“心球”,也對人工智能隱藏了人類最隱秘的思維能力,成為人類對抗人工智能反噬的最嚴峻的“執(zhí)劍人”。
現(xiàn)在想來,《三體》牛逼之處,是它不只是科幻小說,更是一本關(guān)于人類命運的“寓言”。敵在本能寺!人類的敵人,遠不是四光年之外的三體人,而是人類的創(chuàng)造力。
越來越理解莊子的“反文明傾向”的合理性……莊子時代到今天,已過去2500年;2500年,也是流浪地球預計到達半人馬座比鄰星的時間。
雖然不知道道路通向何方,但一個新時代,確已拉開序幕。(財富中文網(wǎng))
編輯:劉蘭香
本文內(nèi)容為作者獨立觀點,不代表財富中文網(wǎng)立場。未經(jīng)允許不得轉(zhuǎn)載。