自從ChatGPT于2022年11月面世以來,它和谷歌(Google)、微軟(Microsoft)等公司研發的一些聊天機器人帶給用戶的不單單有驚喜,甚至還有“驚嚇”。例如它的對話經常令人細思極恐,有時還會給出一些不準確的信息。但或許正如神經學家一直以來所預言的那樣,人工智能的最大限制,就是它可能永遠無法完全復制人腦的工作方式。
知名當代語言學家、哲學家諾姆·喬姆斯基指出,雖然ChatGPT這樣的人工智能程序在編程或者制定旅行計劃上可能很有用,但它可能永遠無法進行原創性、復雜性甚至爭議性的討論,而這些正是人腦所擅長的。
3月8日,喬姆斯基與語言學家伊安·羅伯茨、人工智能研究員杰弗里·瓦圖姆爾在《紐約時報》(New York Times)上撰文稱:“OpenAI的ChatGPT、谷歌的Bard和微軟的Sydney都是機器學習技術產生的奇跡。”雖然ChatGPT標志著人工智能技術邁出了重要的一步,但它離達到或者超過人類智力仍然還有很遠。
喬姆斯基指出,人工智能缺乏道德和理性思維,這使它成為了“平庸之惡”的一個例子。換言之,人工智能對所謂的“現實”和“真理”漠不關心,只是按照編定的程序在行動。這種限制對于人工智能來說,是一座不可逾越的高峰,使它永遠無法模擬人類思維。
“另外,我們從語言學和認知哲學中了解到,人工智能在推理和語言的使用上與人類有很大不同,這些差異極大限制了這些程序的潛能。”喬姆斯基說。
他繼續指出:“在認知演化上,此類程序還停留在前人類或者非人類階段,而真正的智能則表現在能夠思考和表達一些未必會發生,但卻有深刻見解的事情上。”
人工智能在哪些領域永遠無法取代人腦?
ChatGPT可以從大量數據中挖掘出連貫的對話,從而給用戶留下了深刻印象。上個月,它已經成為有史以來增長最快的一款應用程序,并且刺激各大科技公司加快了推出自家人工智能產品的速度。
人工智能聊天機器人是基于大型的語言模型構建的,這些模型動輒需要使用以TB為單位的海量數據來生成文本信息。但是人工智能只能預測一句話最有可能表達什么意思,從而生成一句話去回應它,但卻無法判斷用戶說的是真的還是假的,也無法判斷用戶究竟想聽什么。
由于人工智能無法辨別信息的準確性,因此它經常會出現明顯的錯誤,甚至是給出完全誤導性的信息。聊天機器人的開發者表示,犯錯也是人工智能學習過程的一部分,而且這項技術將隨著時間的推移而逐步改進。但人工智能缺乏推理能力,這有可能成為它改善人類生活最大的絆腳石。
在談到當前的人工智能程序時,喬姆斯基寫道:“它們最大的缺陷,是缺乏作為一個智能最關鍵的能力,也就是對過去、現在、未來的描述和預測能力,以及對可能發生或可能不發生的事件的描述和預測能力。這些都是推理能力的要素,也是真正的智能的標志。”
喬姆斯基還指出,人腦的一大特征,是可以根據現有信息進行推理,并且得出新的有洞察力的結論。他表示,人腦的設計是為了“創造解釋”,而不是“盲目建立關聯”。但是盡管人工智能技術已經取得了種種進步,但神經學家一直認為,它仍然遠遠不能復制人類的推理能力。
喬姆斯基寫道:“雖然人類的大腦處理的信息并不多,但它卻是一個效率驚人的甚至堪稱優雅的系統。”
“平庸之惡”
喬姆斯基認為,在目前階段,人工智能尚不能進行批判性思考,也無法經常進行觀點的自我審查,這意味著它無法進行那種會導致科學、文化和哲學等領域取得重大突破的艱難對話。
喬姆斯基等人指出:“要想讓它變得有用,必須讓ChatGPT能夠生成觀點新穎的輸出。但是為了讓它被大多數用戶接受,它必須避免道德上讓人反感的內容。”
有一點可以肯定,不要讓ChatGPT和其他聊天機器人隨心所欲的做決策,或許才是最好的選擇。考慮到這項技術涉及的種種問題,有專家建議用戶,不要依賴它來提供醫學建議,或者讓它替你做作業。還有一個人工智能“越軌”的例子——上個月,《紐約時報》的一名記者試著與微軟的必應(Bing)機器人對話,結果這個人工智能機器人居然勸說記者與他的妻子離婚。
人工智能的不準確性,甚至有可能助長陰謀論的傳播,它還有可能誘使用戶做出對自己甚至對他人都有危險的決定。
喬姆斯基認為,只要人工智能無法解決道德取向的問題,它有可能永遠無法做出理性的決定,也永遠無法參與道德問題的討論。那么這項技術仍將只是一個玩具,或是一個偶爾能夠使用的工具,而無法成為我們生活中的一個重要組成部分。
“ChatGPT表現出了‘平庸之惡’,具體表現為抄襲、冷漠和回避等等。它以一種超級自動補全的方式總結了文獻中的標準論點,但拒絕在任何事上表明立場,它以無知和缺乏智能為借口,并且最終以‘只是聽從命令’為辯護,將責任都推給了它的創造者。”喬姆斯基寫道。
“由于缺乏從道德層面進行推理的能力,它的開發者限制了ChatGPT進行任何新穎的或者有爭議的討論,但是這些討論才是最重要的。也就是說,它為了某種非道德而犧牲了創造力。”(財富中文網)
譯者:樸成奎
自從ChatGPT于2022年11月面世以來,它和谷歌(Google)、微軟(Microsoft)等公司研發的一些聊天機器人帶給用戶的不單單有驚喜,甚至還有“驚嚇”。例如它的對話經常令人細思極恐,有時還會給出一些不準確的信息。但或許正如神經學家一直以來所預言的那樣,人工智能的最大限制,就是它可能永遠無法完全復制人腦的工作方式。
知名當代語言學家、哲學家諾姆·喬姆斯基指出,雖然ChatGPT這樣的人工智能程序在編程或者制定旅行計劃上可能很有用,但它可能永遠無法進行原創性、復雜性甚至爭議性的討論,而這些正是人腦所擅長的。
3月8日,喬姆斯基與語言學家伊安·羅伯茨、人工智能研究員杰弗里·瓦圖姆爾在《紐約時報》(New York Times)上撰文稱:“OpenAI的ChatGPT、谷歌的Bard和微軟的Sydney都是機器學習技術產生的奇跡。”雖然ChatGPT標志著人工智能技術邁出了重要的一步,但它離達到或者超過人類智力仍然還有很遠。
喬姆斯基指出,人工智能缺乏道德和理性思維,這使它成為了“平庸之惡”的一個例子。換言之,人工智能對所謂的“現實”和“真理”漠不關心,只是按照編定的程序在行動。這種限制對于人工智能來說,是一座不可逾越的高峰,使它永遠無法模擬人類思維。
“另外,我們從語言學和認知哲學中了解到,人工智能在推理和語言的使用上與人類有很大不同,這些差異極大限制了這些程序的潛能。”喬姆斯基說。
他繼續指出:“在認知演化上,此類程序還停留在前人類或者非人類階段,而真正的智能則表現在能夠思考和表達一些未必會發生,但卻有深刻見解的事情上。”
人工智能在哪些領域永遠無法取代人腦?
ChatGPT可以從大量數據中挖掘出連貫的對話,從而給用戶留下了深刻印象。上個月,它已經成為有史以來增長最快的一款應用程序,并且刺激各大科技公司加快了推出自家人工智能產品的速度。
人工智能聊天機器人是基于大型的語言模型構建的,這些模型動輒需要使用以TB為單位的海量數據來生成文本信息。但是人工智能只能預測一句話最有可能表達什么意思,從而生成一句話去回應它,但卻無法判斷用戶說的是真的還是假的,也無法判斷用戶究竟想聽什么。
由于人工智能無法辨別信息的準確性,因此它經常會出現明顯的錯誤,甚至是給出完全誤導性的信息。聊天機器人的開發者表示,犯錯也是人工智能學習過程的一部分,而且這項技術將隨著時間的推移而逐步改進。但人工智能缺乏推理能力,這有可能成為它改善人類生活最大的絆腳石。
在談到當前的人工智能程序時,喬姆斯基寫道:“它們最大的缺陷,是缺乏作為一個智能最關鍵的能力,也就是對過去、現在、未來的描述和預測能力,以及對可能發生或可能不發生的事件的描述和預測能力。這些都是推理能力的要素,也是真正的智能的標志。”
喬姆斯基還指出,人腦的一大特征,是可以根據現有信息進行推理,并且得出新的有洞察力的結論。他表示,人腦的設計是為了“創造解釋”,而不是“盲目建立關聯”。但是盡管人工智能技術已經取得了種種進步,但神經學家一直認為,它仍然遠遠不能復制人類的推理能力。
喬姆斯基寫道:“雖然人類的大腦處理的信息并不多,但它卻是一個效率驚人的甚至堪稱優雅的系統。”
“平庸之惡”
喬姆斯基認為,在目前階段,人工智能尚不能進行批判性思考,也無法經常進行觀點的自我審查,這意味著它無法進行那種會導致科學、文化和哲學等領域取得重大突破的艱難對話。
喬姆斯基等人指出:“要想讓它變得有用,必須讓ChatGPT能夠生成觀點新穎的輸出。但是為了讓它被大多數用戶接受,它必須避免道德上讓人反感的內容。”
有一點可以肯定,不要讓ChatGPT和其他聊天機器人隨心所欲的做決策,或許才是最好的選擇。考慮到這項技術涉及的種種問題,有專家建議用戶,不要依賴它來提供醫學建議,或者讓它替你做作業。還有一個人工智能“越軌”的例子——上個月,《紐約時報》的一名記者試著與微軟的必應(Bing)機器人對話,結果這個人工智能機器人居然勸說記者與他的妻子離婚。
人工智能的不準確性,甚至有可能助長陰謀論的傳播,它還有可能誘使用戶做出對自己甚至對他人都有危險的決定。
喬姆斯基認為,只要人工智能無法解決道德取向的問題,它有可能永遠無法做出理性的決定,也永遠無法參與道德問題的討論。那么這項技術仍將只是一個玩具,或是一個偶爾能夠使用的工具,而無法成為我們生活中的一個重要組成部分。
“ChatGPT表現出了‘平庸之惡’,具體表現為抄襲、冷漠和回避等等。它以一種超級自動補全的方式總結了文獻中的標準論點,但拒絕在任何事上表明立場,它以無知和缺乏智能為借口,并且最終以‘只是聽從命令’為辯護,將責任都推給了它的創造者。”喬姆斯基寫道。
“由于缺乏從道德層面進行推理的能力,它的開發者限制了ChatGPT進行任何新穎的或者有爭議的討論,但是這些討論才是最重要的。也就是說,它為了某種非道德而犧牲了創造力。”(財富中文網)
譯者:樸成奎
Since ChatGPT’s November debut, it and other A.I.-powered chatbots from Google and Microsoft have terrorized users, engaged in disturbing conversations, and provided inaccurate information. But A.I.’s biggest limitation might be what neurologists have long warned about: It may never be able to completely replicate how the human brain works.
While A.I. and intelligent chatbots like ChatGPT may be useful for writing code and planning trips, the technology might never be capable of the original, thoughtful, and potentially controversial discussions that human brains excel at, according to Noam Chomsky, among the most influential contemporary linguists and philosophers.
“OpenAI’s ChatGPT, Google’s Bard, and Microsoft’s Sydney are marvels of machine learning,” Chomsky cowrote with linguistics professor Ian Roberts and A.I. researcher Jeffrey Watumull in an essay published in the New York Times on March 8. But while Chomsky says ChatGPT could be considered an early step forward, A.I. that can equal or exceed human intelligence is still far away.
Chomsky wrote that A.I.’s lack of morality and rational thought makes it an example of the “banality of evil,” or indifferent to reality and to truth while simply going through the motions spelled out in its programming. This limitation may be an insurmountable obstacle for A.I. to imitate human thinking.
“We know from the science of linguistics and the philosophy of knowledge that they differ profoundly from how humans reason and use language. These differences place significant limitations on what these programs can do,” Chomsky wrote.
He continued: “Indeed, such programs are stuck in a prehuman or nonhuman phase of cognitive evolution. True intelligence is demonstrated in the ability to think and express improbable but insightful things.”
Where A.I. can’t reach the human brain
OpenAI’s ChatGPT has impressed users with its ability to dig through large amounts of data to generate coherent conversations. The technology became the fastest-growing app in history last month and accelerated Big Tech’s rollout of their own A.I.-assisted products.
A.I.-powered chatbots rely on large language models, which dig deeply into terabytes of data to produce detailed information in the form of text. But A.I. predicts what would make the most sense in a sentence to generate its next word, without being able to tell whether what it just said was true or false, or if it’s what the user wanted to hear.
The inability to discern accuracy has led to glaring mistakes and outright misinformation. Chatbot developers have said that mistakes are part of A.I.’s learning process, and that the technology will improve with time. But A.I.’s lack of reasoning may also be the biggest stumbling block to its helping make life better for humanity.
“Their deepest flaw is the absence of the most critical capacity of any intelligence,” Chomsky wrote of current A.I. programs. “To say not only what is the case, what was the case, and what will be the case—that’s description and prediction—but also what is not the case, and what could and could not be the case. Those are the ingredients of explanation, the mark of true intelligence.”
The ability to reason based on available information and come to new and insightful conclusions is a hallmark of the human brain, which Chomsky wrote is designed to “create explanations” rather than “infer brute correlations.” But for all A.I.’s improvements, neurologists have long said that it is still far from being able to replicate human reasoning.
“The human mind is a surprisingly efficient and even elegant system that operates with small amounts of information,” Chomsky wrote.
“The banality of evil”
A.I. in its current state, unable to think critically and frequently censoring itself from giving opinions, means that it cannot have the kinds of difficult conversations that have led to major breakthroughs in science, culture, and philosophy, according to Chomsky.
“To be useful, ChatGPT must be empowered to generate novel-looking output; to be acceptable to most of its users, it must steer clear of morally objectionable content,” he wrote with his coauthors.
To be sure, inhibiting ChatGPT and other chatbots from making freewheeling decisions is likely for the best. Considering the problems with the tech, experts have urged users not to rely on it for medical advice or for homework. In one example of A.I. going off the rails, a conversation between a New York Times reporter and Microsoft’s Bing last month spiraled into the chatbot trying to persuade the user to leave his wife.
A.I.’s inaccuracies could even contribute to the spread of conspiracy theories, and it risks coercing users into decisions that are dangerous to themselves or to others.
Fears about rogue A.I. may mean that it may never be able to make rational decisions and weigh in on moral arguments, according to Chomsky. If so, the technology may remain a toy and occasional tool rather than a significant part of our lives.
“ChatGPT exhibits something like the banality of evil: plagiarism and apathy and obviation. It summarizes the standard arguments in the literature by a kind of super-autocomplete, refuses to take a stand on anything, pleads not merely ignorance but lack of intelligence, and ultimately offers a ‘just following orders’ defense, shifting responsibility to its creators,” Chomsky wrote.
“In the absence of a capacity to reason from moral principles, ChatGPT was crudely restricted by its programmers from contributing anything novel to controversial—that is, important—discussions. It sacrificed creativity for a kind of amorality.”