世界快報(bào):圖靈獎(jiǎng)得主楊立昆:AI的邏輯推理和規(guī)劃能力有限,會(huì)犯事實(shí)錯(cuò)誤和邏輯錯(cuò)誤
演講中,楊立昆再次強(qiáng)調(diào)人工智能是可控的,他表示,“恐懼是由對(duì)潛在負(fù)
出品|搜狐科技
作者|鄭松毅
(資料圖片)
6月9日,2023智源人工智能大會(huì)在北京舉辦。法國當(dāng)?shù)貢r(shí)間凌晨四點(diǎn),被譽(yù)為“世界深度學(xué)習(xí)三巨頭”之一的楊立昆(Yann LeCun)在法國視頻連線北京現(xiàn)場,發(fā)表了主題為《走向能夠?qū)W習(xí)、推理和規(guī)劃的大模型》的演講,表達(dá)了對(duì)于人工智能的深度思考。
搜狐科技在智源大會(huì)現(xiàn)場觀看了這場演講,從楊立昆演講時(shí)面露微笑的表情中,可以感受到楊立昆對(duì)于人工智能發(fā)展的積極樂觀態(tài)度。此前在馬斯克等人聯(lián)名簽署聯(lián)名信提出人工智能發(fā)展將給人類文明帶來風(fēng)險(xiǎn)時(shí),楊立昆曾公開反駁,認(rèn)為人工智能尚未發(fā)展到給人類構(gòu)成嚴(yán)重威脅的程度。演講中,楊立昆再次強(qiáng)調(diào)人工智能是可控的,他表示,“恐懼是由對(duì)潛在負(fù)面結(jié)果的預(yù)期引起的,而興高采烈是由對(duì)積極結(jié)果的預(yù)測(cè)產(chǎn)生的,像這樣由目標(biāo)驅(qū)動(dòng)的系統(tǒng),我將之稱為‘目標(biāo)驅(qū)動(dòng)的人工智能’,它會(huì)是可控的,因?yàn)槲覀兛梢酝ㄟ^成本函數(shù)為它設(shè)定目標(biāo),確保這些系統(tǒng)不會(huì)想要接管世界,相反,它會(huì)屈從于人類和安全。”
楊立昆表示,人工智能距離人類和動(dòng)物的能力差距在于邏輯推理和規(guī)劃,這是智能的重要特征,現(xiàn)在的大模型只能“本能反應(yīng)”。
“如果你用一萬億或兩萬億個(gè)token來訓(xùn)練它們,機(jī)器的性能是驚人的,但最終機(jī)器會(huì)犯事實(shí)錯(cuò)誤、邏輯錯(cuò)誤,它們的推理能力是有限的。”
楊立昆強(qiáng)調(diào),基于自我監(jiān)督的語言模型無法獲得關(guān)于真實(shí)世界的知識(shí)。他認(rèn)為,與人類和動(dòng)物相比,機(jī)器的學(xué)習(xí)能力并不是很好。幾十年來,研發(fā)系統(tǒng)的方式都是在用監(jiān)督學(xué)習(xí),但監(jiān)督學(xué)習(xí)需要太多標(biāo)簽,學(xué)習(xí)任何東西都需要進(jìn)行大量的嘗試,強(qiáng)化學(xué)習(xí)的結(jié)果卻不盡人意,這些系統(tǒng)是脆弱的,會(huì)犯愚鈍和錯(cuò)誤,且并不會(huì)真正地推理和計(jì)劃。
“就像我們?cè)谘葜v時(shí),如何從一個(gè)觀點(diǎn)表達(dá)到另一個(gè)觀點(diǎn),怎么解釋事物,大腦里是有計(jì)劃的,而不是一字一句的即興發(fā)揮。也許在低層次上,我們?cè)诩磁d發(fā)揮,但在高層次上,我們一定是在規(guī)劃。所以規(guī)劃的必要性是非常明顯的。我的預(yù)測(cè)是,在相對(duì)短的幾年內(nèi),理智的人肯定不會(huì)再使用自回歸元素(自監(jiān)督學(xué)習(xí)方法中的模型之一)。這些系統(tǒng)將很快被放棄,因?yàn)樗鼈兪菬o法修復(fù)的。”
他表示,為了讓語言模型真正理解真實(shí)世界的知識(shí),需要一個(gè)新的架構(gòu)來取代,而這個(gè)架構(gòu)就是他在一年前所發(fā)表的論文中提出的架構(gòu),“自主智能(Autonomous Intelligence)”。這是由一個(gè)配置模塊控制整個(gè)系統(tǒng),基于輸入信息,進(jìn)行預(yù)測(cè)、推理、決策的架構(gòu)。其中的“世界模塊”具備估計(jì)缺失信息、預(yù)測(cè)未來外界狀態(tài)的能力。
談及未來幾年AI將面臨的挑戰(zhàn),楊立昆指出三個(gè)方面,其一是學(xué)習(xí)世界的表征和預(yù)測(cè)模型;其二是學(xué)習(xí)推理,即學(xué)習(xí)如何有意識(shí)、有目的地運(yùn)用思維去完成任務(wù);最后一個(gè)挑戰(zhàn)是如何通過將復(fù)雜任務(wù)分解成簡單任務(wù),以分層的方式運(yùn)行來規(guī)劃復(fù)雜的行動(dòng)序列。
談到這里,楊立昆介紹了他發(fā)表在論文中的另一個(gè)模型“世界模型(World Model)”,該模型可以想象一個(gè)場景,并根據(jù)場景預(yù)測(cè)行動(dòng)結(jié)果。目的是找出一系列根據(jù)其自己的世界模型預(yù)測(cè)的行動(dòng),并最小化一系列成本的行動(dòng)序列。
當(dāng)楊立昆在提問環(huán)節(jié)被問及有關(guān)即將參加的一場關(guān)于AGI的地位和未來的辯論時(shí),他表示這場辯論將圍繞一個(gè)問題展開,即人工智能系統(tǒng)是否會(huì)對(duì)人類構(gòu)成生存風(fēng)險(xiǎn)。Max Tegmark 和 Yoshua Bengio 將站在“會(huì)”的一邊,認(rèn)為強(qiáng)大的 AI 系統(tǒng)可能對(duì)人類構(gòu)成存在風(fēng)險(xiǎn)。而楊立昆和 Melanie Mitchell 將站在“不”的一邊。
“我們的觀點(diǎn)不是說沒有風(fēng)險(xiǎn),而是說這些風(fēng)險(xiǎn)雖然存在,但很容易通過精心設(shè)計(jì)來減輕或抑制。”
楊立昆認(rèn)為,超智能系統(tǒng)尚未被研發(fā)出來,待其被發(fā)明出后,再討論“是否能使超智能系統(tǒng)對(duì)人類安全”也來得及。
責(zé)任編輯: