未來超級智能很容易操縱人類,要避免“養(yǎng)虎為患”
關(guān)鍵詞: 杰弗里·辛頓 世界人工智能大會 AI與人類相處 大模型 技術(shù)控制權(quán)
每經(jīng)記者 朱成祥 每經(jīng)編輯 董興生
他是深度學習三巨頭之一,他被尊為“AI教父”,他是諾貝爾獎、圖靈獎得主,他是杰弗里·辛頓。盡管因為身體原因無法久坐,但他仍不遠萬里來訪中國。
7月26日,2025世界人工智能大會暨人工智能全球治理高級別會議(WAIC 2025)在上海拉開帷幕。辛頓,正是此次WAIC的重量級嘉賓,這也是他首次踏足中國。
在大語言模型快速發(fā)展的當下,辛頓發(fā)出了他的警告:未來超級智能將很容易操縱人類,人類要避免“養(yǎng)虎為患”。
人類將如何與AI相處?
在7月26日的主旨演講中,辛頓首先闡述了大模型的理論起源。辛頓認為,在過去60多年里,AI(人工智能)發(fā)展存在兩種不同的范式和路徑。一種是邏輯性范式,認為智能的本質(zhì)在于推理;另一種是以生物為基礎(chǔ)的范式,認為智能的基礎(chǔ)是學習,理解是前提,之后才能轉(zhuǎn)化。
1985年,辛頓做了一個小型模型,嘗試結(jié)合這兩種理論,以此理解人們對詞語的理解方式。辛頓認為,當下的大語言模型,就是其當年小型模型的“后代”。
關(guān)于大模型領(lǐng)域普遍遭受詬病的幻覺問題,辛頓提出了他的看法:“我認為,人類理解語言的方式與大語言模型幾乎一致,人類甚至可能和大語言模型一樣產(chǎn)生幻覺,因為我們也會創(chuàng)造出一些虛構(gòu)的表達。”
關(guān)于人腦與大模型,辛頓認為,人腦是一個模擬模型,是低功耗的,但這種模擬模型進行知識轉(zhuǎn)移卻是低效的,一個人很難將自己腦子里的知識展示給另一個人。
大模型是如何完成知識遷移的?是蒸餾。辛頓表示,DeepSeek(深度求索)的做法是將大神經(jīng)網(wǎng)絡(luò)的知識轉(zhuǎn)移到小神經(jīng)網(wǎng)絡(luò)中,即“蒸餾”,類似教師與學生的關(guān)系——教師將詞語在上下文中的關(guān)聯(lián)教給學生,學生通過調(diào)整權(quán)重學會表達。
不過,人類之間溝通的效率很低。辛頓稱,一句話通常只有100比特的信息,即使完成理解,每秒最多傳遞100比特。相比之下,數(shù)字智能間的知識轉(zhuǎn)移效率極高。
一言以蔽之:生物計算功耗低,但知識分享難。
生物計算與數(shù)字智能之間的差距,也令辛頓感到擔憂。他表示,“我們創(chuàng)造的AI智能體已能幫我們完成任務(wù),它們能拷貝自身、評估子目標,還會為了生存和完成目標而尋求更多控制權(quán)。有人認為,可以在AI變得過強時關(guān)掉它們,但這并不現(xiàn)實。它們可能會像成年人操縱3歲孩子一樣操縱人類,勸說控制機器的人不要關(guān)閉它們。這就像把老虎當寵物,幼虎很可愛,但長大后可能傷人,而養(yǎng)老虎當寵物通常不是好主意?!?/p>
那么,人類又將如何與AI相處?辛頓稱,“AI已無法消除,它能大幅提升幾乎所有行業(yè)的效率,即便有國家想消除,其他國家也不會認同?!?/p>
因此,辛頓呼吁全球建立由各國人工智能安全研究所與國內(nèi)研究網(wǎng)絡(luò)組成的國際社群,培養(yǎng)不會從人類手中奪權(quán)的“好AI”。
維護人類對技術(shù)的控制權(quán)
參加此次世界人工智能大會的,不僅有辛頓這樣的“AI教父”,也有前谷歌CEO埃里克·施密特這樣的企業(yè)界大咖。
在大會開幕式上,前微軟執(zhí)行副總裁沈向洋與施密特展開了一場關(guān)于人工智能發(fā)展的多維對話。
與辛頓類似,施密特也強調(diào)人的尊嚴何以存續(xù),迫切需要全球的溝通、合作,共同維護人類對技術(shù)的控制權(quán)。
施密特表示,“我對接下來的兩年充滿期待,隨著智能體革命的到來,每個企業(yè)的工作流都將發(fā)生巨大變化。但是,當AI開始自我學習并做出決策時,我們需要確保這些過程不會失控。”
他補充表示,“這是人類共同面臨的問題,任何國家都要坐下來一起談判、合作。我相信,中美可以通過對話加強互信,共同迎接AI帶來的機遇與挑戰(zhàn),特別是在防止AI負面影響方面進行協(xié)作?!?/p>
