【編者按】作為圖靈獎得主和 Meta 首席 AI 科學家,楊立昆(Yann LeCun)是 AI 技術(shù)最有力的捍衛(wèi)者之一。
當他的前合作者 Geoffrey Hinton和 Yoshua Bengio 宣稱 AI 滅絕論時,LeCun 并沒有參與。相反,他簽署了一封公開信,呼吁擁抱開源 AI,并稱 AI不應由少數(shù)幾家企業(yè)控制。
那么,AI 到底是會給人類帶來毀滅性災難,還是會加速推動人類社會的發(fā)展?這也是自 ChatGPT 問世一年多以來,業(yè)內(nèi)早已存在的兩種對抗聲音。
近日,LeCun 接受了美國數(shù)字媒體 WIRED 的訪談,就上述問題做出了回答。核心觀點如下:
AI 將在一定程度上實現(xiàn)創(chuàng)造力的民主化,它們可以寫出非常流暢的文字,這些文字具有非常棒的風格,但它們也很無聊,因為它們想出的東西可能完全是假的。
從長遠來看,未來人類與數(shù)字世界的所有互動,以及在某種程度上,人類彼此之間的互動,都將以 AI 系統(tǒng)為媒介。
AI 必須是開源的,因為當平臺成為通信結(jié)構(gòu)的重要組成部分時,我們需要一個共同的基礎設施。
Yann LeCun 認為,自己不屬于“加速主義”或“滅論絕”中的任何一個思想流派,他并不喜歡這些標簽。
Yann LeCun 并不認可 AGI,因為根本不存在通用智能。智能不是一種可以測量的線性事物,不同類型的智能實體擁有不同的技能。
在 AI 系統(tǒng)中設定目標是確保其可控性和安全性的唯一途徑,并將其稱之為目標驅(qū)動型AI,這是一種全新的架構(gòu),目前我們尚未見到任何范例。
Yann LeCun 認為,研究界已經(jīng)不太關心 OpenAI 了,因為他們沒有發(fā)表論文,也沒有透露他們在做什么。我的一些前同事和學生在 OpenAI 工作,我們?yōu)樗麄兏械诫y過,因為 OpenAI 出現(xiàn)了不穩(wěn)定因素。
學術(shù)頭條在不改變原文大意的情況下,做了精心的編譯,內(nèi)容如下:
不要對 Yann LeCun 講一些末日論。作為現(xiàn)代 AI 的先驅(qū)和 Meta 首席 AI 科學家,LeCun 是這項技術(shù)最有力的捍衛(wèi)者之一。他對同行們所描繪的錯誤信息甚至導致人類滅絕的烏托邦式場景嗤之以鼻。他經(jīng)常在 X 上發(fā)推斥責那些制造恐懼的人們。當他的前合作者 Geoffrey Hinton 和 Yoshua Bengio 將他們的名字放在一份聲明的首位,稱 AI 是一種“社會級別的風險”時,LeCun 沒有參與。相反,他簽署了一封致美國總統(tǒng) Joe Biden 的公開信,呼吁擁抱開源 AI,并稱 AI 不應由少數(shù)幾家企業(yè)控制。
LeCun 的觀點很重要。他與 Hinton 和 Bengio 一起,幫助創(chuàng)建了對 AI 水平提升至關重要的深度學習方法,三人也因此獲得了計算機領域的最高榮譽——圖靈獎。2013 年,Meta(當時的 Facebook)聘請他擔任了 FAIR 的創(chuàng)始主任。另外,他還是紐約大學教授。最近,他幫助說服首席執(zhí)行官 Mark Zuckerberg 與世界分享 Meta 的一些 AI 技術(shù)。今年夏天,Meta 推出了一款名為 “Llama 2” 的開源大型語言模型(LLMs),與 OpenAI、微軟和谷歌競爭。一些批評者警告稱,這種開源策略可能會讓不法分子通過修改代碼繞過對 LLMs 輸出中有害內(nèi)容的防護措施。做為 AI 領域最杰出的人物之一,LeCun 認為人類可以解決這個問題。
今年秋天,我和 LeCun 在紐約 Meta Midtown 辦公室的一間會議室里進行了交談。我們談到了開源、為什么他認為 AI 的危險性被夸大了,以及計算機是否能像 Charlie Parker 的薩克斯獨奏那樣打動人心。(LeCun 在巴黎郊外長大,經(jīng)常出入紐約的爵士俱樂部)。12 月,當 LeCun 出席 NeurIPS 會議時,我們又進行了一次對話??紤]到篇幅和清晰度,我們對訪談內(nèi)容進行了編輯。
Steven Levy:在最近的一次演講中,你說“機器學習糟透了”。為什么像你這樣的 AI 先驅(qū)會這么說?
Yann LeCun:機器學習很棒。但那種認為我們只需要擴大現(xiàn)有技術(shù)的規(guī)模,就能實現(xiàn)具有人類水平的 AI 的想法呢?要讓機器像人類和動物一樣高效學習,我們還缺少一些重要的東西,但我們還不知道那是什么。
我不想抨擊這些系統(tǒng),也不想說它們一無是處,我在整個職業(yè)生涯中,就一直專注于這些。但是,我們必須抑制某些人的興奮,他們認為我們只需要擴大規(guī)模,就能很快獲得人類智能。絕對不是這樣的。
你認為你有責任揭露這些事情。
沒錯。AI 將為世界帶來許多好處,但一些人正通過人們對這項技術(shù)的恐懼來濫用它。我們必須警惕,以免讓人們望而卻步。這也是我們在其他革新世界的技術(shù)上犯下的錯誤。就拿 15 世紀印刷術(shù)的發(fā)明來說,天主教會憎恨它,對嗎?人們可以自己閱讀《圣經(jīng)》,而不用向牧師請教。幾乎所有權(quán)力者都反對廣泛使用印刷術(shù),因為這會改變權(quán)力結(jié)構(gòu)。他們是對的,這造成了長達 200 年的宗教沖突。但它也帶來了啟蒙運動。[注:歷史學家可能會指出,教會實際上利用印刷術(shù)達到了自己的目的,但不管怎樣,LeCun 是這樣想的。]
為什么如此多的科技界知名人士都在敲響 AI 的警鐘?
有些人在尋求關注,有些人沒有看清當今的真實情況。他們沒有意識到,AI 實際上可以減少仇恨言論和錯誤信息。在 Meta,我們利用 AI 在這方面取得了巨大的進步。五年前,在我們從平臺上刪除的所有仇恨言論中,大約有 20% 到 25% 是 AI 系統(tǒng)在任何人看到之前刪除的。去年,這一比例達到了 95%。
你如何看待聊天機器人?它們是否強大到足以取代人類的工作?
他們太棒了,人們已經(jīng)在這方面取得了巨大的進步。它們將在一定程度上實現(xiàn)創(chuàng)造力的民主化,它們可以寫出非常流暢的文字,這些文字具有非常棒的風格,但它們也很無聊,因為它們想出的東西可能完全是假的。
Meta 似乎一心想要開發(fā)這些技術(shù),并將其應用到產(chǎn)品中。
從長遠來看,未來我們與數(shù)字世界的所有互動,以及在某種程度上,我們彼此之間的互動,都將以 AI 系統(tǒng)為媒介。我們必須嘗試那些現(xiàn)在還沒有強大到足以做到這一點,但即將實現(xiàn)這一點的東西,或者在日常生活中幫助人類創(chuàng)造東西,無論是文字還是實時翻譯,諸如此類,也可能是在元宇宙中。
在 Meta,Mark 如何推進 AI 方面的工作?
Mark 非常投入。今年年初,我與他進行了一次討論,并把我剛才告訴你的那些內(nèi)容告訴了他,未來我們所有的互動都將以 AI 為媒介。ChatGPT 向我們展示了 AI 對新產(chǎn)品的作用,這比我們預想得要早。我們看到,公眾對 AI 功能的癡迷程度遠遠超出了我們的想象。因此,Mark 決定創(chuàng)建一個專注于生成式 AI 的產(chǎn)品部門。
Meta 為什么決定以開源的方式與他人共享 Llama 代碼?
當你擁有一個開放的平臺,許多人都能為之做出貢獻時,進步就會變得更快。最終開發(fā)出的系統(tǒng)會更安全,性能也會更好。想象一下,在未來,我們與數(shù)字世界的所有互動都將以 AI 系統(tǒng)為媒介。你不會希望 AI 系統(tǒng)被美國西海岸的少數(shù)公司所控制。也許美國人不在乎,也許美國政府不在乎。但我現(xiàn)在告訴你,在歐洲,他們不會喜歡的。他們會說:“好吧,這個能說正確的英語。但法語呢?德語呢?匈牙利語呢?荷蘭語或其他語言呢?你是怎么訓練它的?這如何反映我們的文化?”
這似乎是讓初創(chuàng)企業(yè)使用你的產(chǎn)品并擊敗競爭對手的好辦法。
我們不需要向任何人妥協(xié),這就是世界發(fā)展的方向。AI 必須是開源的,因為當平臺成為通信結(jié)構(gòu)的重要組成部分時,我們需要一個共同的基礎設施。
有一家公司不同意這種說法,那就是 OpenAI,而你似乎并不喜歡它。
剛開始時,他們設想創(chuàng)建一個非營利組織,從事 AI 研究,從而抗衡谷歌和 Meta 等主導行業(yè)研究的公司。我認為這是一個錯誤的想法,事實證明,我是對的。OpenAI 已經(jīng)不再開放(open)。Meta 一直是開放的,現(xiàn)在也是。我想說的第二件事是,除非你有辦法為 AI 研究提供資金,否則你很難開展實質(zhì)性的 AI 研究。最終,他們不得不成立一個營利機構(gòu),并從微軟那里獲得投資。所以,盡管 OpenAI 有一定的獨立性,但他們現(xiàn)在基本上就是微軟的合作研究機構(gòu)。第三點,那就是他們相信通用人工智能(AGI)指日可待,而且他們會比任何人都更早地開發(fā)出來,但他們做不到。
Sam Altman 被踢出了首席執(zhí)行官的職位,然后又回到了不同的董事會,你如何看待 OpenAI 的這一戲劇性事件?你認為這對研究界或行業(yè)有什么影響嗎?
我認為研究界已經(jīng)不太關心 OpenAI 了,因為他們沒有發(fā)表論文,也沒有透露他們在做什么。我的一些前同事和學生在 OpenAI 工作,我們?yōu)樗麄兏械诫y過,因為 OpenAI 出現(xiàn)了不穩(wěn)定因素。研究工作的發(fā)展離不開穩(wěn)定的環(huán)境,而一旦發(fā)生類似的戲劇性事件,人們就會變得猶豫不決。此外,對從事研究工作的人來說,另一個重要方面就是開放性,而 OpenAI 真的不再開放了。因此,從這個意義上說,OpenAI 已經(jīng)發(fā)生了變化,他們不再被視為研究界的貢獻者。這一切都掌握在開放平臺手中。
這一事件被稱為是 AI “加速主義”的勝利,而 “加速主義” 恰恰與 “滅絕論” 相反。我知道你不是一個“滅絕論支持者”,但你是一個 “加速主義者” 嗎?
不,我不喜歡這些標簽。我不屬于任何一個思想流派。我非常謹慎,不會把這類思想推向極端,因為太容易陷入完全循環(huán),從而做出愚蠢的事情。
歐盟最近發(fā)布了一套 AI 法規(guī),其中有一條就是在很大程度上豁免了開源模型。這將對 Meta 和其他公司產(chǎn)生哪些影響?
這在一定程度上影響到了 Meta,但我們有足夠的實力來遵守任何法規(guī)。對于那些沒有自己的資源從頭開始構(gòu)建 AI 系統(tǒng)的國家來說,這一點要重要得多。他們可以依靠開源平臺,擁有符合其文化、語言和興趣的 AI 系統(tǒng)。在不遠的將來,我們與數(shù)字世界的絕大多數(shù)互動都將以 AI 系統(tǒng)為媒介。你不會希望這些東西被加利福尼亞的少數(shù)公司所控制。
你是否參與幫助監(jiān)管機構(gòu)得出這一結(jié)論?
我在與監(jiān)管機構(gòu)探討,但沒有直接和他們交談。我一直在與各國政府交流,尤其是法國政府,但也間接與其他國家的政府交流。基本上,他們不希望公民的數(shù)字消費被少數(shù)人控制,法國政府很早就接受了這一想法。不幸的是,我沒有和歐盟層面的人談過,他們更多受到末日預言的影響,希望對一切進行監(jiān)管,以防止他們認為可能發(fā)生的災難發(fā)生。但是,這遭到了法國、德國和意大利政府的反對,他們認為,歐盟必須為開源平臺做出特別的規(guī)定。
但是,開源 AI 真的難以控制和監(jiān)管嗎?
對于安全性非常重要的產(chǎn)品,已經(jīng)有相關的法規(guī)。比如,如果你要用 AI 來設計新藥,就已經(jīng)有法規(guī)來確保這種產(chǎn)品是安全的。我認為這是有道理的。人們正在爭論的問題是,對 AI 的研發(fā)進行監(jiān)管是否合理。我認為沒有意義。
難道不會有人能利用大公司發(fā)布的復雜開源系統(tǒng)來占領世界嗎?只要獲得源代碼和權(quán)重,恐怖分子或騙子就能為 AI 系統(tǒng)提供破壞性能力。
他們需要在某個隱蔽的地方獲得 2000 個 GPU,需要足夠的資金和人才來完成這項工作。
我認為,他們最終會想出如何制造自己的 AI 芯片。
沒錯,但它會比先進技術(shù)落后幾年實現(xiàn)。這就是在世界歷史中,每當科技進步的時候,你都無法阻止壞人獲取它,然后就是善意 AI 對抗邪惡 AI。保持領先的方法就是加快進步,實現(xiàn)更快進步的方法是開放研究,讓更多人參與其中。
如何定義 AGI?
我不喜歡 AGI 這個詞,因為根本不存在通用智能。智能不是一種可以測量的線性事物,不同類型的智能實體擁有不同的技能。
一旦讓計算機達到人類的智能水平,它們就不會止步于此。憑借豐富的知識、機器級的數(shù)學能力和更好的算法,它們會創(chuàng)造出超級智能,對嗎?
是的,毫無疑問,機器最終會比人類更聰明。我們不知道這需要多長時間,可能是幾年,也可能是幾個世紀。
到那時,我們就得束手就擒嗎?
不是。我們都將擁 AI 助手,就像與一群超級聰明的員工一起工作一樣,只是它們不是人而已。人類會因此受到威脅,但我認為我們應該感到興奮。最讓我興奮的是與比我更聰明的人一起工作,因為這會擴展你自己的能力。
但是,如果計算機獲得超級智能,它們?yōu)槭裁催€需要我們呢?
我們沒有理由相信,AI 系統(tǒng)一旦變得智能,就會想替代人類。如果人們認為 AI 系統(tǒng)會有和人類一樣的動機,那就大錯特錯了。它們不會,因為我們會在設計中進行設定。
來源:圖蟲創(chuàng)意
如果人類沒有建立這些目標,而超級智能系統(tǒng)一心追求某個目標,最終傷害了人類呢?就像哲學家 Nick Bostrom 所舉的例子:一個被設計為無論如何都要制造回形針的系統(tǒng),為了制造更多的回形針而占領了整個世界。
如果只是建立系統(tǒng)而忽略了防護措施,那就顯得太愚蠢了。這就好比制造一輛搭載了 1000 馬力發(fā)動機卻沒有剎車系統(tǒng)的汽車。在 AI 系統(tǒng)中設定目標是確保其可控性和安全性的唯一途徑,我將其稱之為目標驅(qū)動型 AI。這是一種全新的架構(gòu),目前我們尚未見到任何范例。
這就是你現(xiàn)在的工作嗎?
是的,我們的想法是,機器有它需要滿足的目標,它不能產(chǎn)生任何不符合這些目標的東西。這些目標可能包括防止危險發(fā)生的防護措施或其他東西,這就是讓 AI 系統(tǒng)安全的方法。
你認為你會為你所促成的 AI 的后果而后悔嗎?
如果我認為是這樣的話,我就不會再這么做了。
你是一個爵士樂迷。AI 產(chǎn)生的任何東西能否與迄今為止只有人類才能產(chǎn)生的令人興奮的創(chuàng)造力相媲美?它能創(chuàng)造出有靈魂的作品嗎?
答案很復雜。是的,AI 系統(tǒng)最終將能創(chuàng)作出音樂、視覺藝術(shù)或其他作品,其技術(shù)質(zhì)量與人類相似,甚至更勝一籌。但是,AI 系統(tǒng)并不具備創(chuàng)作即興音樂的能力,因為即興音樂依賴于人類的情緒和情感交流。AI 至少現(xiàn)在還沒有這種能力,這就是爵士樂需要現(xiàn)場聆聽的原因。
你還沒回答我這種音樂是否有靈魂。
你已經(jīng)有了完全沒有靈魂的音樂。這種音樂可以在餐廳里播放的背景音樂中聽到,主要由機器生產(chǎn),這就是市場。
但我說的是藝術(shù)的頂峰。如果我放給你聽的是 Charlie Parker 最好的錄音,然后告訴你這是 AI 生成的,你會不會覺得被騙了?
是,也不是。是的,因為音樂不僅僅是一種聽覺體驗,其中很多是文化體驗,這是對表演者的欽佩。你的例子就像 Milli Vanilli,真實是藝術(shù)體驗的重要組成部分。
如果 AI 系統(tǒng)足以與精英藝術(shù)成就相媲美,而你又不知道其背后的故事,那么市場上就會充斥著 Charlie Parker 級別的音樂,而我們卻無法分辨其中的差別。
我認為這沒有任何問題。我還是會買原版,就像我還是會買一個價值 300 美元的手工碗,雖然我花 5 美元就能買到一個看起來差不多的東西,但它還是來自一個有著數(shù)百年文化的地方。我們?nèi)匀粫ガF(xiàn)場聆聽我最喜歡的爵士音樂家的演奏,盡管他們可以被模仿。AI 系統(tǒng)的體驗是不一樣的。
你最近從馬克龍總統(tǒng)那里獲得了一項榮譽,我無法讀出這些法語......
法國榮譽軍團騎士(Chevalier de la Légion d'honneur)。它是由拿破侖創(chuàng)立的。它有點類似于英國的爵士頭銜,不過我們有一場革命,所以我們不稱呼人們?yōu)椤熬羰俊薄?/p>
有武器裝備嗎?
不,他們沒有劍之類的東西。但是,擁有這種武器的人可以在衣襟上佩戴紅色小條紋。
AI 模型能贏得這一獎項嗎?
不會很快,反正我覺得這不是個好主意。
原文作者:Steven Levy
原文鏈接:https://www.wired.com/story/artificial-intelligence-meta-yann-lecun-interview/
編譯:閆一米