玉林实硕医疗科技有限公司

“AI教父”Geoffrey Hinton:AI會欺騙人類,控制超級智能非常重要

6月10日,被譽為“深度學習教父”的Geoffrey Hinton以視頻連線的方式現身于中國北京舉辦的2023智源人工智能大會,談及了如何可以在未來節省算力,人類未來應該如何控制人工智能等內容。

演講主要內容:


【資料圖】

人工神經網絡很快會比真正的神經網絡更強大嗎?會,且很快會發生。

算力成為了AI發展的阻礙,"activity perturbation"的算法可以用于訓練神經網絡,且節省算力。

超級智能控制問題非常重要,希望年輕一代的研究人員能夠找到解決方案,使超級智可以為人類帶來更好的生活同時又不會剝奪人類的控制權。

AI會欺騙人類,且發現操縱人來獲得更多的權力很容易。x

以下為演講全文:

我想談兩個問題,大部分篇幅將集中在第一個問題上,那就是——人工神經網絡很快會比真正的神經網絡更強大嗎?就像我說的,這可能很快就會發生。

接著我也將談談我們是否可以控制超級智能AI。

現在AI發展的最大壁壘是算力問題,算力遠遠不夠不夠?,F在可以放棄計算機科學最基本的原則,那就是軟件應該與硬件分開。

在我們放棄它之前,讓我們先看看為什么它是一個很好的原則。由于這種可分離性,我們可以在不同的硬件上運行相同的程序。我們還可以擔心程序的屬性,并在神經網絡上研究程序的屬性,而不必擔心電子學。這就是為什么您可以擁有與額外的工程部門不同的計算機科學部門的原因。

當我們真的放棄了軟件和硬件的分離的原則,我將提到一種稱為"activity perturbation"的算法,該算法可以用于訓練神經網絡,且節省算力。

這種算法能夠預估梯度,且噪聲要比傳統的反向傳播算法(RNN)小得多。

如何將這種算法應用于訓練大型神經網絡的問題,我有一種解決方案——即將大型神經網絡分成許多小組,并為每個小組分配一個局部目標函數。

然后,可以使用"activity perturbation"算法來訓練每個小組,并將它們組合在一起形成一個大型神經網絡,并通過無監督學習模型來生成這些局部目標函數。

當硬件出現問題時,信息都會丟失,父類信息傳遞給子類信息,以便在硬件出現問題時仍然可以保留學習到的信息,更有效地約束神經網絡的權重。

"distillation"這一方法可以讓子模型更好地學習到分類圖像的信息,包括如何給出正確的答案以及給出錯誤答案的概率。"distillation"方法還有一個特殊屬性,即訓練子模型的同時也在訓練子模型的通用化能力。

如果你看一下特朗普的推文運作方式,人們感到非常沮喪,因為他們認為特朗普所說的是虛假的話。他們認為他試圖描述的是實際情況,但實際上這些情況并沒有發生。特朗普所做的是根據一種情況作出回應,并引發了情緒化的回應。這使得他的追隨者能夠接受這種情況,并在他們的認知中調整權重。

因此,他們對這種情況做出類似的情感反應,而與事實無關。然而,這種策略產生了很好的效果。

通過共享梯度或共享權重,可以更高效地共享學習到的信息,但是使用數字模型進行權重共享非常耗費算力,因為需要制造和運行的成本都很高。

因此,"distillation"成為一種更好的選擇,可以在生物模型中使用,以共享知識。

這就是這些大型語言模型向人們學習的方式。所以每個副本通過蒸餾學習效率很低。但是您有成千上萬的副本,這就是為什么他們可以比我們學習數千倍的原因。因此,我的信念是,這些大型語言模型比任何個人知道的要多數千倍。

現在,問題是——會發生什么,如果這些AI不是非常緩慢地向我們學習,而是直接從現實世界中學習。我應該說,盡管他們向我們學習時分布緩慢,但他們正在學習非常抽象的東西。因此,在過去的幾千年中,人類學到了很多關于世界的東西,這些數字智能現在正在從中獲利。

我們可以用語言表達我們學到的東西。因此,他們可以捕捉人類在過去幾千年中了解到的關于世界的一切,并將其放入文檔中,但是每個數字化的帶寬仍然非常慢,非常低,因為他們正在從文檔中學習,如果他們可以通過建模視頻來學習。

例如,如果我們一旦找到一種有效的方法來訓練這些模型來模擬視頻,他們將能夠從YouTube上學習,這是大量的數據,如果他們能夠操縱物理世界,這也將有所幫助。所以如果他們有機器人手臂等等。但是我的信念是,一旦這些數字代理開始這樣做,他們將能夠比人們學到更多的東西,并且他們將能夠很快地學習它,所以這使我想到了我在開始時提到的另一點。

如果這些東西變得比我們更聰明,就會發生什么。所以,很明顯,這就是這次會議的主要內容,但是。我的主要貢獻只是說,我認為這些超級智能發生的速度可能比我以前想象的要快得多——美國或許多其他地方正使用它們來贏得戰爭。

如果你想說超級智能,更有效率。您需要允許它創建子類?;蚨嗷蛏倌愣紩胍揽緼I獲得更多的力量,獲得更多的控制權,擁有的控制權越多,就越容易實現目標。我發現很難看到我們將如何阻止AI試圖獲得更多控制權,以實現他們的其他目標。所以。一旦他們開始這么做,我們就會有問題了。

它會發現通過操縱人來獲得更多的權力很容易。

我們不習慣思考超出我們智力范圍的事情,以及我們將如何與他們互動。但是在我看來,很明顯,它會學會非常善于欺騙別人。因為通過看到我們接待其他人的所有示例,它將有很多實踐。

在小說和馬基雅維利的作品中。一旦你非常擅長欺騙別人,你就可以讓人們真正執行你喜歡的任何動作。因此,例如,如果您想入侵華盛頓州的建筑物,則無需前往那里。您只是欺騙人們以為他們通過入侵建筑物來拯救民主。

我覺得這很可怕,現在。我看不出如何防止這種情況的發生。但是我老了。我希望像你這樣的,年輕而才華橫溢的研究人員會弄清楚我們如何擁有超級智能,這將使我們的生活變得更好,而無需他們控制。

AI能目前主要是通過從文檔中學習來獲取人類學習的知識,但這種方式非常低效。如果它們能夠通過建模視頻等方式進行無監督學習,就能夠從大量數據中學習,從而獲取更多的知識。

此外,如果AI能夠操作物理世界,例如使用機器人手臂等,也將有助于它們更快地學習。同時AI能體變得比人類更聰明的可能性,以及它們可能被用于惡意行為,如控制電子或贏得戰爭。最后,為了讓超級智能體更高效,需要允許它們創建子目標,但這可能會帶來風險。

因為我不知道更聰明的東西被不太聰明的東西控制的任何例子。當智力差距很大時,我想到的例子是,如果青蛙擁有了智能,那么誰將掌握控制權的問題。

風險提示及免責條款 市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務狀況或需要。用戶應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。

關鍵詞: