“圖靈獎得主”姚期智對談Stuart Russell:不應該假設機器是公正的,機器可能會試圖改變人類的行為 環球快報
(資料圖片僅供參考)
6月10日,在2023北京智源大會上,圖靈獎得主、中國科學院院士姚期智與加州伯克利分校教授Stuart Russell在AI安全與對齊專題論壇進行了專家對談。
姚期智認為,在考慮如何控制AI的問題前,人類需要先真正解決自身的問題。對于AI技術,當前正是一個重要窗口。在AGI被創造之前、在軍備競賽開展之前,我們急需形成共識,共同合作搭建一個AI治理結構。
“我們應該如何阻止人類生產強大的AI機器,以免以犧牲他人為代價來實現他們的個人目標?”在對談中,姚期智表示,“我們不應該假設機器是公正的,機器可能會試圖改變人類的行為,更準確來說,可能是機器的所有者想要改變其他人的行為,而這種意圖隱藏在某些復雜程序背后?!?/strong>
加州伯克利分校教授Stuart Russell在會上表示,通用人工智能(AGI)還沒達到,大語言模型只是其中一塊拼圖,我們連拼圖最終會是什么樣子,缺哪些還不確定。
他表示,ChatGPT和GPT-4沒有在“回答”問題,它們不理解世界。
Russell認為,人工智能應該是一門科學,在某種意義上,我們理解我們構建的結構如何與我們想要它們擁有的屬性相關聯。就像我們制造飛機一樣,飛機有物理形狀和發動機等等。我們可以展示這與我們想要的屬性之間的關系,那就是留在空氣中:
目前,特別是大型語言模型領域,并不是一門這樣的科學。我們不知道它為什么會帶來財產。它存在我們甚至不知道它有什么屬性。我們當然不能將這些與內部發生的事情聯系起來,因為我們不了解內部發生的事情。因此從這個意義上說,人工智能是一門更深層次的科學。
Russell指出,最重要的擔憂來自于科技公司之間似乎不受約束的競爭,他們已經表示不會停止開發越來越強大的系統,無論風險如何。人類可能會失去對世界和我們自己未來的控制,就像大猩猩因為人類而失去了對自己未來的控制一樣。
風險提示及免責條款 市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務狀況或需要。用戶應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。關鍵詞: