對話科學家曾毅:中國大模型水平不及GPT-4,我為何簽名支持暫停巨型AI研發?
2023年3月29日,非營利組織未來生命研究所(Future of Life)發表一封公開信,呼吁暫停研發比GPT-4更強大的人工智能系統至少6個月,包括特斯拉CEO馬斯克、Stability AI的首席執行官莫斯塔克(Emad Mostaque)等在內的1000多名該領域的專家、科技人員、產業高層都在這封公開信上簽了名,在這封信上, 我們也看到了一位中國科學家的名字—曾毅(中國科學院自動化研究所人工智能倫理與治理中心主任)。
(相關資料圖)
這封公開信,雖無法律效力,但是引起了公眾對人工智能治理的問題的空前關注,我們特別找到曾毅主任,問他是否方便談一下為何在這封公開信上簽名。他回復得很果斷:“肯定可以說,而且要說清楚?!痹趯υ捴?,我們也向他提了一個比較尖銳的問題:“AI領域的技術研發落后是更可怕,還是繼續研發人工智能帶來的潛在風險更可怕?”曾毅的觀點很明確:“用一種競爭的視角來分析這個問題的時候就會使人不理性,中國目前的水平還沒達到GPT-4,我贊同的是發展信息處理能力接近GPT-4的大模型,但是在倫理安全治理方面的規制與思考要遠遠超越GPT-4這樣的大模型的研發。”
在與曾毅的對話中,我們還請教了以下問題:
①如果用暫停六個月換取時間窗口,我們最急需解決人工智能帶來的哪些負面影響?
②大模型的技術原理并沒有被完全弄清楚,就被大規模推向普通用戶,這是不是一種不負責任的做法?
③用大量數據“投喂”的訓練方法,是否真的能讓人工智能產生意識?
④通過了圖靈測試,就意味著人工智能擁有了“人類智能”嗎?
⑤國內大模型在兩三個月內“扎堆推出”,有哪些潛在風險?
⑥應對人工智能時代的到來,孩子們應該從小就開始學習人工智能課程嗎?
以下為對話內容:
暫停超過GPT-4水平的巨型人工智能研發很有必要
騰訊科技:您在暫停超過GPT-4水平的巨型人工智能研發公開信上簽了名,是在公開信公布之前,就已經收到了邀約嗎?
曾毅:在這個信發起之前,確實是通過了不同的渠道在向我們發出邀請。但是我真正簽字也是在它發布之后。
我之所以支持這樣一個倡議確實是基于我對現在人工智能的大模型快速地介入到社會服務當中的擔憂。因為在GPT3.5的時候,它的隱患就已經顯現了。到了GPT4發布的時候,它的能力不限于文本的交互,已經到了多模態的內容生成,曝露出來的風險會更多。
GPT系列跟以前的人工智能的發展模式非常不一樣。以前的人工智能,比如我做一個人臉識別的系統,人臉的信息是什么樣的,輸出可能有多少類?其實相對來說都是可預期的。但是現在GPT的數據是互聯網的數據,這些數據中包含“誰說過什么”都不可預期,另外一端誰去問什么問題也不可預期。問了問題之后,ChatGPT的反饋是什么樣的,更不清楚。這樣一來,就至少有三重不確定性,使得未來人工智能在服務于人類社會的時候,一旦它存在潛在的風險,它將以什么樣的模式和速度去放大?這個真是非常難以預期的。
可以說它在帶給我們超級能力的同時,帶給我們的風險也是巨大的。所以就像公開信中提到的,我們準備好了讓這樣的技術替代我們原本很滿意的工作嗎?我們準備好讓這種文本生成的技術去干擾甚至替代人類的文明嗎?還有對于技術的安全倫理道德方面是不是讓它做好了準備,去服務于這么廣泛的用戶?公開信中提到的一系列的問題,沒有一個問題我們做好了準備,但是它的大規模的應用已經開始了。
所以那個時候大家說中國應不應該做?我說這個問題不用討論,中國很快就會出來。要擔心的問題是一個地方會有幾套大模型出來。我們現在這個現狀就是這樣的。大學里可能有兩三套大模型都是基礎模型,科研院所甚至更多,產業更是數不勝數。倒是我從來沒有發現某一個人工智能企業說我絕對不做大模型。幾乎可以這樣說,人工智能企業現在都在布局大模型的研究。但是,很少有人說我們如何去防范這些風險。
這是那封公開信的意義和價值。正因為我們對于可能的潛在的風險還完全沒有準備好,但是已經開始過早、過于激進地嘗試,所以我覺得暫停6個月是必要的,先去解決潛在的風險,我們先好好地思考一下。
能力達到GPT4這個層次的大模型已經能夠滿足我們很多的需求,那么我們要不要先做基于不超越GPT-4這個能力的產業化的應用,然后同步地解決它潛在的問題?但是,比它性能再高等的人工智能的大模型是不是能先暫緩?我覺得這個既是這封信的初衷,也是我簽這封公開信的動機。
騰訊科技:是不是中國還沒到GPT-4的水平,我們可以先繼續?
曾毅:我認為是這樣的。目前中國沒有任何一個人工智能的大模型達到GPT-4的能力,所以我贊同的是發展信息處理能力接近GPT-4的大模型,但是在倫理安全治理方面的規制與思考遠遠超越GPT-4這樣的大模型的研發。
騰訊科技:那為什么是6個月?如果做這些準備,6個月夠嗎?
曾毅:我覺得6個月是一個倡議,6個月是一個可以嘗試的時段。能夠取得一定的效果一定比不做準備要強很多。但是,我們在6個月之內,我們是否能夠充分思考相關的風險,并做到防范?我覺得不是,這個是不夠的。
這封信當中也講了至少暫停6個月,盡可能地解決這個問題。最關鍵的是它里面提到了一個倡議,大家是不是能夠坐下來去開發公共的人工智能安全協議,倫理道德檢測的框架,以使得為未來做好準備。我覺得如果是6個月之內把我們潛在的倫理道德的問題解決了,也許可以嘗試構造這樣的安全協議檢測的框架,解決其中現有的絕大部分的問題,我覺得還是有希望的。
騰訊科技:如果這6個月內要解決這些您認為潛在的風險問題,哪類風險我們最需要先解決?這個有沒有一個產業界認可的框架?
曾毅:我覺得人工智能大模型它對于人類非常直接的傷害形態是顯而易見的。第一,人工智能大模型對于整個社會的沖擊最大的是對社會信任的沖擊?,F在你看的,眼見不為實,耳聽也不為實。什么信息當你看到的時候,你的第一反應就是這是真的嗎?這是人工智能生成的吧?你會有這樣的認知。所以,它對社會信任本身是一個極大的挑戰。就是如何去降低對社會信任的沖擊?我覺得這個是最嚴重的問題,它將改變幾代人。
另外,關乎到個人利益的部分風險要注意。既然大模型是基于互聯網數據,但是互聯網很多數據確實難免涉及個人隱私數據,如何避免對個人權利的侵犯?我覺得這是個很大的問題。你用別人的照片去做生成,有沒有經過別人的允許?你甚至拿已故的人的數據做一些生成,這對于家庭可能的影響,對于死者是不是尊重?這些已經變成非常緊迫的問題了。
另外就是人工智能生成的技術。我覺得最需要避免的問題就是混淆人與人工智能之間的邊界。比如說我能不能跟人工智能談戀愛?有些人說未來一代,也許可能不會聽老師說什么,不會聽家長說什么,而只會相信類ChatGPT的產品說了什么,什么問題都去問ChatGPT類似的產品。這樣的話,我會覺得問題就非常大了。
為什么?因為人類的價值觀、對于世界的理解,這種傳承應該是在人與人之間的,如果你混淆了人與人之間的邊界,你說ChatGPT也是一種觀點,甚至有些人說我做這個數字人,這是人的另外一種存在的形式。我覺得這些都是非常危險的觀點。為什么?首先人工智能現在沒有真正的自我,沒有自我的意識,你怎么能說它是一種人的存在形式?有些人說它是數字克隆,那對于人類的克隆,難道它只是把人類一些表征的特征克隆下來就是真正意義上的人類的克隆了嗎?我覺得這些都是在混淆人與人工智能之間的邊界。這是一個非常大的風險。
更關鍵的是,未來人與人工智能之間的這種交互可能對社會道德存在潛在的沖擊。我覺得這個也是非常危險的。我們要傳遞什么樣的價值觀給我們的下一代?比如我們以新聞媒體行業為例,之所以大家會去看記者寫的東西,我覺得兩件事情很重要:第一個是真實客觀;第二個就是媒體記者通過自己的職業素養,可以去傳遞他對社會的認知與分析。我覺得這些東西是人工智能無法替代的,因為人工智能現在還沒有真正的理解能力。
還有就是對于信息真實的程度的判斷,人都有基本的判斷力,會基于常識做更多的思考。但是對于機器來講就很難了。人工智能模型會認為互聯網上所說的事情99%是真的。
所以基于以上種種情況,我覺得人工智能技術每往前發展一步,它對于倫理安全方面的考慮也需要進一步。這個準備我覺得現在不是選擇題,而是必答題,每一個賦能社會的人工智能技術,都需要有倫理安全道德的框架的約束。
騰訊科技:除了用法律框架和治理框架來約束人工智能的發展,還有什么技術手段可以實現和人類真正意義上的價值對齊?
曾毅:我覺得構造看似智能信息處理工具(生成式AI)的這條發展道路它會繼續。但是,它不是唯一的道路。人工智能大模型未來的發展,有了倫理道德的約束、有了管理規定標準、甚至是法律,這些是不是就夠了?從技術落地的層次來講,肯定是不夠的。這些東西怎么技術化?怎么把它實現在人工智能的系統當中?這有不同的選擇。比如你現在可以和人工智能大模型去對話,這些隱含倫理道德風險的問題可以用評測的方式去評測它,讓它去回避可能會對人類產生負面影響的答案。
另一方面就是大模型本身。即使你用測評的方式、規則的方式限制它可能回答問題的類型或者是回答問題的方式,但這并不能證明大模型本身就理解了這個內容。它既然沒理解,你就很可能會繞過它防范的方式,使得它去回答你想讓它回答的一些問題?,F在這種嘗試很多。ChatGPT不能回答什么問題,道德上規定它不要回答哪些問題,大家就換其他的途徑去勾引它回答哪些問題。很多成功的例子。這就證明這種防范不是完全有效的。
所以說未來人工智能只有具備真正的道德的基礎,道德的直覺,具備道德推理的能力,真正理解為什么人類采用這樣的道德規范,而不是用規則灌輸給它,那它才能真正地實現我們說的有道德的人工智能。
我們現在希望人工智能秉持人類的道德規范,但是我們也要知道人類的道德規范也是在不斷地演化的。所以,人工智能作為人類的一面鏡子去演化,能夠幫助我們人類更好地看清我們人類的未來,所以,我不覺得只要滿足于人類道德的約束就是人工智能道德的終點。人與人工智能的希望達到的理想的共生狀態應當是人工智能的演化,也能幫助人類的進步,也使得人類的倫理道德的框架不斷地演進。
騰訊科技:回到這封公開信,您在國內也做了一個調查,您覺得我們現在在AI領域的技術研發落后是更可怕,還是說繼續無止境地研發更可怕?
曾毅:當人們去思考如果我不發展是不是就落后了,采用一種競爭的視角來分析這個問題的時候就會使人不理性。我們做的關于暫停人工智能大模型研究的這個調研現在大概有一千多人通過互聯網參與,遍布全國各個省市??傮w的觀點來講現在是挺明顯的。大概有將近40%的人是同意暫停人工智能大模型研究的;大概有25%的人是不同意暫停人工智能大模型研究的;有大概5%的人認為應該暫停所有人工智能大模型的研究 ,先把它的倫理安全框架做好。還有大概百分之十幾、二十的人會認為你暫停大模型也沒啥用,這個問題反正也不那么容易解決。
這是一個基本的統計。但是讓我看來很欣慰的是在人工智能的大模型的研究者里,有25%以上的人會認為現在暫停超越GPT-4能力的大模型的研究是很有意義的事情。他們作為利益的最相關者有將近四分之一的人是贊同的,這個是值得關注的。
另外,有很多人不是研究人工智能大模型的,但是他是人工智能的研究者,可能走的是不同的路徑。這一部分人同意暫停人工智能大模型的比例顯著是更多的。所以,我們也可以看到當你走出人工智能大模型的利益相關方來看,更理性地來分析這個問題,離人工智能界越遠的人對于暫停人工智能大模型越認可。比如人文社科領域、認知科學與心理學領域的人,認同暫停人工智能大模型的會更多。人文社科領域的學者更關切的這些,比例顯著高于人工智能的從業者。這個也對于像我這樣的人工智能的從業者也提出一種警醒,就是發展技術的同時關注社會的影響。
騰訊科技:您的同行有沒有跟您爭論過這件事?
曾毅:有的。甚至有像我一樣同時從事技術研究,但是也關注人工智能倫理的學者表示了不同意見。他們覺得暫停不能解決問題,你就盡可能地快速地通過技術治理的方式解決問題就好了,而不是說暫停下來它的研究。
但是,我的看法仍然是這樣的,如果說GPT-4這樣能力的信息處理工具的潛在風險已經讓我們焦頭爛額了,每天都出現人工智能給大家惹的麻煩,現在幾乎可以這樣說。那如果我們真的沒有準備好,我們是不是可以先把它的已知風險解決掉再去繼續?但是我想不同的人有不同的出發點,不管是不是暫停,發展人工智能技術不管它達沒達到GPT-4的能力,開展倫理安全框架的研究,并且在研制的過程中就把倫理安全框架內置到這個模型當中,在提供服務之前完全地融合和充分地考慮倫理安全的風險,并完善這個倫理安全的測試,我覺得至少這樣做是特別必要的,比之前只是發展它的信息處理能力要強得多。
騰訊科技:公開信的約束力有多大?它只是給人一種影響和一種倡議?
曾毅:我們可以看到簽這個公開信背后的科學家們做出了非常負責任地選擇。我們在公開信簽名的作者當中既可以看到人工智能的圖靈獎的獲得者Yoshua Bengio,也可以看到老一代的人工智能的開拓者,比如說伯克利大學的Stuart Russell教授,以及關聯神經網絡提出者John Hopfield教授,他們都是最了解神經網絡進展的人,但是為什么大家做出共同的選擇?一方面我想是一個價值觀的倡導。但是它的作用方面,我想通過這個公開信是團結了大家共同去研發它的安全倫理的協議和檢測的平臺,使得在學術和產業界當中不僅僅是通過這個事件提升公眾的意識,更關鍵的是促成采取行動,至于這個問題本身是不是由于暫停來解決的?我覺得只要這個問題解決了,哪怕說企業界自己把這個問題解決了,假設說兩個禮拜就能解決,我相信這些學者也了樂見其成。所以,我覺得它的目的是幫助我們去解決問題,它的約束力是很低的。
但是據我所知,我們已經有相關的學者在盡其所能地聯絡不僅僅是國內的,也有國外的企業,希望做出更負責任的共同承諾。所以我想它已經成為一個公眾關注的事件,已經發揮了一定的作用,已經引起了人工智能大模型研究者的重視。我們下面希望看到的是產學研界協同采取行動。一方面是構建安全倫理框架,并實施安全倫理框架。第二個是從源頭創新上提出真正能夠實現有道德的人工智能的科學的進展,才是真正對人類來說負責任的創新,負責任的行為,我們才能真正憧憬人類與人工智能和諧共生的未來。
騰訊科技:未來在人工智能治理方面,公司、科研機構、和國家都分別應該承擔哪些責任?
曾毅:首先人工智能的發展,特別是生成式人工智能的發展和應用確實是一個多利益相關方治理的框架。首先要開發一套人工智能的產學研方要進行治理自治的框架。先把能避免的問題盡量避免掉。第二步就是在人工智能管理的層面是一定要有規制的。所以你看到我們國家網信辦在去年發布的《互聯網信息深度合成管理規定》和前幾天發布的《生成式人工智能管理辦法意見草案征求意見稿》都是在這樣的背景下誕生的,也是多部委協作的機制。
人工智能的監管是一個機制復合體,相關部門例如科技部、工信部、網信辦,甚至我們的安全部門都發揮著不同的作用。我想更關鍵的是,來自公眾的力量非常關鍵,人工智能的發展一旦引起了社會的問題,來自于公眾的反饋,來自于媒體的反饋,這些對于人工智能的自律自治、頂層監管是一個非常必要、甚至未來有可能是主導性的互補。
面對大模型技術的“黑箱”,我們應該警惕些什么?
騰訊科技:OpenAI的創始人承認并沒有完全搞懂ChatGPT的運行原理,就把它推向了普通的用戶、推向了大規模的應用,這是不是一種不負責任的做法?
曾毅:我覺得他們這樣做的另外一個初衷是去收集大量的人類反饋來完善他們的創造。所以,你能夠明白它為什么要公開?包括商機,我想這個都是明顯地來自于他們的訴求。但是你講它是不是已經做了它應該做的負責任的行為,它在2022年初就完成了ChatGPT的研發,花了幾個月的時間去做測試,應該說已經做出了初步的努力,它很顯然不夠,因為當他們把這個技術擴散在互聯網上的時候相關的隱患就已經出現了,也就證明準備還是不充分的。所以,也就證明了暫停6個月大模型的倡議的價值。
我想未來的人工智能企業確實是需要更負責任地創新。可以看到我們國內大模型的研究機構所發布的大模型幾乎是在二三月份的時候開始宣布,到四月份就發布,它們經過的倫理安全檢測就更少。所以我特別希望能提醒相關領域的企業和服務方,我們做的不僅僅是變革社會的工具,更關鍵的是賦能社會發展的平臺,這個時候對于社會的責任,我們別無選擇、必須承擔。
騰訊科技:您認為“大力出奇跡”的人工智能大模型發展路徑,是可持續的最優路徑嗎?
曾毅:我印象中有一次跟領域內學者的討論,大家當時說人類處于一個轉折點,我們現在甚至可以扮演上帝的角色,因為以前是上帝來設計人,現在是我們人可以設計未來的人工智能。我很難贊同這樣的觀點。為什么這樣說?如果人工智能模擬人腦的演化過程,經歷的是物競天擇、適者生存,和大自然和諧共處,基于此來延展未來的人工智能,是比較安全的。
而現在,從一個隨機的神經網絡開始讓它跟環境交互、自主演化,最終人類犯過的錯誤它都可能犯一遍。如果它在一個模擬環境中,把所有犯過的錯誤都犯一遍,那還好。但是,如果把它放到真實的環境中跟人去交互,跟生態去交互,它犯錯的過程帶來的風險和隱患就直接作用于人了。
所以,我覺得以大規模數據驅動的方式構造的只能是智能信息處理的工具,再發展下去就是看上去超級智能的工具,但是,它沒有自我、也不會產生意識,也很難成為所謂的人類的伙伴或者是社會準成員。
我認為人工智能發展到現在,其實跟人工智能最早的愿景已經非常不一樣了,在達特茅斯會議上,關于人工智能愿景(補充英文)原文講的是“人類智能的方方面面都能夠被精確地描述,并且我們用機器能夠模擬人類智能的方方面面的話,就可以認為這樣的機器具有人工智能”。
但是我們現在看產業界的人工智能,其實是有大規模的數據,有所預期的輸出形式,然后用一種數學優化的方式去擬合數據從輸入到輸出之間的關系。但是,機器中間處理的過程可以跟“人類智能”沒有任何關系。
如果偏要把它叫做人工智能的話,我把它叫做data intensive的AI,就是數據智能。但是真正的人工智能首先最重要的恐怕不是數據,而是機制。人類的大腦經歷了數億年演化,它不是短期學習的結果。如果機器能在不同尺度刻畫智能的方方面面,模仿它的機制,這樣才是最初定義的真正意義上的人工智能。這樣的模擬人腦的人工智能,擁有人類數億年演化的經驗,受這個啟發構造的人工智能也能避免很多潛在風險。
騰訊科技:目前沒有人能解釋為什么被投喂過這么多數據之后,人工智能會出現“涌現能力”,即使這樣,您也認為人工智能不能產生意識嗎?
曾毅:我認為目前所謂的涌現其實還是一種誤解。應該說以前的人工智能的模型從來沒有基于如此大規模、如此多模態的數據進行訓練,產生如此多的參數,意義是什么?其實是應對不確定性。所以只管感受,我們覺得它能回答很多復雜的問題。其實這種能力首先來自于數據本身,互聯網級別的數據,基本能覆蓋正常人能想到的所有問題。它利用這種統計的顯著性,再加上一定的隨機的變量產生的答案會讓你覺得在別的地方沒太看到過。這是一個基礎。
至于說它表現出來的不可預期性,我總體上感覺目前大家還是有點想多了?;诮y計顯著性,隨機生成的能力,它的表現力是非常豐富的,但是即使如此,這并不代表著模型本身真正產生了所謂的理解能力。對于ChatGPT來講,首先剛才我們說了統計的顯著性發揮了重要的作用,大規模的數據作為一個基礎,人類反饋的強化學習使得它的答案不是最優,而是更接近人類的期望。
背后其實還有很多的規則。比如你讓它分析問題,它總是分為兩類——這個事情有正面的意義,也有反面的意義。從正面列幾條原因,反面來列幾條原因。這其實在背后都是有人工的模板的。所以你會覺得“ChatGPT好理性啊”。但是人的話反而并不是那樣的。很多時候人會持一個明確的觀點,反應出你的信念。
人與人工智能的危險關系
騰訊科技:那到底如何測量這個機器是不是真的聰明?之前我們有圖靈測試,現在我們可能看到越來越多的報道說某個人工智能研發通過了圖靈測試,圖靈測試還有效嗎?
曾毅:首先當圖靈在寫《Computing machinery and intelligence》這個文章的時候就講到,測試智能的方式應該是多種多樣的。對話的方式只是其中的一種方式。換句話說我并不認為ChatGPT通過了圖靈測試。你讓接觸過ChatGPT的很多人再去看人的回答和ChatGPT的回答的時候,其實他是很容易區分出來人和ChatGPT的回答的。因為ChatGPT的回答過于接近人類的需求,看上去過于完美,使得很容易分辨這是不是來自一個“真人”的回答。
人工智能的“智能程度”未來到底用什么去衡量?首先圖靈自己就不覺得“圖靈測試”是唯一的方式。他文章結尾就談到你還可以構造一個小機器人,讓它學習如何認識世界的事物,可以用這種方式去衡量一個智能。所以,智能的衡量本身就不存在黃金的標準。
但是,如果說與人類的智能相類比,認知學家提出的“多元智能”的理論就講了人類的智能是方方面面的,而且人類不擅長做所有的事情,他可能有些方面表現得是很突出的。比如有些人數學抽象思維能力很強,但是他可能藝術方面不一定很強。所以,多元智能的理論講到了人類的智能方方面面,不需要特別完美,有些方面可能非常突出,但是某一方面的突出也不能推斷出來它在其他方面也很突出。我覺得未來人工智能如果成為社會的準成員,我們期望的也并不是一個在方方面面都超越人類的社會的準成員。
我覺得“有缺點”的人工智能可能從一個自私的人類來看似乎比什么方面都比人類強的人工智能在社會的接受度上也許會更高一些。所以,我不覺得通過所謂的圖靈測試是一件非常可怕的事情。它是盡早地讓我們意識到了所謂的圖靈測試的局限性。但是另一方面我也不覺得我們有必要去尋求這樣的黃金的標準,反而是多元的智能理論它告訴我們智能的本質是在于自適應性,是在于多元的發展。我覺得這些可能會更重要。
騰訊科技:所以我們和ChatGPT談戀愛是永遠不可能做到的是嗎?
曾毅:ChatGPT回答問題會說“我認為、我想”,但是,它說的這個“我”是不存在的。因為它說的這個“我”其實只是一個符號的象征。你可以認為這是程序給它的一種模式。所以,它沒有真正的自我感知的能力,也很難在這個基礎之上發展出來這個自我的意識。你剛才講到我們未來是不是可以跟ChatGPT談戀愛?它可以假裝跟你談戀愛,但是它沒有自我,沒有真正的感受。我會認為現在的GPT家族的技術確實是看似相當智能的信息處理,這種用戶體驗會越來越極致,但是,它仍然是看似智能的信息處理,仍然不是真正意義上的“理解”。
騰訊科技:未來人與人工智能應該是什么樣的關系?
曾毅:如果把技術發展脈絡放到更長的歷史當中來看,它總是使人回歸到人應當在的這個位置上,或者是把人類解放出來做更具創造性的工作。但是,現在人工智能進展的方式是蠻力的替代。在相關工作還沒有完全準備好的時候,人工智能以一種試探、嘗試的方式去改變社會,社會現在是一種被動的方式去應對,而不是我們所期待的主動地去迎接技術的變革,更多的人是疲于應對的。
所以,有些人會以仇視技術的方式去變革反饋,我覺得它的根源在于獲得技術賦能的這些變革者如何幫助社會做出更自適應的過程,使得這個社會能夠更好地接受這樣的技術。我們作為技術創新者不能止步于“我做出來,讓我們看看技術能給我們的社會帶來什么樣的改變”,你要幫助這個社會去適應,幫助這個社會去找到人類的價值。我覺得人類的價值一定不止步于未來給人工智能提供更多標注的數據,它一定是使得人類回到人類該做的工作上去。
我記得在一次訪談節目中,節目中有很多父親母親,當時就講到未來人工智能會不會把大家工作都替代了?我當時就講到一個觀點,也許未來我們需要重新定義“什么叫做工作”,“我們和工作之間的關系”,“人是不是通過工作來證明自己的價值”?以前不被認為是工作的一些事情未來可能成為新的工作類型。比如說在家里照顧自己的孩子,照顧家里的老人,從事一些社會服務,可能都是未來的工作形態,這些工作需要人類的情感交互,這是人工智能最難去替代的。復雜的情感交互恐怕只有人能夠勝任。而且,它使得我們人真正回到了人的本位。很多時候對于家庭成員的陪伴,對于下一代的培養,我相信就算人工智能能替代其中部分的步驟我覺得也是非常蹩腳的。
騰訊科技:應對人工智能時代的到來,現在的孩子要培養哪些能力呢?
曾毅:現在有很多家長也是非常焦慮,就覺得我的孩子是不是應該盡早地接觸人工智能?我印象當中也許2017年的時候,當時在中國科技館做了一個科普的活動,結束的時候就有教育系統的人來問我,你作為一個人工智能的學者,如果我們做中小學的人工智能教育,你的建議是什么?后來過了一兩年,甚至看到有類似的書出現——《為幼兒園小朋友寫的深度學習教材》,我當時覺得這樣的嘗試都是非常沒有意義的。
為什么?人工智能是一個高速發展的學科。我們如何定義人工智能?如何理解人工智能?這些都在日新月異地變化。而傳遞給幼兒園、小學生的相關的,我更希望是生活的智慧,當你給小朋友們講這就是人工智能、人工智能就是這樣處理信息的,我會覺得也許我把他們未來的思考空間縮小了。所以,我當時給那個教育系統的工作人員的建議是“小朋友不要把人工智能作為一個學科來學?!?/span>
如果真的學有余力的話,就是讓孩子們學一門心理學,學認知心理學,讓他對人本身有更多的認識——人類的智慧到底是怎么回事?我們的內心是什么樣的?人如何為人?讓孩子們做更多的思考。第二,我覺得要向德國和法國學習,就是初中、高中去學習哲學。在更年輕的時候去思考這些問題比我們工作之后幾十歲的時候再去反思這樣的問題有價值大多了。
我們現在的教育確實是很多時候把學生慢慢地變成工具,他們甚至沒有時間去思考自己未來的時候就已經被放在未來的賽道上了。所以我覺得家長真的不要那樣焦慮,因為技術的發展它最后留給人類的實際上就是屬于人類的空間。屬于人類的空間就應該以人類的方式去開展。我很喜歡前《三聯周刊》的主編舒可文老師的一本書,是講城市的夢想的。他當時就講人類的城市就是一半規劃,一半野蠻的生長。規劃那部分你用技術去改變,野蠻的生長這個部分你就讓人與人之間的交流去驅動。人與人工智能的關系也是這樣的。我最反感的觀點叫做使人工智能無處不在。因為我覺得不管是它發展的階段還是它本來應該在這個社會中所處的地位都應該是適度地使用,把應該留給人的空間留給人。技術可以去變革,可以去賦能的地方可以去嘗試,但是我們發展技術的目的是為了人類更好地生存,更好地發展。不是用技術去為人類劃一個句號。
騰訊科技:全世界有這么多國家,大家有不同的文化,那人類有沒有一個共同的關于人工智能的終級夢想?
曾毅:目前在全球共識的層面比較認可的是作為工具的人工智能。所以,這個是在聯合國教科文組織的《人工智能倫理建議書》當中希望去闡釋的一個愿景,就是人工智能作為一種工具和賦能性的技術賦能全球的可持續的發展。但是,我們對于人工智能的愿景確實認知有不同,日本認為人工智能應該發展為社會的準成員和伙伴,西方認為人工智能只是工具,中國可能介于兩者之間。但是,這些不同的愿景,不同的價值觀都是塑造人工智能不同的嘗試。我們未來希望探索的應當是人與人工智能共享的一個最小的倫理原則的集合。
這個最小的倫理原則的集合是不同的文化之間能夠達成的共識,這是第一步。第二步,人與人工智能再次達成共識。這個作為人與人工智能共生社會的一個基石。未來的國際交往需要一個倫理的最小集。人與人工智能的倫理也需要這樣的一個最小集。但是我想這不是終點。真正的終點是最大化我們應該做什么的表述。真正去促進穩健地、可持續地發展。
本文來源于騰訊科技,原文標題為《對話科學家曾毅:中國大模型水平不及GPT-4,我為何簽名支持暫停巨型AI研發?》
風險提示及免責條款 市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務狀況或需要。用戶應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。關鍵詞: