玉林实硕医疗科技有限公司

OpenAI的CEO回應馬斯克:暫停AI研發的公開信缺少技術細節

4月13日周四,OpenAI的CEO Sam Altman表示,他同意特斯拉CEO馬斯克、蘋果聯合創始人Steve Wozniak等科技界領袖簽署的生命未來研究所公開信的部分內容。


【資料圖】

這封公開信呼吁暫停6個月的AI研究。但Altman補充說,這封信“遺漏了關于我們需要暫停的大部分技術細節。”

Altman說:

我認為謹慎行事和對安全問題越來越嚴格非常重要,但我不認為這封信是解決這個問題的最佳方式。

3 月,馬斯克、Wozniak和其他數十位學者呼吁立即停止訓練與“比 GPT-4 更強大”的大型語言模型相關的“實驗”,稱其“對社會和人類構成潛在風險”。這其中首當其沖的就是OpenAI的旗艦大型語言模型。當前,這封公開信已經有超過2.5萬人簽名。

這封信說:

人工智能實驗室和獨立專家應該利用六個月的暫停時間,來開發和實施一套由獨立外部專家嚴格審計和監督的高級人工智能設計和開發的共享安全協議。

Altman周四說:

我也同意,隨著AI能力變得越來越強大,安全標準必須提高。

今年早些時候,Altman承認人工智能技術讓他“有點害怕”。 白宮、國會和美國各地各界都提出了關于安全和合乎道德地使用AI的問題。

Altman說:

我們正在GPT-4之上做其他事情,我認為這些事情存在各種需要解決的重要安全問題,但這封信卻只字不提。

這封發布在非營利性組織“未來生命研究所”網站上的公開信主張,在開發強大的AI系統之前,應先確認其帶來影響是積極的、風險是可控的。

信中詳述了具有人類水平智能的AI系統可能對社會和人類帶來極大的風險,稱“這一點已經得到大量研究和頂級AI實驗室的認同”,并連續拋出四個疑問:

我們是否應該讓機器用宣傳和謊言淹沒我們的信息渠道?

我們是否應該讓所有的工作自動化,包括那些令人滿意的工作?

我們是否應該發展最終可能在數量上超過我們、在智能上超越我們、能夠淘汰并取代我們的非人類思維?

我們應該冒著失去對我們文明控制的風險嗎?

顯然,比起技術,公開信的支持者更在意的,是人工智能可能出現的“野蠻生長”,以及它的發展可能帶來的社會和倫理難題。

公開信中提到,此番暫停并不意味著從總體上暫停人工智能的開發,而是從危險競賽中“后退一步”。人工智能的研究和開發應該重新聚焦于使當今強大的、最先進的系統變得更加準確、安全、可解釋、透明、穩健、一致、可信且可靠。

風險提示及免責條款 市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務狀況或需要。用戶應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。

關鍵詞: