玉林实硕医疗科技有限公司

每日焦點!投資了50多家AI初創公司,這位專業投資者人呼吁:必須放緩通用人工智能AGI競賽!

創造超級人工智能的誘惑是巨大的,這往往會使得人們忘記了其存在的危險。

4月14日,人工智能賽道投資人Ian Hogarth在其專欄中發表了一篇名為《我們必須放慢通往上帝一般的人工智能的速度(We must slow down the race to God-like AI)》的文章,并警告當前人工智能公司的研究可能接近“一些潛在的風險”:


(資料圖)

在沒有民主監督的情況下,由一小群私人公司做出可能影響地球上每一個生命的重大決定,這讓人感到非常錯誤。

那些競相建造第一個真正AGI的人有沒有計劃放慢速度,讓世界其他地方對他們正在做的事情有發言權?

Horgath表示,之所以將AGI稱為“上帝般的AI”,是因為在預期的發展路徑下,它將成為一臺可以自主學習和發展的超級智能計算機,并且可以在不需要監督的情況下理解周圍的環境,可以改變周圍的世界:

像上帝一樣的人工智能可能是一種我們無法控制或理解的力量,它可能會導致人類的淘汰或毀滅。

他說,創建AGI是所有領先的人工智能公司的明確目標,但這些公司朝著這個目標前進的速度遠遠快于所有人的預期:

最近,幾家公司在創造上帝般的人工智能方面的競爭迅速加速。他們還不知道如何安全地追求他們的目標,也沒有監管。

他們奔向終點線,卻不知道另一邊是什么。

Ian Hogarth是人工智能賽道的知名天使投資人,自2014年以來,他在歐洲和美國投資了50多家人工智能初創企業,包括全球融資最高的生成式人工智能初創企業之一Anthropic,以及領先的歐洲人工智能防御公司Helsing。

Horgarth坦言,盡管他在過去投資了眾多人工智能初創企業,但他始終存在著擔憂,而這種擔憂在今年OpenAI的成功后固化為了一種恐懼。

他也曾向研究人員發出預警,但與該領域的許多人一樣,相比自己應有的責任,這些研究人員“也被迅速的發展所吸引”。

潛在的危險

Horgath指出,當前AGI的游戲和聊天功能使公眾忽略了人工智能這項技術更嚴重的潛在危險。

早在2011年,DeepMind的首席科學家Shane Legg就將人工智能構成的生存威脅描述為“本世紀的頭號風險”:

如果一臺超級智能機器決定擺脫我們,我認為它會非常有效地做到這一點。

他還提到2021年,加州大學伯克利分校計算機科學教授Stuart Russell在演講中舉了一個聯合國要求AGI幫助降低海洋酸化的例子:

聯合國要求副產品是無毒的,不會傷害魚類。作為回應,人工智能系統提出了一種自我增殖的催化劑,實現了所有既定的目標。

但隨之而來的化學反應消耗了大氣中四分之一的氧氣。我們都會死得緩慢而痛苦。

如果我們把錯誤的目標交給一臺超級智能機器,我們就會制造一場我們注定會輸的沖突。

人工智能造成的更切實的傷害的例子已經出現了。最近,一名比利時男子在與聊天機器人Chai交談后自殺身亡。

而另一家提供聊天機器人服務的公司Replika對其程序進行更改時,一些用戶感覺像“失去了最好的朋友”,經歷了痛苦和失落感。

此外,人工智能現在可以復制一個人的聲音甚至臉,這使得其詐騙和提供虛假信息的可能性很大。

為什么要創造?

如果存在潛在的災難性風險,這些公司為什么要競相創造“上帝般的人工智能”?

Horgath表示,根據他與許多行業領袖的談話以及他們的公開聲明,似乎有三個主要動機:

他們真誠地相信,成功將對人類產生巨大的積極影響。

他們說服自己,如果他們的組織控制著像上帝一樣的人工智能,結果將對所有人都更好。

最后,是為了子孫后代。

成為第一個創造非凡新技術的人的誘惑是巨大的。在成就與潛在危害上,人工智能的開發在某種程度上可以類比原子彈。

1981年,弗里曼·戴森在紀錄片中描述了他參與核彈研發時的心理:

對于一個科學家,核武器的閃光是“不可抗拒(irresistible)”的。

它給人們一種無限力量的錯覺(an illusion of illimitable power)。

而在2019年,OpenAI創始人Sam Altman在接受采訪時,也引用了原子彈之父奧本海默的話:

技術的出現是因為它是可能的(Technology happens because it is possible)。

治理

Horgath說,他理解人們為什么愿意相信“上帝般的”人工智能,這意味著它或許能夠解決人類目前面臨的最大挑戰:癌癥、氣候變化、貧困等。但即便如此,在沒有適當治理的情況下繼續下去的風險也太高了。

“不幸的是”,他說,“我認為比賽還會繼續。這可能需要一個重大的濫用事件——一場災難——來喚醒公眾和政府。

他認為,與人工智能監管相關的一個有意義的類比是工程生物學:

首先考慮生物病毒的“功能獲得”研究。這一活動受到嚴格的國際法規的約束,在實驗室生物安全事件發生后,有時因暫停而停止。這是最嚴格的監督。

相比之下,新藥的開發是由FDA這樣的政府機構監管的,新的治療方法要經過一系列的臨床試驗。我們在監管方式上存在明顯的不連續,這取決于系統性風險的水平。

在我看來,我們可以用與功能獲得研究相同的方式接近“上帝般的”AGI系統,而狹隘有用的人工智能系統可以像新藥一樣受到監管。

他表示,支持各國政府實施重大監管,并制定切實可行的計劃,將那些專注于一致性和安全性的人工智能初創企業轉變為類似歐洲粒子物理研究所的組織。

最后,Horgath仍然強調,人類并非無力延緩這場競賽:

如果你在政府工作,那就舉行聽證會,在宣誓的情況下詢問人工智能的領導者,他們開發AGI的時間表。要求他們在測試當前模型時發現的安全問題的完整記錄。要求他們提供證據,證明他們理解這些系統是如何工作的,以及他們對實現一致性的信心。邀請獨立專家參加聽證會,對這些實驗室進行交叉檢查。

如果你在一個大型實驗室工作,試圖構建“上帝般的”人工智能,就所有這些問題詢問你的領導。如果你在領先的實驗室工作,這一點尤其重要。

到目前為止,人類仍然是學習過程的必要組成部分,這是人工智能進步的特征。

總有一天,會有人想出辦法把我們從循環中剔除,創造出一個像上帝一樣能夠無限自我完善的人工智能。到那時,可能就太晚了。

風險提示及免責條款 市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務狀況或需要。用戶應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。

關鍵詞: