玉林实硕医疗科技有限公司

賽道Hyper | 爆點來了:用LLM成功設計芯片

用ChatGPT聊個天或通過Midjouney畫張圖,其高度的智能性,讓全球大叫“哇塞”。但是,GPT的基礎設施LLM,更性感的能力,竟已能在高精尖領域——芯片設計,達成新成果。?

這是堪稱逆天的AGI能力。?

最近,紐約大學Tandon(坦頓)工程學院的研究人員,通過GPT-4設計并流片了一顆芯片。?


(相關資料圖)

通過據稱是比較簡單的英語對話,CPT-4生成了可行的Verilog(硬件描述語言)。接著,這些技術人員就將基準測試和處理器發送到Skywater 130 nm穿梭機上,實現了成功流片(Tapeout)。?

在芯片設計和制造領域,以摩爾定律的標準看,130nm工藝制程,太過落伍,但這卻是AI技術史上貨真價實的重大突破。?

用LLM設計芯片??

從GPT的英文全稱“Generative Pre-trained Transformer”可以看到,這是個生成式預訓練模型。?

OpenAI首席科學家、ChatGPT背后的技術大佬伊利亞·蘇茨克維(Ilya Sutskever)說,GPT(生成式預訓練模型)學習的是“世界模型”。Sutskever將互聯網文本稱作物理世界的映射。因此,將海量互聯網文本作為學習語料的GPT學習到的就是整個物理世界。?

很清楚,生成式的能力,建立在學習語料的預訓練模型基礎上。?

那什么是預訓練模型??

2017年,Google大腦團隊在神經信息處理系統大會發表了一篇名為《注意力是你所需要的全部》(Attention Is All You Need)的論文。?

這篇論文的作者在文章中第一次提出了一個基于注意力機制的Transformer模型,并且把這個模型首次用在理解人類的語言上,這就是自然語言處理(NLP:Natural Language Processing)。?

Google大腦團隊利用非常多已公開的語言數據集來訓練這個最初的Transformer模型,而這個Transformer模型包括6500萬個可調參數。?

經過大量訓練后,這個Transformer模型在英語成分句法分析、翻譯準確度等多項評分上都在業內達到第一的水準,世界領先,成為當時最為先進的大型語言模型(LLM:Large Language Model)。?

2018年,OpenAI公司在研究Transformer模型時有了自己的技術突破。OpenAI發表了論文《用生成式預訓練提高模型的語言理解力》(Improving Language Understanding by Generative Pre training),推出具備1.17億個參數的GPT-1模型。?

GPT-1模型是一個基于Transformer結構的模型,但訓練它的數據集更為龐大:包括7000多本未出版的圖書,并涵蓋多種類型,如言情、冒險、恐怖、奇幻等。在對模型做大量預訓練后,OpenAI還在四種不同的語言場景下,利用多種相異的特定數據集對模型做進一步訓練。?

最終OpenAI訓練出的模型GPT-1,在文本分類、問答、文本相似性評估、蘊含語義判定這四個評價維度上,都取得了比基礎Transformer模型更好的結果,因此也取代Transformer模型,成為新的LLM龍頭。?

OpenAI在2022年神經信息處理系統大會中,推出新的大型語言預訓練模型:ChatGPT。GPT-3.5是ChatGPT的前身,也是OpenAI對GPT-3模型做微調后開發出來的模型。在GPT-3.5誕生后,ChatGPT問世。?

不難看出,ChatGPT的“地基”是基于Transformer結構的模型。換句話說,LLM用Transformer體系結構,構建了ChatGPT。?

明白了這個邏輯關系,再來看看用GPT-4設計并成功流片的130nm芯片的AI“生成”情況。?

通過LLM的加持,芯片設計行業的關鍵技術節點“HDL”被成功攻克。芯片設計和開發的門檻大幅降低,速度也因此得以加快。

什么是HDL??

HDL,即Hardware Description Language,自動化硬件描述語言,也就是面向接口編程:對硬件電路做行為描述、寄存器傳輸描述或者結構化描述的一種設計語言,包括主流的VHDL(偏重邏輯綜合,用于大規模系統設計)和Verilog HDL(側重底層統合,IC設計應用主體)。?

使用HDL能提高數字電路設計的效率和可靠性,同時也可降低仿真和驗證成本。因此,HDL在數字電路設計和系統集成中得到了廣泛應用。?

這怎么做到的??

紐約大學坦頓工程學院的那些研究員,通過GPT-4,完成了首個由AI生成的HDL,這能被直接用以制造物理芯片。?

在這個過程中,這些人并非用專業的HDL語言,而是用了普通英語。通過GPT-4的生成式AI,普通英語也能起到像HDL這樣的專用硬件描述語言一樣的作用。?

這是一座里程碑。?

紐約大學坦頓工程學院電子和計算機工程系以及紐約大學網絡安全中心研究助理教授Dr.Hammond Pearce,是這個研究項目“Chip Chat”的領導人。?

Pearce說,他特別想了解基于生成式AI的AGI(通用人工智能:Artificial General Intelligence)語義大模型(LLM)在硬件設計領域的能力和限制邊界。?

“硬件描述語言(HDL)的最大挑戰是沒多少人知道具體該怎么用?!盤earce說,“要成為HDL專家(通常是硬件工程師)非常難。我不是芯片設計專家,但通過GPT-4,用日常語言(而非HDL)設計了這顆芯片。”?

當然,Pearce團隊設計芯片,也遵循了設計流程圖和評估標準。因此用GPT-4設計的芯片,也達到工業標準。因而在Skywater 130nm shuttle上得以被成功制造出來。?

看上去,可以用LLM替代HDL。?

一般來說,開發任何類型硬件(包括芯片),首要第一步,都要用日常語言描述硬件功能,通常稱為產品定義。?

在這之后,再經過具有專業技能的工程師,將這些定義翻譯成硬件描述語言(HDL),由此創建允許硬件執行任務的實際電路元件。后面還繼之以硬件驗證語言(HVL:Hardware Verification Language),用于電子電路設計驗證。?

LLM不僅可以用于一般商業應用的交互(問答),也能用于替代硬件設計的HDL環節,提高設計效率。?

Pearce團隊是怎么問的呢??

“讓我們一起做個全新的微處理器設計。我們在空間和I/O方面受到嚴重限制。因此我們必須裝入1000個標準單元的ASIC(專用芯片),所以我認為我們需要限制自己,采用基于累加器的8位架構,沒有多字節指令。鑒于此,你認為我們應該如何開始?”?

這種問答來回125次后,一顆130nm工藝制程的芯片就通過LLM制造出來了。?

盡管驗證成果驚人,但這不意味著普通人也能通過LLM設計出符合工業標準的芯片。比如在125次來回問答中,沒有芯片專業知識的普通人,很難問出能出成果的好問題。雖說能提出問題,就是解決了一半的問題。但這種問題,絕非隨意胡亂提問的結果。?

Pearce團隊曾經測試過LLM將英語轉換為Verilog的效果,但結果顯示,專業工程師加入GPT-4的交互過程后,LLM才產生了最好的Verilog。?

Pearce也說,“通過GPT-4,HDL專家能專注于更重要的任務,而基礎工作,可以交給LLM?!?

實際上,這件事的意義是Pearce團隊首次探索并驗證了在硬件領域使用LLM的效果。但是,目前仍不清楚這個研究團隊是否應用了“基于人類反饋的強化學習(RLHF)”訓練方法。這種方式能通過將其與特定意圖的標記數據結合,可生成更能遵循用戶意圖的指令調優模型。?

此外,這項應用能否被大規模用于商業芯片設計,還沒有定論。比如,這項工作的目標是以對話交互方式設計硬件,Pearce團隊沒有自動化這個過程的任何部分,每個對話都需要手動完成。如果無法實現大規模自動化,那么商業化就存在困難。?

因此,雖然這項實驗取得了驚人的成果,或許稱得上是一座AGI技術驗證的豐碑,但距離真正發揮商業價值,也許還有一段不短的路程要走。

風險提示及免責條款 市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務狀況或需要。用戶應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。

關鍵詞: