環球短訊!AI見聞日報:英偉達將上線史上最強AI服務,速度快還更省錢 | 見智研究
今日要聞
(資料圖片)
1、英偉達發布超強AI計算平臺,大模型訓練不僅速度快還更省錢;
2、英偉達提供全新AI游戲模型服務,行業將開始新一輪創新式洗牌;
3、全自研國產安全數據庫來了,拓爾思發布海貝搜索數據庫,專用需求特征強;
海外AI
1、英偉達超強AI計算平臺面世,內存提高500倍、不但傳輸速度高,而且還節能5倍
Nvidia發布史上最強人工智能超級計算平臺DGX GH200和MGX系統的核心組件,專門為處理海量的生成型人工智能任務而設計。并且表示Grace Hopper 超級芯片已經全面投產。云服務客戶也可以通過DGX Cloud部署AI系統以及使用AI Foundations。
此外,Nvidia正在構建自己的 Helios 超級計算機,該款超級計算機將包括四個DGX GH200 系統,所有系統都與 Nvidia 的 Quantum-2 InfiniBand 互連,預計會在今年年底上線。
見智研究認為:英偉達推出生成型人工智能任務的DGX GH200超級計算平臺對于大模型訓練以及超級計算能力來說,又上升到一個新的高度。當然,Grace Hopper 超級芯片并不屬于消費類的PC芯片、而主要適用于企業級大規模人工智能的研發。
對于應用側來說,龍頭企業必然會陸續應用該款計算平臺,包括谷歌云、Meta和微軟用于生成式 AI 工作負載上。軟銀也表示,將使用Grace Hopper超級芯片用于生成人工智能和5G/6G技術,為軟銀的下一代數據中心提供動力。
對于產業鏈來說,該計算平臺的應用會加大對通信傳輸領域的采購需求,比如光纖、高速光模塊等。服務器對于光模塊業需求的影響可參見此前文章:光模塊需求為何反轉。
DGX GH200有多厲害?
從單個DGX GH200系統來看,通過 256 臺 NVLink 交換機將 36 個 Grace-Hopper 超級芯片連接起來,內存比單個 Nvidia DGX A100 系統多近 500 倍,能提供強大計算能力,為用戶提供了可擴展的更大規模數據吞吐量,使其非常適合推進復雜語言模型的訓練。
特別值得關注的是,該款芯片取消了傳統的Pcle鏈接方式,而是采用了一種更高速的連接方式——NVLink-C2C。使得處理器和顯卡之間的帶寬顯著提高7倍,并且節省能耗高達5倍之多。
2、英偉達首發生成式AI游戲模型服務,行業將開始新一輪創新式洗牌
英偉達宣布開始提供定制AI模型代工服務——Avatar Cloud Engine (ACE) for Games,可開發在云端和PC上運行的AI模型。開發者可以使用該服務在其軟件和游戲中搭建和部署定制化的語音、對話和動畫AI模型。該服務通過AI驅動的自然語言交互為非玩家角色(NPC)帶來智能,從而直接改變游戲行業曾經的創作模式。
見智研究認為:
一方面,云端開發能夠很大程度幫助企業節省固定成本,包括本地化部署的設備采購、系統擴容等支出,在云端開發能夠按照需求進行擴容,擁有更大的靈活性和可擴展的彈性。仍值得注意的是,云端開發也并非在所有情況下都比本地開發更加經濟,還需要根據定制化程度來評估。
另一方面,AI模型這種具備生成式創作能力的模型能夠從底層改變游戲角色設計、與人交互的方式。對于游戲開發領域來說是翻天覆地的變化,降本增效已經是行業所默認的,更重要的是內容生成的方式打破了行業現有的途徑。
此外,游戲行業今年迎來版號發放高峰,今年5月份國產網絡游戲共有86款獲批,截至目前年內累計發放433款游戲版號,接近2022年全年總數。在AI模型的創新性帶領下, 游戲制作會迎來新一輪小高潮。???
國內AI
全自研國產安全數據庫來了
拓爾思發布海貝搜索數據庫V10。海貝搜索數據庫是目前國內唯一一款從底層分詞算法,到核心引擎以及上層系統都完全自研的純國產搜索引擎數據庫;系統已完成與龍芯、海光、飛騰、鯤鵬等國產芯片以及中標麒麟、統信UOS等國產操作系統的適配工作。
此前,國內廠商基本上都以開源的ElasticSearch作為他們的搜索引擎數據庫;還有一小部分廠商在開源Lucene引擎的基礎上進行封裝。
見智研究認為:海貝作為全自研數據庫,具有更高等級安全性、兼容性以及高性能檢索的特征,不僅能夠做到全字段索引,支持任意維度的組合查詢,在數據查詢和分析的效率上高于其他的大數據管理系統;同時還可以實現冷熱數據自動分區,支持多種存儲混合使用。
在應用層面來看,特別是對于專用性強、安全性高的領域,比如:銀行、政務、軍工等表現出非常強的競爭力。
風險提示及免責條款 市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務狀況或需要。用戶應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。關鍵詞: