玉林实硕医疗科技有限公司

AI見聞日報:連華爾街都低估了英偉達的業績,生成式AI需求突破想象力 | 見智研究

今日要聞:

1、華爾街都低估了生成式AI的跨行業需求,英偉達Q2業績指引超華爾街預期53%,AI超級計算系統將為英偉達帶來更多超額收益;


(資料圖片)

2、英特爾公布Aurora genAI大模型,參數是ChaGPT的近6倍,多規格參數模型是平衡成本和效率的“最優解”;

3、Meta又開源一個多語種語音大模型MMS,能識別4千種語言,生成1千種語音;

4、斯坦福等學者發布機器視覺跟蹤重大突破,SiamMAE能節省高昂費用;

見聞視角

1、華爾街都低估了生成式AI的跨行業需求,AI超級計算系統將為英偉達帶來更多超額收益。

英偉達Q1財報大超預期成為今日矚目焦點,更重要的是Q2的業績指引將成為該公司有史以來最高的季度營收,超過華爾街預期的53.2%。

英業達業績超預期背后,最大的貢獻來自于四大業務中的數據中心業務,收入創歷史新高,達到42.8億美元,同比增長14%,環比增長18%。此外汽車業務雖然占比較小,但也達到了同環比的增長速度。而游戲和專業可視化的需求顯然還沒有恢復到去年同期水平。

見智研究認為:市場遠遠低估了生成式AI需求,AI超級計算系統將為英偉達帶來更多超額收益。

英偉達數據中心收入激增主要是由于生成式AI和大語言模型的需求不斷增長,從而帶動公司基于Hopper和Ampere架構的GPU需求超預期。目前數據中心產品需求能見度延長了幾個季度之多,在下半年H100的供應量還將會進一步增長

從客戶需求來看:云計算服務供應商、消費者網絡公司以及企業客戶都希望盡快將生成式AI套用到現有業務中。而根據訂單排期的情況來看,GPU全年都將呈現供不應求的局面。因而預計英偉達的收入會持續受益于生成式AI所帶動的數據中心業務增長。

生成式AI對于更個行業來說是顛覆性的存在,并且處于從無到有的起步階段,能夠創造的價值空間想象力非常大。

根據Gartner預測到2025年,使用生成式AI技術系統研發的新藥和材料比例將從現在的0%上升到30%+上,而這只是其眾多行業用例之一。此外,生成式AI技術還在芯片、零件設計、合成數據等眾多領域帶來全新的價值。


值得關注的是,生成式AI正在推動計算需求呈現指數級增長,并快速過渡到英偉達的加速計算。公司也表示將開始銷售AI超級計算系統給支付更多溢價的科技公司。

目前英偉達具有高性能網絡方面的條件優勢,并且在計算結構、內存調用、以及通信效率和速度方面做進一步的優化,同時會提高對高性能交換機、光模塊以及光線的需求。

2、英特爾公布AI大模型Aurora genAI,參數是ChatGPT的近6倍,多規格參數模型是平衡成本和效率的“最優解”。

英特爾公布了旗下生成式AI大模型Aurora genAI,該模型參數量高達1萬億,是ChatGPT的近6倍(參數量1750 億),依賴于Megatron和DeepSpeed框架,這些結構增強了模型的強度和容量。

Aurora genAI模型是一個純粹以科學為中心的生成式AI模型,主要用于科研;運行在英特爾為阿拉貢國家實驗室開發的Aurora超算上,其性能達到了200億億次,是當前TOP500超算冠軍Frontier的2倍。

見智研究認為:作為ChatGPT的有力競爭者,Aurora genAI的公布預示著AI大模型賽道又迎來了新的重磅玩家,并極有可能在未來對各種科學領域產生重大影響。

同樣值得關注的是,LLM模型的研發會持續在擴大訓練參數上內卷,但是越大體量模型的運行必然會產生更高的成本,當前如何在有效需求和成本之間的平衡成為大模型開發商值得重點關注的問題,要防止模型在應用時由于參數冗余而產生不必要的運行成本,所以大模型開發商推出多元化參數模型用于專項領域會成為必然的發展路徑。

AI快訊

1、Meta又開源一個多語種語音大模型MMS,能識別4千種語言

Meta在GitHub上再次開源了一款全新的AI語言模型——Massively Multilingual Speech (MMS,大規模多語種語音),這款新的語言模型可以識別4000多種口頭語言并生成1100多種語音(文本到語音)。上線短短的幾個小時,在GitHub庫便收獲了23kStar,Fork數量高達5.5k。

Meta被看作大模型研發的一大黑馬,是開源大模型的鼻祖,此前發布的LLaMA是被微調最多的通用模型。此前公司的SAM視覺模型為CV領域投下重磅炸彈,公司在開源多模態領域上的持續發力,進一步為開源社區提供強有力的技術支持。

2、斯坦福&普林斯頓大學學者發現計算機視覺跟蹤新技術,能夠節省高昂費用

在計算機視覺中,建立圖像或場景之間的對應關系是一個重要的挑戰,尤其是考慮到遮擋、視角變化和物體外觀的變化。

來自斯坦福&普林斯頓大學學者聯合發布的一篇名為【Siamese Masked Autoencoders】的論文中,發表了一種用于視頻學習的蒙面自動編碼器,SiamMAE用于從視頻中學習視覺對應關系,可以在沒有顯式標簽或注釋的情況下使得機器進行自主學習。學習到的表示可以用于視頻分類、動作識別或對象跟蹤等下游任務。

通過SiamMAE學習到的特征在視頻對象分割、姿態關鍵點傳播和語義部分傳播等自監督方法中表現非常出色。該方法在標注數據稀缺或獲取數據成本高昂的情況下特別有用。

風險提示及免責條款 市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務狀況或需要。用戶應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。

關鍵詞: