玉林实硕医疗科技有限公司

人手一個Midjourney!Stability AI開源旗下生圖模型,做圖圈炸了 當前速遞

StabilityAI又雙叒叕放大招了!

就在昨天,StabilityAI在官網上重磅宣布——旗下的文生圖應用DreamStudio開源了!開源產品更名為StableStudio。


(資料圖)

據官網介紹,此次開源意味著StabilityAI的圖片生成產品線邁入一個全新的篇章,也展現出了StabilityAI推廣開源模型的決心。

AI的盡頭是開源

自從Stable Diffusion發布以來,DreamStudio就是StabilityAI最主要的應用,用來展示最新的模型和功能。

最近,DreamStudio來了一波升級,改用了StabilityAI最新的圖像生成模型——SDXL。

原本該應用的功能就是一個平臺,讓廣大用戶能用上生成圖片的AI模型。到目前為止,用戶得生成了少說成百上千的圖片。

而此次發布的重磅炸彈,是因為StabilityAI相信,最好的推廣生圖模型的方式,就是開源,發展社群,而非閉關鎖國。

誠如LeCun所說,AI發展的盡頭是開源。

StabilityAI表示,他們的目標是和更多開發者社區建立合作關系,打造一個完全由用戶控制的生成性AI的界面。

雖說DreamStudio將繼續負責StableStudio的運營,但StabilityAI的目標是把StableStudio打造成一個獨立的項目。

而且,StabilityAI的野心可不小,誓要把StableStudio搞的比任何一個獨立公司都要牛。

追溯起DreamStudio的起源,它最初是Disco Diffusion下的一個動畫工作室。隨著去年夏天Stable Diffusion的發布,Disco Diffusion的重點也從動畫轉到了圖像生成。

StabilityAI的目標就是為生成性AI創造一個強大的多模式體驗,該公司一直在為這個目標而努力。

因此,StabilityAI在最新的StableStudio項目中公布了即將推出的聊天界面——

人手一個Midjourney?

在今年3月,DreamStudio也是發布了最新的一次更新。

新的穩定擴散微調(Stable unCLIP 2.1, Hugging Face),分辨率為768x768,基于SD2.1-768。

這個模型允許圖像變化,以及混合操作。

由于其模塊化,可以與其他模型,如KARLO,進行結合。這里面有兩個變體:Stable unCLIP-L和Stable unCLIP-H,它們分別以CLIP ViT-L和ViT-H圖像嵌入為條件。

再來看看幾組StableStudio生成的圖片。

開源——StabilityAI的優良傳統

而開源,一向是Stable家族的傳統。

就在上個月,Stability AI宣布推出他們的第一個大語言模型——StableLM。

劃重點:它也是開源的,在GitHub上已經可用。模型從3B和7B參數開始,隨后會有15B到65B的版本。

并且, Stability AI還發布了用于研究的RLHF微調模型。

項目地址:https://github.com/Stability-AI/StableLM/

Stability AI官方聲稱:Alpha版本的StableLM有30億和70億個參數,之后還有150億到650億參數的后續版本。

StabilityAI還豪橫地表示,開發者隨便用。只要遵守相關條款,不管是檢查、應用還是改編基礎模型,想怎么來怎么來。

StableLM功能強大,不光可以生成文本和代碼,還能給下游應用提供技術基礎。它是一個很好的范例,展示了小型、高效的模型通過適當訓練就可以有足夠高的性能。

早年間,Stability AI和非營利性研究中心Eleuther AI一起開發過早期的語言模型,可以說,Stability AI積淀很深。

像什么GPT-J、GPT-NeoX和Pythia,這都是兩家公司合作訓練的產物,在The Pile開源數據集上訓練完成。而后續的更多開源模型,比如Cerebras-GPT和Dolly-2都是上面三兄弟的后續產品。

說回StableLM,它是在建立在The Pile基礎上的新數據集上訓練的,該數據集包含1.5萬億個token,大約是The Pile的3倍。模型的上下文長度為4096個token。在即將發布的技術報告中,Stability AI會公布模型的規模和訓練設置。

作為概念驗證,團隊用斯坦福大學的Alpaca對模型進行了微調,并使用了最近的五個對話代理的數據集的組合:斯坦福大學的Alpaca、Nomic-AI的gpt4all、RyokoAI的ShareGPT52K數據集、Databricks labs的Dolly和Anthropic的HH。這些模型將作為StableLM-Tuned-Alpha發布。

當然,這些微調過的模型僅僅用于研究,屬于非商業性質。后續,Stability AI還將會公布新數據集的更多細節。

其中,新數據集十分豐富,這也是為什么StableLM的性能很棒。雖說參數規模目前來看還是有點小(和GPT-3 1750億個參數相比是這樣的)。

Stability AI表示,語言模型是數字時代的核心,我們希望每個人都能在語言模型中有發言權。而StableLM的透明性??稍L問性、支持性等特點也是踐行了這個觀念。

Stability AI表示,目前這些模型已經在GitHub公布,未來還會有完整的技術報告問世。Stability AI期待和廣泛的開發者和研究人員進行合作。同時,他們還表示將啟動眾包RLHF計劃,開放助手合作,為AI助手創建一個開源的數據集。

隨著StableLM的推出,可以說Stability AI在用AI造福所有人的路上越走越遠了。

畢竟,開源一向是他們的優良傳統。

在2022年,Stability AI提供了多種方式讓大家使用Stable Diffusion,包括公開demo、軟件測試版和模型的完整下載,開發人員可以隨意使用模型,進行各種集成。

作為一個革命性的圖像模型,Stable Diffusion代表著一個透明、開放和可擴展的專有AI替代方案。顯然,Stable Diffusion讓大家看到了開源的各種好處,當然也會有一些無法避免的壞處,但這無疑是一個有意義的歷史節點。

參考資料:

https://stability.ai/blog/stablestudio-open-source-community-driven-future-dreamstudio-release

本文來源:新智元,原文標題:《人手一個Midjourney!Stability AI開源旗下生圖模型,做圖圈炸了》

風險提示及免責條款 市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務狀況或需要。用戶應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。

關鍵詞: