玉林实硕医疗科技有限公司

【世界快播報】AI見聞日報:大模型并非鸚鵡學舌,“它”能理解語義 |見智研究

即日起華爾街見聞·見智研究新推出AI見聞日報欄目,每周一到周四晚八點更新。內容覆蓋本日AI熱點,分為見聞視角AI快報兩部分。

也歡迎大家對內容和觀點進行留言和探討,幫助我們更好的優化欄目。未來我們會持續給大家帶來有意思,并且有價值的內容。


(資料圖片)

見聞視角

1、大模型從此有了“安全道德”數據庫

如何從聊天機器人中剔除對人類有害的言論一直是備受關注的問題。

ChatGPT、Bard這類聊天機器人是如何做到盡量給出對人類友善的、誠實且有幫助的答案?

封閉大模型主要采用人工標注的方式,對大語言模型的回答內容進行打分,然后用強化學習方法從人類的反饋中學習(RLHF),但是由于打分伴有人類主觀偏好,所以數據集仍存在潛在的安全隱患。

為解決上述難題,北京大學首次公開了開源PKU-Beaver(河貍)大模型RLHF(利用強化學習方法從人類反饋中學習的技術)的數據集(開源迄今為止最大的多輪 RLHF 數據集,規模達到 100 萬條)、訓練和驗證代碼。這些數據集包括侮辱、歧視、犯罪、心理傷害、悲觀情緒、色情、隱私等十余種維度的約束。

見智研究認為:PKU-Beaver(河貍)大模型RLHF數據集等內容的開源,能夠讓更多開源大模型進行安全有效的訓練,極大的解決了大模型的數據集安全性的問題。

值得關注的是:在一系列安全性問題的測試上,PKU-Beaver具有遠高于知名開源項目Alpaca的領先性優勢。

河貍采用的SafeRLHF支持主流的預訓練模型如 LLaMA、OPT等模型的訓練;支持Reward Model 和 Cost Model 訓練;參數定制化的 RLHF 和數據集定制接口;并且提供安全約束滿足的多種驗證方式。也就是說,未來開源大模型有了“安全數據庫”,開源地址為:https://github.com/PKU-Alignment/safe-rlhf

2、機器學習再升級-推理能力提高1750%

機器學習又卷出了新高度。

來自普林斯頓大學和Google DeepMind研究人員提出了一種全新的語言模型推理框架「思維樹」簡稱ToT,并表示TOT能讓大模型的推理能力提高1750%。

TOT方法可以讓大語言模型進行反復思考,特別是在推理問題的時候,會進行多種方案的評估,從而選擇表現最優的方案。

見智研究認為:相比于模型原來采用的推理方案,TOT 的出現,讓大模型似乎是有了思想,可以更自主、更智能的做出決策。

值得關注的是:該方法不僅僅可以用于數學邏輯推斷,還可以進行創意寫作。

AI快報

1、谷歌新推新音頻模型 SoundStorm

該模型能夠生成與 AudioLM 相同口徑的音頻,但它的運行速度提高了 100 倍,使用 TPU-v30 時,只需半秒即可產生 4 秒的音頻。

2、大模型并不只鸚鵡學舌,“它”也能理解語義

AI領域一直有個飽受爭議的問題,那就是:聊天機器人所采用的文本大模型是否真的理解人類語言所表述的含義?還是鸚鵡學舌?來自MIT的一篇論文,解決了這個問題。

實驗結果表明:大語言模型是可以一定程度學習到語言所傳遞內容,而不僅僅是模仿。

值得關注是:當LM超越了模仿階段,似乎能夠生成更高準確率的內容,并且對語義內容的理解度也進一步提高。論文地址:https://paperswithcode.com/paper/evidence-of-meaning-in-language-models

3、AI發現稀有DNA

機器學習推進科研究的案例來了。加州大學圣地亞哥分校的研究人員利用機器學習的力量,確定了罕見的”合成極端“DNA序列。James Kadonaga教授表示:“這種發現只能由AI來完成?!?/p>


該團隊致力于研究如何有效激活基因,從而探究生長、發育和疾病的過程。

風險提示及免責條款 市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務狀況或需要。用戶應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。

關鍵詞: