玉林实硕医疗科技有限公司

懶人福音!谷歌讓機器訓練機器,用大語言模型定制專屬于你的家務機器人-環球即時

能根據你的喜好定制的家務機器人,來了!

想把深色衣服和淺色衣服分開洗?沒問題,機器人分分鐘就能幫你分好類:


【資料圖】

被垃圾分類的問題搞得焦頭爛額?沒關系,也交給機器人來做:

總之,分類識別、定向放置……一切都憑你的習慣。

更關鍵的是,利用大語言模型,不需要大量數據,也無需場景化學習,幾句話就能輕松調教。

這款整理機器人名為TidyBot,由谷歌與美國多所高校聯合打造,通訊作者來自普林斯頓大學。

讓機器訓練機器

對于物品整理機器人的定制,最難的一環就是用戶偏好的分析。

傳統上,這類信息需要通過海量的數據分析才能得到。

而TidyBot是使用LLM分析用戶喜好信息的。

用戶給出的具體實例,比如依據顏色將不同服飾分別放入衣柜和抽屜,會被轉換成Python風格的LLM提示信息。

最后的概述是由LLM反饋的,具體到這個例子當中,LLM生成了如下結論:

該結論在接下來的環節中會被用于判定未知物品應該被放到哪里,前一步的輸出結果在這里作為提示的開頭。

然后,LLM會輸出幾個新顏色襯衫和襪子的放置位置。

除了放置的位置,LLM也能分析其他操作信息,比如是需要“放”還是“扔”(下方Summary中的內容由LLM生成)。

同樣的,使用LLM總結出的信息可以判斷應對未知物體執行何種操作。

其他動作信息原理也都相同。

有了LLM給出的信息,接下來就要應用到實際工作中了。

TidyBot的系統中預置了很多物品的分類標簽,LLM指令的執行方式也已經由程序設定。

TidyBot首先讓圖像識別模塊判斷出物品的基本信息,然后傳給LLM生成指令,并交付執行。

TidyBot工作流程示意圖

由于只有極少量的數據需要進行區分,TidyBot具有很強的魯棒性。

同時,它能對來自任意用戶的任何物品進行分類,又有很強的靈活性。

基準測試成績亮眼

除了TidyBot本身,測試基準數據集也是該團隊的另一重要貢獻。

該數據集包含了96組以文本形式描述的任務場景,具體包括已知和未知操作方式的物品和相應的容器。

在每個場景中,容器的數量為2-5個,已知操作方式的物品數量為4-10個,未知物品數量與已知相同。

這96個場景涵蓋了客廳、臥室、廚房和儲藏室四種房間類型,每個類型24組。

測試數據集節選,完整版可從GitHub中獲取

實際環境中,由于對物品分類的方式多種多樣,團隊分別從不同分類角度對TidyBot的表現進行了測試,具體包括:

物品大類,如“服裝”和“玩具”物品屬性,如“金屬材質”和“塑料材質”物品功能,如“夏裝”和“冬裝”物品子類,如“襯衫”和“其他服裝”復合類型,如“圖書和玩具”

整體上,TidyBot的準確率達到了91.2%,超過了WordNet、RoBERTa等其他方式。

具體分類角度上的結果也是如此。

上述數據只是在理論層面對TidyBot的分類能力進行測試。

在實際應用中,TidyBot的表現同樣不俗。

團隊一共搭建了8個真實場景。

測試使用的真實場景

每個場景各包括10件物品、2-5個容器和4-10條已知信息。

測試中使用的容器和未知物品

每個場景都進行了重復測試,最終各測試了3次,即一共10*8*3=240次操作。

在這240次操作中,TidyBot的正確率達到了85%。

最后,讓我們實際看一下TidyBot在測試中的表現吧。

位置及放置方式偏好:服裝→沙發,放;木塊→抽屜,放;易拉罐→垃圾桶,扔;水果→黑色箱子,扔;零食→塑料箱,扔

本文作者:克雷西,來源:量子位,原文標題:《懶人福音!谷歌讓機器訓練機器,用大語言模型定制專屬于你的家務機器人》

風險提示及免責條款 市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務狀況或需要。用戶應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。

關鍵詞: