日本人妻久久中文字幕精品,黄色内裤逼里插着的好看,手机在线观看一级午夜片,日韩免费久久人妻一区网站

網(wǎng)絡(luò)消費(fèi)網(wǎng) >  科技 > > 正文
機(jī)器人領(lǐng)域出了個(gè)“RoboGPT”:一個(gè)模型處理不同感官輸入 來自谷歌
時(shí)間:2022-12-15 19:03:47

懶得打掃房間,那就直接交給機(jī)器人來做吧。


(資料圖)

想吃零食了,機(jī)器人也能幫你服務(wù),薯片和紙巾都給你貼心備好。

而且,這個(gè)機(jī)器人只需要一個(gè)單一的預(yù)訓(xùn)練模型,就能從不同的感官輸入 (如視覺、文本等)中生成命令,來執(zhí)行多種任務(wù)。

要知道,在以往機(jī)器人執(zhí)行命令時(shí),處理這些不同的任務(wù)時(shí),IO 規(guī)范、神經(jīng)網(wǎng)絡(luò)體系結(jié)構(gòu)和目標(biāo)等都是不一樣的。

現(xiàn)在,這個(gè)問題谷歌解決了,他們研究出了適用于機(jī)器人領(lǐng)域的 Transformer 模型:RT-1,甚至被人戲稱為 RoboGPT。

圖源:推特 @Jim Fan

更重要的是,RT-1 代碼已開源!

具體原理

先來整體看看 RT-1,它執(zhí)行任務(wù)主要依靠的就是:7+3+1。

所謂 7,是指它的手臂有 7 個(gè)自由度,分別是 x,y,z,滾動(dòng),俯仰,偏航,手爪開口。

3 是指基礎(chǔ)運(yùn)動(dòng)的三個(gè)維度,即在地面運(yùn)動(dòng)時(shí)的 x,y,偏航。

1 則指 RT-1 的整體控制,即切換這三種模式:控制手臂,基礎(chǔ)運(yùn)動(dòng),或終止任務(wù)。

圖源:Everyday Robots

而 RT-1 執(zhí)行任務(wù)時(shí),它的底層邏輯還是純粹的監(jiān)督式學(xué)習(xí),要做好監(jiān)督式學(xué)習(xí),就得具備兩個(gè)條件:

豐富的數(shù)據(jù)集 和強(qiáng)大的神經(jīng)結(jié)構(gòu)。

首先是數(shù)據(jù)集,RT-1 是在一個(gè)大規(guī)模的、真實(shí)世界的機(jī)器人數(shù)據(jù)集上進(jìn)行訓(xùn)練的,可以用 4 個(gè)數(shù)字來概括:13 萬、700+、13、17,分別表示:

包括 13 萬個(gè)片段;

涵蓋 700 多個(gè)任務(wù);

使用了 13 個(gè)機(jī)器人;

歷時(shí) 17 個(gè)月。

然后就是 RT-1 的結(jié)構(gòu)了,它執(zhí)行任務(wù)的過程如下圖所示。

具體來說,圖像和文本先通過 ImageNet 預(yù)訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)(EfficientNet)進(jìn)行處理。

在這其中,為了確保文本和圖像同路能夠很好地被整合在一起,RT-1 還使用了 FiLM 層,這是一種通過語言嵌入來調(diào)節(jié)視覺活動(dòng)的經(jīng)典技術(shù)。

這樣一來,RT-1 便能很好地提取與手頭任務(wù)相關(guān)的視覺特征。

然后這些視覺特征會(huì)被 Token Learner 模塊計(jì)算成一組緊湊的 token 傳遞給 Transformer,這使得機(jī)器人的推理速度能夠提高 2.4 倍以上。

接下來 Transformer 會(huì)來處理這些 token 并產(chǎn)生離散化的操作 token,而操作 token 便是一開始說的那個(gè) 7+3+1 了。

通過控制手臂,基礎(chǔ)運(yùn)動(dòng)以及模式便能夠執(zhí)行任務(wù)了。

在執(zhí)行任務(wù)的整個(gè)過程中,RT-1 還會(huì)以 3Hz 的頻率執(zhí)行閉環(huán)控制和命令操作,直到產(chǎn)生終止操作或用完預(yù)先設(shè)置的時(shí)間步驟數(shù)。

不過話說回來,既然這個(gè)機(jī)器人能夠執(zhí)行多任務(wù),那它執(zhí)行通用任務(wù)時(shí)的能力到底如何呢?

研究人員分別測試了 RT-1 對干擾物數(shù)量(第一行)、不同背景和環(huán)境(第二行)以及真實(shí)場景(第三行)的魯棒性。

并與其他基于模仿學(xué)習(xí)的基線進(jìn)行比較,結(jié)果如下圖所示(第一項(xiàng)為訓(xùn)練期間的表現(xiàn))。

顯而易見,在每個(gè)任務(wù)類別中,RT-1 都明顯優(yōu)于以前的模型。

研究團(tuán)隊(duì)

這個(gè)機(jī)器人來自谷歌,研究團(tuán)隊(duì)的成員也比較龐大,分別來自三個(gè)研究團(tuán)隊(duì):

首先是 Robotics at Google,它是 Google Research 下的一個(gè)細(xì)分領(lǐng)域團(tuán)隊(duì),目前正在探索“如何教機(jī)器人可轉(zhuǎn)移的技能”。

并且他們也在不斷公開其訓(xùn)練的數(shù)據(jù),以幫助推進(jìn)這一領(lǐng)域的最先進(jìn)水平。

然后是 Everyday Robots ,它是 X-登月工廠的一個(gè)細(xì)分領(lǐng)域團(tuán)隊(duì),和谷歌團(tuán)隊(duì)一起工作,目前他們正在制造一種新型機(jī)器人,一個(gè)可以自學(xué)的,可以幫助任何人做任何事情的通用機(jī)器人。

還有就是 Google Research,它是 Google 公司內(nèi)部進(jìn)行各種最先進(jìn)技術(shù)研究的部門,他們也有自己的開源項(xiàng)目,在 GitHub 公開。

關(guān)鍵詞: token rt-1

版權(quán)聲明:
    凡注明來網(wǎng)絡(luò)消費(fèi)網(wǎng)的作品,版權(quán)均屬網(wǎng)絡(luò)消費(fèi)網(wǎng)所有,未經(jīng)授權(quán)不得轉(zhuǎn)載、摘編或利用其它方式使用上述作品。已經(jīng)本網(wǎng)授權(quán)使用作品的,應(yīng)在授權(quán)范圍內(nèi)使用,并注明"來源:網(wǎng)絡(luò)消費(fèi)網(wǎng)"。違反上述聲明者,本網(wǎng)將追究其相關(guān)法律責(zé)任。
    除來源署名為網(wǎng)絡(luò)消費(fèi)網(wǎng)稿件外,其他所轉(zhuǎn)載內(nèi)容之原創(chuàng)性、真實(shí)性、完整性、及時(shí)性本站不作任何保證或承諾,請讀者僅作參考并自行核實(shí)。
熱文

網(wǎng)站首頁 |網(wǎng)站簡介 | 關(guān)于我們 | 廣告業(yè)務(wù) | 投稿信箱
 

Copyright © 2000-2020 hngelin.com All Rights Reserved.
 

中國網(wǎng)絡(luò)消費(fèi)網(wǎng) 版權(quán)所有 未經(jīng)書面授權(quán) 不得復(fù)制或建立鏡像
 

聯(lián)系郵箱:920 891 263@qq.com

備案號:京ICP備2022016840號-15

營業(yè)執(zhí)照公示信息

绵竹市| 临澧县| 大田县| 杨浦区| 甘洛县| 合肥市| 云龙县| 东台市| 安义县| 剑阁县| 时尚| 西乌珠穆沁旗| 望谟县| 凤翔县| 三原县| 大竹县| 南川市| 湖北省| 宁国市| 桐庐县| 晋中市| 罗甸县| 德兴市| 深水埗区| 晋宁县| 临朐县| 安新县| 南漳县| 阳原县| 卫辉市| 鄯善县| 盖州市| 兴宁市| 子洲县| 肃北| 遂川县| 德保县| 眉山市| 广汉市| 监利县| 南康市|