http://www.kadhoai.com.cn 2026-04-06 23:42:44 來源:每日經濟新聞
如果將人工智能(AI)比作孩子,那麼ScalingLaw(以下簡稱規模法則)就是其成長密碼;隻要“孩子”被給予足夠的“營養”,即數據、模型和算力,他就能茁壯成長。2020年,OpenAI發表論文《神經語言模型的規模法則》,為大語言模型的出現奠定了語言基礎。因此規模法則也被視為人工智能的基石。
如今,規模法則正在引領機器人領域開啟新世界的大門。
清華大學交叉信息研究院(以下簡稱IIIS)研究團隊近日在預印本網站arXiv發布的論文《機器人操作模仿學習中的數據規模法則》顯示,在數據規模法則下,機器人實現了真正的零樣本泛化,無需進行任何微調就能泛化到全新的場景和物體,成功率高達90%。所謂泛化,指的是一個模型或算法在處理未曾見過的新數據時的表現能力。
該團隊的發現表明,隻要有足夠的數據,機器人就能像ChatGPT理解語言一樣,自然地理解和適應物理世界。一時間,外界對人形機器人可能迎來“ChatGPT時刻”議論紛紛。連GoogleDeepMind的機器人專家TedXiao都稱,其對機器人大模型時代具有裏程碑意義。
針對這項最新研究,《每日經濟新聞》記者(以下簡稱NBD)於11月4日晚間專訪了該論文的作者之一、清華大學IIIS四年級博士生胡英東。
胡英東博士重點研究嵌入式AI,這是機器學習、機器人和計算機視覺交叉的前沿領域。他研究了開發通用機器人係統的基本挑戰,這些係統可以有效適應和概括他們在不同的、非結構化的現實世界環境中的學習行為。
機器人將更好適應環境
火鍋店倒水、公園疊毛巾、電梯內拔插頭……在清華大學IIIS研究團隊最新進行的研究中,便攜式手持夾爪UMI在8種從未見過的環境中展現出了超強的適應能力。
ChatGPT的問世驗證了規模法則的“智能湧現”能力——規模越大,效果越優。要提升模型效果,就需要不斷擴大參數規模、訓練數據量、計算資源的規模。但機器人領域尚未建立全麵的規模法則,因而未能取得深度學習領域那麼快的發展。
為了探究數據規模法則,清華大學IIIS研究團隊設計了物體泛化、環境泛化及環境-物(wu)體(ti)組(zu)合(he)泛(fan)化(hua)三(san)大(da)維(wei)度(du),通(tong)過(guo)係(xi)統(tong)調(tiao)整(zheng)訓(xun)練(lian)數(shu)據(ju)規(gui)模(mo),全(quan)麵(mian)評(ping)估(gu)適(shi)當(dang)的(de)數(shu)據(ju)規(gui)模(mo)能(neng)否(fou)產(chan)生(sheng)可(ke)在(zai)任(ren)何(he)環(huan)境(jing)下(xia)對(dui)幾(ji)乎(hu)任(ren)何(he)物(wu)體(ti)進(jin)行(xing)操(cao)作(zuo)的(de)機(ji)器(qi)人(ren)策(ce)略(lve)。
利用真實環境下收集的超過4萬條人類演示數據,以及嚴格評估協議下進行的超15000次ci實shi機ji測ce試shi,該gai團tuan隊dui發fa現xian,策ce略lve的de泛fan化hua性xing能neng與yu環huan境jing和he訓xun練lian時shi接jie觸chu的de物wu體ti數shu量liang呈cheng現xian顯xian著zhu的de冪mi律lv關guan係xi,即ji其qi中zhong一yi個ge量liang的de相xiang對dui變bian化hua會hui導dao致zhi另ling一yi個ge量liang的de相xiang應ying冪mi次ci比bi例li的de變bian化hua,且qie與yu初chu值zhi無wu關guan。
當(dang)環(huan)境(jing)多(duo)樣(yang)性(xing)足(zu)夠(gou)豐(feng)富(fu)時(shi),在(zai)單(dan)一(yi)環(huan)境(jing)中(zhong)過(guo)度(du)采(cai)集(ji)不(bu)同(tong)操(cao)作(zuo)物(wu)體(ti)的(de)數(shu)據(ju)所(suo)帶(dai)來(lai)的(de)效(xiao)用(yong)將(jiang)變(bian)得(de)微(wei)乎(hu)其(qi)微(wei)。而(er)且(qie),單(dan)個(ge)物(wu)體(ti)的(de)演(yan)示(shi)數(shu)據(ju)很(hen)容(rong)易(yi)達(da)到(dao)飽(bao)和(he),總(zong)演(yan)示(shi)數(shu)據(ju)達(da)到(dao)800次時,性能就開始趨於穩定。該團隊認為,每個物體有50次演示效果就基本能達到期望的泛化水平了。
最終的任務測試表明,在8種全新的場景中,機器人的成功率高達90%。這意味著機器人實現了真正的零樣本泛化,可以無需進行任何微調就能泛化到全新的場景和物體。
也就是說,團隊的發現表明,隻要有足夠的數據,機器人就能像ChatGPT理解語言一樣,自然地理解和適應物理世界!而且,這也簡化了數據收集工作,以前可能需要幾個月才能完成,現在隻需要幾天甚至一個下午。
NBD:您能否分享一下,是什麼促使團隊去探索具身智能領域的數據規模法則?是否受到了大語言模型規模法則的影響?
胡英東:是(shi)的(de),我(wo)們(men)對(dui)數(shu)據(ju)規(gui)模(mo)法(fa)則(ze)的(de)探(tan)索(suo)確(que)實(shi)部(bu)分(fen)受(shou)到(dao)大(da)語(yu)言(yan)模(mo)型(xing)的(de)啟(qi)發(fa)。大(da)模(mo)型(xing)中(zhong)規(gui)模(mo)法(fa)則(ze)已(yi)經(jing)成(cheng)為(wei)當(dang)今(jin)最(zui)基(ji)本(ben)的(de)原(yuan)則(ze)之(zhi)一(yi),它(ta)包(bao)括(kuo)三(san)個(ge)維(wei)度(du):數據、模型和算力。在探索模型和計算規模法則之前,理解數據規模法則是至關重要的。
NBD:能否用通俗的語言解釋一下數據規模法則?
胡英東:womenfaxian,shujuguimofazezhanshilejiqirencelvezaixinhuanjingzhongdexingnengyuxunlianzhongdehuanjinghewutishuliangzhijiandemilvguanxi。jiandandishuo,xunlianzhongbaohandehuanjinghewutishuliangyueduo,fanhuaxingnengyuehao。
NBD:論文中提到,提高數據質量可能比盲目增加數據量更重要。那麼,您認為如何才能有效地提高數據質量呢?是否有具體的方法或策略?
胡英東:數(shu)據(ju)質(zhi)量(liang)有(you)很(hen)多(duo)方(fang)麵(mian),但(dan)我(wo)們(men)主(zhu)要(yao)關(guan)注(zhu)數(shu)據(ju)的(de)多(duo)樣(yang)性(xing)。我(wo)們(men)發(fa)現(xian),在(zai)資(zi)源(yuan)有(you)限(xian)的(de)情(qing)況(kuang)下(xia),在(zai)更(geng)廣(guang)泛(fan)的(de)環(huan)境(jing)和(he)物(wu)體(ti)中(zhong)收(shou)集(ji)人(ren)類(lei)演(yan)示(shi)比(bi)在(zai)特(te)定(ding)環(huan)境(jing)中(zhong)使(shi)用(yong)特(te)定(ding)物(wu)體(ti)收(shou)集(ji)更(geng)多(duo)演(yan)示(shi)帶(dai)來(lai)的(de)效(xiao)果(guo)更(geng)好(hao)。
尚不足以實現商業化
盡管IIIS團tuan隊dui的de研yan究jiu表biao明ming,隻zhi需xu投tou入ru相xiang對dui較jiao少shao的de時shi間jian和he資zi源yuan,就jiu有you可ke能neng學xue習xi到dao一yi種zhong可ke在zai任ren何he環huan境jing和he對dui象xiang中zhong零ling距ju離li部bu署shu的de單dan任ren務wu策ce略lve,但dan在zai現xian實shi中zhong,要yao完wan成cheng洗xi衣yi服fu、疊衣服等一些在人類看來非常簡單的任務,AI依然麵臨不小的難度。
lunwenyezhichu,muqiandegongzuohaiyouyixiejuxianxing,tamenzhiguanzhuledanrenwucelvedeshujuguimo,bingmeiyoutansuoduorenwudetongyongxing,yinweizhexuyaocongshuqiangerenwuzhongshoujishuju。chuleshujuguimo,IIIS團隊還在模型規模化方麵有三個重要發現:視覺編碼器必須經過預訓練和完整微調,缺一不可;擴大視覺編碼器的規模能顯著提升性能;擴大擴散模型的規模沒能帶來明顯的性能提升,這一現象最讓人意外。
為了激勵更多的研究人員就此進行探索,團隊還公布了其代碼、數據和模型,希望業界最終開發出能夠解決複雜問題的通用機器人。
NBD:nimendeyanjiufaxian,tongguoshidangdeguimofaze,danrenwucelvekeyiyingyongyurenhexinhuanjinghetongyileibiezhongderenhexinduixiang。zheshifouyiweizheyidanjiqirenzhangwolezugoudeshuju,tamenjiubuxuyaojinyibuxuexile?
胡英東:這並不意味著機器人不再需要學習。雖然目前有90%的成功率,也讓人印象深刻,但對於商業化和家庭使用仍然不夠,我們需要達到99.9%以上的成功率,畢竟你不會希望一個機器人在倒水的時候有10%的概率打破你的杯子。
NBD:機器人在學習大量數據後,能夠適應各種環境。這是否預示著未來很可能會出現通用機器人?
胡英東:woxiangxinwomenjianglaihuikandaotongyongjiqiren,wobunengzhunqueyuceshishenmeshihou。womendeyanjiuzhitansuoleshujuguimo,zhengruwozhiqiantidaode,womenhaimeiyouwanquanyanjiumoxinghejisuanguimo,rengyouxuduozhongyaodeyanjiuwentixuyaojiejue。
未來值得期待
在學界的努力之外,企業界也在專注於將通用人工智能引入物理世界,旨在開發大規模人工智能模型和算法,為機器人提供動力。
OpenAI就是其中之一。11月4日,Meta增強現實眼鏡Orion團隊的負責人凱特林·卡林諾夫斯基在社交媒體上宣布,其已經加盟OpenAI,領導機器人和消費者硬件團隊。他在帖子中表示,這份新工作最初將關注OpenAI在機器人領域的工作以及相關的合作,幫助AI“進入物理世界”,解鎖對人類的好處。
同日,OpenAI被曝還參與了機器人AI初創公司PhysicalIntelligence的4億美元融資輪。本輪融資由亞馬遜創始人JeffBezos、ThriveCapital和LuxCapital領投。
PhysicalIntelligence在博客文章中提到,過去八個月裏,他們一直在為機器人開發一種“通用”的人工智能模型。PhysicalIntelligence希望這個模型能成為他們實現最終目標——開發人工通用智能(AGI)的第一步。AGI是指在各種任務上達到或超越人類智能的人工智能技術。
NBD:一些文章將你們最新的研究發現稱為“人形機器人的ChatGPT時刻”,您對此有何看法?這個時刻是否已經到來,還是需要更多的技術突破?
胡英東:我並不認為我們已經達到了“人形機器人的ChatGPT時刻”,盡管我們正在朝著這個目標快速前進。ChatGPTdeyigeguanjiantezhengshiqifeifandefanhuanengli,tanenggouzaijihurenheyonghudingyiderenwuzhongbiaoxianlianghao。suiranwomenqiangtiaojiqirenduixinhuanjinghexinwutidefanhuanengli,danzhuyaodequbiezaiyuwomendemoxinghaibushizhenzhengtongyongde,bunengchuliyonghukenenggeichudegezhonggeyangdezhiling。
NBD:研究已經在多個現實場景中得到了驗證,那麼您認為這些實驗結果有一天能轉化為實際應用嗎?
胡英東:我(wo)相(xiang)信(xin)我(wo)們(men)研(yan)究(jiu)的(de)這(zhe)項(xiang)技(ji)術(shu)最(zui)終(zhong)會(hui)進(jin)入(ru)日(ri)常(chang)實(shi)際(ji)應(ying)用(yong),例(li)如(ru),用(yong)於(yu)餐(can)館(guan)的(de)服(fu)務(wu)機(ji)器(qi)人(ren)。更(geng)有(you)意(yi)義(yi)的(de)是(shi),這(zhe)樣(yang)的(de)機(ji)器(qi)人(ren)可(ke)以(yi)應(ying)用(yong)於(yu)養(yang)老(lao)院(yuan),以(yi)協(xie)助(zhu)老(lao)年(nian)人(ren)護(hu)理(li),這(zhe)將(jiang)是(shi)特(te)別(bie)有(you)價(jia)值(zhi)和(he)影(ying)響(xiang)的(de)。