中國自動化學會專家谘詢工作委員會指定宣傳媒體
新聞詳情

ADI亮相NVIDIA GTC 2026:現場展示物理智能的實際應用

http://www.kadhoai.com.cn 2026-04-07 04:59:58 來源:ADI

NVIDIA GTC 2026大會於3月16日重返聖何塞舉辦,Analog Devices, Inc. (ADI)攜最新成果參展,呈現物理智能為機器人領域帶來的革新。

今年,我們將全麵聚焦物理智能:通過傳感、信號處理、驅動與人工智能(AI)的深度融合,賦予機器人接近人類的操作能力。ADI本次參展重點在於展示支持AI的人形機器人靈巧手平台:依托ADI的電機驅動與傳感架構,真正解鎖機器人的靈巧操作能力。

操(cao)作(zuo)靈(ling)巧(qiao)性(xing)仍(reng)然(ran)是(shi)自(zi)動(dong)化(hua)領(ling)域(yu)的(de)主(zhu)要(yao)瓶(ping)頸(jing)。人(ren)類(lei)可(ke)以(yi)輕(qing)鬆(song)操(cao)控(kong)各(ge)類(lei)物(wu)體(ti),而(er)機(ji)器(qi)人(ren)在(zai)需(xu)要(yao)精(jing)細(xi)運(yun)動(dong)控(kong)製(zhi)自(zi)適(shi)應(ying)調(tiao)節(jie)與(yu)觸(chu)覺(jiao)感(gan)知(zhi)的(de)任(ren)務(wu)中(zhong)仍(reng)顯(xian)吃(chi)力(li)。此(ci)外(wai),由(you)於(yu)缺(que)乏(fa)統(tong)一(yi)標(biao)準(zhun)、公認的難度等級與可複現的測試條件,進一步阻礙了相關技術的發展。為推動行業向前發展,ADI在(zai)本(ben)次(ci)大(da)會(hui)上(shang)首(shou)次(ci)預(yu)發(fa)布(bu)一(yi)項(xiang)全(quan)新(xin)的(de)工(gong)業(ye)靈(ling)巧(qiao)度(du)基(ji)準(zhun)測(ce)試(shi)方(fang)案(an),旨(zhi)在(zai)客(ke)觀(guan)評(ping)估(gu)並(bing)加(jia)速(su)機(ji)器(qi)人(ren)操(cao)作(zuo)技(ji)術(shu)的(de)進(jin)步(bu)。工(gong)業(ye)靈(ling)巧(qiao)度(du)基(ji)準(zhun)測(ce)試(shi)方(fang)案(an)基(ji)於(yu)物(wu)理(li)感(gan)知(zhi)、高保真仿真與嚴格評估,旨在為行業提供統一衡量標尺,以加速技術創新、檢驗性能指標,並實現跨平台有效對比。

觀眾可蒞臨主展廳3203號展位,通過三大沉浸式演示,體驗ADI關於機器人靈巧操作的技術願景。

演示1:觸覺智能——麵向靈巧操作的多模態感知

如果機器人能夠憑借觸覺完成任務,將會怎樣?

本演示重點展示ADI新一代多模態觸覺傳感器原型,可實時感知接觸、滑移及精細表麵交互。人形機器人機械手僅依靠觸覺反饋(無視覺參與),即可循著網線軌跡追蹤移動,精準定位至接口位置。本演示背後的模型基於NVIDIA Isaac Sim™開發,ADI在其中構建了觸覺傳感器的數字孿生體,有效加速了仿真環境到真實場景的策略遷移。

意義所在:僅靠視覺無法實現真正的靈巧操作。借助ADI的觸覺傳感器、算suan法fa與yu物wu理li智zhi能neng技ji術shu棧zhan,機ji器qi人ren得de以yi獲huo得de麵mian向xiang下xia一yi代dai人ren形xing機ji器qi人ren平ping台tai與yu通tong用yong操cao作zuo任ren務wu所suo需xu的de精jing細xi化hua接jie觸chu感gan知zhi能neng力li。但dan如ru何he衡heng量liang真zhen實shi場chang景jing下xia的de性xing能neng表biao現xian?答da案an就jiu在zai演yan示shi2。

演示2:工業靈巧度基準測試方案與數字孿生

ADI與內外部利益相關方通力合作,在美國國家標準與技術研究院(NIST)靈巧度測試案例基礎上,開發了一套全新的、立足實際應用的靈巧度基準測試方案。首批用例包括:

  • 數據中心線纜操作
  • 汽車線束布線與安裝
  • 精密行星齒輪箱裝配

為應對這些任務中固有的從仿真到現實落地挑戰,ADI與新思科技(Synopsys)合作,共同開發了高精度、高效率的碰撞檢測與柔體仿真功能。

本演示借助支持AI的人形機器人靈巧手平台的交互式數字孿生體,呈現這一基準測試方案。本次仿真在搭載NVIDIA RTX PRO™ 6000 GPU的NVIDIA Isaac Sim中運行,展示了安裝在機械臂上的靈巧手對高保真線纜的操作過程。這一基準測試方案的首個案例充分體現了ADI對真實性與可重複性的不懈追求。

客戶可利用此仿真環境生成合成數據、訓練與驗證操作策略,實現更可靠的從仿真到真實場景的遷移,從而降低物理原型製作成本,加速產品開發。

演示3:AI驅動的人形機器人靈巧手線纜操作

如果說演示1聚焦“觸覺”,演示2聚焦開發過程,演示3則將二者融為一體。

本次現場演示呈現了端到端操作能力:傳感、感知、控製與執行協同工作,構建起一套完整係統。安裝在機械臂上的人形機器人靈巧手能夠識別線纜、抓取線纜、精準操控,並將線纜插入網口,展現出接近人類水平的精細操作能力。

ADI工程師借助NVIDIA Isaac Sim完成了本係統的開發與驗證,並借助NVIDIA SkillGen為操作技能的生成與優化提供支持。該項目還使ADI能夠持續獲得對客戶工作流程的一手洞察,為未來的產品升級提供依據。

彩蛋:Synopsys展位的雙臂機器人靈巧操作演示

ADI的機器人靈巧操作技術成果,也將在2號展廳1135號Synopsys展位進行演示。

此次聯合演示將ADI新一代觸覺傳感器與飛行時間(ToF)傳感技術相結合,並運用Ansys Mechanical多物理場仿真,以實現更高階的線纜智能操作。本演示結合了基於NVIDIA Jetson Thor™的Flexiv雙臂機器人平台,融合力覺、視覺與接觸感知,全部接入高保真數字孿生環境。

其成果是在動態工業場景中實現可預測、經過優化且穩定可靠的操作表現,充分展現了硬件、仿真與AI三大技術融合所帶來的的無限可能。

ADI在GTC 2026的內容分享

ADI團隊將在本屆NVIDIA GTC大會參與多場圓桌論壇與專題分享。

  • ADI邊緣AI副總裁Paul Golding將於3月18日(星期三)下午3:00參與圓桌論壇《極致邊緣:重新定義基於GPU的AI傳感器處理》。
  • ADI邊緣AI團隊首席工程師Philip Sharos於3月16日(星期一)下午3:00聯合主持了Synopsys展區的專題分享《縮小工業機器人的仿真到現實落地差距》。本場分享由Synopsys主辦,探討了對新型傳感技術的迫切需求,以及通過高保真仿真技術加速模型學習進程、顯著縮小工業操作領域仿真與現實落地差距。演講還涉及了ADI在創新靈巧度基準測試方麵的研究成果,並探討了Synopsys在可變形物體與連接器資源上的相關貢獻。
  • ADI新興業務事業部機器學習總監Tao Yu將於3月17日(星期二)下午2:00在Lightwheel展位(1406號)發表展區演講。

本場演講將介紹ADI與Lightwheel合作提升高精度機器人仿真保真度的項目成果,該項目通過構建一套從現實到仿真(Real2Sim)的驗證流程,將實測力值、接(jie)觸(chu)行(xing)為(wei)及(ji)可(ke)變(bian)形(xing)交(jiao)互(hu)同(tong)仿(fang)真(zhen)結(jie)果(guo)進(jin)行(xing)對(dui)比(bi)。通(tong)過(guo)將(jiang)先(xian)進(jin)傳(chuan)感(gan)技(ji)術(shu)與(yu)經(jing)校(xiao)準(zhun)的(de)物(wu)理(li)引(yin)擎(qing)相(xiang)結(jie)合(he),雙(shuang)方(fang)合(he)作(zuo)提(ti)供(gong)了(le)一(yi)套(tao)清(qing)晰(xi)的(de)評(ping)估(gu)方(fang)法(fa),用(yong)於(yu)判(pan)斷(duan)仿(fang)真(zhen)與(yu)實(shi)測(ce)的(de)吻(wen)合(he)程(cheng)度(du),目(mu)標(biao)是(shi)為(wei)依(yi)賴(lai)精(jing)細(xi)物(wu)理(li)反(fan)饋(kui)的(de)操(cao)作(zuo)係(xi)統(tong)提(ti)供(gong)更(geng)可(ke)靠(kao)的(de)訓(xun)練(lian)與(yu)評(ping)估(gu)支(zhi)持(chi)。

歡迎蒞臨GTC 2026

從觸覺智能、人形機器人操作,到工業基準測試與數字孿生,ADI全方位呈現物理智能的無限可能。

如果您正在研發新一代機器人、探索人形機器人平台,或搭建規模化自主工業係統,誠邀蒞臨NVIDIA GTC 2026大會3203號展位。我們期待與機器人領域的同仁及合作夥伴深入交流,共同展望未來方向。

版權所有 工控網 Copyright©2026 Gkong.com, All Rights Reserved