http://www.kadhoai.com.cn 2026-04-07 06:16:19 來源:Arm
你聽過莫拉維克悖論 (Moravec's paradox) 嗎?該悖論指出,對於人工智能 (AI) 係xi統tong而er言yan,高gao級ji推tui理li隻zhi需xu非fei常chang少shao的de計ji算suan能neng力li,而er實shi現xian人ren類lei習xi以yi為wei常chang的de感gan知zhi運yun動dong技ji能neng卻que需xu要yao耗hao費fei巨ju大da的de計ji算suan資zi源yuan。實shi質zhi上shang,與yu人ren類lei本ben能neng可ke以yi完wan成cheng的de基ji本ben感gan官guan任ren務wu相xiang比bi,複fu雜za的de邏luo輯ji任ren務wu對dui AI 而言更加容易。這一悖論凸顯了現階段的 AI 與人類認知能力之間的差異。
人本來就是多模態的。我們每個人就像一個智能終端,通常需要去學校上課接受學識熏陶(訓練),但訓練與學習的目的和結果是我們有能力自主工作和生活,而不需要總是依賴外部的指令和控製。
我們通過視覺、語言、聲音、觸覺、味覺和嗅覺等多種感官模式來了解周圍的世界,進而審時度勢,進行分析、推理、決斷並采取行動。
經過多年的傳感器融合和 AI 演(yan)進(jin),機(ji)器(qi)人(ren)現(xian)階(jie)段(duan)基(ji)本(ben)上(shang)都(dou)配(pei)備(bei)有(you)多(duo)模(mo)態(tai)傳(chuan)感(gan)器(qi)。隨(sui)著(zhe)我(wo)們(men)為(wei)機(ji)器(qi)人(ren)等(deng)邊(bian)緣(yuan)設(she)備(bei)帶(dai)來(lai)更(geng)多(duo)的(de)計(ji)算(suan)能(neng)力(li),這(zhe)些(xie)設(she)備(bei)正(zheng)變(bian)得(de)愈(yu)加(jia)智(zhi)能(neng),它(ta)們(men)能(neng)夠(gou)感(gan)知(zhi)周(zhou)圍(wei)環(huan)境(jing),理(li)解(jie)並(bing)以(yi)自(zi)然(ran)語(yu)言(yan)進(jin)行(xing)溝(gou)通(tong),通(tong)過(guo)數(shu)字(zi)傳(chuan)感(gan)界(jie)麵(mian)獲(huo)得(de)觸(chu)覺(jiao),以(yi)及(ji)通(tong)過(guo)加(jia)速(su)計(ji)、陀螺儀與磁力計等的組合,來感知機器人的比力、角速度,甚至機器人周圍的磁場。
邁入機器人和機器認知的新時代
在 Transformer 和大語言模型 (LLM) 出現之前,要在 AI 中實現多模態,通常需要用到多個負責不同類型數據(文本、圖像、音頻)的單獨模型,並通過複雜的過程對不同模態進行集成。
而在 Transformer 模型和 LLM 出現後,多模態變得更加集成化,使得單個模型可以同時處理和理解多種數據類型,從而產生對環境綜合感知能力更強大的 AI 係統。這一轉變大大提高了多模態 AI 應用的效率和有效性。
雖然 GPT-3 等 LLM 主要以文本為基礎,但業界已朝著多模態取得了快速進展。從 OpenAI 的 CLIP 和 DALL·E,到現在的 Sora 和 GPT-4o,都是向多模態和更自然的人機交互邁進的模型範例。例如,CLIP 可理解與自然語言配對的圖像,從而在視覺和文本信息之間架起橋梁;DALL·E 旨在根據文本描述生成圖像。我們看到 Google Gemini 模型也經曆了類似的演進。
2024 年,多模態演進加速發展。今年二月,OpenAI 發布了 Sora,它ta可ke以yi根gen據ju文wen本ben描miao述shu生sheng成cheng逼bi真zhen或huo富fu有you想xiang象xiang力li的de視shi頻pin。仔zai細xi想xiang想xiang,這zhe可ke以yi為wei構gou建jian通tong用yong世shi界jie模mo擬ni器qi提ti供gong一yi條tiao頗po有you前qian景jing的de道dao路lu,或huo成cheng為wei訓xun練lian機ji器qi人ren的de重zhong要yao工gong具ju。三san個ge月yue後hou,GPT-4o 顯著提高了人機交互的性能,並且能夠在音頻、視覺和文本之間實時推理。綜合利用文本、視覺和音頻信息來端到端地訓練一個新模型,消除從輸入模態到文本,再從文本到輸出模態的兩次模態轉換,進而大幅提升性能。
在今年二月的同一周,穀歌發布了 Gemini 1.5,將上下文長度大幅擴展至 100 萬個詞元 (Token)。這意味著 1.5 Pro 可以一次性處理大量信息,包括一小時的視頻、11 小時的音頻、包含超過三萬多行代碼或 70 萬個單詞的代碼庫。Gemini 1.5 基於穀歌對 Transformer 和混合專家架構 (MoE) 的領先研究而構建,並對可在邊緣側部署的 2B 和 7B 模型進行了開源。在五月舉行的 Google I/O 大會上,除了將上下文長度增加一倍,並發布一係列生成式 AI 工具和應用,穀歌還探討了 Project Astra 的未來願景,這是一款通用的 AI 助手,可以處理多模態信息,理解用戶所處的上下文,並在對話中非常自然地與人交互。
作為開源 LLM Llama 背後的公司,Meta 也加入了通用人工智能 (AGI) 的賽道。
這種真正的多模態性大大提高了機器智能水平,將為許多行業帶來新的範式。
例如,機器人的用途曾經非常單一,它們具備一些傳感器和運動能力,但一般來說,它們沒有“大腦”來學習新事物,無法適應非結構化和陌生環境。
多模態 LLM 有望改變機器人的分析、推理和學習能力,使機器人從專用轉向通用。PC、服fu務wu器qi和he智zhi能neng手shou機ji都dou是shi通tong用yong計ji算suan平ping台tai中zhong的de佼jiao佼jiao者zhe,它ta們men可ke以yi運yun行xing許xu多duo不bu同tong種zhong類lei的de軟ruan件jian應ying用yong來lai實shi現xian豐feng富fu多duo彩cai的de功gong能neng。通tong用yong化hua將jiang有you助zhu於yu擴kuo大da規gui模mo,產chan生sheng規gui模mo化hua的de經jing濟ji效xiao應ying,價jia格ge也ye能neng隨sui著zhe規gui模mo擴kuo大da而er大da幅fu降jiang低di,進jin而er被bei更geng多duo領ling域yu采cai用yong,從cong而er形xing成cheng一yi個ge良liang性xing循xun環huan。
Elon Musk 很早就注意到了通用技術的優勢,特斯拉的機器人從 2022 年的 Bumblebee 發展到 2023 年三月宣布的 Optimus Gen 1 和 2023 年年底的 Gen 2,其通用型和學習能力不斷提高。在過去的 6 至 12 個月裏,我們見證了機器人和人形機器人領域所取得的一係列突破。
下一代機器人和具身智能背後的新技術
毋庸置疑的是我們在具身智能達到量產方麵還有很多工作要做。我們需要更輕便的設計、更長的運行時間,以及速度更快、功能更強大的邊緣計算平台來處理和融合傳感器數據信息,從而做出及時決策和控製行動。
而(er)且(qie)我(wo)們(men)正(zheng)朝(chao)著(zhe)創(chuang)造(zao)人(ren)形(xing)機(ji)器(qi)人(ren)的(de)方(fang)向(xiang)發(fa)展(zhan),人(ren)類(lei)文(wen)明(ming)數(shu)千(qian)年(nian),產(chan)生(sheng)出(chu)無(wu)處(chu)不(bu)在(zai)的(de)專(zhuan)為(wei)人(ren)類(lei)設(she)計(ji)的(de)環(huan)境(jing),而(er)人(ren)形(xing)機(ji)器(qi)人(ren)係(xi)統(tong)由(you)於(yu)形(xing)體(ti)與(yu)人(ren)們(men)類(lei)似(si),有(you)望(wang)能(neng)夠(gou)在(zai)人(ren)類(lei)生(sheng)存(cun)的(de)環(huan)境(jing)中(zhong)駕(jia)輕(qing)就(jiu)熟(shu)地(di)與(yu)人(ren)類(lei)和(he)環(huan)境(jing)互(hu)動(dong)並(bing)執(zhi)行(xing)所(suo)需(xu)的(de)操(cao)作(zuo)。這(zhe)些(xie)係(xi)統(tong)將(jiang)非(fei)常(chang)適(shi)合(he)處(chu)理(li)髒(zang)汙(wu)、危險和枯燥的工作,例如患者護理和康複、酒店業的服務工作、教(jiao)育(yu)領(ling)域(yu)的(de)教(jiao)具(ju)或(huo)學(xue)伴(ban),以(yi)及(ji)進(jin)行(xing)災(zai)難(nan)響(xiang)應(ying)和(he)有(you)害(hai)物(wu)質(zhi)處(chu)理(li)等(deng)危(wei)險(xian)任(ren)務(wu)。此(ci)類(lei)應(ying)用(yong)利(li)用(yong)人(ren)形(xing)機(ji)器(qi)人(ren)類(lei)人(ren)的(de)屬(shu)性(xing)來(lai)促(cu)進(jin)人(ren)機(ji)自(zi)然(ran)交(jiao)互(hu),在(zai)以(yi)人(ren)為(wei)中(zhong)心(xin)的(de)空(kong)間(jian)中(zhong)行(xing)動(dong),並(bing)執(zhi)行(xing)傳(chuan)統(tong)機(ji)器(qi)人(ren)通(tong)常(chang)難(nan)以(yi)完(wan)成(cheng)的(de)任(ren)務(wu)。
許多 AI 和機器人企業圍繞如何訓練機器人在非結構化的新環境中更好地進行推理和規劃,展開了新的研究與協作。作為機器人的新“大腦”,yuxianjingguodaliangshujuxunliandemoxingjuyouchusedefanhuanengli,shidejiqirennengzuodaojianguaibuguai,gengquanmiandilijiehuanjing,genjuganguanfankuitiaozhengdongzuohexingdong,zaigezhongdongtaihuanjingzhongyouhuaxingneng。
舉一個有趣的例子,Boston Dynamics 的機器狗 Spot 可以在博物館裏當導遊。Spot 能夠與參觀者互動,向他們介紹各種展品,並回答他們的問題。這可能有點難以置信,但在該用例中,比起確保事實正確,Spot 的娛樂性、互動性和細膩微妙的表演更加重要。
Robotics Transformer:機器人的新大腦
Robotics Transformer (RT) 正在快速發展,它可以將多模態輸入直接轉化為行動編碼。在執行曾經見過的任務時,穀歌 DeepMind 的 RT-2 較上一代的 RT-1 表現一樣出色,成功率接近 100%。但是,使用 PaLM-E(麵向機器人的具身多模態語言模型)和 PaLI-X(大規模多語言視覺和語言模型,並非專為機器人設計)訓練後,RT-2 具有更出色的泛化能力,在未曾見過的任務中的表現優於 RT-1。
微軟推出了大語言和視覺助手 LLaVA。LLaVA 最初是為基於文本的任務設計的,它利用 GPT-4 的強大功能創建了多模態指令遵循數據的新範式,將文本和視覺組件無縫集成,這對機器人任務非常有用。LLaVA 一經推出,就創下了多模態聊天和科學問答任務的新紀錄,已超出人類平均能力。
正如此前提到的,特斯拉進軍人形機器人和 AI 通用機器人領域的意義重大,不僅因為它是為實現規模化和量產而設計的,而且因為特斯拉為汽車設計的 Autopilot 的強大完全自動駕駛 (FSD) 技術基礎可用於機器人。特斯拉也擁有智能製造用例,可以將 Optimus 應用於其新能源汽車的生產過程。
Arm 是未來機器人技術的基石
Arm 認為機器人腦,包括“大腦”和“小腦”,應該是異構 AI 計算係統,以提供出色的性能、實時響應和高能效。

機器人技術涉及的任務範圍廣泛,包括基本的計算(比如向電機發送和接收信號)、先進的數據處理(比如圖像和傳感器數據解讀),以及運行前文提到的多模態 LLM。CPU 非常適合執行通用任務,而 AI 加速器和 GPU 可以更高效地處理並行處理任務,如機器學習 (ML) 和圖形處理。還可以集成圖像信號處理器和視頻編解碼器等額外加速器,從而增強機器人的視覺能力和存儲/傳輸效率。此外,CPU 還應該具備實時響應能力,並且需要能夠運行 Linux 和 ROS 軟件包等操作係統。
當擴展到機器人軟件堆棧時,操作係統層可能還需要一個能夠可靠處理時間關鍵型任務的實時操作係統 (RTOS),以及針對機器人定製的 Linux 發行版,如 ROS,它可以提供專為異構計算集群設計的服務。我們相信,SystemReady 和 PSA Certified 等由 Arm 發起的標準和認證計劃將幫助擴大機器人軟件的開發規模。SystemReady 旨在確保標準的 Rich OS 發行版能夠在各類基於 Arm 架構的係統級芯片 (SoC) 上運行,而 PSA Certified 有助於簡化安全實現方案,以滿足區域安全和監管法規對互聯設備的要求。
大型多模態模型和生成式 AI 的進步預示著 AI 機器人和人形機器人的發展進入了新紀元。在這個新時代,要使機器人技術成為主流,除了 AI 計算和生態係統,能效、安全性和功能安全必不可少。Arm 處理器已廣泛應用於機器人領域,我們期待與生態係統密切合作,使 Arm 成為未來 AI 機器人的基石。