http://www.kadhoai.com.cn 2026-05-09 14:37:21 來源:Arm
隨著人工智能 (AI) 係xi統tong從cong單dan純chun運yun行xing模mo型xing逐zhu步bu演yan進jin為wei編bian排pai自zi主zhu的de代dai理li式shi工gong作zuo流liu,基ji礎chu設she施shi的de需xu求qiu正zheng在zai發fa生sheng根gen本ben性xing變bian革ge。工gong作zuo負fu載zai不bu再zai局ju限xian於yu孤gu立li的de推tui理li任ren務wu,而er是shi由you模mo型xing、工具和服務之間的成千上萬次協同交互構成。在這一全新環境中,CPU 正成為 AI 的控製中樞——負責統籌全棧的編排調度、數據流轉與係統行為調度。

為滿足這些新興需求,Arm 近期推出了 Arm AGI CPU——一款專為下一代 AI 基礎設施量身打造的處理器。Arm AGI CPU 主打高核心擴展性、高內存帶寬與係統級能效,可統籌協調 CPU、GPU 及其他加速器之間的複雜交互,並針對大規模部署場景下的性能、一致性與互操作性進行了優化。
在四月底的 2026 年 OCP EMEA 峰會上,Arm 正式宣布:歐洲雲服務提供商 Verda 將在其下一代基礎設施中部署 Arm AGI CPU,用於代理式 AI 的編排調度;並將其與基於 NVIDIA GB300 的係統,以及即將麵世的基於 NVIDIA Vera Rubin 的係統協同運行。此次落地部署印證了行業正朝著 CPU 與加速器深度融合架構的方向演進,CPU 在此類架構中承擔著核心作用,支撐可擴展、高能效 AI 係統落地。
與此同時,Arm 正通過向開放計算項目 (Open Compute Project, OCP) 持續貢獻一係列技術成果,進一步踐行其對開放、標準化基礎設施的長期承諾。這些實際落地部署與開放生態協作的雙重推進,既清晰展現了 AI 基礎設施的演進趨勢,也體現了 Arm 正為這一全新階段定義核心算力底座。
攜手 Meta 規模化落地代理式 AI
Arm 在 AGI CPU 方麵的工作,正與引領 AI 基礎設施未來發展的頭部超大規模雲服務提供商緊密協作,其中包括主要合作夥伴及客戶 Meta。此次合作體現了雙方在構建可擴展、開放平台方麵的共同願景,以應對日益複雜的 AI 工作負載需求。
AI 係統麵臨的挑戰不止於算力性能本身。係統整體效率與互操作性同樣是實現工作負載規模化的關鍵。Arm 與 Meta 正攜手推進基於 Arm AGI CPU 打造的新一代基礎設施建設,以滿足上述需求,從而實現代理式 AI 更高效的任務編排與落地部署。

Arm 與 Meta 的合作凸顯了行業整體發展趨勢:隨著超大規模雲服務提供商邁向高度集成的係統架構,CPU 在 AI 工作流管理中扮演核心角色。雙方基於開放架構與係統級設計展開協作,正攜手為下一代 AI 基礎設施築牢核心根基。
Verda 部署:AI 基礎設施的實踐落地
乘著行業發展勢頭,Verda 對 Arm AGI CPU 的部署體現了下一代 AI 係統的構建方式。通過將基於 Arm CPU 的基礎設施與 NVIDIA GB300 GPU 平台相結合,Verda 正在打造一種緊密耦合的架構,以支持代理式 AI 工作負載的規模化運行。
在該架構模式中,加速器負責提供模型執行所需的性能,CPU 則負責工作流編排、數據流轉管理及跨組件的係統行為協調。這種算力均衡架構對基於代理式 AI 係統至關重要,因為其性能不僅取決於計算吞吐能力,更依賴全棧層麵的高效協同。
Verda 的此次落地應用,反映出行業正朝著麵向 AI 優化的集成式異構係統演進,CPU 在其中正扮演核心且具有戰略意義的角色。
代理式 AI 重新定義基礎設施
傳統的 AI 流程相對線性:數據輸入,推理輸出。而代理式係統則與之不同,它們可自主規劃、推理並執行操作,往往通過跨越多個模型、服務與決策點的持續循環來完成任務。
這一轉變正推動基礎設施需求發生跨越式升級。加速器仍然負責執行模型工作負載並生成詞元 (token),而 CPU 則正日益承擔起全係統層麵的統籌協調職責。因此,CPU 的需求不僅在規模上持續增長,其重要性也在不斷提升。
隨著這類係統持續擴展,硬件平台與係統管理的一致性變得至關重要。服務器基礎係統架構 (SBSA)、服務器基礎可管理性規範 (SBMR) 等標準化架構,能夠確保複雜的多智能體工作負載在多元環境中穩定運行,無需開展定製化集成。
依托開放標準,實現 AI 基礎設施規模化擴展
隨著 AI 係統複雜度不斷提升,實現高效規模化擴展,不僅需要芯片技術革新,更需要生態在硬件、固件、係統設計與部署模式等層麵實現協同統一。
Arm 正持續貢獻多項標準規範,助力 OCP 達成生態協同,並降低合作夥伴構建Arm 架構 AI 基礎設施的門檻。這些貢獻覆蓋三大核心領域:首日部署就緒、參考設計加速方案落地、打造開放的芯粒生態。
首日部署就緒
規模化基礎設施的落地部署,需要從起步階段就具備高穩定性與高可靠性。Arm 正通過 OCP 持續優化其成熟的係統架構規範,包括 SBSA、SBMR 及 Arm 數據中心架構合規 (ADAC) 框架,為基礎設施的規模化部署提供有力支撐。
上述規範為硬件平台、係統管理與驗證構建了統一基準,使操作係統與應用程序無需修改即可在各類硬件實現版本上直接運行。配套的診斷、合規測試與係統驗證工具,可進一步幫助合作夥伴加快係統上線速度,同時降低部署後的運維風險。
參考設計加速方案落地
為縮短從芯片研發到部署落地的周期,Arm 正為基於 Arm AGI CPU 的係統提供參考服務器設計。這些設計涵蓋服務器硬件規範與固件開發框架,為合作夥伴提供滿足量產標準的技術基礎。
此ci類lei規gui範fan在zai對dui係xi統tong設she計ji核he心xin要yao素su進jin行xing標biao準zhun化hua的de同tong時shi,保bao留liu了le差cha異yi化hua定ding製zhi的de靈ling活huo空kong間jian,有you助zhu於yu簡jian化hua開kai發fa流liu程cheng,助zhu力li合he作zuo夥huo伴ban在zai各ge類lei應ying用yong場chang景jing中zhong實shi現xian更geng快kuai速su、高效的部署。
打造開放的芯粒生態
隨著 AI 基礎設施的持續演進,芯粒化設計已成為實現性能擴展與靈活性提升的關鍵。通過與 OCP 及生態合作夥伴共同推進基礎芯粒係統架構 (Foundation Chiplet System Architecture, FCSA) 工作,Arm 正在助力構建更加開放、且具備互操作性的芯粒生態係統。
該方案支持模塊化係統設計,可降低集成複雜度,幫助合作夥伴更高效地開發與部署麵向 AI 優化的芯片平台。
生態發展勢頭
Arm 與 OCP 的合作,是業界協同共建開放、規模化 AI 基礎設施進程中不可或缺的一環。
Meta 軟件工程師 Paul Saab 表示:“隨著 AI 基礎設施持續規模化擴展,全棧標準化對實現係統互操作與運行能效愈發重要。我們與 Arm 的合作,體現了雙方在推動開放平台方麵的共同願景,以支撐大規模的 AI 工作負載需求。”
OCP 首席執行官 George Tchaparian 指出:“OCP 彙聚全球社群力量,通過開放協作加速技術創新。在芯粒、係統就緒度、參考設計等領域持續輸出規範成果,是推動開放 AI 基礎設施大規模普及的關鍵。”
Verda 創始人兼首席執行官 Ruben Bryon 表示:“Verda 運營著由可再生能源驅動,專為機器學習 (ML) 團隊打造的 AI 雲平台。通過將 Arm AGI CPU 與 NVIDIA GB300 算力集群以及即將上線的 VR200 集群搭配部署,我們力求打造一套從調度編排到推理任務的 Arm 原生全棧技術,為客戶提供代理式 AI 大規模部署所需的算力密度與能效表現。”
奠定 AI 下一階段發展的基石
隨著 AI 基礎設施的持續演進,行業的成敗不僅取決於性能,更取決於能否在日趨複雜的係統環境中實現高效部署、規模化擴展與生態互通。開放標準與生態協作,將是開啟 AI 下一發展階段的關鍵支撐。
Arm 的技術路徑將高性能計算與開放、標準化的係統基礎相結合,確立了 CPU 在 AI 基礎設施中的核心層級地位。依托 Verda 等實際場景部署,以及在 OCP 中持續推進的協作,Arm 正攜手業界合作夥伴,共同構建可規模化、可商用落地的 AI 係統。