http://www.kadhoai.com.cn 2026-04-07 14:39:22 來源:Arm
眾所周知,人工智能 (AI) 有望革新人類活動的方方麵麵。然而,要充分釋放這一潛力,就必須麵對一個基本事實:支撐傳統計算的基礎設施已無法滿足未來 AI 發展的需求。
當前,產業已經見證了這場變革所呈現出的驚人規模:
訓練 ChatGPT-4 使用了超過 1PB 的數據——相當於兩億首歌曲連續播放長達 1,000 年。
OpenAI 每月為 10 億活躍用戶提供服務,每位用戶消耗的數據量是傳統應用的一萬倍。
到 2030 年,這場 AI 革命將帶動超過一萬億美元的基礎設施投資。

這zhe一yi爆bao炸zha性xing增zeng長chang正zheng在zai推tui動dong數shu據ju中zhong心xin的de能neng耗hao從cong兆zhao瓦wa級ji躍yue升sheng至zhi吉ji瓦wa級ji,由you此ci帶dai來lai的de限xian製zhi無wu法fa僅jin靠kao增zeng加jia更geng多duo通tong用yong服fu務wu器qi來lai解jie決jue。整zheng個ge行xing業ye必bi須xu從cong根gen本ben上shang重zhong新xin思si考kao計ji算suan基ji礎chu設she施shi的de架jia構gou設she計ji、構建方式和部署策略。那些能夠成功駕馭這場轉型的企業,將充分釋放 AI 的潛力;而未能及時跟進的企業,則極有可能麵臨被市場淘汰的風險。
在近日於舊金山舉辦的第 62 屆設計自動化大會 (DAC) 的 SKYTalk 演講中,Arm 高級副總裁兼基礎設施事業部總經理 Mohamed Awad 分享了如何擁抱基礎設施變革,抓住 AI 的萬億美元機遇的經驗與洞察。
過往技術變革的經驗啟示
Awad 表示,應對如此巨大的技術變革其實已有“藍圖”可循。在過去的 30 年(nian)裏(li),從(cong)移(yi)動(dong)計(ji)算(suan)到(dao)汽(qi)車(che)變(bian)革(ge),再(zai)到(dao)物(wu)聯(lian)網(wang)部(bu)署(shu),曆(li)次(ci)成(cheng)功(gong)的(de)技(ji)術(shu)革(ge)命(ming)都(dou)遵(zun)循(xun)著(zhe)相(xiang)似(si)的(de)發(fa)展(zhan)路(lu)徑(jing)。而(er)那(na)些(xie)最(zui)終(zhong)脫(tuo)穎(ying)而(er)出(chu)成(cheng)為(wei)領(ling)軍(jun)者(zhe)的(de)企(qi)業(ye),普(pu)遍(bian)具(ju)備(bei)以(yi)下(xia)三(san)個(ge)共(gong)同(tong)特(te)征(zheng):
追求技術領先
具備係統級思維
培育強大的生態係統
這一發展模式為 AI 轉型提供了重要借鑒。回顧移動革命,它不僅僅是處理器速度的提升,更涉及對能效優化、軟件棧乃至製造合作夥伴關係的全麵革新。同樣,汽車行業向自動駕駛和電動化轉型的過程中,也需要在芯片設計、係統架構以及生態協作等層麵采取一體化的推進策略。
Awad 表示,“要讓 AI 真正實現我們為其設定的宏偉目標,所需的其實還是同樣的路徑——技術領先、從底層開始設計的係統,以及強大的生態係統。”
基礎設施演進的迫切性
數據中心的演進過程充分展現了行業快速適應 AI 需求的能力。2020 年之前,企業主要依賴通用服務器,並通過 PCI 插槽添加加速器。到了 2020 年,重點轉向了具備 GPU 之間直連能力的集成服務器。2023 年,我們見證了 CPU 與 GPU 的高度耦合集成。而如今,行業正向完整的“AI 工廠”邁進——從芯片層麵開始,為特定負載場景打造整個服務器機櫃。
領先的科技公司正在摒棄“一刀切”的通用架構思路。NVIDIA 的 Vera Rubin AI 集群、亞馬遜雲科技 (AWS) 的 AI UltraCluster、Google 的 Cloud TPU 機櫃,以及微軟的 Azure AI 機櫃,都是針對自身獨特需求而專門打造的定製化係統,而非通用解決方案。
Awad 解釋道,“所suo有you領ling先xian的de超chao大da規gui模mo雲yun服fu務wu商shang都dou在zai做zuo同tong樣yang的de事shi情qing。他ta們men從cong芯xin片pian層ceng開kai始shi構gou建jian高gao度du集ji成cheng的de係xi統tong,根gen據ju自zi身shen的de係xi統tong需xu求qiu反fan向xiang驅qu動dong芯xin片pian層ceng的de創chuang新xin。”
這一轉變反映出整個行業達成的廣泛共識:AI 的計算需求必須依賴專為 AI 工作負載設計的基礎設施,而非在通用係統基礎上改造的解決方案。
經大規模驗證的性能表現
AWS 報告稱,過去兩年新部署的 CPU 算力中,有超過 50% 來自其搭載 Arm 架構的 Graviton 處理器。此外,包括 Amazon Redshift、Prime Day、Google 搜索和 Microsoft Teams 在內的關鍵工作負載,如今都運行在基於 Arm Neoverse 等先進技術構建的基礎設施上,實現了顯著的性能提升與能效優化。
Awad 進jin一yi步bu解jie釋shi說shuo,這zhe些xie舉ju措cuo並bing非fei出chu於yu成cheng本ben削xue減jian的de考kao量liang,而er是shi為wei了le追zhui求qiu性xing能neng。企qi業ye打da造zao定ding製zhi芯xin片pian,並bing不bu是shi因yin為wei它ta成cheng本ben更geng低di,而er是shi因yin為wei它ta能neng在zai特te定ding數shu據ju中zhong心xin環huan境jing下xia,實shi現xian通tong用yong解jie決jue方fang案an所suo無wu法fa達da到dao的de性xing能neng與yu能neng效xiao水shui平ping。
通過協作加速創新
打造定製芯片麵臨著諸多挑戰,包括高昂的成本、複雜的設計以及漫長的開發周期。解決之道在於通過協作生態係統來降低門檻、加速創新。像 Arm CSS (Compute Subsystems) 此類的預集成的計算子係統、共享的設計資源以及經過驗證的工具流程,都能顯著縮短開發周期。
已有行業實例展現了生態協作的潛力。部分合作項目通過在設計中使用預配置、預驗證的 CSS,使合作夥伴節省了 80 人/年的工程師投入,將開發周期從數年縮短至數月。Awad 表示,其中一個項目從啟動到製造出能夠在 128 個核心上運行 Linux 的芯片,僅用了 13 個月——對於頂尖的芯片開發而言,這一速度堪稱驚人。
正在興起的芯粒 (Chiplet) 生態係統,代表了行業協作的又一重大突破。像 Arm 芯粒係統架構 (Arm Chiplet System Architecture, CSA) 這(zhe)樣(yang)的(de)行(xing)業(ye)倡(chang)議(yi)正(zheng)在(zai)定(ding)義(yi)通(tong)用(yong)接(jie)口(kou)與(yu)協(xie)議(yi),諸(zhu)多(duo)亞(ya)太(tai)地(di)區(qu)的(de)合(he)作(zuo)夥(huo)伴(ban)已(yi)經(jing)參(can)與(yu)其(qi)中(zhong),共(gong)同(tong)開(kai)發(fa)標(biao)準(zhun)化(hua)的(de)計(ji)算(suan)模(mo)塊(kuai),並(bing)可(ke)按(an)需(xu)組(zu)合(he)應(ying)用(yong)於(yu)不(bu)同(tong)場(chang)景(jing),從(cong)而(er)構(gou)建(jian)更(geng)加(jia)靈(ling)活(huo)且(qie)更(geng)具(ju)成(cheng)本(ben)效(xiao)益(yi)的(de)開(kai)發(fa)路(lu)徑(jing)。此(ci)外(wai),通(tong)過(guo) Arm 全麵設計 (Arm Total Design) 等生態項目,這類協作框架將晶圓代工廠、設計服務商、IP 供應商以及固件合作夥伴緊密連接起來,以簡化整個開發流程。
軟硬件協同釋放 AI 潛力
僅靠硬件創新無法真正釋放 AI 的潛力。實現成功還需要強大的軟件生態係統作支撐——這背後凝聚了長達 15 年的持續投入:數百萬開發者的參與、廣泛的開源項目支持,以及成千上萬家供應商共同打造兼容的解決方案。

當今領先的 AI 基礎設施部署依托於成熟的軟件棧,涵蓋 Linux 發行版、雲原生技術、企業級 SaaS 應用以及 AI/ML 框架等。這種軟件的成熟度使得企業能夠放心地部署新的硬件架構,確信其整個技術堆棧可以無縫運行。
Awad 表示,“如果沒有軟件,硬件就沒有意義。這一點至關重要。因為當我們談論為 AI 而打造的加速器、設備和芯片時,人們常常會問我軟件方麵的情況。常有初創公司來找我說,‘嘿,我開發了這個很棒的硬件產品。’但當我問他們,‘有多少人專門為它開發軟件?’時,答案往往就沒那麼有說服力了。”
擁抱基礎設施變革
隨著 AI 持續呈指數級增長,基礎設施麵臨的挑戰也將愈發嚴峻。企業無法僅靠增加傳統服務器來實現擴展,他們需要的是專為 AI 工作負載優化的定製化係統,同時還必須具備在前所未有的規模下高效運行的能力。
能夠成功應對這一轉型的企業和技術,往往具備共同的特征:它(ta)們(men)通(tong)過(guo)技(ji)術(shu)領(ling)先(xian)追(zhui)求(qiu)突(tu)破(po)性(xing)性(xing)能(neng)表(biao)現(xian),采(cai)用(yong)係(xi)統(tong)級(ji)的(de)整(zheng)體(ti)思(si)維(wei)而(er)非(fei)組(zu)件(jian)級(ji)思(si)維(wei),並(bing)構(gou)建(jian)協(xie)作(zuo)型(xing)生(sheng)態(tai)係(xi)統(tong),在(zai)加(jia)速(su)創(chuang)新(xin)的(de)同(tong)時(shi)降(jiang)低(di)個(ge)體(ti)風(feng)險(xian)。
這場基礎設施變革既是挑戰,也是機遇。那些正在著手準備——通過理解這些核心原則並構建合適的技術基礎——的企業,將更有機會抓住 AI 所帶來的萬億美元級市場機遇。而仍然固守舊有模式的企業,則有可能錯失當代最大的技術機遇。
Awad 總結,“未來屬於那些已經準備好去創造它的人。”基礎設施的變革已經啟程。