2026年4月24日--Meta與AWS宣布雙方簽署協議,Meta將大規模部署AWS Graviton處理器,代表兩家公司長期合作夥伴關係的重大進展,以支援Meta新一代AI系統建設。
本次部署初期規模達數千萬個Graviton核心,並可隨Meta AI發展需要持續擴展。本次合作亦反映AI基建架構正在轉變:雖然GPU仍主要用於大型模型訓練,但隨著Agentic AI應用增加,CPU密集型工作負載(包括即時推理、程式碼生成、搜尋及多步驟任務協調)的需求亦大幅上升。Graviton主要針對此類工作負載設計,為Meta提供大規模高效運行所需的處理能力。
這些晶片將支援Meta多種工作負載的運算需求,包括該公司的AI發展。相關工作需要能夠處理數十億次互動的基礎設施,同時協調複雜的多步驟Agentic工作流程——這正是Graviton所擅長的CPU密集型運算。
AWS Graviton晶片驅動AI工作負載
隨著愈來愈多機構採用Agentic AI——即能夠自主推理、規劃和完成複雜任務的系統——市場對高效能、節能運算基礎設施的需求亦前所未有地增長。Meta處於Agentic AI發展的尖端,其大規模部署Graviton反映一個簡單的事實:Agentic工作負載(如程式碼生成、即時推理和前瞻模型訓練)均屬CPU密集型運算,而專門設計的晶片是驅動這些工作負載最高效的方式。
Graviton5晶片配備192個核心,其快取記憶體容量為上一代的五倍,核心之間的通訊延遲最高可減少達33%。這意味著更快速的資料處理和更大的頻寬——對於需要持續推理並執行多步驟任務的Agentic AI系統而言,這些都是關鍵需求。
Graviton以AWS Nitro System為基礎,利用專屬硬體和軟體實現高效能、高可用性和高安全性。Nitro System支援裸機執行個體,讓用戶直接存取硬體,同時提供一致的Elastic Network Adapter(ENA)和Amazon Elastic Block Store(Amazon EBS)裝置,使Meta能夠在不影響效能的情況下運行自身的虛擬機器。
Graviton5執行個體系列亦支援Elastic Fabric Adapter(EFA),實現執行個體之間的低延遲、高頻寬通訊。這對Meta的Agentic AI工作負載非常重要——大規模任務需要分配到眾多處理器上協調運作。
作為AWS的長期客戶,Meta仰賴AWS高度可擴展且安全的雲端基礎設施來支援其全球業務。
Amazon副總裁兼傑出工程師Nafea Bshara表示:「這不僅僅關乎晶片,更是為客戶提供基礎設施根基,以及資料和推論服務,以建構能夠理解、預測並高效擴展至全球數十億用戶的AI。Meta擴大合作,部署數千萬個Graviton核心,展示當專門設計的晶片與完整的AWS AI技術堆疊相結合,如何驅動新一代Agentic AI。」
Meta基礎設施主管Santosh Janardhan表示:「隨著我們擴展Meta AI願景背後的基礎設施,多元化運算資源是一項策略要務。AWS多年來一直是我們值得信賴的雲端合作夥伴,擴展至Graviton讓我們能夠以所需的效能和效率,大規模運行Agentic AI背後的CPU密集型工作負載。」
Graviton的節能優勢
AWS Graviton5採用3奈米晶片技術——這種製造工藝能夠生產更小型、更高效能的處理器。由於AWS從零開始設計晶片,並全面掌控從晶片設計到伺服器架構的完整流程,因此能夠以現成處理器無法比擬的方式最佳化效能與能源效率。
最終成果是在提供更高效能的同時,保持領先的能源效率,協助Meta在追求宏大AI目標的同時,持續推進永續發展目標。Graviton5的效能較上一代提升高達25%。
隨著所有產業對AI運算的需求持續增加,底層基礎設施的效率變得愈加重要——無論是在管理成本還是減少環境影響方面。
本次合作代表大規模AI基礎設施建設方式的新篇章——以及像Graviton這樣的專門設計晶片如何協助Meta等企業,為全球數十億用戶提供更智慧、更客製化的體驗。
進一步了解AWS如何研發自研晶片,以驅動新一代AI。
如欲了解更多有關AWS Graviton5的詳情,請瀏覽:
• AWS Graviton產品頁面
• Graviton技術文件
關於Amazon Web Services
Amazon Web Services始終以客戶至上、加速創新、卓越營運和長期主義為準則。近二十年來,AWS透過推動雲端運算和生成式AI的普及,讓各行各業、不同規模的組織都能便捷地使用這些技術,進而發展成為歷史上成長最快的企業科技服務商之一。全球數百萬客戶都信賴AWS,借助AWS加速創新,推動業務轉型並塑造未來。憑藉業界領先的AI能力和覆蓋全球的基礎設施布局,AWS還助力開發者將創意轉化為現實。欲了解更多關於AWS的資訊,請至:aws.amazon.com。