![]() 新浪科技訊 11月24日晚間消息,聯合利用在近日的大高2025 AI容器應用落地與發展論壇上,華為公司副總裁、布并數據存儲產品線總裁周躍峰正式發布AI容器技術——Flex:ai。開源同時,容器華為聯合上海交通大學、技術西安交通大學與廈門大學共同宣布,助力資源將此項產學合作成果向外界開源,破解助力破解算力資源利用難題。算力 當前,難題AI產業高速發展催生海量算力需求,聯合利用但全球算力資源利用率偏低的大高問題日益凸顯,“算力資源浪費”成為產業發展的布并關鍵桎梏:小模型任務獨占整卡導致資源閑置,大模型任務單機算力不足難以支撐,開源大量缺乏GPU/NPU的容器通用服務器更是處于算力“休眠”狀態,供需錯配造成嚴重的資源浪費。 本次發布并開源的Flex:ai XPU池化與調度軟件,是基于Kubernetes容器編排平臺構建,通過對GPU、NPU等智能算力資源的精細化管理與智能調度,實現AI工作負載與算力資源的精準匹配,可大幅提升算力利用率。 據介紹,該技術深度融合了三大高校與華為的科研力量,形成三大核心技術突破:針對AI小模型訓推場景中“一張卡跑一個任務”的資源浪費問題,華為與上海交通大學聯合研發XPU池化框架,可將單張GPU或NPU算力卡切分為多份虛擬算力單元,實現算力單元的按需切分,使此類場景下的整體算力平均利用率提升30%;針對大量通用服務器因缺乏智能計算單元而無法服務于AI工作負載的問題,華為與廈門大學聯合研發跨節點拉遠虛擬化技術。該技術將集群內各節點的空閑XPU算力聚合形成“共享算力池”,促進通用算力與智能算力資源融合;面對算力集群中多品牌、多規格異構算力資源難以統一調度的痛點,華為與西安交通大學共同打造Hi Scheduler智能調度器,實現AI工作負載分時復用資源。即便在負載頻繁波動的場景下,也能保障AI工作負載的平穩運行。 海量資訊、精準解讀,盡在新浪財經APP 責任編輯:何俊熹 |


海量資訊、精準解讀,盡在新浪財經APP