<b id="zlk11"><small id="zlk11"></small></b>
  • <b id="zlk11"><sub id="zlk11"></sub></b>

  • <rp id="zlk11"></rp>
    <var id="zlk11"></var>
    <video id="zlk11"><td id="zlk11"><output id="zlk11"></output></td></video>
      1. 安謀科技Arm China發布全新“周易” X3 NPU:算力高達80 FP8 TFLOPS

        11月18日消息,周易作為國內領先的安謀芯片IP設計與服務提供商,安謀科技近日上海舉辦新品發布會,科技正式推出了新一代“周易”X3 NPU。發布

        這也是全新安謀科技打造Arm China“All in AI”產品戰略之后,發布的算力第一款重磅產品,面向基礎設施、高達智能汽車、周易移動終端、安謀智能物聯網四大領域??萍?/p>

        它可為AI加速卡、發布智能座艙、全新ADAS高級輔助駕駛、算力具身智能機器人、高達AI PC筆記本、周易AI手機、智能網關、智能IPC網絡攝像機等提供高效的端側AI計算能力。

        安謀科技旗下擁有一系列自研產品,除了“周易”NPU,還有“星辰”CPU、“山海”SPU、“玲瓏”多媒體系列,全面覆蓋核心領域,可匹配多場景AI計算需求。

        “周易”NPU團隊成立于2018年,是國內最早的NPU研發團隊之一,可提供涵蓋硬件、軟件、工具的全棧式端到端方案,而且研發支持100%來自中國本土團隊。

        “周易”X3 NPU基于專為大模型而生的最新DSP+DSA通用架構,兼顧CNN與Transformer,有效解決端側AI大模型運行難題。

        它單個Cluster叢簇可配備最多4個核心,FP8算力8~80 TFlops(萬億次浮點計算),而且可靈活配置,單個核心的帶寬高達256GB/s。

        在架構層面,“周易”X3實現了多項創新,包括:

        - 集成自研解壓硬件WDC:

        大模型Weight軟件無損壓縮后,通過硬件解壓能獲得額外15-20%的等效帶寬提升。

        - 新增端側W4A8/W4A16計算加速模式:

        均為大模型運行必備。同構對模型權重進行低比特量化,大幅降低帶寬消耗,支持云端大模型向端側的高效遷移。

        - 集成AI專屬硬件引擎AIFF(AI Fixed-Function)與專用硬化調度器:

        可實現超低至0.5%的CPU負載與低調度延遲,靈活支持端側多任務場景和任意優先級調度場景,確保高優先級任務的即時響應。

        - 支持INT4/8/16/32、FP4/8/16/32、BF16多精度融合計算和強浮點計算:

        可靈活適配智能手機邊緣部署、AI PC推理、智能汽車等從傳統CNN到前沿大模型的數據類型需求,平衡性能與能效。

        相比上代“周易”X2,CNN模型性能提升30-50%,多核算力線性度達到70-80%。

        在同算力規格下,AIGC大模型能力較上一代產品實現10倍增長,這得益于16倍的FP16 TFLOPS、4倍的計算核心帶寬、超過10倍的Softmax和LayerNorm性能提升共同驅動。

        基于上述優化,“周易”X3 NPU的端側大模型推理更加高效。

        Llama2 7B大模型實測中,“周易”X3 NPU IP在Prefill階段算力利用率高達72%,而且在安謀科技Arm China自研解壓硬件WDC的加持下,Decode階段有效帶寬利用率超過100%,遠超行業平均水平,從而滿足大模型解碼階段的高吞吐需求。

        除了高性能硬件,“周易”X3 NPU IP還配套提供完善易用的“周易”Compass AI軟件平臺,通過軟硬一體協同設計,大大提升開發部署效率。

        Compass AI軟件平臺通過覆蓋開發全流程的工具鏈、極致的易用性優化、開放的生態布局,解決了端側AI開發“適配難、周期長、門檻高”等難題。

        作為核心工具,平臺中的NN Compiler(神經網絡編譯器)集成Parser(模型解析)、Optimizer(優化器)、GBuilder(生成器)、AIPULLM(大模型運行工具),可實現主流模型的高效轉化、自動化優化、部署配置生成。

        它還具備以下核心能力:

        - 廣泛的框架與模型支持:

        支持超過160種算子與270種模型,兼容TensorFlow、ONNX、PyTorch、Hugging Face等主流AI框架,提供開箱即用的Model Zoo。

        - 創新的Hugging Face模型“一鍵部署”:

        通過AIPULLM工具鏈,直接支持Hugging Face格式模型,實現“一站式”轉化與部署,極大降低開發門檻。

        - 先進的模型推理優化:

        業界領先的大模型動態shape支持,高效處理任意長度輸入序列;

        提供Tensor、Channel、Token Level多樣量化方式,以及GPTQ等大模型主流量化方案,并增加對LLM/VLM/VLA及MoE等模型的高性能支持。

        - 靈活的開發者賦能:

        提供多種開放接口,支持用戶模型與自定義算子的開發與調試;

        配備豐富的調試工具與Bit精度軟件仿真平臺,支持多層次白盒開發與性能調優,簡化算法移植與部署。

        - 全面的系統與異構兼容:

        支持Android、Linux、RTOS、QNX等多種操作系統,并通過TVM/ONNX實現SoC異構計算,高效調度CPU、GPU、NPU等計算資源。

        發布會現場,安謀科技還全面展示了“周易”NPU產品方案與落地成果。

        - “周易”Z1:

        算力0.32~3.75 TOPS,適用于AIoT場景,廣泛支持人臉識別、人臉及人體關鍵點檢測、文字識別等,已進入AI智能音箱等多種產品。

        - “周易”Z2/Z3:

        算力1.25~5 TOPS,面向AIoT、入門級座艙等市場,支持前視輔助駕駛方案、艙泊一體方案及安全儀表盤方案、圖像超分辨率優化等。

        - “周易”X1:

        算力10 TOPS,面向高端AIoT、汽車座艙等市場,支持駕駛員監控、乘客監控、自動泊車、AVM 360環視、AI圖像降噪等。

        - “周易”X2:

        算力10-30 TOPS,面向高端AIoT、AI PC筆記本、AI平板機、AI手機等,現場展示了運行Stable Diffusion v1.5文生圖、CLIP文搜圖的能力,可實現端側多模態AI流暢運行。

        - “周易”X3:

        算力8-80 FP8 TFLOPS,面向基礎設施、智能汽車、移動終端、AIoT等市場,現場展示了基于“周易”X3的主流大模型效果,包括運行DeepSeek-R1-Distill-Qwen-1.5B模型的文生文AI流暢對話、運行Stable Diffusion v1.5的文生圖效果、運行MiniCPM v2.6模型的圖片識別及圖生文多模態應用等,均展現出優異的端側大模型推理性能。

        推薦內容
        最斩殴美精品一二三区_手机免费Av片在线播放_精品在线欧美一区二区_亚洲欧洲自拍拍偷午夜色无码_精品3d动画肉动漫在线无码_日本高清中文字幕二区不卡