泥浆处理机

AIGC大模型能力提升10倍!安谋科技Arm China掏出最强NPU IP大招

AIGC大模型能力提升10倍!安谋科技Arm China掏出最强NPU IP大招

来源:大发系统    发布时间:2025-11-29 02:40:19

智东西11月14日消息,昨日,安谋科技正式对外发布了专为
产品详情

  智东西11月14日消息,昨日,安谋科技正式对外发布了专为端侧大模型而生的最新一代NPU IP——“周易”X3,其能够与Arm架构CPU、GPU协同,组成基于Arm生态的异构算力解决方案。

  总体来看,今天发布的“周易”X3在模型支持、硬件架构、软件生态、算力带宽、能效面效、扩展性和系统一致性等多方面进行了重点升级。

  安谋科学技术产品研发副总裁刘浩提到,在安谋科技看来,“周易”NPU团队是驱动创新的核心引擎,NPU也一直是安谋科技的战略核心产品。

  从2018年开始,安谋科技就组建了国内最早的NPU研发团队之一,目前已经交付了5代NPU,并实现了在终端领域的商业落地,据称“周易”NPU的研发和支持100%来自中国本土团队。

  刘浩提到,今天端侧需要的不是单纯的算力堆叠,而是效率优先,一个系统性的、全局优化的算力底座。

  具体来看此次发布的“周易”X3,其采用了最新的DSP+DSA架构,从定点转向浮点计算,其最核心的特点是通用、灵活、高效、软硬件紧密协同的计算架构。

  此外,“周易”X3采用了AI专属硬件引擎AIFF,配合专用硬化调度器,能轻松实现低至0.5%的CPU负载和低调度延迟。

  软件生态方面,Compass AI软件平台能够给大家提供统一的端到端工具链支持全系列“周易”NPU。

  在模型支持方面,“周易”X3支持的算子数量超越160个、支持的模型数量超越270个。

  实际性能表现方面,其CNN模型性能相较上一代提升了30-50%,在相同算力规格下,AIGC大模型能力提升了10倍左右,多核算力线%,大模型Prefill阶段算力利用率提升至72%,Decode阶段有效带宽利用率在开启安谋科技自研的解压引擎WDC情况下超过100%。

  此次在发布会现场的Demo展区,我们正真看到基于“周易”NPU IP实现的诸多场景化落地解决方案。

  比如在当下业内大火的AI视觉识物、AI读懂世界方面,基于“周易”X3,AI PC本地运行MinicpM v2.6模型,能轻松实现随时拍照随时识图,AI快速图解各类事物。

  在经典的文生图应用方面,基于“周易”X3,AI PC本地运行Stable Diffusion v1.5,能轻松实现流畅高质量的端侧文生图,从演示案例来看,图片的清晰度不错,同时生成速度仅为“秒级”,AI能够在一定程度上帮助创作者更高效地将创意想法变为现实。

  在基础的文生文应用中,我们正真看到“周易”X3能支持端侧运行DeepSeek-R1-Distill-Qwen-1.5B,AI对话的流畅度、tokens生成速度都有显而易见的提升。

  整体来看,相比前代产品,X3在性能方面的大幅度的提高以及生态方面的出色支持,带来的最直观效果就是AI应用实际体验的流畅度大幅提升。

  据了解,从加速卡、AI PC、AI手机、具身智能、智能座舱、ADAS(高级驾驶辅助系统)到智能IPC等终端,“周易”X3 NPU IP已能覆盖基础设施、智能汽车、移动终端、智能物联等领域。

  长期以来,安谋科技专注于核心IP设计,针对AI技术趋势前瞻布局,能很好的解决客户自研AI芯片的痛点。

  安谋科技当前的战略发展趋势是“AI Arm China”,也就是全力All in AI。具体来看,安谋科技会提供NPU IP、开放合作、提供完整解决方案。

  未来两年内,安谋科技会发布更多的NPU产品,我们也期待在端侧AI爆发的未来,安谋科技能够在技术和生态上带给行业更多惊喜。