对于人工智能 (AI) 而言,任何单一硬件或计算组件都无法成为适合各类工作负载的万能解决方案。AI 贯穿从云端到边缘侧的整个现代计算领域,为了满足不同的 AI 用例和需求,一个可以灵活使用 CPU、GPU 和 NPU 等不同计算引擎的异构计算平台必不可少。
依托于 Arm CPU 的性能、能效、普及性、易于编程性和灵活性,从小型的嵌入式设备到大型的数据中心,Arm CPU 已经为各种平台上的 AI 加速奠定了基础。
就灵活性而言,这对生态系统大有裨益的三个主要原因是,首先,Arm CPU 可以处理广泛的 AI 推理用例,其中许多用例通常用于数十亿台设备,例如当今的智能手机、云和数据中心。不仅如此,除了推理之外,CPU 还经常用于技术栈中的数据预处理和编排等其他任务。其次,开发者能够在更多种类的数据格式中运行更广泛的软件,而无需构建多个版本的代码。最后,CPU 的灵活性使之成为加速 AI 工作负载的理想工具。
除了 CPU 产品组合外,Arm 计算平台还包括 GPU 和 NPU 等 AI 加速器技术,许多市场都在将这些技术与 CPU 进行集成。