ARM公司公布CPU与GPU更新计划——一切为了AI

简介:

芯片设计厂商ARM公司于本周一公布其基于DynamIQ微处理器架构的第一波处理器产品,同时亦提到经过调整的GPU芯片设计方案。

ARM公司公布CPU与GPU更新计划全部针对AI用例进行调整

ARM公司产品营销负责人John Ronco在接受电话采访时解释称,DynamIQ代表着“一种新的CPU整合方式,其能够提供更多配置选项,旨在更为灵活地实现CPU对接。”

Ronco介绍称,这项技术允许各计算核心以不同尺寸形式存在。此举相当于对2011年首次出台的big.LITTLE架构(其中各核心以分组形式存在,且不同分组间允许存在规模差异)进行扩展,且具备一系列潜在优势。举例来说,包含一个大型计算核心与七个小型计算核心的芯片能够利用较小核心执行持续性计算任务,而较大核心则面向性能密集型应用需求。

Ronco进一步解释道,“DynamIQ是一种新的计算核心拼接方式。在它的帮助下,您将能够对各计算核心进行混合与匹配,从而在自有设计方案中实现更多可能性。我们期待着看到更多用户将其中的大型计算核心引入各类中端设备之内。”

使用这种芯片架构设计的最初两款CPU分别为ARM Cortex-A75Cortex-A55,二者将于2018年第一季度开始逐步出现在各硬件制造商发布的设备当中。

Cortex-A75专为性能而生,这套设计方案可用于旗舰级手机设备、其它计算设备、基础设施以及车载系统芯片等等。根据ARM公司的说法,在主频为3 GHz的情况下,其SPECint 2006基准测试成绩可在运行速度方面超过原有Cortex-A73 50%以上。

Cortex-A55则面向效率进行调整。“其拥有极为强大的能源效率与成本效率,”Ronco指出,他同时预计这款芯片将被用于众多中端手机设备。

Ronco强调称,A55的上代产品A53已经成为目前普及范围最广的64CPU方案。

ARM公司宣称,16纳米制程的A55处理器相较于前代28纳米A53处理器,能够将能源效率提升达50%

Ronco解释道,“对于手机而言,由于其所能够提供的电池续航能力非常有限,因此持续使用时长对于用户来说可谓至关重要。”

Mali-G72 GPU

ARM公司还计划公布Mali-G72图形处理单元,以作为其Mali-G71的换代方案。该公司指出,其去年总计售出10亿块GPU,大约相当于2014年出货量的两倍。

G72针对图形密集型移动游戏、移动VR以及手机内机器学习等负载类型进行了优化,ARM公司产品营销主管Anand Patel表示。

根据Ronco的解释,目前正有越来越多的客户对于AI以及机器学习等方向抱有浓厚兴趣。“这在一定程度上改变了我们所处理的计算任务种类。”

最新的Mali设计当中包含用于强化机器学习计算能力的优化机制。举例来说,其通用矩阵到矩阵乘法(简称GEMM)计算的能源效率提升了17%

在接受电话采访时,咨询企业IDC公司分析师Abhi Dugar表示,AI类应用对于高通等大型ARM客户已经变得非常重要。



原文发布时间为: 2017年5月31日

本文作者:孙博

本文来自云栖社区合作伙伴至顶网,了解相关信息可以关注至顶网。

相关实践学习
基于阿里云DeepGPU实例,用AI画唯美国风少女
本实验基于阿里云DeepGPU实例,使用aiacctorch加速stable-diffusion-webui,用AI画唯美国风少女,可提升性能至高至原性能的2.6倍。
相关文章
|
1月前
|
人工智能 并行计算 PyTorch
【PyTorch&TensorBoard实战】GPU与CPU的计算速度对比(附代码)
【PyTorch&TensorBoard实战】GPU与CPU的计算速度对比(附代码)
37 0
|
1月前
|
机器学习/深度学习 人工智能 并行计算
GPU如何成为AI的加速器
GPU如何成为AI的加速器
34 0
|
3月前
|
人工智能 弹性计算 PyTorch
【Hello AI】神行工具包(DeepGPU)-GPU计算服务增强工具集合
神行工具包(DeepGPU)是阿里云专门为GPU云服务器搭配的GPU计算服务增强工具集合,旨在帮助开发者在GPU云服务器上更快速地构建企业级服务能力
129537 3
|
1月前
|
人工智能 缓存 机器人
【2024】英伟达吞噬世界!新架构超级GPU问世,AI算力一步提升30倍
英伟达在加州圣荷西的GTC大会上发布了全新的Blackwell GPU,这款拥有2080亿个晶体管的芯片将AI性能推向新高度,是公司对通用计算时代的超越。Blackwell采用多芯片封装设计,通过两颗GPU集成,解决了内存局部性和缓存问题,提供20 petaflops的FP4算力,是上一代产品的5倍。此外,新平台降低了构建和运行大规模AI模型的成本和能耗,使得大型语言模型推理速度提升30倍。黄仁勋表示,Blackwell标志着AI算力在近八年内增长了一千倍,引领了技术边界拓宽的新趋势。
|
1月前
|
存储 机器学习/深度学习 并行计算
阿里云服务器X86计算、Arm计算、GPU/FPGA/ASIC、高性能计算架构区别
在我们选购阿里云服务器的时候,云服务器架构有X86计算、ARM计算、GPU/FPGA/ASIC、弹性裸金属服务器、高性能计算可选,有的用户并不清楚他们之间有何区别,本文主要简单介绍下不同类型的云服务器有何不同,主要特点及适用场景有哪些。
阿里云服务器X86计算、Arm计算、GPU/FPGA/ASIC、高性能计算架构区别
|
3月前
|
人工智能 弹性计算 Ubuntu
【Hello AI】安装并使用Deepnccl-多GPU互联的AI通信加速库
Deepnccl是为阿里云神龙异构产品开发的用于多GPU互联的AI通信加速库,能够无感地加速基于NCCL通信算子调用的分布式训练或多卡推理等任务。本文主要介绍在Ubuntu或CentOS操作系统的GPU实例上安装和使用Deepnccl的操作方法。
|
3月前
|
人工智能 弹性计算 数据安全/隐私保护
带你读《弹性计算技术指导及场景应用》——1. 用AI唤醒老照片里的记忆(GPU版)
带你读《弹性计算技术指导及场景应用》——1. 用AI唤醒老照片里的记忆(GPU版)
|
3月前
|
弹性计算 人工智能 物联网
带你读《弹性计算技术指导及场景应用》——2. 三张搞定AI形象照,开启GPU即刻体验
带你读《弹性计算技术指导及场景应用》——2. 三张搞定AI形象照,开启GPU即刻体验
|
3月前
|
人工智能 弹性计算 安全
【Hello AI】GPU容器共享技术cGPU
GPU容器共享技术cGPU是阿里云基于内核虚拟GPU隔离的容器共享技术。即多个容器共享一张GPU卡,从而实现业务的安全隔离,提高GPU硬件资源的利用率并降低使用成本。
【Hello AI】GPU容器共享技术cGPU
|
3月前
|
机器学习/深度学习 并行计算 算法
简单理解CPU与GPU的区别
简单理解CPU与GPU的区别
64 0