AMD:将在机器学习GPU领域“引发从来没有过的竞争”

简介:

AMD宣布计划推出一系列人工智能产品,包括3款图形加速卡,4款OEM机箱和一系列开源软件。在这个新兴市场中,Nvidia已经发展了一段时间,英特尔和几个初创公司也都在开发替代产品。

 AMD重拳出击人工智能

AMD将在面向机器学习的GPU领域“引发以前从来没有过的竞争”,Tirias Research高级分析师Kevin Krewell这样表示。

“关键是没有那么多卡,但是有很多软件,”Krewell表示。“Nvidia提供Cuda软件来帮助人们立即开始进行编码。AMD支持OpenCL,但是现在他们有更有吸引力的解决方案。”

AMD公布了3款在Radeon Instinct新品牌下的图形卡,支持16位打包浮点运算操作,其中2款卡预计将在明年年初出货,采用现有的GPU,针对推断类的任务。

150W MI6采用Polaris GPU和16Bytes内存,通过224 Gbit/s链路提供最高5.7 TFlops的FP16峰值性能。175W MI8加速卡在2.5-D堆栈上采用Fiji Nano GPU,有4GB High-Bandwidth Memory运行在512 Gbit/s链路上,性能最高可达到8.2 TFlops。高端300W MI25卡针对培训任务,采用AMD的下一代Vega GPU,将在7月前出货。

这些卡将运行在4月新推出的MIOpen开源GPU加速库,支持像卷积、池化、激活功能、归一化和张量格式。

新的加速库是基于AMD现有的Randeon Open Compute软件,其中包括域专有的编辑器,针对线性代数和张量以及语言运行时间。该软件支持7种机器学习框架,包括Caffe、Torch 7以及Tensorflow,还有4种编程语言——Python、OIpenCL、高性能版C以及针对Nvidia的编译层。

AMD重拳出击人工智能

AMD MIOpen堆栈的定位是作为Nvidia Cuda的一个更开放的替代选择(来源:AMD)

AMD重拳出击人工智能

AMD称,新的GPU卡将打败来自Nvidia的、针对AI的竞争产品(来源:AMD)

超微宣布推出了支持AMD这三款新卡的机架式系统。Inventec也宣布两款系统支持一个机架节点最多有4个或者16个带有PCIe插槽、FPGA或者固态盘的M125 Vega卡。Inventec还展示了一款将会包含120个Vega卡、GPU计算性能最高达到3 Petaflops的机架系统。

在机器学习方面,AMD正在迎头赶上。4月,Nvidia开始出货针对高端GPU四路集群的设计,采用Nvidia独有的NV-Link技术,支持更高吞吐量、更低延迟的PCIe。并且Nvidia针对GPU计算的Cuda多年来已经被广泛采用。

上个月,英特尔详细阐述了采用至强和至强Phi处理器的计划,以及收购通过收购Nervana和Movidius以覆盖广泛的推断和培训类任务。此外像Cornami、Graphcore以及Wave Computing的初创公司已经公布了新芯片计划,据他们称,它在培训类任务方面的表现将击败GPU。

在过去两年中,机器学习已经成为Amazon、百度和Facebook等数据中心巨头的一种战略性工作负载。5月,Google宣布设计出了他们自己的AI推理加速器。

AMD计划公布一项基于采用更开放的组件的独特计划。除了新的开源加速库之外,AMD还将开放GPU指令集,针对那些希望做低等级优化的工程师们。

此外,AMD还计划支持像CCIX、GenZ连接到FPGA加速器以及存储存储这样的开放互连。与此同时,AMD也支持PCIe和单根虚拟化标准。

今年年底,AMD计划推出名为Naples的新服务器处理器,采用Zen x86核心。AMD表示,将把最低延迟的链路带入x86主机,能够在单一服务器节点中打包4-16个GPU。AMD目前已经支持GPU之间的直接内存访问(DMA),以及机架间的远程DMA。

AMD表示,与使用通用矩阵乘法(GEMM)的卷积相比,MIOpen代码将加速AI任务近3倍之多。此外AMD还分别展示了在Nvidia TitanX-Maxwell以及Pascal的DeepBench DEMM之上MI8和MI25卡显著提升的性能。

AMD重拳出击人工智能

 

AMD正在快速向前发展。它展示了两周时间内Vega采用Cuda和Caffe处理MIOpen软件中的培训任务。Vega芯片仍然供不应求,因为开发者正在致力于将传统图形软件和游戏放到Vega芯片上。

AMD Radeon部门首席架构师Raja Koduri表示,AMD的MxGPU虚拟化将提供给机器学习和游戏。

“我们的竞争对手是把游戏和人工智能分成两个部分,而我们希望把两者结合到一起,”他说。

此前,AMD公布了与数据中心巨头阿里巴巴以及Google在GPU方面的合作。

多伦多大学的研究人员称赞了MIOpen软件,他使用该软件做4位数据和汇编语言支持天文学应用程序。“我们发现人们还在谈论1位和2位数学,这说明我们在机器学习方面还处于很早起的阶段,”Xilinx副总裁Liam Madden这样表示。


原文发布时间为:2016年12月13日

本文作者:孙博

本文来自云栖社区合作伙伴至顶网,了解相关信息可以关注至顶网。

相关实践学习
基于阿里云DeepGPU实例,用AI画唯美国风少女
本实验基于阿里云DeepGPU实例,使用aiacctorch加速stable-diffusion-webui,用AI画唯美国风少女,可提升性能至高至原性能的2.6倍。
相关文章
|
1月前
|
人工智能 缓存 机器人
【2024】英伟达吞噬世界!新架构超级GPU问世,AI算力一步提升30倍
英伟达在加州圣荷西的GTC大会上发布了全新的Blackwell GPU,这款拥有2080亿个晶体管的芯片将AI性能推向新高度,是公司对通用计算时代的超越。Blackwell采用多芯片封装设计,通过两颗GPU集成,解决了内存局部性和缓存问题,提供20 petaflops的FP4算力,是上一代产品的5倍。此外,新平台降低了构建和运行大规模AI模型的成本和能耗,使得大型语言模型推理速度提升30倍。黄仁勋表示,Blackwell标志着AI算力在近八年内增长了一千倍,引领了技术边界拓宽的新趋势。
|
3月前
|
存储 人工智能 弹性计算
阿里云推出第八代企业级实例 g8i:AI 推理性能最高提升 7 倍、可支持 72B 大语言模型
1 月 11 日,全球领先的云计算厂商阿里云宣布推出第八代企业级通用计算实例 ECS g8i,这也是国内首款搭载第五代英特尔至强可扩展处理器(代号 EMR)的云计算产品。依托阿里云自研的「飞天+CIPU」架构体系,ECS g8i 实例的整机性能最高提升 85%,AI 推理性能最高提升 7 倍,可支撑高达 72B 参数的大语言模型,为 AI 提速,同时新实例还提供了端到端安全防护,为企业构建可信 AI 应用提供强有力的隐私增强算力支撑。
|
6月前
|
存储 人工智能 自然语言处理
高性能计算与多模态处理的探索之旅:英伟达GH200性能优化与GPT-4V的算力加速未来
随着人工智能技术的不断发展,多模态大模型成为越来越重要的发展趋势。GPT-4V(GPT-4 近日开放的视觉模态)大型多模型(LMMs)扩展大型语言模型(LLMs)以增强多感知技能(如视觉理解等)从而实现更强大的通用智能。本文着重对GPT-4V进行深入分析,以进一步深化对LMM的理解。在此本文分析核心是GPT-4V可以执行的任务,同时包含用于探测其能力质量和通用性的测试样本。
|
10月前
|
机器学习/深度学习 存储 人工智能
【玩转 GPU】英伟达GPU架构演变
【玩转 GPU】英伟达GPU架构演变
470 0
【玩转 GPU】英伟达GPU架构演变
|
11月前
|
机器学习/深度学习 人工智能 并行计算
详解AI加速器(四):GPU、DPU、IPU、TPU…AI加速方案有无限种可能(1)
详解AI加速器(四):GPU、DPU、IPU、TPU…AI加速方案有无限种可能
418 0
|
11月前
|
人工智能 分布式计算 算法
详解AI加速器(四):GPU、DPU、IPU、TPU…AI加速方案有无限种可能(2)
详解AI加速器(四):GPU、DPU、IPU、TPU…AI加速方案有无限种可能
463 0
|
算法 openCL 异构计算
AMD力挺OpenCL 用GPU打造通用计算神话
本文讲的是AMD力挺OpenCL 用GPU打造通用计算神话,日前,中国高性能计算年会在长沙召开,展会公布了2009年最新的中国TOP 100,国防科技大学研制的天河一号超级计算机以1 PFlops(千万亿次)的计算速度夺得了中国超算排行榜的第一名。
1749 0
|
机器学习/深度学习 存储 并行计算
深度剖析:针对深度学习的GPU共享
资源隔离 并行模式 分时复用 服务质量(QoS)保障 针对推理的上下文切换 合并共享 场景展望
1227 0
深度剖析:针对深度学习的GPU共享
|
机器学习/深度学习 存储 Kubernetes
RAPIDS加速机器学习
使用GPU实例+RAPIDS结合容器服务ACK实现快速的端到端加速机器学习任务的效果
RAPIDS加速机器学习
|
机器学习/深度学习 网络协议 大数据
GPU加速数据科学之-如何在GPU实例上使用RAPIDS加速机器学习任务
本文介绍了如何在GPU实例上基于NGC环境使用RAPIDS加速库,加速数据科学和机器学习任务,提高计算资源的使用效率。 ## 背景信息 {#section_koh_7rx_iga .section} RAPIDS,全称Real-time Acceleration Platform for Integrated Data Science,是NVIDIA针对数据科学和机器学习推出的GPU加
1515 0

热门文章

最新文章