1. 聚能聊>
  2. 话题详情

摩尔定律已死?GPU会取代CPU的位置吗?

北京举办的NVIDIA GTC China会议中,无论是AI智能运算,还是服务器数据中心、智能城市,甚至还有去年很火热但是已经很多人已经支撑不下去的虚拟现实,看起来在很多内心中依然是属于图形行业代表的NVIDIA已经变得越来越丰满,不过在这些新闻的背后,似乎还有更大胆的预言:摩尔定律已死,GPU最终会取代CPU。

摩尔定律是由英特尔(Intel)创始人之一戈登·摩尔(Gordon Moore)提出来的。其内容为:当价格不变时,集成电路上可容纳的元器件的数目,约每隔18-24个月便会增加一倍,性能也将提升一倍。换言之,每一美元所能买到的电脑性能,将每隔18-24个月翻一倍以上。这一定律揭示了信息技术进步的速度。

尽管这种趋势已经持续了超过半个世纪,摩尔定律仍应该被认为是观测或推测,而不是一个物理或自然法。预计定律将持续到至少2015年或2020年 。然而,2010年国际半导体技术发展路线图的更新增长已经放缓在2013年年底,之后的时间里晶体管数量密度预计只会每三年翻一番。

CPU和GPU之所以大不相同,是由于其设计目标的不同,它们分别针对了两种不同的应用场景。CPU需要很强的通用性来处理各种不同的数据类型,同时又要逻辑判断又会引入大量的分支跳转和中断的处理。这些都使得CPU的内部结构异常复杂。而GPU面对的则是类型高度统一的、相互无依赖的大规模数据和不需要被打断的纯净的计算环境。  于是CPU和GPU就呈现出非常不同的架构

  • GPU采用了数量众多的计算单元和超长的流水线,但只有非常简单的控制逻辑并省去了Cache。而CPU不仅被Cache占据了大量空间,而且还有有复杂的控制逻辑和诸多优化电路,相比之下计算能力只是CPU很小的一部分
    screenshot

从上图可以看出:Cache, local memory: CPU > GPU Threads(线程数): GPU > CPURegisters: GPU > CPU 多寄存器可以支持非常多的Thread,thread需要用到register,thread数目大,register也必须得跟着很大才行。SIMD Unit(单指令多数据流,以同步方式,在同一时间内执行同一条指令): GPU > CPU。 CPU 基于低延时的设计:
screenshot

  • CPU有强大的ALU(算术运算单元),它可以在很少的时钟周期内完成算术计算。当今的CPU可以达到64bit 双精度。执行双精度浮点源算的加法和乘法只需要1~3个时钟周期。CPU的时钟周期的频率是非常高的,达到1.532~3gigahertz(千兆HZ, 10的9次方).大的缓存也可以降低延时。保存很多的数据放在缓存里面,当需要访问的这些数据,只要在之前访问过的,如今直接在缓存里面取即可。复杂的逻辑控制单元。当程序含有多个分支的时候,它通过提供分支预测的能力来降低延时。数据转发。 当一些指令依赖前面的指令结果时,数据转发的逻辑控制单元决定这些指令在pipeline中的位置并且尽可能快的转发一个指令的结果给后续的指令。这些动作需要很多的对比电路单元和转发电路单元。
    screenshot

GPU是基于大的吞吐量设计。GPU的特点是有很多的ALU和很少的cache. 缓存的目的不是保存后面需要访问的数据的,这点和CPU不同,而是为thread提高服务的。如果有很多线程需要访问同一个相同的数据,缓存会合并这些访问,然后再去访问dram(因为需要访问的数据保存在dram中而不是cache里面),获取数据后cache会转发这个数据给对应的线程,这个时候是数据转发的角色。但是由于需要访问dram,自然会带来延时的问题。GPU的控制单元(左边黄色区域块)可以把多个的访问合并成少的访问。GPU的虽然有dram延时,却有非常多的ALU和非常多的thread. 为啦平衡内存延时的问题,我们可以中充分利用多的ALU的特性达到一个非常大的吞吐量的效果。尽可能多的分配多的Threads.通常来看GPU ALU会有非常重的pipeline就是因为这样。所以与CPU擅长逻辑控制,串行的运算。和通用类型数据运算不同,GPU擅长的是大规模并发计算,这也正是密码破解等所需要的。所以GPU除了图像处理,也越来越多的参与到计算当中来。

什么类型的程序适合在GPU上运行? 

(1)计算密集型的程序。所谓计算密集型(Compute-intensive)的程序,就是其大部分运行时间花在了寄存器运算上,寄存器的速度和处理器的速度相当,从寄存器读写数据几乎没有延时。可以做一下对比,读内存的延迟大概是几百个时钟周期;读硬盘的速度就不说了,即便是SSD, 也实在是太慢了。 

(2)易于并行的程序。GPU其实是一种SIMD(Single Instruction Multiple Data)架构, 他有成百上千个核,每一个核在同一时间最好能做同样的事情。

您是否了解GPU呢?

您认为CPU会被GPU取代吗?

您了解CPU现在最大的瓶颈吗?

参与话题

奖品区域 活动规则 已 结束

  • 奖品一

    淘公仔 x 1

  • 奖品二

    阿里云代金券 x 5

222个回答

0

1756657619926847 已获得阿里云代金券 复制链接去分享

GPU完全超越CPU的运算能力,想要取而代之,只是升级的决心和利益的权衡

张维-IT·教育 回复

有时候会不会有种,寸有所短尺有所长的感觉呢。

阿片 回复

个人看,不可能。

评论
1

笨笨的粽子妞 已获得阿里云代金券 复制链接去分享

您是否了解GPU呢?
接触过。但是因为目前电脑不支持GPU,所以使用不是很多。
您认为CPU会被GPU取代吗?
不会被完全取代,因为部门行业还是需要CPU的,而且很难全面普及到GPU上。
您了解CPU现在最大的瓶颈吗?
性能问题。

笨笨的粽子妞 回复

求公仔~

评论
1

szm. 已获得阿里云代金券 复制链接去分享

对于GPU最深的印象就是显卡核心,它最大的作用就是处理图形,当然,目前很多科学计算工具,以及挖矿都需要GPU超强的计算能力。

我认为GPU不会取代CPU。首先,他们的作用是不同的,CPU主要逻辑处理,而GPU主要是图形处理,CPU因为要响应用户的操作,所以有中断,需要大的缓存来存储临时数据,而GPU更加专注于计算,和绘制多边形,所以可以看出来他们的功能差距还是比较大的。因此我认为他们是相辅相成的,而不是可以互相替代的,如果想让GPU代替CPU,只会是把他们两个融合,可以参考现在的集显。

目前CPU的速度对于普通的用户来说已经绰绰有余了,对于科学计算工作来说很不足,因为CPU是作为实时系统的核心,需要实时处理各种中断,并且需要根据新加入任务的优先级进行处理,所以单纯的计算能力受到了限制。在CPU和数据之间还有硬盘这个十分慢速的设备,导致了CPU受到了限制,我认为这是他的瓶颈。

1

北方的郎 已获得阿里云代金券 复制链接去分享

您是否了解GPU呢?
图形处理器(英语:Graphics Processing Unit,缩写:GPU),又称显示核心、视觉处理器、显示芯片,是一种专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上图像运算工作的微处理器。
您认为CPU会被GPU取代吗?
不会,因为各有侧重,CPU侧重通用型,而GPU侧重高并发。再加上大量的历史应用,CPU不会被GPU取代。
从通用型上来说CPU〉GPU〉FPGA(Intel收购的Altera就是为了这个)。它们都有自己的应用场景。
您了解CPU现在最大的瓶颈吗?
感觉还是并行计算能力吧,这也是现在GPU大放光彩的原因。不过如果量子计算实现了,这些都不是问题了。

给个笔记本呗,呵呵。

1

陈序婷 已获得阿里云代金券 复制链接去分享

您是否了解GPU呢?
GPU我在之前的话题谈到,个人认为它就是计算的视觉神经。一个专门的图像处理工具。就像我们的摄像头负责图像采集,GPU负责图像的分析。
您认为CPU会被GPU取代吗?
暂时不会,目前CPU和GPU还是两个单独的、有明确分工的东西。就像摄像头不会去代替鼠标一样。就算技术进一步发展,把它们集成到一起,对于大型、专业的服务器来说可能还是采用单独的GPU和CPU。一个比较典型且具有参考性的例子就是集显和独显。
您了解CPU现在最大的瓶颈吗?
我认为它最大的瓶颈不在自己,而在上面的CPU。目前GPU的处理能力是比较强大的,但是很多时候都会出现等待CPU的情况。

0

1294107860354075 复制链接去分享

认识的还不够

小彪彪啊 回复

噜啦啦噜啦啦

爱菲 回复

看好新技术

广告较慢 回复

买买买

dixo 回复

智能超越

tom233 回复

好厉害样子

自然之宝 回复

两种不同的应用,没有谁取代谁的

评论
0

浮生递归 已获得淘公仔 复制链接去分享

公仔公仔公仔~
您是否了解GPU呢?
一点点吧,毕竟天天靠他过日子,总要懂些。每次配电脑,显卡基本上都是最贵的那个配件。很多人都只知道关注CPU、硬盘、内存,却忽视了显卡的重要性,所以导致配出来的电脑卡成翔,哈哈

您认为CPU会被GPU取代吗?
不会,虽然有相同之处,也有不同之处,且无法替代。只是说,在相同的功能领域,CPU会被GPU超越,但是不同的领域,GPU跟CPU没有可比性。

您了解CPU现在最大的瓶颈吗?
并行算力不足,以及提升空间有限。相对而言,GPU的提升空间还很大。

3

柠木 复制链接去分享

在现在看来我觉得GPU要取代掉CPU有点悬,它可能还需要有一些其他方面的突破,现如今的GPU大多数还是主要用于图像处理,正是因为它的传,故造就了它的强,但CPU是通用的数据处理器,在数值处理方面它的能力和地位还是现在的GPU无法超过的,在短期来看,还是会以CPU为主,GPU还无法取代它的地位。

2

1024007458270625 复制链接去分享

参加了2017杭州云栖大会,对阿里云有了新认识!

1

sqtnbyy 复制链接去分享

您是否了解GPU呢?
不太了解,只知道好像是人工智能AI用的多。

您认为CPU会被GPU取代吗?
不会吧,它们不是互补的嘛。

您了解CPU现在最大的瓶颈吗?
不知道,只知道现在的PC性能实在一般,如果性能强大的话,电脑也许会有许多不一样的玩法。

1

东方之义 复制链接去分享

这个现在芯片设计与实现的门槛已经这么低了,为嘛话题还是十年前的GPU与CPU之争?感觉纯粹是为了显卡好卖在炒作!在功能上,硬件和软件是等效的,现在还没人说明白所谓的AI服务的瓶颈究竟在哪里,拿着CPU和GPU的架构在这掐,不觉得无聊吗?到时候需要解决什么问题,就设计什么样的处理器就好了,至少华为已经开始做精简指令集的AI芯片了。

0

chjchj009 复制链接去分享

怎样才能用到gpu

0

清风一阵 复制链接去分享

认真的吗?

0

1191305966291271 复制链接去分享

GPU似乎不存在超越CPU,但GPU发展到一定程度时,可能架构的改变会使其具备一些特殊计算并行提高计算能力,

0

星辉博宇 复制链接去分享

飘过

0

空明竹随 复制链接去分享

反正我不在意这些

0

1841808465820410 复制链接去分享

近三年不会被取代

0

傲剑 复制链接去分享

必须要有所突破,中国实现绕道超车

0

1887407278679039 复制链接去分享

全是纯技术性的,难怪没有评论的

0

1887407278679039 复制链接去分享

全是纯技术性的,难怪没有评论的

12