《自顶向下网络设计(第3版)》——2.3 网络性能

简介:

本节书摘来异步社区《自顶向下网络设计(第3版)》一书中的第2章,第2.3节,作者:【美】Priscilla Oppenheimer,更多章节内容可以访问云栖社区“异步社区”公众号查看

2.3 网络性能

自顶向下网络设计(第3版)
在分析网络设计技术要求时,你应该将客户所能接受的网络性能标准,包括吞吐量、精确度、效率、延迟和响应时间等区分出来。

现在有很多关于网络性能方面的数学性论述。本书在讨论网络性能时采用实际的非数学的方法,避免在网络性能精确描述中出现令人畏惧的数学方程式。虽然这些方程式比它们看上去要简单得多,但它们对于理解客户目标通常是没有必要的。本节的目标是为读者提供一种简单的网络性能观点,包括当你没有时间进行数学分析时从现实世界中能作出的结论。

分析客户的网络性能目标与第3章将论述的现有网络存在着紧密的联系。分析现有网络将会帮助你确定应做哪些修改才能满足性能目标。而网络性能目标还与可扩展性目标紧密相关。因此在分析性能目标之前,你应对网络增长计划拥有足够的了解。

2.3.1 网络性能的定义

除了“用户对网络的运行没有任何投诉”外,许多网络设计客户并不能量化它们的性能目标。如果出现这种情况,你可以对吞吐量、响应时间等作出假定。另一方面,其中一些客户根据与网络用户达成一致的服务水平指定了对网络性能的要求。

下面列出了网络性能目标的定义,你可以在分析精确性能要求时使用。

容量(带宽):电路或网络的数据承载能力,通常以每秒多少比特(bit/s)来衡量。
利用率:全部可用容量百分比。
最优利用率:网络饱和之前的最大平均利用率。
吞吐量:单位时间内(通常以秒为单位)节点之间成功传送无差错的数据数量。
提供的负载:在某一特定时间,准备发送的所有网络节点的所有数据的总量。
精确度:相对于全部流量,正确传送的有用的流量数量。
效率:产生一定数量的数据吞吐量需要采取多大措施的测量值。
延迟(时延):数据帧准备从一个节点传送到网络其他任何节点之间的时间。
延迟变量:平均延迟变化的时间量。
响应时间:网络业务请求和响应该请求之间的时间。

2.3.2 最优网络利用率

网络利用率是指在特定时间段所使用的带宽的测量值。利用率通常以容量的百分比来指明。例如,网络监测工具可以表明某个以太网网段的利用率是30%,这表明该网络用户使用了网络容量的30%。

网络分析工具可以使用不同的方法测量出一段时间内的带宽利用率并算出平均值。带宽的使用可以用每毫秒、每秒、每分、每小时等来计算平均值。有些工具使用加权平均的计算方法,较新值的权值要比旧值具有更大权重。第3章将更深入讨论测量网络利用率的问题。

你的客户可能已经有了一个在某个网段中所允许的最大平均网络利用率的网络设计目标。实际上,这是设计制约而不是设计目标。设计制约是,如果一个网段的利用率超过预先定义的门限值,那么就必须增加额外的网段或带宽。

对于广域网来说,最佳平均网络利用率大约为70%。70%的网络利用率门限值意味着在网络流量忙时网络性能不会出现明显降低。大部分广域网的容量比局域网低,所以在选择能满足实际、合理的变化量时,需要注意对带宽的挑选。客户有多种技术选项降低在广域网上的带宽利用率,包括高级的路由选择协议特性和数据压缩。优化带宽利用率将在第13章详细介绍。

对于局域网来说,管理员不会花费精力去监测网络利用率,因为很多局域网已经通过全双工吉比特以太网链路连接服务器,并通过百兆或吉比特以太网链路连接客户端。如果为一个全双工操作进行配置(现在都这样做),快速以太网或吉比特以太网链路可以支持同时发送和接收。因此理论上百兆快速以太网网段能够为传输通道提供100%利用率,并为接收通道提供100%利用率,也就是共200Mbit/s。但是,在大部分情况下,两个方向上的带宽并不是一直都被占用。想象以下客户端系统和服务器之间的通信,即客户端发送请求,服务器应答请求,它们会交替发送数据。客户机并不试图与服务器一样在同一时间发送数据,所以在客户机连接到以太网交换机的情况下,带宽的利用率并不是双倍的。

不过从另一方面讲,连接到一台服务器或者另一台交换机的点到点链路,依靠流量模式,可能使用全部带宽。全双工以太网正成为连接服务器、交换机和终端用户机器的标准方法,它可以从本质上提升服务器性能。全双工以太网中,交换机可以在服务器对前一个请求发送响应的同时传送客户的下一个请求。如果全双工带宽利用率超过70%,那么就该是将它升级到更大带宽的时候了。网络流量是具有突发性的,应该假定突发期间会超出平均利用率来提供局域网和广域网的容量。

2.3.3 吞吐量

吞吐量的定义是单位时间内传输的无差错数据总量。通常,吞吐量是针对某个特定连接或会话的,但在某种情况下还需说明网络的总吞吐量。网络行业新入门者经常混淆吞吐量和带宽这两个概念。记住,带宽是指容量,而且这个值是固定的。吞吐量是每单位时间内可传输的数据总量。你在测量吞吐量过程中,数值会随着网络性能特性以及你的测量方式而改变,但是带宽是给定的。

注释:

为了理解带宽和吞吐量,你可以设想一根钢管,它的容量是每分钟传输100加仑。钢管的容量(带宽)是固定的。当细流通过钢管时,吞吐量很低。当吞吐量达到70%时,你可能面临着泛洪。
理想的吞吐量应该与容量相等,但在实际的网络中,这是达不到的。容量取决于所采用的物理层技术。网络的容量应足够应对网络的可提供负载,即使在网络出现通信峰值的时候(可提供负载是指所有节点在某一特定时刻同时发送数据)。理论上讲,吞吐量应随着可提供负载的增加而增加,最大可为网络的全部容量。但网络吞吐量与介质访问方法(例如,令牌传递或载波侦听)、网络负载和差错率有关。

图2-1表示吞吐量随可提供负载成线性增长的理想状态,以及现实世界中,随着提供负载达到某一特定最大值时吞吐量逐渐减小的情况。

29531cc95c43ad1587a6516d186af40a1782b6d9

1.网络互连设备的吞吐量
有些客户是用每秒钟网络互连设备必须处理的数据包数量(pps)来指定吞吐量目标的(如果采用ATM设备,则目标为每秒钟信元数量或cps)。网络互连设备的吞吐量是指在不丢弃任何数据包的情况下,该设备所能转发数据包的最大速率。

大多数网络互连设备制造商会根据他们自己或独立的测试结果公布其产品的pps速率。为测试网络互连设备的吞吐量,工程师们可以将设备放置在流量发生器和流量检测器之间。流量发生器向以太网发送64~1518字节的数据包。通过运行多个流量发生器,可以测试多端口设计的吞吐率。

流量发生器以某一初始速率发送突发流量,该初始速率是测试条件下理论速率的一半。如果所有数据包均被接收到,则增加该速率。如果不是所有的数据包都被接收到,则降低该速率。重复进行该过程,直到达到转发数据包时不会丢失的最高速率为止。小帧的pps值比大帧的pps值要大得多,所以在阅读设备制造商提供的网络互连设备测试结果时,你一定要明白是哪个测试数值。

许多网络互连设备可以按理论上的最大值转发数据包,该最大值也被称为线速。理论最大值是用带宽除以数据包大小计算出来的,数据包大小包括包头、前导码和帧间隔在内。表2-1显示不同帧大小的100Mbit/s以太网流的理论最大pps值。

832fdfd7a44f4340d5e91448f03ec07ed6645d91

为了了解多端口设备的pps值,测试仪会向设备的多个端口发送多重数据流。你有时可以看到的设备制造商市场宣传材料上所介绍的极限值(以Cisco Catalyst 6500交换机为例,可达到40亿pps)。这一数值是通过在多个吉比特以太网端口上转发64字节的数据包所获得的。

2.应用层吞吐量
大多数最终用户都会关心应用的吞吐量。一些网络设备制造商提供的市场材料将应用层的吞吐量称为有效吞吐量(Goodput)。之所以称为有效吞吐量,是因为它测量的是单位时间内传输的有效的并与应用层相关的数据量。

吞吐量可以得到提高,从而增加每秒钟传输的数据量,但这不会增加有效吞吐量,因为所传输的额外数据都是一些开销或重传数据。要时刻记得吞吐量的意思(bit/s)。这些有效(有用的)应用层字节或仅用于协议的字节是不是可以增加吞吐量?不采用数据压缩也有可能增加吞吐量。虽然单位时间内传送的数据增多了,但用户却感到性能更差了。

以每秒数据速率衡量工作站之间的吞吐量这一简单的目标,并没有指明具体应用的要求。在指定应用吞吐量目标时,应当明确该目标指的是单位时间内传输的有效(无差错)的应用层数据。应用层吞吐量通常是以每秒千字节(KB/s)或每秒兆字节(MB/s)来测量的。

设计者应同客户一起讨论可从最大应用层吞吐量受益的所有应用吞吐量要求,如文件传输和数据库应用(吞吐量并不是对所有的应用都重要;例如一些基于字符的交互式应用就不需要整屏数据更新)。另外,设计者还应该向客户解释应用层吞吐量的制约因素,这些因素包括:

端到端的差错率;
协议功能,利用握手机制、窗口、确认应答等;
协议参数,如帧大小和重传定时器;
网络互连设备的pps或cps值;
网络互连设备的数据包或信元丢失;
工作站及服务器性能因素:
磁盘存取速度;
磁盘高速缓存大小;
设备驱动性能;
计算机总线性能(容量和仲裁方法);
处理器(CPU)性能;
内存性能(实存和虚拟内存的存取时间);
操作系统的低效率;
应用程序的低效率和缺陷。
如果有必要的话,应与客户一起将这些由协议、操作系统和应用的错误或低效率所造成的应用吞吐量问题搞清楚。协议分析仪对此会提供重要帮助。第3章将更详细地讨论各种性能问题。

2.3.4 精确度

精确度的总体目标就是目的节点接收到的数据必须与源节点发送的数据相同。引起数据错误的典型原因包括电源电涌或尖脉冲、阻抗不匹配、质量低劣的物理连接、设备失效或由电气设备引起的噪声等。虽然软件问题所引起的错误不如物理层那么普遍,但有时软件中的缺陷也可能引起数据错误。数据帧一旦出现错误就可能需要重传,因此它对吞吐量有负面影响。对于IP网络来说,传输控制协议(TCP)会提供数据重传功能。

对于广域网链路,精确度目标可以用误码率(BER)门限值来说明。如果误码率比指定的BER高,那么精确度就被认为是不可接受的。模拟链路的典型BER门限值约为1/105,数字电路的误码率比模拟链路低得多,尤其在使用了光缆的条件下。光缆链路的误码率约为1/1011,铜线链路的误码率约为1/106。

对于局域网来说,通常不会具体指定BER,这主要是因为如协议分析仪等测量工具关注的是帧而不是比特。但你可以通过比较错误帧的数量与测量工具看到的全部字节的数量来估算BER。一个好的门限值是,每106字节的数据中错帧的数量不超过1个。

在共享以太网环境中,错误通常是由冲突引起的。当两个站点试图在同一时间发送帧时,所带来的冲突就会破坏帧,引起循环冗余校验(CRC)错误。根据以太网的规模大小,在帧头部的8个前导会经常发生冲突,但故障排查工具不会对这些冲突留有任何记录。如果冲突不是发生在前导部分,而是在数据帧的前64个字节的某一区域,那么冲突会被认为是合法冲突,该帧则被称为短帧。以太网络冲突的总目标是受合法冲突影响的帧不超过0.1%(没有计算发生在前导部分的冲突)。

发生在数据帧前64个字节之后的冲突被称为滞后冲突(Late Collision)。滞后冲突是不合法的,应该避免发生。以太网经常发生大量的滞后冲突,原因是发送最小帧长的工作站无法在允许的时间间隔内侦听到其他站点。网络过大引起的额外传播延迟会导致在相距最远的节点之间发生大量的滞后冲突。出现故障的中继器和网络接口卡(NIC)也能引起滞后冲突。

冲突决不应该在全双工的以太网链路上发生。如果发生冲突,那可以肯定存在双工不匹配问题。在正确配置的全双工链路上决不会出现冲突。两台设备同时发送数据是正常的,在接收信息的时候发送信息也是正常的。因此,在这种情况下不需要冲突检测,冲突也不应该发生。第3章中将讲述更多的双工不匹配问题,以及如果它们在你的网络上引起错误时如何发现它们。

冲突也不会在广域网链路上发生。遗憾的是,Cisco路由器上show interface serial命令的输出包括了冲突计数,而这个计数本应该被忽视。Cisco 程序员使用了一个模板来输出这部分内容。这个模板基于show interface Ethernet命令的输出。另外,无论串行接口上使用了何种技术和封装方法,它也同样不会出现冲突。冲突只会在CSMA网络包括以太网、802.3、LocalTalk、Aloha和802.11这些网络上发生。冲突是CSMA的“基于争用管理”方法定义的一个普通部分(虽然使用CSMA的LocalTalk和802.11可以避免冲突,但是冲突仍可能发生)。

精确性通常指相对于传送的帧数总量无错误传送的帧的数量。精确性还能总结网络数据包重新排序的频率。数据包重新排序会在很多情况下发生,包括在单台网络设备中使用并行交换矩阵结构或者路由器间使用并行链路。虽然有针对修正数据包重新排序的高层协议,例如TCP和实时传输协议(RTP),但这个问题仍能引起一些性能的损失。也有一些应用没有使用可以修正重新排序问题的高层协议,那么这些应用就有可能受到更加更严重的影响。因为这个问题通常会被修正,所以管理员基本感觉不到。IP路由器并不是被设计来进行探测的,更不用说用来修正,由于它们不检测这种条件,因而不能将问题报告给网络管理软件。测量只能在末端主机上进行。例如,你可以使用协议分析仪在终端主机上的分析识别包的重新排序。

2.3.5 效率

效率是从理工学科借用的一个术语。它是用与所消耗的精力、能量、时间、金钱相比较的方式,度量一项操作的有效性。效率指定了为产生所需的输出要求多大的系统开销。例如,你可以测量一种烧开水方法的效率。大部分的能量是真正用来烧水了,还是许多能量都在加热电线、装水的水壶以及周围的空气中浪费了呢?生产出所需的输出要求的系统开销是多少?

效率还是谈论网络性能的有效方法。例如我们先前讨论过的共享以太网,当冲突率很高时,其效率是很低的(为成功发送帧所付出的代价是很大的,因为许多帧都经历了冲突)。网络效率明确了发送流量需要多大的开销,不论这些系统开销是否是由冲突、令牌传递、错误报告、重新路由选择、确认应答、较大的帧头、糟糕的网络设计或其他任何相关的因素引起的。

较大的帧头是导致低效率的原因之一。当带宽不足时,我们会比以前更担心帧头过大。无论怎样,对于一个带宽始终(或正在变得)不足的网络,提高网络性能的手段是使应用程序使用MAC层允许的尽可能大的数据帧来传输数据,可以最小化帧头所占用的带宽资源。使用大帧可以最大化有用的应用数据数量(与帧头数据相比),提高应用层的吞吐量。

图2-2所示为小帧所使用的带宽管道和大帧所使用的同一管道。每个帧的帧头都被标成阴影。注意,除了帧头外,每个帧之间都有帧间隔。从图上可以看出,大帧使用带宽的效率比小帧要高。

3953c1c9c1de3987e164d26e969d0d447f7c64e1

最大化帧长是前面章节讨论过的BER的一个折衷方案。帧越大,构成帧的比特越多,因此也就越容易出现错误。如果没有错误的话,一个无穷大的帧其效率将会是最高的(尽管对于其他发送者来说也最不公平)。如果帧出现错误,那么它就一定要被重传,这不仅浪费时间和效果而且也降低效率。帧越大,用来重传的带宽就浪费越多。因此,由于网络会出现错误,所以必须限制帧的大小,以达到最大的效率(并保证公平)。以太网中最大的帧是1522字节,其中包括头部、CRC和802.1Q VLAN标记。

同通常许多网络设计目标一样,在提高效率和加大数据帧尺寸的方法之间存在折衷。在低速广域网上,输出一个大尺寸帧的数据所占用的时间是很可观的。一个帧的输出时间叫串行化延迟。当传输大尺寸的帧时,串行化延迟会成为一个很大的问题,尤其在文件传输程序和声音或者视频等延迟敏感应用共享广域网链路时,更应该设法减少这种延迟。其中一个解决办法是使用ATM,把每个数据帧分成小块。其他的解决办法包括使用链路层分段和交叉选项,例如,帧中继FRF.12、多重链路帧中继(FRF.16),以及多重链路PPP等方式。

2.3.6 延迟和延迟变量

交互式应用的用户希望因网络接收反馈而造成的延迟越短越好。此外,语音和视频应用也需要数据包传输过程中经历的延迟变量达到最低。对于声音和视频应用来说,还要减少数据包延迟的变化量。延迟变化量,也称为抖动,它能引起声音质量断续和视频流的跳帧。

采用Telnet协议的应用对延迟也很敏感,因为用户希望在敲击字符时就有快速的反应。Telnet正在逐渐过时,但仍未完全消失。若使用Telnet的romote echo选项,用户键入的字符就不会出现在屏幕上,除非它被远方用户确认并回放,而且近端站点已经发送了确认回放。为了帮助你认识到一个低延迟网络的设计需求,你应该确定你的客户是否准备使用某些对延迟敏感的应用,比如语音或视频,或者基于延迟敏感协议的应用,比如Telnet。

1.引起延迟的原因
关于延迟的任何目标都必须考虑到基础物理。抛开科幻小说,任何信号都有传播延迟,这种延迟是由有限光的速度,即每秒300 000km(每秒186 000英里)的光速造成的。网络设计者们也可以记为每英尺1ns。这些值都是光在真空中的传播速度。在电缆或光纤中,信号的传播速度大约是真空中光速的2/3。

延迟与所有数据传输技术都有关,尤其对于那些卫星链路和长距离陆地电缆来说。同步卫星在距离地球约36 000km的轨道上运行着。这么长的距离导致了洲际卫星转发约有270ms的延迟。对于陆地电缆连接来说,延迟大约是每毫秒200km(120英里)。

另一个引起延迟的根本原因是将数字数据放到传输线路中的串行化延迟,这取决于数据的容量和传送线路的速度。例如,要在1.544Mbit/s的T1线上传输1024字节的数据包要花费5ms。

另一个基本的延迟是分组交换延迟。分组交换延迟(Packet Switching Delay),指的是交换机以及路由器转发数据时的延迟。这种延迟取决于内部的电路和CPU的速度以及网络互连设备的交换体系结构。也取决于设备所使用的RAM(内存)。动态RAM(DRAM)需要每秒数千次的刷新。而静态RAM(SRAM)不需要刷新,它可以提高速度,但是价格也比DRAM昂贵。低端的网络互连设备经常使用DRAM来降低费用。

在使用高端交换机的情况下,分组交换延迟可能非常小,对于64字节的以太网帧,延迟可以控制在5~20μs的范围之内。与交换机相比,路由器也许需要更长的延迟。路由器所引起的分组交换的延迟,依赖于很多因素。包括路由器体系结构、配置以及为数据包转发而优化的软件特性。尽管交换机的销售人员在市场上夸大其词,但你不应该认为与一台交换机相比,路由器需要更长的延迟时间。高档的路由器有快速CPU、SRAM、优化过的软件,以及改进了的交换矩阵,性能可以胜过很多低端或者中端的交换机。

当然,与交换机相比,路由器需进行更错综复杂的工作。概括地说,当一个数据包到达路由器时,路由器会首先检查它的路由表,以决定数据包的输出接口,同时用正确的数据链路层包头和包尾将数据包封装起来。有些路由设备制造商(例如Cisco公司)采用了高级缓存机制,这样使得确定目的地的帧的封装能够非常迅速,也就是在没有要求CPU做任何查表或者处理的前提下进行转发。这些机制使得分组交换延迟减到最小。

分组交换的速度取决于在分组交换设备上启用了哪些高级特性,以及启用特性的数量。在进行互连网络结构设计时,必须要考虑的网络设计能力,包括实现QoS、网络地址转换(NAT)、IPSec、包过滤等。必须考虑你的设计客户所希望实施的那些操作策略以及可能在分组交换延迟上受到的影响。

分组交换延迟还包括队列延迟(Queuing Delay)。在分组交换设备上,平均排队数据包数量随着利用率的增加而成指数曲线增加,如图2-3所示。如果利用率是50%,则平均队列深度为1个数据包。如果利用率为90%,则平均队列深度为9个数据包。如果不深入讨论数学排队理论的话,队列深度的大致规则是:

队列深度=利用率/(1−利用率)

a9a786cbe4eb4765157ecd1c0efb61ccb76f8483

请看下面的范例。一台分组交换机有5个用户,每个用户每秒钟提供10个数据包。数据包的平均长度是1024比特。分组交换机需要在56kbit/s的广域网链路上传输这些数据。将所有这些因素考虑在内,你可以得到如下方程式:

负载=5×10×1024=51 200bit/s

利用率=51 200/56 000=91.4%

队列中的平均数据包数量=(0.914)/(1−0.914)=10.63数据包

增加广域网链路路的带宽可以减少队列深度,从而减少延迟。此外,为改善性能,你可以使用高级的队列算法,这种算法可以优先输出某种类型的数据包——例如语音或视频数据包。高级路由器队列技术将在第13章中进一步讨论。

2.延迟变化
当客户实施新的数字语音和视频应用时,他们就会开始关心延迟及延迟变量。此外,客户也会更加关心在承载延迟敏感流量的同一网络上支持突发流量的相关问题。如果突发流量引起抖动,那么音频和视频流就会遇到通信断续的问题。

桌面音频/视频应用可以提供一个缓存,让网络把数据首先输入缓存,以此将抖动降到最低。显示软件或硬件将数据从缓存中取出。相互隔离的缓存降低了抖动的影响,因为输入端的变化量小于整个缓存的容量,因此,在输出端延迟变量并不明显。而数据在输出端变得很平滑,用户就不会受到输入端抖动的影响。

如果可能的话,你应该从客户那里收集有关延迟变量的精确要求。对于不能提供准确目标要求的客户,基本规则是变化量应低于延迟的1%~2%。例如,对于平均延迟为40ms的目标,变化量应不高于400或800ns。

固定长度的短信元(如ATM的53字节信元)天生就能比帧更好地满足延迟及延迟变量目标。为了帮助理解这个概念,请想象人们在电动扶梯上行走的场景。电动扶梯就像是带宽管道。开始时,每个人都按顺序走上电动扶梯,延迟是可预料的。但这时来了一群小学生,他们手拉手,期望立刻全部走上扶梯!如果你碰巧是在孩子们之后,那么你的延迟会怎样呢?

一群吵吵闹闹手拉着手的小学生类似于能给小帧造成额外延迟的大帧。考虑这样的情况,如果一位用户使用1518字节的帧开始传送文件,那么这位用户的数据会影响网络互连设备的带宽使用和排队机制,给其他流量造成不可预料的延迟。其中一个应用的有效吞吐量会给另一个应用带来延迟问题。

信元中继技术(例如ATM)就是为支持那些对延迟及抖动敏感的流量而设计的。根据服务的类别,ATM允许一个会话指明最大信元传输延迟(MCTD)和信元延迟变量(MCDV)。第4章将进一步描述ATM服务类别。

2.3.7 响应时间

响应时间(Response Time)是客户最关心的网络性能目标。客户不了解传播延迟和抖动,也不明白每秒多少数据包或每秒多少兆字节的吞吐量。而且他们也不关心BER(虽然他们应该关注)。用户只知道从网络系统接收到响应时间的长短。他们还知道所期望的响应时间的微小变化,当响应时间变长时,他们就会感到不安。

当响应时间超过100ms或1/10s的时候,用户就会开始变得不安。超过100ms,客户就会注意到他们在等待着网络显示网页,回应键入的字符、开始下载电子信件等。如果响应发生在100ms之内,大多数用户不会注意到任何延迟。

100ms门限值通常用作提供可靠数据传输协议的定时器值。例如,许多TCP的实现在默认情况下100ms后重传未被确认的数据。

注释:

要想合理地设置TCP协议,设计者可以根据网络的状况调整重传定时器。TCP应跟踪接收响应的平均时间,并根据所期望的延迟动态地调整重传定时器。
100ms的响应时间门限值也适用于交互式应用。对于批量应用,例如传送大型文件或图形网页,用户愿意等待至少10~20s的时间。内行用户如果知道文件很大或传输介质很慢的话,他们就能容忍更长时间的等待。如果你的网络用户并不是内行,你应该根据文件的大小及所使用的技术(调制解调器、高速数字网络、同步卫星等)提示他们所需等待的时间。

相关文章
|
2月前
|
机器学习/深度学习 计算机视觉 网络架构
【GhostNet】复现CVPR2020| 保证模型轻量化的同时,提升网络的性能表现
【GhostNet】复现CVPR2020| 保证模型轻量化的同时,提升网络的性能表现
40 0
【GhostNet】复现CVPR2020| 保证模型轻量化的同时,提升网络的性能表现
|
2月前
|
存储 缓存 UED
缓存策略与Apollo:优化网络请求性能
缓存策略与Apollo:优化网络请求性能
|
3月前
|
网络协议
使用netwox/TCP协议检测网络性能
使用netwox/TCP协议检测网络性能
|
5月前
|
Linux API 调度
深入了解DPDK:如何优化网络包处理性能(上)
深入了解DPDK:如何优化网络包处理性能
深入了解DPDK:如何优化网络包处理性能(上)
|
8月前
|
机器学习/深度学习 人工智能 自然语言处理
神经网络优化:提高AI模型性能的策略
神经网络优化是确保人工智能模型性能达到最佳的关键步骤。通过选择合适的激活函数、优化器和正则化技术,可以提高神经网络模型的准确度和泛化能力。随着深度学习领域的不断发展,神经网络优化策略也将不断进化,为人工智能技术带来更多的突破和创新。
245 1
神经网络优化:提高AI模型性能的策略
|
1月前
|
监控 负载均衡 网络协议
TCP重传与超时机制:解锁网络性能之秘
TCP重传与超时机制:解锁网络性能之秘
64 0
|
12天前
|
存储 缓存 自动驾驶
缓存策略与Apollo:优化网络请求性能
缓存策略与Apollo:优化网络请求性能
|
1月前
|
缓存 网络协议 Linux
性能工具之网络 Benchmark iperf3 快速入门
Benchmark 评估服务器之前的网络带宽简单方法,大家做性能测试是否也是这样评估网络带宽?
35 2
性能工具之网络 Benchmark iperf3 快速入门
|
4月前
[网络] 4. HTTP/1.1 相比 HTTP/1.0 提高了什么性能?
[网络] 4. HTTP/1.1 相比 HTTP/1.0 提高了什么性能?
|
4月前
|
网络协议 算法 安全
网络协议之性能优化与性能评估(二)
网络协议之性能优化与性能评估(二)
62 0
网络协议之性能优化与性能评估(二)