memcache的原理和命中率的总结

简介:

1       Memcache是什么
Memcache是danga.com的一个项目,最早是为 LiveJournal 服务的,目前全世界不少人使用这个缓存项目来构建自己大负载的网站,来分担数据库的压力。
它可以应对任意多个连接,使用非阻塞的网络IO。由于它的工作机制是在内存中开辟一块空间,然后建立一个HashTable,Memcached自治理这些HashTable。
   
为什么会有Memcache和memcached两种名称?
实在Memcache是这个项目的名称,而memcached是它服务器真个主程序文件名,
    
Memcache官方网站:http://www.danga.com/memcached,
2       Memcache工作原理
首先 memcached 是以守护程序方式运行于一个或多个服务器中,随时接受客户真个连接操纵,客户端可以由各种语言编写,目前已知的客户端 API 包括 Perl/PHP/Python/Ruby/Java/C#/C 等等。客户端在与 memcached 服务建立连接之后,接下来的事情就是存取对象了,每个被存取的对象都有一个唯一的标识符 key,存取操纵均通过这个 key 进行,保存到 memcached 中的对象实际上是放置内存中的,并不是保存在 cache 文件中的,这也是为什么 memcached 能够如此高效快速的原因。留意,这些对象并不是持久的,服务停止之后,里边的数据就会丢失。
与很多 cache 工具类似,Memcached 的原理并不复杂。它采用了C/S的模式,在 server 端启动服务进程,在启动时可以指定监听的 ip,自己的端口号,所使用的内存大小等几个关键参数。一旦启动,服务就一直处于可用状态。Memcached 的目前版本是通过C实现,采用了单进程,单线程,异步I/O,基于事件 (event_based) 的服务方式.使用 libevent 作为事件通知实现。多个 Server 可以协同工作,但这些 Server 之间是没有任何通讯联系的,每个 Server 只是对自己的数据进行治理。Client 端通过指定 Server 真个 ip 地址(通过域名应该也可以)。需要缓存的对象或数据是以 key->value 对的形式保存在Server端。key 的值通过 hash 进行转换,根据 hash 值把 value 传递到对应的具体的某个 Server 上。当需要获取对象数据时,也根据 key 进行。首先对 key 进行 hash,通过获得的值可以确定它被保存在了哪台 Server 上,然后再向该 Server 发出请求。Client 端只需要知道保存 hash(key) 的值在哪台服务器上就可以了。

        实在说到底,memcache 的工作就是在专门的机器的内存里维护一张巨大的 hash 表,来存储经常被读写的一些数组与文件,从而极大的进步网站的运行效率。


memcache 命中率

首先查看,

在linux或window上有telnet连接memcache,然后输入stats会出现下面的命令,这些状态的说明如下:

pid
memcache服务器的进程ID

uptime
服务器已经运行的秒数

time
服务器当前的unix时间戳

version
memcache版本

pointer_size
当前操作系统的指针大小(32位系统一般是32bit)

rusage_user
进程的累计用户时间

rusage_system
进程的累计系统时间

curr_items
服务器当前存储的items数量

total_items
从服务器启动以后存储的items总数量

bytes
当前服务器存储items占用的字节数

curr_connections
当前打开着的连接数

total_connections
从服务器启动以后曾经打开过的连接数

connection_structures
服务器分配的连接构造数

cmd_get
get命令(获取)总请求次数

cmd_set
set命令(保存)总请求次数

get_hits
总命中次数

get_misses
总未命中次数

evictions
为获取空闲内存而删除的items数(分配给memcache的空间用满后需要删除旧的items来得到空间分配给新的items)

bytes_read
总读取字节数(请求字节数)

bytes_written
总发送字节数(结果字节数)

limit_maxbytes
分配给memcache的内存大小(字节)

threads
当前线程数

一、缓存命中率 = get_hits/cmd_get * 100%
二、get_misses的数字加上get_hits应该等于cmd_get
三、total_items == cmd_set == get_misses,当可用最大内存用光时,memcached就会删掉一些内容,等式就会不成立

memcached/scripts/memcached-tool



Memcached,人所皆知的remote distribute cache(不知道的可以javaeye一下下,或者google一下下,或者baidu一下下,但是鉴于baidu的排名商业味道太浓(从最近得某某事件可以看出),所以还是建议javaeye一下下),使用起来也非常的简单,它被用在了很多网站上面,几乎很少有大型的网站不会使用memcached。 

曾经我也看过很多剖析memcached内部机制的文章,有一点收获,但是看过之后又忘记了,而且没有什么深刻的概念,但是最近我遇到一个问题,这个问题迫使我重新来认识memcache,下面我阐述一下我遇到的问题 

问题:我有几千万的数据,这些数据会经常被用到,目前来看,它必须要放到memcached中,以保证访问速度,但是我的memcached中数据经常会有丢失,而业务需求是memcached中的数据是不能丢失的。我的数据丢失的时候,memcached server的内存才使用到60%,也就是还有40%内存被严重的浪费掉了。但不是所有的应用都是这样,其他应用内存浪费的就比较少。为什么内存才使用到60%的时候LRU就执行了呢(之所以确定是LRU执行是因为我发现我的数据丢失的总是前面放进去的,而且这个过程中,这些数据都没有被访问,比如第一次访问的时候,只能访问第1000w条,而第300w条或者之前的数据都已经丢失了,从日志里看,第300w条肯定是放进去了)。 

带着这些疑问,我开始重新审视memcached这个产品,首先从它的内存模型开始:我们知道c++里分配内存有两种方式,预先分配和动态分配,显然,预先分配内存会使程序比较快,但是它的缺点是不能有效利用内存,而动态分配可以有效利用内存,但是会使程序运行效率下降,memcached的内存分配就是基于以上原理,显然为了获得更快的速度,有时候我们不得不以空间换时间。 

也就是说memcached会预先分配内存,对了,memcached分配内存方式称之为allocator,首先,这里有3个概念: 
1 slab 
2 page 
3 chunk 
解释一下,一般来说一个memcahced进程会预先将自己划分为若干个slab,每个slab下又有若干个page,每个page下又有多个chunk,如果我们把这3个咚咚看作是object得话,这是两个一对多得关系。再一般来说,slab得数量是有限得,几个,十几个,或者几十个,这个跟进程配置得内存有关。而每个slab下得page默认情况是1m,也就是说如果一个slab占用100m得内存得话,那么默认情况下这个slab所拥有得page得个数就是100,而chunk就是我们得数据存放得最终地方。 

举一个例子,我启动一个memcached进程,占用内存100m,再打开telnet,telnet localhost 11211,连接上memcache之后,输入stats slabs,回车,出现如下数据: 

  1. STAT 1:chunk_size 80  

  2. STAT 1:chunks_per_page 13107  

  3. STAT 1:total_pages 1  

  4. STAT 1:total_chunks 13107  

  5. STAT 1:used_chunks 13107  

  6. STAT 1:free_chunks 0  

  7. STAT 1:free_chunks_end 13107  

  8. STAT 2:chunk_size 100  

  9. STAT 2:chunks_per_page 10485  

  10. STAT 2:total_pages 1  

  11. STAT 2:total_chunks 10485  

  12. STAT 2:used_chunks 10485  

  13. STAT 2:free_chunks 0  

  14. STAT 2:free_chunks_end 10485  

  15. STAT 3:chunk_size 128  

  16. STAT 3:chunks_per_page 8192  

  17. STAT 3:total_pages 1  

  18. STAT 3:total_chunks 8192  

  19. STAT 3:used_chunks 8192  

  20. STAT 3:free_chunks 0  

  21. STAT 3:free_chunks_end 8192  

以上就是前3个slab得详细信息 
chunk_size表示数据存放块得大小,chunks_per_page表示一个内存页page中拥有得chunk得数量,total_pages表示每个slab下page得个数。total_chunks表示这个slab下chunk得总数(=total_pages * chunks_per_page),used_chunks表示该slab下已经使用得chunk得数量,free_chunks表示该slab下还可以使用得chunks数量。 

从上面得示例slab 1一共有1m得内存空间,而且现在已经被用完了,slab2也有1m得内存空间,也被用完了,slab3得情况依然如此。 而且从这3个slab中chunk得size可以看出来,第一个chunk为80b,第二个是100b,第3个是128b,基本上后一个是前一个得1.25倍,但是这个增长情况我们是可以控制得,我们可以通过在启动时得进程参数 –f来修改这个值,比如说 –f 1.1表示这个增长因子为1.1,那么第一个slab中得chunk为80b得话,第二个slab中得chunk应该是80*1.1左右。 

解释了这么多也该可以看出来我遇到得问题得原因了,如果还看不出来,那我再补充关键的一句:memcached中新的value过来存放的地址是该value的大小决定的,value总是会被选择存放到chunk与其最接近的一个slab中,比如上面的例子,如果我的value是80b,那么我这所有的value总是会被存放到1号slab中,而1号slab中的free_chunks已经是0了,怎么办呢,如果你在启动memcached的时候没有追加-M(禁止LRU,这种情况下内存不够时会out of memory),那么memcached会把这个slab中最近最少被使用的chunk中的数据清掉,然后放上最新的数据。这就解释了为什么我的内存还有40%的时候LRU就执行了,因为我的其他slab中的chunk_size都远大于我的value,所以我的value根本不会放到那几个slab中,而只会放到和我的value最接近的chunk所在的slab中(而这些slab早就满了,郁闷了)。这就导致了我的数据被不停的覆盖,后者覆盖前者。 

问题找到了,解决方案还是没有找到,因为我的数据必须要求命中率时100%,我只能通过调整slab的增长因子和page的大小来尽量来使命中率接近100%,但是并不能100%保证命中率是100%(这话怎么读起来这么别扭呢,自我检讨一下自己的语文水平),如果您说,这种方案不行啊,因为我的memcached server不能停啊,不要紧还有另外一个方法,就是memcached-tool,执行move命令,如:move 3 1,代表把3号slab中的一个内存页移动到1号slab中,有人问了,这有什么用呢,比如说我的20号slab的利用率非常低,但是page却又很多,比如200,那么就是200m,而2好slab经常发生LRU,明显page不够,我就可以move 20 2,把20号slab的一个内存页移动到2号slab上,这样就能更加有效的利用内存了(有人说了,一次只移动一个page,多麻烦啊?ahuaxuan说,还是写个脚本,循环一下吧)。 

有人说不行啊,我的memcache中的数据不能丢失啊,ok,试试新浪的memcachedb吧,虽然我没有用过,但是建议大家可以试试,它也使利用memcache协议和berkeleyDB做的(写到这里,我不得不佩服danga了,我觉得它最大的贡献不是memcache server本身,而是memcache协议),据说它被用在新浪的不少应用上,包括新浪的博客。 

补充,stats slab命令可以查看memcached中slab的情况,而stats命令可以查看你的memcached的一些健康情况,比如说命中率之类的,示例如下:

  1. STAT pid 2232  

  2. STAT uptime 1348  

  3. STAT time 1218120955  

  4. STAT version 1.2.1  

  5. STAT pointer_size 32  

  6. STAT curr_items 0  

  7. STAT total_items 0  

  8. STAT bytes 0  

  9. STAT curr_connections 1  

  10. STAT total_connections 3  

  11. STAT connection_structures 2  

  12. STAT cmd_get 0  

  13. STAT cmd_set 0  

  14. STAT get_hits 0  

  15. STAT get_misses 0  

  16. STAT bytes_read 26  

  17. STAT bytes_written 16655  

  18. STAT limit_maxbytes 104857600  


从上面的数据可以看到这个memcached进程的命中率很好,get_misses低达0个,怎么回事啊,因为这个进程使我刚启动的,我只用telnet连了一下,所以curr_connections为1,而total_items为0,因为我没有放数据进去,get_hits为0,因为我没有调用get方法,最后的结果就是misses当然为0,哇哦,换句话说命中率就是100%,又yy了。 

该到总结的时候了,从这篇文章里我们可以得到以下几个结论: 
结论一,memcached得LRU不是全局的,而是针对slab的,可以说是区域性的。 
结论二,要提高memcached的命中率,预估我们的value大小并且适当的调整内存页大小和增长因子是必须的。 
结论三,带着问题找答案理解的要比随便看看的效果好得多。

特别说明:尊重作者的劳动成果,转载请注明出处哦~~~http://blog.yemou.net/article/query/info/tytfjhfascvhzxcyt267
相关文章
|
3月前
|
消息中间件 缓存 NoSQL
redis的缓存击穿,缓存穿透,缓存雪崩
redis的缓存击穿,缓存穿透,缓存雪崩
31 0
|
3月前
|
存储 缓存 监控
Redis 7.0性能大揭秘:如何优化缓存命中率?
Redis 7.0,这货不仅仅是一个简单的缓存工具,它更是一款高性能的数据结构服务器。现在,大家都知道缓存命中率对性能影响特别大,但怎么优化它呢?
|
9月前
|
存储 缓存 NoSQL
redis实战-缓存穿透、缓存击穿、缓存雪崩
redis实战-缓存穿透、缓存击穿、缓存雪崩
149 0
|
9月前
|
缓存 NoSQL 数据库
【Redis】缓存雪崩、缓存穿透、缓存击穿
【Redis】缓存雪崩、缓存穿透、缓存击穿
43 0
|
9月前
|
缓存 NoSQL 数据库
Redis 缓存穿透、缓存雪崩、缓存击穿
Redis 缓存穿透、缓存雪崩、缓存击穿
46 0
|
缓存 运维 监控
Redis学习(十):缓存穿透、缓存击穿和缓存雪崩
key对应的数据在数据源中并不存在,每次针对此key的请求从缓存获取不到,这些请求都会压入数据源中,从而可能压垮数据源。
108 0
Redis学习(十):缓存穿透、缓存击穿和缓存雪崩
|
缓存 NoSQL 数据库
缓存—Redis穿透、并发、雪崩
系统收到用户频繁查询请求时,先从缓存中查找数据,如果缓存中有数据,直接从缓存中读取数据,返回给请求方;如果缓存中没有数据,则从数据库中读取数据,然后再更新到缓存中,这样下次再次获取时从缓存中获取。
83 0
|
缓存 NoSQL 数据库
一篇文章搞清楚Redis 缓存预热,缓存击穿,缓存雪崩,缓存穿透。
一篇文章搞清楚Redis 缓存预热,缓存击穿,缓存雪崩,缓存穿透。
161 0
|
存储 缓存 NoSQL
【Redis】缓存穿透、缓存击穿、缓存雪崩(面试必备)
【Redis】缓存穿透、缓存击穿、缓存雪崩(面试必备)
【Redis】缓存穿透、缓存击穿、缓存雪崩(面试必备)
|
存储 缓存 NoSQL
Redis-缓存雪崩、缓存穿透、缓存击穿的理解以及如何避免?
Redis-缓存雪崩、缓存穿透、缓存击穿的理解以及如何避免?
Redis-缓存雪崩、缓存穿透、缓存击穿的理解以及如何避免?