memcached1.5更好的LRU算法,了解下crawler爬虫

虽然 LRU Maintainer (参考 《memcached1.5更好的LRU算法,了解下maintainer线程》 )解决了很多问题,但结合 Memcached 内存分配机制,它还有一些潜在的问题,比如说很难动态调整内存的大小;再比如某些 Slab-class 可能存储了很少的 item(和 item 的大小有关系);再比如一个空间很大的过期 item 其实可以存储几百个小空间 item;还有 LRU Maintainer 并没有过期 item 回收的功能。

为了解决这些问题,memcached1.5 版本引进了 LRU crawler, 它是一个异步的后台线程,扫描 LRU 中的所有 item,然后回收过期 item,或者检查整个 Slab-class,进行相应的调整。

crawler 在每个 Slab-class 的每个子 LRU 的 tail 部插入一个特别的 crawler items,然后从子 LRU 的 tail 到 head 不断进行扫描,如果发现有过期的 item,就进行回收。

它在给每个子 LRU 进行扫描的时候,会构建一个直方图,通过直方图决定下一次何时扫描,举个例子:

  • 假如 Slab-class 1 有 100 万个 item,过期时间都是 0(也就是不过期),那么最多每小时扫描一次(因为再扫描也回收不了多少内存)。
  • 假如 Slab-class 5 有 10万个 item,其中 1% 的 item 5分钟后过期,那么 crawler 将智能的在五分钟后再一次扫描,因为能够回收很多内存。

crawler 还有很多的智能调度策略,比如 Slab-class 越高,代表存储的单个 item 空间更大,尽快回收能够释放更多的内存。

结合分段 LRU 机制,crawler 也有很多好的调度策略,比如 HOT queue 如果有很多 item (TTL 较短),那么应该频繁的扫描,同时避免频繁扫描 COLD queue。

这些调度策略都是为了减少不必要的 crawler 工作。

接下去通过内部命令调整相应的参数:

# 开启或禁止 crawler
lru_crawler <enable|disable>

# 设置 crawler 多久运行一次
lru_crawler sleep <microseconds>

# 手动给编号为 classid 的 Slab-class 进行 crawler 
lru_crawler crawl <classid,classid,classid|all> 

介绍一个比较有用的 crawler 管理命令:

lru_crawler metadump <classid,classid,classid|all>

lru_crawler metadump 1,all 
key=x exp=-1 la=1545878079 cas=1 fetch=yes cls=1 size=61
key=xx exp=-1 la=1546066251 cas=2 fetch=no cls=1 size=63

metadump 命令和 cachedump 命令很类似,但不会有锁操作,返回 LRU 中的所有 item,包括过期时间,上次存取时间等等。

最后看看和 LRU crawler 有关的运行数据,运行 stats 命令:

参数说明
number_hot目前在 HOT LRU 中的 item 个数
slab_reassign_running是否目前一个 slab page 被移动
slabs_moved总共有多少 slab page 被迁移
crawler_reclaimed被 crawler 回收的 item 总个数
crawler_items_checked总共有多少个 item 被 crawler 检查

到目前位置,Memcached 1.5 所有的 LRU 算法机制已经讲完,理解他们对于掌握 Memcached 很有好处,后面会再从应用的角度理解 Memcached,敬请关注。

memcached 相关文章:

欢迎大家了解我的书《深入浅出HTTPS:从原理的实战》,如果你觉得写的不错,还请在豆瓣上做个评论,非常感谢,评论地址:https://book.douban.com/subject/30250772/

    原文作者:虞大胆的叽叽喳喳
    原文地址: https://www.jianshu.com/p/e3dcbd904721
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞