• 中文
    • English
  • 注册
  • 查看作者
  • Redis热点Key发现及常见解决方案

    一、热点Key问题产生的原因

    1、用户消费的数据远大于生产的数据(热卖商品、热点新闻、热点评论、明星直播)。

    在日常工作生活中一些突发的的事件,例如:双十一期间某些热门商品的降价促销,当这其中的某一件商品被数万次点击浏览或者购买时,会形成一个较大的需求量,这种情况下就会造成热点问题。

    同理,被大量刊发、浏览的热点新闻、热点评论、明星直播等,这些典型的读多写少的场景也会产生热点问题。

    2、请求分片集中,超过单 Server 的性能极限。

    在服务端读数据进行访问时,往往会对数据进行分片切分,此过程中会在某一主机 Server 上对相应的 Key 进行访问,当访问超过 Server 极限时,就会导致热点 Key 问题的产生。

    二、热点Key问题的危害

    Redis热点Key发现及常见解决方案

    1、流量集中,达到物理网卡上限。

    2、请求过多,缓存分片服务被打垮。

    3、DB 击穿,引起业务雪崩。

    如前文讲到的,当某一热点 Key 的请求在某一主机上超过该主机网卡上限时,由于流量的过度集中,会导致服务器中其它服务无法进行。

    如果热点过于集中,热点 Key 的缓存过多,超过目前的缓存容量时,就会导致缓存分片服务被打垮现象的产生。

    当缓存服务崩溃后,此时再有请求产生,会缓存到后台 DB 上,由于DB 本身性能较弱,在面临大请求时很容易发生请求穿透现象,会进一步导致雪崩现象,严重影响设备的性能。

    三、解决方案

    通常的解决方案主要集中在对客户端和 Server 端进行相应的改造。

    1、服务端缓存方案

    Redis热点Key发现及常见解决方案

    首先 Client 会将请求发送至 Server 上,而 Server 又是一个多线程的服务,本地就具有一个基于 Cache LRU 策略的缓存空间。

    当 Server 本身就拥堵时,Server 不会将请求进一步发送给 DB 而是直接返回,只有当 Server 本身畅通时才会将 Client 请求发送至 DB,并且将该数据重新写入到缓存中。

    此时就完成了缓存的访问跟重建。

    但该方案也存在以下问题:

    • 缓存失效,多线程构建缓存问题

    • 缓存丢失,缓存构建问题

    • 脏读问题

    2、使用 Memcache、Redis 方案

    Redis热点Key发现及常见解决方案

    该方案通过在客户端单独部署缓存的方式来解决热点 Key 问题。

    使用过程中 Client 首先访问服务层,再对同一主机上的缓存层进行访问。

    该种解决方案具有就近访问、速度快、没有带宽限制的优点,但是同时也存在以下问题:

    • 内存资源浪费

    • 脏读问题

    3、使用本地缓存方案

    使用本地缓存则存在以下问题:

    • 需要提前获知热点

    • 缓存容量有限

    • 不一致性时间增长

    • 热点 Key 遗漏

    • 传统的热点解决方案都存在各种各样的问题,那么究竟该如何解决热点问题呢?

    4、读写分离方案解决热读

    Redis热点Key发现及常见解决方案

    架构中各节点的作用如下:

    • SLB 层做负载均衡

    • Proxy 层做读写分离自动路由

    • Master 负责写请求

    • ReadOnly 节点负责读请求

    • Slave 节点和 Master 节点做高可用

    • 实际过程中 Client 将请求传到 SLB,SLB 又将其分发至多个 Proxy 内,通过 Proxy 对请求的识别,将其进行分类发送。

    例如,将同为 Write 的请求发送到 Master 模块内,而将 Read 的请求发送至 ReadOnly 模块。

    而模块中的只读节点可以进一步扩充,从而有效解决热点读的问题。

    读写分离同时具有可以灵活扩容读热点能力、可以存储大量热点Key、对客户端友好等优点。

    5、热点数据解决方案

    Redis热点Key发现及常见解决方案

    该方案通过主动发现热点并对其进行存储来解决热点 Key 的问题。

    首先 Client 也会访问 SLB,并且通过 SLB 将各种请求分发至 Proxy 中,Proxy 会按照基于路由的方式将请求转发至后端的 Redis 中。

    在热点 key 的解决上是采用在服务端增加缓存的方式进行。

    具体来说就是在 Proxy 上增加本地缓存,本地缓存采用 LRU 算法来缓存热点数据,后端 db 节点增加热点数据计算模块来返回热点数据。

    Proxy 架构的主要有以下优点:

    • Proxy 本地缓存热点,读能力可水平扩展

    • DB 节点定时计算热点数据集合

    • DB 反馈 Proxy 热点数据

    • 对客户端完全透明,不需做任何兼容

    四、热点 key 处理

    1、热点数据的读取

    Redis热点Key发现及常见解决方案

    在热点 Key 的处理上主要分为写入跟读取两种形式,在数据写入过程当 SLB 收到数据 K1 并将其通过某一个 Proxy 写入一个 Redis,完成数据的写入。

    假若经过后端热点模块计算发现 K1 成为热点 key 后, Proxy 会将该热点进行缓存,当下次客户端再进行访问 K1 时,可以不经 Redis。

    最后由于 proxy 是可以水平扩充的,因此可以任意增强热点数据的访问能力。

    2、热点数据的发现

    Redis热点Key发现及常见解决方案

    对于 db 上热点数据的发现,首先会在一个周期内对 Key 进行请求统计,在达到请求量级后会对热点 Key 进行热点定位,并将所有的热点 Key 放入一个小的 LRU 链表内,在通过 Proxy 请求进行访问时,若 Redis 发现待访点是一个热点,就会进入一个反馈阶段,同时对该数据进行标记。

    DB 计算热点时,主要运用的方法和优势有:

    1、基于统计阀值的热点统计

    2、基于统计周期的热点统计

    3、基于版本号实现的无需重置初值统计方法

    4、DB 计算同时具有对性能影响极其微小、内存占用极其微小等优点

    五、方案对比

    通过上述对比分析可以看出,在解决热点 Key 上较传统方法相比都有较大的提高,无论是基于读写分离方案还是热点数据解决方案,在实际处理环境中都可以做灵活的水平能力扩充、都对客户端透明、都有一定的数据不一致性。

    此外读写分离模式可以存储更大量的热点数据,而基于 Proxy 的模式有成本上的优势。

    六、 案例

    其实这里关键的一点,就是对于这种热点缓存,你的系统需要能够在热点缓存突然发生的时候,直接发现他,然后瞬间立马实现毫秒级的自动负载均衡。

    那么我们就先来说说,你如何自动发现热点缓存问题?

    首先你要知道,一般出现缓存热点的时候,你的每秒并发肯定是很高的,可能每秒都几十万甚至上百万的请求量过来,这都是有可能的。

    所以,此时完全可以基于大数据领域的流式计算技术来进行实时数据访问次数的统计,比如storm、spark streaming、flink,这些技术都是可以的。

    然后一旦在实时数据访问次数统计的过程中,比如发现一秒之内,某条数据突然访问次数超过了1000,就直接立马把这条数据判定为是热点数据,可以将这个发现出来的热点数据写入比如zookeeper中。

    当然,你的系统如何判定热点数据,可以根据自己的业务还有经验值来就可以了。

    大家看看下面这张图,看看整个流程是如何进行的。

    Redis热点Key发现及常见解决方案

    当然肯定有人会问,那你的流式计算系统在进行数据访问次数统计的时候,会不会也存在说单台机器被请求每秒几十万次的问题呢?

    答案是 ,因为流式计算技术,尤其是storm这种系统,他可以做到同一条数据的请求过来,先分散在很多机器里进行本地计算,最后再汇总局部计算结果到一台机器进行全局汇总。

    所以几十万请求可以先分散在比如100台机器上,每台机器统计了这条数据的几千次请求。

    然后100条局部计算好的结果汇总到一台机器做全局计算即可,所以基于流式计算技术来进行统计是不会有热点问题的。

    Redis热点Key发现及常见解决方案

    热点缓存自动加载为JVM本地缓存

    我们自己的系统可以对zookeeper指定的热点缓存对应的znode进行监听,如果有变化他立马就可以感知到了。

    此时系统层就可以立马把相关的缓存数据从数据库加载出来,然后直接放在自己系统内部的本地缓存里即可。

    这个本地缓存,你用ehcache、hashmap,其实都可以,一切都看自己的业务需求,主要说的就是将缓存集群里的集中式缓存,直接变成每个系统自己本地实现缓存即可,每个系统自己本地是无法缓存过多数据的。

    因为一般这种普通系统单实例部署机器可能就一个4核8G的机器,留给本地缓存的空间是很少的,所以用来放这种热点数据的本地缓存是最合适的,刚刚好。

    假设你的系统层集群部署了100台机器,那么好了,此时你100台机器瞬间在本地都会有一份热点缓存的副本。

    然后接下来对热点缓存的读操作,直接系统本地缓存读出来就给返回了,不用再走缓存集群了。

    这样的话,也不可能允许每秒20万的读请求到达缓存机器的一台机器上读一个热点缓存了,而是变成100台机器每台机器承载数千请求,那么那数千请求就直接从机器本地缓存返回数据了,这是没有问题的。

    我们再来画一幅图,一起来看看这个过程:

    Redis热点Key发现及常见解决方案

    限流熔断保护

    除此之外,在每个系统内部,其实还应该专门加一个对热点数据访问的限流熔断保护措施。

    每个系统实例内部,都可以加一个熔断保护机制,假设缓存集群最多每秒承载4万读请求,那么你一共有100个系统实例。

    你自己就该限制好,每个系统实例每秒最多请求缓存集群读操作不超过400次,一超过就可以熔断掉,不让请求缓存集群,直接返回一个空白信息,然后用户稍后会自行再次重新刷新页面之类的。

    通过系统层自己直接加限流熔断保护措施,可以很好的保护后面的缓存集群、数据库集群之类的不要被打死,我们来看看下面的图。

    Redis热点Key发现及常见解决方案

    如果20万用户同时访问一个热点缓存,如何优化你的缓存架构?

  • 0
  • 0
  • 0
  • 21
  • 请登录之后再进行评论

    登录
  • 任务
  • 实时动态
  • 发布
  • 单栏布局 侧栏位置: