简单理解 Kafka 的消息可靠性策略

629次阅读  |  发布于3年以前

背景

部门的开发同学最近在开发一个活动的过程中,需要关注大量的应用后台逻辑,捕捉各种事件的触发。在设计时打算采用 kafka 消息队列进行业务逻辑的解耦,这样活动开发和后台开发同学的工作就分离开了。但是使用的同学不是很熟悉其原理,担心以下几个问题:

这些问题都很正常,在开始接触和使用时总会有这样或那样的问题。一般情况下,不做了解,使用各种默认的推荐值,也是可以 work 的。但是我们要优雅的提升自己的姿(知)势(识)。学习其背后的原理,至少在遇到一般的问题时,能够分析和处理问题,做到心中有数。

什么时候使用消息队列?

简单来说,3 个关键词, 异步/消峰/解耦,可以理解为:

以下图为例:

用户提交评论中, 写入数据库后,存在需要捕捉评论事件的多个逻辑步骤。如果在接口处理过程中,顺序的处理不同的步骤,非常繁琐。我们可以批量的通知各个步骤(异步),无需返回直接处理当次的支付其他逻辑(解耦)。看起来就清爽多了,另外,消息队列也可以作为缓存暂存发出的消息,不再需要考虑调用各个步骤时时延逻辑的异常场景。

本文以讲解 kafka 中的可靠性设计为例,其它消息队列的选型暂不涉及。

Kafka 基本概念

在回答文章前面的问题之前,需要简单介绍一下各种概念。Kafka 从拓扑上分有如下角色:

Producer 采用发送 push 的方式将消息发到 broker 上,broker 存储后。由 consumer 采用 pull 模式订阅并消费消息。

如图所示,Kafka 从存储结构上,有如下角色:

Kakfa 的存储格式

为了方便后文更好的理解 broker 上的消息状态一致性策略,需要简单介绍一下消息的存储格式。当 Producer 发送一条消息到 broker 中, 会根据分配 partition 规则选择被存储到哪一个 partition, 如果 partition 规则设置的合理,消息会均匀的分布到不同的 partition 里,这样就实现了水平扩展。

Pruducer 可以认为 partition 是一个大的串行文件,msg 存储时被分配一个唯一的 offset。Offset 是一个逻辑意义上的偏移,用于区分每一条消息。

而 partition 本身作为文件,可以有多个多个副本 replica(leader/follower)。多个 replica 分布在在不同的 broker 上。如果要回答如何在 broker 之间保证存储的消息和状态不会丢失,就要回答 broker 之间的各个 replica 的消息状态一致性如何解决,包括 producer 已经提交了哪些消息,哪些消息已经落地,哪些消息在节点故障后不会丢失。

异步发送时的消息可靠性保证

回到文章开头提到的几个问题,在使用 kafka 消息队列做异步发送时,如何保证消息的可靠性?如何回答开头的几个问题?这里要分为 3 个部分讲解可靠性保证。

生产者的可靠性保证

回答生产者的可靠性保证,即回答:

  1. 发消息之后有么有 ack
  2. 发消息收到 ack 后,是不是消息就不会丢失了

而 Kafka 通过配置来指定 producer 生产者在发送消息时的 ack 策略:

Request.required.acks=-1 (全量同步确认,强可靠性保证)
Request.required.acks = 1(leader 确认收到, 默认)
Request.required.acks = 0 (不确认,但是吞吐量大)

如果想实现 kafka 配置为 CP(Consistency & Partition tolerance) 系统, 配置需要如下:

request.required.acks=-1
min.insync.replicas = ${N/2 + 1}
unclean.leader.election.enable = false

如图所示,在 acks=-1 的情况下,新消息只有被 ISR 中的所有 follower(f1 和 f2, f3) 都从 leader 复制过去才会回 ack, ack 后,无论那种机器故障情况(全部或部分), 写入的 msg4,都不会丢失, 消息状态满足一致性 C 要求。 正常情况下,所有 follower 复制完成后,leader 回 producer ack。

异常情况下,如果当数据发送到 leader 后部分副本(f1 和 f2 同步), leader 挂了?此时任何 follower 都有可能变成新的 leader, producer 端会得到返回异常,producer 端会重新发送数据,但这样数据可能会重复(但不会丢失), 暂不考虑数据重复的情况。

min.insync.replicas 参数用于保证当前集群中处于正常同步状态的副本 follower 数量,当实际值小于配置值时,集群停止服务。如果配置为 N/2+1, 即多一半的数量,则在满足此条件下,通过算法保证强一致性。当不满足配置数时,牺牲可用性即停服。

异常情况下,leader 挂掉,此时需要重新从 follower 选举 leader。可以为 f2 或者 f3。

如果选举 f3 为新 leader, 则可能会发生消息截断,因为 f3 还未同步 msg4 的数据。Kafka 的通 unclean.leader.election.enable 来控制在这种情况下,是否可以选举 f3 为 leader。旧版本中默认为 true,在某个版本下已默认为 false,避免这种情况下消息截断的出现。

通过 ack 和 min.insync.replicas 和 unclean.leader.election.enable 的配合,保证在 kafka 配置为 CP 系统时,要么不工作,要么得到 ack 后,消息不会丢失且消息状态一致。

min.insync.replicas 参数默认值为 1,即满足高可用性,只要有 1 台能工作即可。但此时可工作的 broker 状态不一定正确(可以想象为啥)

如果想实现 kafka 配置为 AP(Availability & Partition tolerance)系统:

request.required.acks=1
min.insync.replicas = 1
unclean.leader.election.enable = false

当配置为 acks=1 时,即 leader 接收消息后回 ack,这时会出现消息丢失的问题:如果 leader 接受到了 第 4 条消息,此时还没有同步到 follower 中,leader 机器挂了,其中一个 follower 被选为 leader, 则 第 4 条消息丢失了。当然这个也需要 unclean.leader.election.enable 参数配置为 false 来配合。但是 leader 回 ack 的情况下,follower 未同步的概率会大大提升。

通过 producer 策略的配置和 kafka 集群通用参数的配置,可以针对自己的业务系统特点来进行合理的参数配置,在通讯性能和消息可靠性下寻得某种平衡。

Broker 的可靠性保证

消息通过 producer 发送到 broker 之后,还会遇到很多问题:

这些问题集中在, 消息落到 broker 后,集群通过何种机制来保证不同副本建的消息状态一致性。

Kafka 消息备份和同步

Kafka 通过分区的多副本策略来解决消息的备份问题。通过 HW 和 LEO 的标识,来对应 ISR 和 OSR 的概念,用于类比共识性算法解决数据同步一致性的问题。

分区多副本即前文提到的 Partition 的 replica(副本) 分布在跟 partition 不相同的机器上, 通过数据冗余保证故障自动转移。而不同副本的状态形成了 ISR 和 OSR 的概念。

ISR 是 kafka 的同步策略中独有的概念,区别于 raft 等共识性算法。Raft 要求集群中要求 N/2+1 台正常,其在这种条件下通过复杂的算法保证选举出的新 leader 符合一致性状态。而 kafka 的 ISR 同步策略,通过 ISR 列表的可伸缩性和 HW&LEO 更新,一定程度上解决了消息一致性和吞吐性能之间的平衡。

ISR 通过 HW 和 LEO 的概念表示消息的同步状态:

Leader 不仅保存了自己的 HW &LEO 还保存了远端副本的 HW &LEO

简单来说,每个副本都有 HW 和 LEO 的存储,而 leader 不但保存自己的 HW 和 LEO, 还保存了每个远端副本的 LEO。用于在自身的 HW 更新时计算值。可以看出由于 LEO 远端存储的特性,其实会导致副本真实的 LEO 和 leader 存储的 LEO 有短暂的数值差异,者会带来一些问题,后面再讲。

HW 和 LEO 的更新策略如下:

一次完整的写请求的 HW / LEO 更新流程:

1. 初始状态

Leader 所有的 HW&LEO 都为 0, follower 与 leader 建立连接,follower fetch leader, follower 所有 HW&LEO 都为 0

2. Follower 第一次 fetch:

Producer 发来一条消息到 leader, 此时 leader 的 LEO=1, follower 带着自己的 HW&LEO(都为 0) 开始 fetch, leader 的 HW=min(all follower LEO)=0, leader 记录 follower 的 LEO=0;follower 拉取到一条消息,带着消息和 leader 的 HW(0)&LEO(1)返回自身更新自己的 LEO=1, 更新自己的 HW=min(follower 自身 LEO(1) 和 leader HW(0))=0

3. Follower 第二次 fetch:

Follower 带着自己的 HW(0)&LEO(1) 去请求 leader .此时 leader 的 HW 更新为 1,leader 保存的 follower 的 LEO 更新为 1,带着 leader 的 HW(1)&LEO(1)返回自身,更新自己的 HW&LEO

此时回到刚才提到的问题,这种 HW 和 LEO 更新策略有个很明显的问题,即 follower 的 HW 更新需要 follower 的 2 轮 fetch 中的 leader 返回才能更新, 而 Leader 的 HW 已更新。这之间,如果 follower 和 leader 的节点发生故障,则 follower 的 HW 和 leader 的 HW 会处于不一致状态,带来比较多的一致性问题。比如如下场景:

在 kafka 配置为 AP 系统的情况下,由于 min.insync.replicas 为 1, 这种重启后 follower 发生截断发生的概率会大大提升, 而在多个副本存在的情况下,情况可能还会更加糟糕。而 kafka 新版本为了解决这个 HW&LEO 的同步机制更新缺陷,引入了 Epoch 的概念。

Leader epoch 分两部分组成:

Leader epoch(1, 120) 说明这个 leader 的版本号为 1,版本的起始位置是 第 120 条消息开始的。Kafka Broker 会在内存中为每个分区都缓存 Leader Epoch 数据,同时它还会定期地将这些信息持久化到一个 checkpoint 文件中。当 Leader 副本写入消息到磁盘时,Broker 会尝试更新这部分缓存。如果该 Leader 是首次写入消息,那么 Broker 会向缓存中增加一个 Leader Epoch 条目,否则就不做更新。这样,每次有 Leader 变更时,新的 Leader 副本会查询这部分缓存,取出对应的 Leader Epoch 的起始位移,以避免数据丢失和不一致的情况。

示图如下:

Kafka 通过 ISR 的同步机制及优化策略,用 HW & LEO 的方式很好的确保了数据不丢失以及吞吐率。而 ISR 的管理最终都会反馈到 Zookeeper 上,其实现和 leader 的选举策略不再赘述。

Consumer 的可靠性策略

Consumer 的可靠性策略集中在 consumer 的投递语义上,即:

这些语义场景,可以通过 kafka 消费者的而部分参数进行配置,简单来说有以下 3 中场景:

1. AutoCommit(at most once, commit 后挂,实际会丢)

enable.auto.commit = true

auto.commit.interval.ms

配置如上的 consumer 收到消息就返回正确给 brocker, 但是如果业务逻辑没有走完中断了,实际上这个消息没有消费成功。这种场景适用于可靠性要求不高的业务。其中 auto.commit.interval.ms 代表了自动提交的间隔。比如设置为 1s 提交 1 次,那么在 1s 内的故障重启,会从当前消费 offset 进行重新消费时,1s 内未提交但是已经消费的 msg, 会被重新消费到。

2. 手动 Commit(at least once, commit 前挂,就会重复, 重启还会丢)

enable.auto.commit = false

配置为手动提交的场景下,业务开发者需要在消费消息到消息业务逻辑处理整个流程完成后进行手动提交。如果在流程未处理结束时发生重启,则之前消费到未提交的消息会重新消费到,即消息显然会投递多次。此处应用与业务逻辑明显实现了幂等的场景下使用。

特别应关注到在 golang 中 sarama 库的几个参数的配置:

sarama.offset.initial (oldest, newest)
offsets.retention.minutes

intitial = oldest 代表消费可以访问到的 topic 里的最早的消息,大于 commit 的位置,但是小于 HW。同时也受到 broker 上消息保留时间的影响和位移保留时间的影响。不能保证一定能消费到 topic 起始位置的消息。

如果设置为 newest 则代表访问 commit 位置的下一条消息。如果发生 consumer 重启且 autocommit 没有设置为 false, 则之前的消息会发生丢失,再也消费不到了。在业务环境特别不稳定或非持久化 consumer 实例的场景下,应特别注意。

一般情况下, offsets.retention.minutes 为 1440s。

3. Exactly once, 很难,需要 msg 持久化和 commit 是原子的

消息投递且仅投递一次的语义是很难实现的。首先要消费消息并且提交保证不会重复投递,其次提交前要完成整体的业务逻辑关于消息的处理。在 kafka 本身没有提供此场景语义接口的情况下,这几乎是不可能有效实现的。一般的解决方案,也是进行原子性的消息存储,业务逻辑异步慢慢的从存储中取出消息进行处理。

Copyright© 2013-2020

All Rights Reserved 京ICP备2023019179号-8