近期负责的项目中有一个场景需要依赖数据一致性算法,因此做了一些相关的调研。
本文是根据近期对【Etcd-Raft】的学习把自己的理解做个简单整理和分享。
注:本文并没有对Etcd/Raft源码和流程事无巨细的解剖,更多地关注其核心功能以及过程中个人觉得值得学习的点。
文章主要讲解 etcd/raft——原理解析篇。
etcd中实现的raft实现本质上是提供了一个基于raft的sdk,作为sdk方式接入到etcd中,和etcd存储系统是解耦的。同时sdk的实现非常巧妙,只实现了基本的功能,包括leader选举、日志处理、状态变更等逻辑。上层的网络传输、数据存储等模块,提供接口由上层应用者来实现:
简单画个图来表达这种设计:
我暂且把这种设计原则称之为“最小原则”,sdk中只实现基本的核心功能,sdk依赖的其他能力只定义好接口,通过参数或者其他的方式进行注入。
(后续的开发中可以借鉴这种思想,不一定大而全的sdk实现就是好用的,可能反而会冗余或者互相依赖等,当然也要分具体的场景具体分析)
一条数据提交到raft集群后,etcd/raft内部保证数据在集群各节点是一致的,其实现流程如下:
整个etcd/raft可以抽象概括为2大模块:
下面分别针对这两大功能结合代码做详细介绍。
type raftLog struct {
// storage存储了从最后一次snapshot到现在的所有可靠的(stable)日志(Entry),即保存到snapshot之后提交的数据,
// 同时Storage定义为接口,由上层使用者实现和维护的,raft需要访问的时候直接读取无需访问上层持久化的存储。
storage Storage
// 用于保存还没有持久化的数据和快照,与storage形成了鲜明的对比,使用者没有通知raft日志持久化完毕前,这些日志都还不可靠
// 当使用者持久化完毕后,这些日志就会从unstable删除,最终都会保存到storage中
unstable unstable
// committed保存是写入持久化存储storage中的最高index,
// 这里提交索引是集群的一个状态,而不是某一节点的状态,它是由leader统计出来的,并广播给所有的节点。
committed uint64
// 已经提交的日志要被使用者应用,applied就是该节点已经被应用的最大索引
// 一条日志首先要提交成功(即committed),才能被applied到状态机中因此以下不等式一直成立:applied <= committed
applied uint64
logger Logger
}
type unstable struct {
snapshot *pb.Snapshot // 保存还没有持久化的快照数据
entries []pb.Entry // 还未持久化的日志提交粒度的数据
offset uint64 // offset保存的为entries数组中的数据的起始index
logger Logger
}
raftLog是节点上用来存储日志的结构,按照是否已持久化到稳定存储,可分为两部分:已持久化到稳定存储的部分(stable)和还未持久化到稳定存储的部分(unstable)
对于unstable,按照代码逻辑推断(并不是100%确定):快照和entrise数据不会同时存在,快照只会在启动时进行快照数据恢复时存在,当应用层使用快照数据进行恢复之后,raft切换为可以接收日志数据的状态,后续的日志数据都会写到entrise数组中了,而两者的分界线就是offset变量。
一条提交的日志会首先写入到unstable中,因为unstable为非未持久化数据的缓冲区,因此这其中的数据可能会发生回滚(rollback)现象,具体实现为
func (u *unstable) truncateAndAppend(ents []pb.Entry) {
// 先拿到这些数据的第一个索引
after := ents[0].Index
switch {
case after == u.offset+uint64(len(u.entries)):
// 如果正好是紧接着当前数据的,就直接append
u.entries = append(u.entries, ents...)
case after <= u.offset:
// 如果比当前偏移量小,那用新的数据替换当前数据,需要同时更改offset和entries
u.offset = after
u.entries = ents
default:
// 到了这里,说明 u.offset < after < u.offset+uint64(len(u.entries))
// 那么新的entries需要拼接而成
u.entries = append([]pb.Entry{}, u.slice(u.offset, after)...)
u.entries = append(u.entries, ents...)
}
}
对于Storage,前文提到raft中有个基于内存的实现MemoryStorage,同时使用者可以在应用层自定义实现持久化存储。Storage的接口以及MemoryStorage的具体实现如下,MemoryStorage增加了蓝色部分的对数据的写操作实现,这些都会在上层应用层用到,而Raft库仅仅需要读操作即可。
Storage接口定义的是持久化存储,之所以etcd使用了基于内存的MemoryStorage,是因为etcd在写入MemoryStorage前,需要先写入预写日志(Write Ahead Log,WAL)或快照。而预写日志和快照是保存在稳定存储中的。这样,在每次重启时,etcd可以基于保存在稳定存储中的快照和预写日志恢复MemoryStorage的状态。也就是说,etcd的稳定存储是通过快照、预写日志、MemoryStorage三者共同实现的。
a.首先,raft
库会首先将日志数据写入未持久化数据缓冲区
。
b.由于未持久化数据缓冲区
中有新增的数据,会通过Ready
结构体通知给应用层。
c.应用层收到Ready
结构体之后,将其中的数据写入WAL持久化存储,然后更新这块数据到`已持久化数据缓冲区
d.持久化完毕后,应用层通过Advance
接口通知Raft
库这些数据已经持久化,于是raft库修改未持久化数据缓冲区
将客户端刚提交的数据从这个缓冲区中删除。
e.持久化完毕之后,除了通知删除未持久化数据缓冲区
,还讲数据通过网络同步给集群中其他节点。
对于存储结构raftLog、storage 和unstable等和相关的代码函数细节这里不再展开解析,感兴趣的可以通过最后给的地址去翻阅,整体上这块实现不算复杂。
在etcd-raft中,tracker是raft代码目录下单独的一个包,核心实现就包括一个ProgressTracker。
了解核心类是ProgressTracker之前,需要先看其变量Progress,根据注释不难理解,Leader节点除了要维护未持久化缓冲区之外,还需要维护一个数据结构,用于保存集群中其他节点的进度,简称Progress,简单描述就是作为集群的leader,需要知道其他节点日志同步的具体情况。
其结构定义解释如下:
type Progress struct {
// Next保存的是下一次leader发送append消息时传送过来的日志索引
// 当选举出新的leader时,首先初始化Next为该leader最后一条日志+1
// 如果向该节点append日志失败,则递减Next回退日志,一直回退到索引匹配为止
// Match保存在该节点上保存的日志的最大索引,初始化为0
// 正常情况下,Next = Match + 1
// 以下情况下不是上面这种情况:
// 1. 切换到Probe状态时,如果上一个状态是Snapshot状态,即正在接收快照,那么Next = max(pr.Match+1, pendingSnapshot+1)
// 2. 当该follower不在Replicate状态时,说明不是正常的接收副本状态。
// 此时当leader与follower同步leader上的日志时,可能出现覆盖的情况,即此时follower上面假设Match为3,但是索引为3的数据会被
// leader覆盖,此时Next指针可能会一直回溯到与leader上日志匹配的位置,再开始正常同步日志,此时也会出现Next != Match + 1的情况出现
Match, Next uint64
// 三种状态
// ProgressStateProbe:探测状17
// ProgressStateReplicate:副本状态
// ProgressStateSnapshot:快照状态
State ProgressStateType
// 探测状态时才有用,表示探测消息是否已经发送了,如果发送了就不会再发了,避免不必要的IO。
ProbeSent bool
// 如果向该节点发送快照消息,PendingSnapshot用于保存快照消息的索引
// 当PendingSnapshot不为0时,该节点也被标记为暂停状态。
// raft只有在这个正在进行中的快照同步失败以后,才会重传快照消息
PendingSnapshot uint64
// 如果进程最近处于活跃状态则为 true(收到来自跟随者的任意消息都认为是活动状态)。在超时后会重置重置为false
RecentActive bool
// 用于实现滑动窗口,用来做流量控制,后边会展开单独作为一个额外福利介绍
Inflights *Inflights
}
了解完Progress后会发现ProgressTracker就是Progress的一个管理器,其整体实现比较简单本文不再介绍。总结来说,Progress结构体做的工作:
1.维护follower节点的match、next索引,(0, Next)的日志已经发送给节点了,(0,Match]是节点的已经接收到的日志。
2.维护着follower节点当前的状态3中状态,不同的状态,其会采取不同的行为:
3.流量控制Inflights,避免follower节点超载
Inflights主要用于StateReplicate状态下在日志复制时可以控制数据传输速度,具体大小用户可以在应用层指定。设计上非常的巧妙,其思想类似于“往池子注水和放水”的过程,通过给定池子的大小控制流速。而raft在实现上没有使用queue,而是在一个内存块上采用循环方式模拟queue的特性,这样效率会更高。
对于选举算法有很多实现,我之前开发中也实现过一个raft选举算法传送门,一般节点包含三种不同的角色candidate、follower、leader。每种角色对不同类型的日志数据需要有不同的处理,这里选主流程不展开,本节的目的主要在于发现etcd/raft中我理解与众不同的地方。
在etcd/raft的实现中,巧妙之处在于针对三种不同的角色,通过修改函数指针的方式在切换了不同角色时的处理,大概意思如下图所示:
也就是说在于其很好地剥离了各模块的职责。在etcd/raft的实现中,raft结构体是一个Raft状态机,其通过Step方法进行状态转移。只要涉及到Raft状态机的状态转移,最终都会通过Step方法完成。可能我也解释的不是很到位,具体可以看下代码实现:
//Step为节点收到应用层发来的消息,就会执行对应逻辑
func (r *raft) Step(m pb.Message) error {
//...
switch m.Type {
case pb.MsgHup: //准备选举时触发
//...
case pb.MsgVote, pb.MsgPreVote: //在选举中触发
//...
default:
r.step(r, m)
}
}
Step 其实就是根据消息类型的不同(MsgHup/MsgVote/MsgPreVote)而去执行对应的逻辑(状态机)。而对于其他状态,此时则会执行 default 中的 step(函数指针,根据节点角色执行不同的函数stepLeader/stepFollower/stepCandidate)
对其他执行选择的流程,本文不再介绍。
etcd/raft采用将修改集群配置的命令放在日志条目中来处理,也就是一个配置变更其实是一次日志数据的提交,不过是一种特殊类型的日志这样做的好处是:
成员删减:操作作为日志的特殊类型,当可以进行commit的情况下,各个节点拿出该消息进行节点内部的成员删减操作。
leader转让:
Copyright© 2013-2020
All Rights Reserved 京ICP备2023019179号-8