ZooKeeper运维——数据备份与恢复(事务日志+快照日志,万字总结,你想要的都有
最近很多小伙伴找我要Linux学习资料,于是我翻箱倒柜,整理了一些优质资源,涵盖视频、电子书、PPT等共享给大家!最近很多小伙伴找我要Linux学习资料,于是我翻箱倒柜,整理了一些优质资源,涵盖视频、电子书、PPT等共享给大家!
ZooKeeper适合读多写少的场景,读操作几乎是内存级别的,这得益于ZooKeeper将数据保存在内存中。数据在内存中,就有一个问题,ZooKeeper重启了数据还会在吗?
当然在了,ZooKeeper将数据以事务日志形式持久化到文件中。每个更新请求,必须先将事务日志写到文件中,然后才把数据同步到内存数据库。
1、事务日志存放目录
事务日志文件默认存储在dataDir目录下,因为每次事务请求都是一次磁盘IO操作,事务日志的写入性能直接影响了ZooKeeper对事务请求的吞吐,为了更高的吞吐和低延迟,建议单独为事务日志配置一个目录dataLogDir,以免受其他操作影响。
dataLogDir下会先生成一个子目录version2,2表示ZooKeeper日志格式的版本号,同一版本的日志可以互相迁移恢复数据。version2下才是事务日志文件。
2、文件大小和后缀名
事务日志的文件有两个特点:
-
文件大小出奇一致:都是
67108880KB,即64MB。 -
文件名后缀是一串看似有些规律的数字,而且随着修改时间推移呈递增状态。

(1)磁盘空间预分配
文件大小都是64MB,是因为日志文件的磁盘空间预分配。
事务日志不断追加写入文件的操作会触发底层磁盘IO为文件开辟新的磁盘块,即磁盘Seek,为了避免频繁的文件大小增长带来的磁盘Seek开销,ZooKeeper在创建事务日志文件时就向操作系统预分配了一块比较大的磁盘块,保证了单一事务日志文件所占用的磁盘块是连续的,以此提升事务的写入性能。默认是64MB,空闲部分用空字符(\0)填充。
如果后续检测到文件空间不足4KB,将扩容再次预分配64MB,直到创建新的事务日志文件。
(2)ZXID作为后缀名
文件名后面的一串数字是事务ID:ZXID,并且是写入事务日志文件的第一条事务ZXID。前面讲了,ZXID高32位是当前Leader任期编号,低32位是事务计数器,比如 log.1400000001、log.1400000003,都是Leader任期编号为20时产生的事务日志文件。
3、事务日志可视化
事务日志文件中存放的是二进制格式的数据,不能用vim、cat等工具直接打开,需要用apache-zookeeper-3.7.0提供的脚本bin/zkTxnLogToolkit.sh打开:
bin/zkTxnLogToolkit.sh logs/zoo-1/version-2/log.1400000003

一行就是一个事务记录,每行从左到右依次是操作时间、客户端session ID、CXID(客户端操作序列号)、ZXID、操作类型(做了什么),如果操作类型是 createSession,后面的30000就是session的超时时间。
4、相关配置项
跟事务日志有关的配置除了dataLogDir外,还有 preAllocSize。
(1)dataLogDir
zoo.cfg中默认没有显式配置dataLogDir,事务日志和快照日志共享dataDir。但是强烈建议,单独为事务日志指定dataLogDir。
事务日志记录对磁盘性能要求极高,为了保证数据一致性,ZooKeeper在返回客户端请求响应前,必须将本次请求对应的事务日志写入到磁盘中。因此,事务日志写入性能直接决定了ZooKeeper在处理事务请求时的吞吐。
针对同一块磁盘的其他并发读写操作(如ZooKeeper运行时日志输出和操作系统自身的读写等),尤其是数据快照操作,会极大影响事务日志的写性能。因此尽量给事务日志的输出配置一个单独的磁盘或是挂载点,极大提高ZooKeeper整体性能。
(2)preAllocSize
java 系统属性: ZooKeeper.preAllocSize,从字面意思就可以看出,preAllocSize是用来配置事务日志文件预先分配文件大小的参数。默认65536,单位KB,即64MB。
5、什么时候创建新日志文件
在进行事务日志写入前,ZooKeeper会判断是否正在关联一个可写的事务日志文件,如果有则继续追加到该文件中,如果没有就需要创建新的日志文件并关联上。
什么时候ZooKeeper没有关联上一个可写的事务日志文件呢?有两种情况:
-
ZooKeeper停止会导致之前关联的事务日志文件断开,重启后第一次事务日志写入,需要创建新的日志文件。 -
上一个事务日志文件写满了(达到阈值,触发了快照之后),需要创建新的日志文件。
需要注意ZooKeeper服务不要频繁重启,否则会产生很多日志文件,并且有些文件还没有写满,非常浪费磁盘空间。
快照日志是将ZooKeeper服务器上某个时刻的全量内存数据,写入到指定磁盘文件中。可以这样理解,快照日志文件是存量数据,事务日志文件是增量数据,二者加起来就是最大限度的全量数据。
1、文件存储
和事务日志类似,快照日志存放在dataDir子目录version2中,文件名为snapshot.ZXID,不需要像事务日志文件一样预分配空间。
需要强调快照文件名后缀 ZXID是触发快照的瞬间,提交的最后一个事务ID。如果是事务ZXID5触发快照,那么快照文件名就是snapshot.ZXID5,快照之后的下一个事务的ID是ZXID6,新的事务日志名就是log.ZXID6。
在数据恢复阶段,ZooKeeper可以根据快照文件名后缀ZXID,确定增量事务日志的起点文件。
2、快照日志可视化
快照日志内容同样也是二进制格式的,需要用 apache-zookeeper-3.7.0 提供的脚本bin/zkSnapShotToolkit.sh打开:
bin/zkSnapShotToolkit.sh data/zoo-1/version-2/snapshot.1300000000 |less

快照日志记录每个节点的元信息,每个节点从上到下依次为:
-
cZxid,创建这个节点时的事务ID。 -
ctime,创建节点时间。 -
mZxid,最后修改节点的事务ID。 -
mtime,最后修改节点时间。 -
pZxid,,该节点最后更新子节点列表的事务ID。 -
cversion,该节点子节点列表更新版本号,即子节点列表修改次数(不是子节点的值修改)。 -
dataVersion,节点数据版本号。 -
aclVersion,节点访问控制列表版本号。 -
ephemeralOwner,如果为临时节点,则为节点拥有者的sessionID,如果不是临时节点则为0。 -
dataLength,,节点数据长度。
3、相关配置
快照日志相关的配置,除了dataLog,还有snapCount、autopurge.snapRetainCount和autopurge.purgeInterval。
(1)snapCount
java 系统属性: ZooKeeper.snapCount,默认100,000,表示每写100,000次事务日志,触发一次快照,并滚动事务日志,即切换新的事务日志文件。
但是,实际情况,快照是一个比较好性能的操作。为了防止集群中的所有机器同时触发快照操作,当事务日志中的事务数量达到运行时[ snapCount/2 + 1,snapCount ]范围内生成的随机值时,该ZooKeeper服务器就触发一次快照。
(2)日志清理
每一个快照日志文件都是zk集群某个时刻的全量数据快照,理论上只需要最新的一个快照日志文件及其后面的事务日志即可,所以定时清理一些不需要的日志文件以节省磁盘内存资源。
日志的清理跟autopurge.snapRetainCount和autopurge.purgeInterval有关。
-
autoburge.snapretaincount表示保留多少个快照日志文件,如果启动日志清理功能,zk会保留autoburge.snapretaincount个最近的快照日志文件和dataDir和dataLogDir中相应的事务日志文件,并删除其余的。autopurge.snapRetainCount默认为3,最小也是3。 -
autopurge.purgeInterval,清理任务触发的小时数时间间隔。设置为正整数(1及以上) ,以启用自动清洗。默认为0不启动。
4、什么时候触发数据快照
触发快照即生成新的快照日志文件有两种情况,事务日志写入数量达到阈值snapCount和新Leader同步数据。
(1)事务日志写入数量达到阈值snapCount
每进行一次事务日志记录之后,ZooKeeper都会判断当前是否需要进行数据快照。前面也说过,理论上进行snapCount次事务操作后就会触发一次数据快照,但是考虑到数据快照对zk集群的整体性能影响,需要尽量避免所有机器同时进行数据快照。
所以采用过半随机策略,某个ZooKeeper服务器的事务次数在[ snapCount/2 + 1,snapCount ]范围内生成的随机值时,触发数据快照。
满足快照条件后,ZooKeeper先进行事务日志文件的切换,即创建新的事务日志文件,然后再异步进行数据快照操作,尽量不影响正常流程。
(2)新Leader同步数据
运行中的ZooKeeper集群,如果发生Leader重新选举,新Leader所在机器会检查最近一次快照之后是否有事务日志产生,有就对最近的一次事务之前的全量数据做一次数据快照。

ZooKeeper 服务器启动期间,需要进行数据初始化工作,就是将磁盘中的日志文件加载到ZooKeeper服务器内存中,主要包括两个过程:从快照日志文件中加载快照数据和根据事务日志进行数据修正。
1、加载并解析快照日志文件
每一个快照日志文件都保存了某个时刻ZooKeeper服务器全量数据,所以可以加载解析快照日志,先生成一棵DataTree。
(1)加载最新快照文件
在 ZooKeeper服务器运行期间,磁盘上会产生一些快照文件。更新时间最晚的那个文件包含了最新的全量数据,那么是否只需要这个最新的快照文件就可以了呢?
在 ZooKeeper的实现中,会获取最新的至多100个快照文件(如果磁盘上存在不到100个快照文件,那么就获取所有快照文件)。这至多100个快照文件并不是全部都要加载和解析,而是先逐个进行数据正确性校验,校验通过就解析这个文件了,正常解析成功,就不会再向后加载检查。
这样做的目的就是防止某些快照文件损坏,最大力度恢复数据。
(2)解析快照文件
每个快照文件都是内存数据序列化到磁盘的二进制文件,因此需要对其进行反序列化,生成 DataTree对象。
(3)获取最新ZXID(zxid_for_snap)
最新的快照文件解析成功后,根据该文件名解析出一个最新的ZXID(zxid_for_snap),即发生快照最后一次提交事务的ZXID,找到这个ZXID有什么用呢?
可以根据这个ZXID找到快照之后对应的增量事务日志文件,进行数据修正。
2、事务日志进行数据修正
只通过快照日志无法完全恢复数据,还需要根据事务日志进行增量数据修正。
(1)获取zxid_for_snap之后提交的事务
快照日志文件处理完后,可以得到一个zxid_for_snap,扫描加载文件名后缀大于zxid_for_snap的事务日志文件,获取在zxid_for_snap之后提交的所有事务。
(2)数据修正
逐个对zxid_for_snap之后的事务进行内存同步,修复DataTree数据。如果该ZooKeeper服务器是Leader,
在数据修正的过程中,每当有一个事务同步到内存数据库,就将这一事务记录转换成提议,保存到事务提议缓存队列中,为后续数据同步做准备。
(3)获取最新ZXID校验epoch
epoch字面意思是纪元、时代,在ZooKeeper中,epoch表示当前Leader任期。每次选举出一个新Leader后,epoch在原来基础上加1。
ZooKeeper集群在运行期间,服务间相互通信都会带上这个epoch,以确保彼此在同一个Leader任期内。
待所有的事务日志对数据修正后,获取一个最大的ZXID,即上次服务器正常运行时最后提交的事务ID。
从最大ZXID的高32位解析出该事务处理的Leader任期epoch,同时从磁盘的dataDir/version2目录下currentEpoch和acceptedEpoch文件中读取出最新的epoch值,进行校验。
3、数据同步
ZooKeeper服务器重启后,做完日志文件的加载和数据初始化,整个集群完成Leader选举或者本身就有Leader,此时,Learner服务器(Follower或者Observer)需要向Leader服务器进行注册,注册完成后,就进入数据同步阶段,即Leader服务器上的事务和Learner服务器的事务做对比,同步或者回滚。
(1)Learner 向 Leader 发送 ACKEPOCH
在注册Learner最后阶段,Learner向 Leader 发送一个 ACKEPOCH 数据包,Leader从这个数据包中解析出该Learner的 currentEpoch 和 lastZxid。
(2)Leader 初始化 peerLastZxid、minCommittedLog、maxCommittedLog
在开始数据同步之前,Leader 服务器首先从内存数据库中提取出事务请求对应的提议缓存队列,并完成以下三个ZXID的初始化:
-
peerLastZxid,将从Learner获取的lastZxid赋值给peerLastZxid。 -
minCommittedLog,Leader服务器提议缓存队列committedLog中的最小ZXID。 -
maxCommittedLog,Leader服务器提议缓存队列committedLog中的最大ZXID。
通过 peerLastZxid 和 minCommittedLog、maxCommittedLog 比较,有四种数据同步的方式:直接差异化同步(DIFF)、先回滚再差异化同步(TRUNC+DIFF)、仅回滚同步(TRUNC)、全量同步(SNAP)。
(3.1)直接差异化同步(DIFF)
minCommittedLog < peerLastZxid < maxCommittedLog
(peerLastZxid, maxCommittedLog]范围内的事务是Learner没有的,所以只需要Leader把这个范围内的事务提议发送给这个Learner同步即可。具体流程如下:
-
Leader先向这个Learner发送一个DIFF指令,用于通知Learner进入差异化数据同步阶段,Leader也将把这些差异事务提议同步给自己。 -
对于每条差异事务提议,
Leader会发送两个数据包给Learner,分别是PROPOSAL内容数据包和COMMIT指令数据包。 -
Leader发完所有的差异事务提议后,还会发送一个NEWLEADER指令,用于通知Learner,已经将所有差异事务提议都同步给自己了。 -
Learner收到NEWLEADER指令后,回复一个ACK消息给Leader,表明自己已经完成差异化事务的同步。 -
Leader在接收到来自这个Learner的ACK消息后,就认为这个Learner已经完成了数据同步,同时进入过半等待阶段,即Leader会和其他Learner服务器进行上述同样的数据同步流程。 -
直到集群中有过半的
Learner机器响应了Leader这个ACK消息,此时Leader向所有已经完成数据同步的Learner发送一个UPTODATE指令,用来通知Learner已经完成了数据同步,同时集群中已经有过半机器完成了数据同步。此时集群已经具备了对外服务的能力。 -
Learner在接收到这个来自Leader的UPTODATE指令后,会终止数据同步流程,然后向Leader再次反馈一个ACK消息。
很明显差异化同步过程和运行时的Leader与Follower事务提交一样,都用了两阶段提交。
(3.2)先回滚再差异化同步(TRUNC+DIFF)
minCommittedLog < peerLastZxid < maxCommittedLog
上述直接差异化同步场景存在一种罕见,但是确实存在的特殊场景,peerLastZxid依然在 minCommittedLog 和 maxCommittedLog 之间,但是peerLastZxid和minCommittedLog是同一任期,maxCommittedLog是另一个任期。
为什么会出现这样的情况?这一定是发生过Leader重选!假设有 A、B、C 三台机器:
-
某一时刻B是Leader服务器,此时的Leader_Epoch为5,同时当前已经被集群中绝大部分机器都提交的
ZXID包括:0x500000001和0x500000002。 -
此时,Leader 正在处理
ZXID: 0x500000003,并且已经将该事务写入到了 Leader本地事务日志文件,但是还没来得及把该事务提议广播给Follower,Leader服务器挂了。所有Follower上最后一次事务提交还是0x500000002。 -
还有两台机器,进行
Leader选举,假设A成为新Leader,Leader_Epoch+1变更为6。 -
A和C继续对外提供服务,又提交了一个事务
0x600000001,此时,A的事务提议缓存队列中minCommittedLog为0x500000001,maxCommittedLog为0x600000001。 -
此时,B 重启,开始数据同步,B最后一次提交事务
peerLastZxid为0x500000003,peerLastZxid在minCommittedLog和maxCommittedLog之间,却和现在的Leader不在同一个任期。 -
对于这个特殊场景,现任Leader没有事务
0x500000003,B 就使用先回滚再差异化同步(TRUNC+DIFF)的方式。 -
当
Leader服务器发现某个Learner包含了一条自己没有的事务记录,那么就在数据同步时让该Learner进行事务回滚,回滚到Leader服务器上存在的,同时也是最接近于peerLastZxid的ZXID。 -
B先回滚到
ZXID为0x500000002的事务记录,然后再进行差异化同步。
(3.3)仅回滚同步(TRUNC)
peerLastZxid > maxCommittedLog
Leader 要求 Learner 回滚到 ZXID 值为 maxCommitedLog 对应的事务操作。
(3.4)全量同步(SNAP)
发生全量同步主要原因是 Leader 服务器上的提议缓存队列不能直接用于和 Learner 进行数据同步,所以只能进行全量同步。
有两种情况,Leader 服务器上的提议缓存队列不可用:
-
peerLastZxid小于minCommittedLog。 -
Leader服务器上的提议缓存队列为空。
所谓全量同步就是 Leader 服务器将本机上的全量内存数据都同步给 Learner。

1、为什么需要快照日志
通过对事务日志和快照日志基本概念的了解,知道事务日志存的是增量数据,快照日志存的是某个时刻的全量数据,二者合二为一就是最大限度的全量数据。
又通过对ZooKeeper 启动时数据初始化和同步的了解,快照日志可以初步恢复出一个DataTree,事务日志只是对这棵DataTree做数据修正。如果没有快照日志都是事务日志,那么数据恢复的过程将非常耗时好性能,每条事务需要重新写入内存数据库,肯定是没有用快照日志反序列化生成一个DataTree来的快。
2、数据备份策略
理论上,只需要备份最新的一个快照日志文件及其之后产生的事务日志文件即可,但是防止日志文件损坏,可以全量备份,开启了日志清理任务之后,至多保留3个快照文件,也不会很多。
备份数据需要考虑一个时间间隔,一天一备,还是一小时一备,时间间隔越小,数据越新,越能最大限度恢复数据。
备份数据还需要考虑是本机备份还是将数据备份到其他机器,之所以备份到其他机器是为了防止本机故障停机、无法重启、磁盘损坏等。
本机备份其实没有多大必要,因为原始日志文件就是最新的数据,应该把精力放在数据恢复上。
3、数据恢复
恢复数据分为了两种:冷恢复和热恢复
-
冷恢复就是通过备份的日志文件在
ZooKeeper启动时初始化和同步,适用于当前集群故障,无法通信的场景。 -
热恢复就是动态的将当前集群的数据同步到目的集群上,前提是当前集群是正常运行,可通信的。
如何动态同步,可以利用 Observer 机制。将目的集群中的一个服务设置成当前集群的 Observer,当前集群的Leader就会把数据动态同步给 Observer了,然后再将目的集群配置启动,让这个Observer成为目的集群的 Leader 即可。也可以将目的集群的所有服务都作为当前集群的Observer,可能会消耗一些当前集群 Leader的一些性能,以实际生产情况为准。
使用日志文件恢复数据需要注意,先把目的集群的日志文件清空(删除 dataDir/version2 和 dataLogDir/version2 ),将备份日志文件复制到集群中的某个服务即可,目的集群重启后,有备份日志文件的服务将成为 Leader,然后同步数据给 Follower。前提:目的集群是一个新集群。
如果目的集群是一个已经在用的集群,就不能用日志文件恢复了,需要遍历原集群的数据,然后一条一条地写入到目的集群,该方式消耗性能较大,可能会影响目的集群的正常使用。该方式还有一个缺点就是原集群的 客户端会话不会同步,而日志文件恢复是可以的。

ZooKeeper 专门设计了 Zab(Zookeeper Atomic Broadcast)协议作为其数据一致性协议,所有写操作和客户端会话管理都以事务方式由 Leader 统一协调,使用两阶段提交的方式,保证数据一致性。但是为了性能,Leader不可能等所有的 Learner 响应完成,而是使用投票过半机制。
ZooKeeper 的两阶段提交是同步阻塞的,事务提议严格按 ZXID 顺序执行,所以事务操作性能低于非事务操作,Follower 越多性能越低。
事务请求包括 create、delete 、setData 以及客户端会话的创建和销毁(createSession、closeSession)。
ZooKeeper将数据以事务日志形式持久化到文件中。每个事务请求,必须先将事务日志写到文件中,然后才把数据同步到内存数据库。
事务日志是增量数据,快照日志是某个时刻全量数据,合二为一可以最大限度恢复数据。
通过日志文件恢复数据,取最新的快照日志文件反序列化生成一个 DataTree,然后用事务日志对这棵 DataTree 做数据修正。
数据恢复后还需要做数据同步,即 Leader 为了保证所有的 Learner 和自己的数据一致,需要拿 Learner 最后提交的 ZXID 和 Leader 的 事务提议缓存队列中的ZXID 最对比,Learner 多退少补。
自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。
深知大多数Linux运维工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!
因此收集整理了一份《2024年Linux运维全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。




既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上Linux运维知识点,真正体系化!
由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新
如果你觉得这些内容对你有帮助,可以添加VX:vip1024b (备注Linux运维获取)
最后的话
最近很多小伙伴找我要Linux学习资料,于是我翻箱倒柜,整理了一些优质资源,涵盖视频、电子书、PPT等共享给大家!
资料预览
给大家整理的视频资料:

给大家整理的电子书资料:

如果本文对你有帮助,欢迎点赞、收藏、转发给朋友,让我有持续创作的动力!
一个人可以走的很快,但一群人才能走的更远。不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎扫码加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!
]
[外链图片转存中…(img-ASqyQR7k-1712870780318)]
既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上Linux运维知识点,真正体系化!
由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新
如果你觉得这些内容对你有帮助,可以添加VX:vip1024b (备注Linux运维获取)
[外链图片转存中…(img-4PmFqmKx-1712870780318)]
最后的话
最近很多小伙伴找我要Linux学习资料,于是我翻箱倒柜,整理了一些优质资源,涵盖视频、电子书、PPT等共享给大家!
资料预览
给大家整理的视频资料:
[外链图片转存中…(img-wtprNrlS-1712870780319)]
给大家整理的电子书资料:
[外链图片转存中…(img-uuqGjswO-1712870780319)]
如果本文对你有帮助,欢迎点赞、收藏、转发给朋友,让我有持续创作的动力!
一个人可以走的很快,但一群人才能走的更远。不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎扫码加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!
[外链图片转存中…(img-Rf0K2QXH-1712870780319)]
更多推荐




所有评论(0)