Redis高可用之复制技术原理(redis 复制积压缓冲区)
mhr18 2024-11-07 11:02 18 浏览 0 评论
按照如下所示的架构图
从节点2启动后的log如下所示
2542:C 01 Jul 2020 23:40:25.719 # oO0OoO0OoO0Oo Redis is starting oO0OoO0OoO0Oo
2542:C 01 Jul 2020 23:40:25.719 # Redis version=5.0.9, bits=64, commit=00000000, modified=0, pid=2542, just started
2542:C 01 Jul 2020 23:40:25.719 # Configuration loaded
2542:C 01 Jul 2020 23:40:25.719 * supervised by systemd, will signal readiness
2542:S 01 Jul 2020 23:40:25.726 * Running mode=standalone, port=6379.
2542:S 01 Jul 2020 23:40:25.727 # Server initialized
2542:S 01 Jul 2020 23:40:25.728 * Ready to accept connections
2542:S 01 Jul 2020 23:40:25.729 * Connecting to MASTER 192.168.100.2:6379
2542:S 01 Jul 2020 23:40:25.730 * MASTER <-> REPLICA sync started
2542:S 01 Jul 2020 23:40:25.730 * Non blocking connect for SYNC fired the event.
2542:S 01 Jul 2020 23:40:25.732 * Master replied to PING, replication can continue...
2542:S 01 Jul 2020 23:40:25.733 * Partial resynchronization not possible (no cached master)
2542:S 01 Jul 2020 23:40:25.735 * Full resync from master: ace84ebdf777439877a2ca70386ff8eb2bb14505:5082
2542:S 01 Jul 2020 23:40:25.805 * MASTER <-> REPLICA sync: receiving 788033 bytes from master
2542:S 01 Jul 2020 23:40:25.826 * MASTER <-> REPLICA sync: Flushing old data
2542:S 01 Jul 2020 23:40:25.827 * MASTER <-> REPLICA sync: Loading DB in memory
2542:S 01 Jul 2020 23:40:25.859 * MASTER <-> REPLICA sync: Finished with success
2542:S 01 Jul 2020 23:40:25.860 * Background append only file rewriting started by pid 2546
2542:S 01 Jul 2020 23:40:25.921 * AOF rewrite child asks to stop sending diffs.
2546:C 01 Jul 2020 23:40:25.922 * Parent agreed to stop sending diffs. Finalizing AOF...
2546:C 01 Jul 2020 23:40:25.922 * Concatenating 0.00 MB of AOF diff received from parent.
2546:C 01 Jul 2020 23:40:25.922 * SYNC append only file rewrite performed
2546:C 01 Jul 2020 23:40:25.922 * AOF rewrite: 0 MB of memory used by copy-on-write
2542:S 01 Jul 2020 23:40:25.960 * Background AOF rewrite terminated with success
2542:S 01 Jul 2020 23:40:25.960 * Residual parent diff successfully flushed to the rewritten AOF (0.00 MB)
2542:S 01 Jul 2020 23:40:25.960 * Background AOF rewrite finished successfully
从节点2启动后,主节点的log如下所示
1419:M 01 Jul 2020 23:40:25.271 * Replica 192.168.100.4:6379 asks for synchronization
1419:M 01 Jul 2020 23:40:25.271 * Full resync requested by replica 192.168.100.4:6379
1419:M 01 Jul 2020 23:40:25.272 * Starting BGSAVE for SYNC with target: disk
1419:M 01 Jul 2020 23:40:25.272 * Background saving started by pid 2459
2459:C 01 Jul 2020 23:40:25.297 * DB saved on disk
2459:C 01 Jul 2020 23:40:25.298 * RDB: 0 MB of memory used by copy-on-write
1419:M 01 Jul 2020 23:40:25.341 * Background saving terminated with success
1419:M 01 Jul 2020 23:40:25.361 * Synchronization with replica 192.168.100.4:6379 succeeded
- redis复制技术
Redis复制技术是一种简单易用基于主从架构的高可用解决方案,它允许从节点精确无误的从主节点复制一份完整的数据,当网络故障恢复后,从节点会自动重新连接主节点,并根据数据是否过期决定从主节点执行一个全新或者部分数据的同步.
redis复制技术基于下述三种机制
- 主节点与从节点正常工作中,对主节点的数据修改命令会实时同步到从节点,同时会同步修改命令到一个额定大小的称为积压缓冲区(backlog)的内存块中,这些命令包括客户端的写入,修改等操作.
- 当主节点与从节点网络故障恢复后,主节点依旧会将修改命令同步到额定大小的积压缓冲区(backlog),从节点会自动连接主节点并尝试根据主节点的积压缓冲区中命令同步自故障后主节点更新的数据
- 当从节点发现主节点的额定大小的积压缓冲区的数据已被新数据覆盖后,会请求主节点进行一次全新的数据同步.
redis复制技术默认是异步的,低延迟的和高性能的,这就决定了redis同步数据到从节点后并不关心从节点是否确认数据已经写入,为此redis给出了一个妥协的解决方案,在redis的配置文件中加入以下参数
# min-replicas-to-write 3 //决定数据至少要写入几个从节点才认为写成功
# min-replicas-max-lag 10 //如果从节点延迟超过多少秒后主节点禁止客户端再写入数据
下列是redis复制中一些重要特性
- redis的复制是异步的
- 一个redis主节点可以包含多个从节点,而且支持级联复制.级联复制的节点从原始的主节点接收数据
- redis的复制技术在主节点是非阻塞的,在和从节点同步数据过程中不影响客户端的读写
- redis的复制技术在从节点也是非阻塞的,从节点执行一个完整的初始化同步后,不仅可读,也可以写入,这个写入操作是发生在当前的从节点,对于级联复制的子节点来说是透明的,如果主从节点之间因网络故障断开,那么从节点的数据便不再是最新的,从节点是否将这些旧的数据提供给客户端查询取决于redis的配置参数replica-serve-stale-data,每次从节点从主节点重新同步数据后,从节点会用新的数据文件替换旧的数据文件,这个短暂的替换过程中会阻塞客户端连接.
- redis复制可以很方便扩容.
- redis主节点可以使用无盘复制技术,主节点没有启用数据持久化,有从节点连接时,主节点直接将内存数据传输到从节点生成rdb文件,从节点加载该文件从而达到和主节点一致状态,但是在生产环境中尽量不要使用无盘复制技术,主节点意外重启会导致数据丢失,因为没有启用数据持久化功能,主节点启动后依然会作为主节点,但是数据是空的,这时从节点复制主节点的数据,会连通从节点的数据一并清空.
- redis复制技术入如何工作
redis复制的主节点都拥有一个复制id(Replication ID),复制id是一个41个字节的随机字符串,代表一个主节点下的数据集,同时每个主节点都有一个字节类型的复制偏移量(offset),每当主节点的数据被更新时,被更新的数据都会被转化成字节数据,复制偏移量在原来的基础上加上该字节,如当前的偏移量是1000,redis更新了三个键值,三个键值转化成字节值是120,那么当三个键值更新完成后,偏移量就是1000+120=1120.因此表示一个主节点的数据更新状态时按照如下:
Replication ID, offset
当从节点连接主节点后,从节点通过psync命令发送主节点的复制ID和从节点的复制偏移量,主节点接收到命令请求后查看从节点请求的复制偏移量,和自己的进行对比,就知道应该复制给从节点的数据范围,如果该范围在积压缓冲区(backlog)中,那么就将挤压缓冲中的如何从节点需求的数据发送给从节点,如果没有找到,那么主节点就将数据进行一次全新的同步到从节点.
关于全新同步的一些细节.
主节点开始一个后台线程将内存数据持久化到一个rdb文件,与此同时将后续的新的客户端写入命令写入到积压缓冲区中,当后台线程持久化rdb文件完成,主节点将该rdb文件传送到从节点保存,从节点再将该rdb文件数据加载到内存,主节点再将自己的积压缓冲区的写操作全部同步到从节点,等到从节点全部应用后,主从同步就算完成了.
- 关于复制ID的介绍
在我们通过info命令查看复制信息时,发现有两个复制ID,replid2成为secondary ID
master_replid:ace84ebdf777439877a2ca70386ff8eb2bb14505 //主节点的复制id
master_replid2:0000000000000000000000000000000000000000 //用于存储上次主实例的replid
一个复制ID代表代表一个给定的历史数据的集合,当一个节点启动成为一个主节点,或者一个从节点升级为主节点时,就会产生一个新的复制ID,从节点第一次连接主节点时会在握手时会继承主节点的复制ID,如果两个从节点记录的主节点复制ID和复制偏移量一致,那么我们可以说这两个从节点拥有相同的数据,如果从节点1的复制偏移量是1001,从节点2的复制偏移量是1009,那么从节点2的数据比从节点1的数据新.
一个节点为什么会有两个复制ID(一个secondary ID)?
当原来的主节点宕机,执行故障转移后一个从节点被提升为新的主节点,新的主节点仍然需要记录原来的主节点的复制ID,通过这种方法,当其他从节点从新的主节点同步数据时,由于看到自己连接的新的主节点的复制ID没有发生改变,那么从节点可以执行部分数据同步,而不是一个全新的数据的同步,新的主节点将自己第二个复制ID作为自己的主ID,当主ID切换时,新的主节点只要记住当前的复制偏移量即可.稍后,新的主节点将会生成一个随机的新的复制ID,因为一个新的数据产生,当有新的从节点连接时,新的主节点将从节点的复制ID,复制偏移量和自己的新的复制ID和secondary ID绑定做匹配,
当主节点宕机后,为什么新的主节点需要修改自己的复制ID呢?
这是为了防止原来的主节点故障恢复后,一些拥有和原主节点相同的复制ID的从节点可能会连接到原来的从节点,从而造成数据不一致的情况.
相关推荐
- 京东大佬问我,每天新增100w订单数据的分库分表方案
-
京东大佬问我,每天新增100w订单数据的分库分表方案嗯,用户问的是高并发订单系统的分库分表方案,每天新增100万订单。首先,我得理解需求。每天100万订单,那每秒大概是多少呢?算一下,100万除以86...
- MySQL 内存使用构成解析与优化实践
-
在为HULK平台的MySQL提供运维服务过程中,我们常常接到用户反馈:“MySQL内存使用率过高”。尤其在业务高峰期,监控中内存占用持续增长,即便数据库运行正常,仍让人怀疑是否存在异常,甚至...
- 阿里云国际站:怎样计算内存优化型需求?
-
本文由【云老大】TG@yunlaoda360撰写一、内存优化型实例的核心价值内存优化型ECS实例专为数据密集型场景设计,具有以下核心优势:高内存配比:内存与CPU比例可达1:8(如ecs.re6....
- MySQL大数据量处理常用解决方案
-
1、读写分离读写分离,将数据库的读写操作分开,比如让性能比较好的服务器去做写操作,性能一般的服务器做读操作。写入或更新操作频繁可以借助MQ,进行顺序写入或更新。2、分库分表分库分表是最常规有效的一种大...
- 1024程序员节 花了三个小时调试 集合近50种常用小工具 开源项目
-
开篇1024是程序员节了,本来我说看个开源项目花半个小时调试之前看的一个不错的开源项目,一个日常开发常常使用的工具集,结果花了我三个小时,开源作者的开源项目中缺少一些文件,我一个个在网上找的,好多坑...
- 免费全开源,功能强大的多连接数据库管理工具!-DbGate
-
DBGate是一个强大且易于使用的开源数据库管理工具,它提供了一个统一的Web界面,让你能够轻松地访问和管理多种类型的数据库。无论你是开发者、数据分析师还是DBA,DBGate都能帮助你提升工作效率...
- 使用operator部署Prometheus
-
一、介绍Operator是CoreOS公司开发,用于扩展kubernetesAPI或特定应用程序的控制器,它用来创建、配置、管理复杂的有状态应用,例如数据库,监控系统。其中Prometheus-Op...
- java学习总结
-
SpringBoot简介https://spring.io/guideshttp://www.spring4all.com/article/246http://www.spring4all.com/a...
- Swoole难上手?从EasySwoole开始
-
前言有些童鞋感觉对Swoole不从下手,也不知在什么业务上使用它,看它这么火却学不会也是挺让人捉急的一件事情。Swoole:面向生产环境的PHP异步网络通信引擎啥是异步网络通信?10年架构师领你架...
- 一款商用品质的开源商城系统(Yii2+Vue2.0+uniapp)
-
一、项目简介这是一套很成熟的开源商城系统【开店星】,之前推过一次,后台感兴趣的还不少,今天再来详细介绍一下:基于Yii2+Vue2.0+uniapp框架研发,代码质量堪称商用品质,下载安装无门槛,UI...
- Yii2中对Composer的使用
-
如何理解Composer?若使用Composer我们应该先知道这是一个什么东西,主要干什么用的,我们可以把Composer理解为PHP包的管理工具,管理我们用到的Yii2相关的插件。安装Compose...
- SpringBoot实现OA自动化办公管理系统源码+代码讲解+开发文档
-
今天发布的是由【猿来入此】的优秀学员独立做的一个基于springboot脚手架的自动化OA办公管理系统,主要实现了日常办公的考勤签到等一些办公基本操作流程的全部功能,系统分普通员工、部门经理、管理员等...
- 7层架构解密:从UI到基础设施,打造真正可扩展的系统
-
"我们系统用户量暴增后完全崩溃了!"这是多少工程师的噩梦?选择正确的数据库只是冰山一角,真正的系统扩展性是一场全栈战役。客户端层:用户体验的第一道防线当用户点击你的应用时,0.1秒...
- Win11系统下使用Django+Celery异步任务队列以及定时(周期)任务
-
首先明确一点,celery4.1+的官方文档已经详细说明,该版本之后不需要引入依赖django-celery这个库了,直接用celery本身就可以了,就在去年年初的一篇文章python3.7....
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- oracle位图索引 (63)
- oracle批量插入数据 (62)
- oracle事务隔离级别 (53)
- oracle 空为0 (50)
- oracle主从同步 (55)
- oracle 乐观锁 (51)
- redis 命令 (78)
- php redis (88)
- redis 存储 (66)
- redis 锁 (69)
- 启动 redis (66)
- redis 时间 (56)
- redis 删除 (67)
- redis内存 (57)
- redis并发 (52)
- redis 主从 (69)
- redis 订阅 (51)
- redis 登录 (54)
- redis 面试 (58)
- 阿里 redis (59)
- redis 搭建 (53)
- redis的缓存 (55)
- lua redis (58)
- redis 连接池 (61)
- redis 限流 (51)