ionic做网站,企业网站建设推广含义,禹州市门户网站建设,做导航网站用什么源码哨兵机制概念
在传统主从复制机制中#xff0c;会存在一些问题#xff1a; 1. 主节点发生故障时#xff0c;进行主备切换的过程是复杂的#xff0c;需要人工参与#xff0c;导致故障恢复时间无法保障。 2. 主节点可以将读压力分散出去#xff0c;但写压力/存储压力是无法…哨兵机制概念
在传统主从复制机制中会存在一些问题 1. 主节点发生故障时进行主备切换的过程是复杂的需要人工参与导致故障恢复时间无法保障。 2. 主节点可以将读压力分散出去但写压力/存储压力是无法被分担的还是受到单机的限制。 哨兵机制就是为了解决第一个高可用问题的
当主节点出现故障时哨兵机制能自动完成故障发现和故障转移并通知应用方从而实现真正的高可用。 哨兵机制是一个分布式架构其中包含若干个redis哨兵节点和Redis数据节点每个哨兵节点会对数据节点和其余Sentinel节点进行监控当它发现节点不可达时会对节点做下线标识。如果下线的是主节点它还会和其他的哨兵节点进行“协商”当大多数哨兵节点对主节点不可达这个结论达成共识之后它们会在内部“选举”出一个领导节点来完成自动故障转移的工作同时将这个变化实时通知给Redis应用方。整个过程是完全自动的不需要人工介入。 环境规划
redis版本5.0.9
我们将使用docker搭建redis哨兵环境
docker-compose 来进行容器编排
1创建三个容器作为redis的数据节点主从结构一主两从
2创建三个容器作为redis的哨兵节点
目录结构 搭建数据节点
docker-compose.yml是 Docker Compose 使用的配置文件它定义了多个 Docker 容器的服务、网络和卷的配置。通过这个文件你可以使用一条命令来批量启动多个docker容器
配置docker-compose.yml
version: 3.7
services:master:image: redis:5.0.9container_name: redis-masterrestart: alwayscommand: redis-server --appendonly yesports: - 6379:6379slave1:image: redis:5.0.9container_name: redis-slave1restart: alwayscommand: redis-server --appendonly yes --slaveof redis-master 6379ports:- 6380:6379slave2:image: redis:5.0.9container_name: redis-slave2restart: alwayscommand: redis-server --appendonly yes --slaveof redis-master 6379ports:- 6381:6379 version: 3.7指定 Docker Compose 文件的版本。版本 3.7 支持更高级的功能和配置选项。 services:定义一组服务每个服务对应一个容器。在这里我们定义了三个服务分别是主节点master和两个从节点slave。 image指定要使用的镜像这里是我们提前拉取的redis:5.0.9镜像 container_name: 指定容器的名称。这样你可以通过这个名称来引用和管理容器。 restart: always指定容器的重启策略。在这里配置为always表示无论容器是因何原因退出Docker 都会自动重启该容器。 command设置启动命令为主节点和从节点配置不同的命令 ports映射主机端口到容器端口。前一个是主机端口后一个是容器端口。就是说在主机里这三个redis分别是6379,6380,6381端口映射到各自容器的6379端口 启动docker compose配置的服务
在docker-compose.yml配置文件同级目录下使用命令 sudo docker-compose up -d up表示构建、重新创建、启动并连接配置文件中定义的所有服务。如果某些服务已经在运行up命令会重新启动它们。
-d表示 --detach 选项它会将服务在后台运行。如果没有-d选项服务将会在前台运行并输出日志信息到当前终端窗口 如果启动后发现前面的配置有误,需要重新操作,使用 docker-compose down 即可停止并删除 刚才创建好的容器. 查看运行日志
同级目录下使用命令 sudo docker-compose logs 可以看见成功加载了三个容器
也可以使用命令 sudo docker ps -a 显示容器的列表 可以在最后一列看到名字分别是redis-slave1、redis-slave2、redis-master代表三个数据节点
搭建成功
验证
连接主节点 可以看到主节点有两个连接的从节点
搭建哨兵节点 其实也可以把哨兵节点的yml配置文件和上面的配置文件写到一起这里分成两组主要是为了方便观察
哨兵节点配置
放在redis-sentinel目录中分别创建三个内容完全相同
bind 0.0.0.0
port 26379
sentinel monitor redis-master redis-master 6379 2
sentinel down-after-milliseconds redis-master 1000
sentinel monitor表示监听的redis节点第一个redis-master是给哨兵内部的名字第二个是主节点ip但是这里用的是docker所以就写容器名会自动DNS成对应的ip6379表示端口2表示票数如果有哨兵节点觉得主节点挂了那就投1票当票数大于等于2时就认为主节点真的挂了就会启动后面的流程
sentinel down-after-milliseconds redis-master 1000主节点和哨兵之间通过心跳包来进行沟通.如果心跳包在指定的时间1000ms内还没回来,就视为是节点出现故障.
为什么要创建三个一样的文件而不用同一个呢
因为redis-sentinel 在运行中可能会对配置进行重写,修改文件内容.如果用一份文件,就可能出现修改 混乱的情况.
配置docker-compose.yml
version: 3.7
services:sentinel1:image: redis:5.0.9container_name: redis-sentinel-1restart: alwayscommand: redis-sentinel /etc/redis/sentinel.confvolumes:- ./sentinel1.conf:/etc/redis/sentinel.confports:- 26379:26379sentinel2:image: redis:5.0.9container_name: redis-sentinel-2restart: alwayscommand: redis-sentinel /etc/redis/sentinel.confvolumes:- ./sentinel2.conf:/etc/redis/sentinel.confports:- 26380:26379sentinel3:image: redis:5.0.9container_name: redis-sentinel-3restart: alwayscommand: redis-sentinel /etc/redis/sentinel.confvolumes:- ./sentinel3.conf:/etc/redis/sentinel.confports:- 26381:26379
networks:default:external:name: redis-data_default volume配置挂载的卷将主机上的文件或目录映射到容器内部。 networks表示要加入的网络而不是创建新的网络因为是两个配置文件会启用两个局域网为了让数据节点和哨兵节点互相认识并通信所以要加入到一个网络中。 启动docker compose配置的服务
在docker-compose.yml配置文件同级目录下使用命令 sudo docker-compose up -d 查看运行日志
同级目录下使用命令 sudo docker-compose logs 可以发现正在监控主节点172.18.0.4 6379
验证哨兵机制
主节点挂掉 sudo docker stop redis-master 查看哨兵日志 这里从sdown master redis-master 172.18.0.4 6379之前都是启动时的日志
后面是主节点挂了后的日志
sdown是主观下线就是说这个节点主观认为主节点挂了投一票
odown是客观下线就是说主节点客观挂了票数超过设置 表示票数达到3/2超过规定 认为主节点已经不能正常工作了开启选取新的主节点的流程 表示选取172.18.0.3作为主节点代替172.18.0.4
重启原来的主节点 sudo docker start redis-master 这个节点变成从节点并设置主节点为172.18.0.3
选取新主节点流程
主观下线
当redis-master 宕机,此时redis-master和三个哨兵之间的心跳包就没有了. 此时,站在三个哨兵的角度来看,redis-master出现严重故障。因此三个哨兵均会把redis-master判定为主观下线(SDown)
并投一票故障
客观下线
当故障得票数配置的法定票数之后,意味着redis-master故障这个事情被坐实了.此时触发客观下线(ODown)
选举出哨兵的leader
因为选取新主节点的工作不能让大家一起做会乱套所以现在需要在哨兵节点中选举出一个领导leader节点来选举新主节点
这个选举的过程涉及到 Raft 算法
1.每个哨兵节点都给其他所有哨兵节点,发起一个拉票请求
2.收到拉票请求的节点,会回复一个投票响应.响应的结果有两种可能,投or不投 如果已经发现主节点客观下线需要选举leader但是没有收到拉票请求就会投给自己然后向其他哨兵拉票。 如果哨兵收到多个拉票请求会投票给收到第一个请求的哨兵。 3.一轮投票完成之后,发现得票超过半数的节点,自动成为leader 如果平票再投一次 把哨兵节点的个数设置为奇数可以减小平票的可能提高效率 leader哨兵选举新主节点 leader 挑选出合适的slave成为新的 master
挑选规则
1.比较优先级.优先级高(数值小的)的上位.优先级是redis配置文件中的配置项( slave-priority或replica-priority )
2.比较 replication offset 谁复制的数据多,高的上位
3.比较 run id ,谁的id小,谁上位.
选举后
当某个slave节点被指定为master之后,
1. leader 指定该节点执行 slave no one ,成为master
2. leader 指定剩余的slave节点,都依附于这个新master
注意事项
• 哨兵节点不能只有一个否则哨兵节点挂了也会影响系统可用性.
• 哨兵节点最好是奇数个方便选举leader,得票更容易超过半数.
• 哨兵节点不负责存储数据仍然是redis主从节点负责存储.
• 哨兵主从复制解决的问题是提高可用性不能解决数据极端情况下写丢失的问题.
• 哨兵主从复制不能提高数据的存储容量当我们需要存的数据接近或者超过机器的物理内存,这样的结构就难以胜任了。
为了能存储更多的数据,就引入了集群.