博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
redis的数据持久化再讲 关于redisAOF RDB工作原理
阅读量:4920 次
发布时间:2019-06-11

本文共 3200 字,大约阅读时间需要 10 分钟。

1、配置RDB持久化

    在redis中redis.conf文件找到如下内容:

################################ SNAPSHOTTING  ################################## Save the DB on disk:##   save 
## Will save the DB if both the given number of seconds and the given# number of write operations against the DB occurred.## In the example below the behaviour will be to save:# after 900 sec (15 min) if at least 1 key changed# after 300 sec (5 min) if at least 10 keys changed# after 60 sec if at least 10000 keys changed## Note: you can disable saving completely by commenting out all "save" lines.## It is also possible to remove all the previously configured save# points by adding a save directive with a single empty string argument# like in the following example:## save ""

  可以选择进行修改,修改对应的如下:

save 60 1000

  意义是:

每隔60s,如果有超过1000个key发生了变更,那么就生成一个新的dump.rdb文件,就是当前redis内存中完整的数据快照,这个操作也被称之为snapshotting,快照

也可以手动调用save或者bgsave命令,同步或异步执行rdb快照生成

save可以设置多个,就是多个snapshotting检查点,每到一个检查点,就会去check一下,是否有指定的key数量发生了变更,如果有,就生成一个新的dump.rdb文件

再说RDB的工作流程: 

(1)redis根据配置自己尝试去生成rdb快照文件

(2)fork一个子进程出来
(3)子进程尝试将数据dump到临时的rdb快照文件中
(4)完成rdb快照文件的生成之后,就替换之前的旧的快照文件

dump.rdb,每次生成一个新的快照,都会覆盖之前的老快照

 2、AOF持久化的配置

    AOF持久化,默认是关闭的,默认是打开RDB持久化

在redis的conf文件中修改参数

appendonly yes,可以打开AOF持久化机制,在生产环境里面,一般来说AOF都是要打开的,除非你说随便丢个几分钟的数据也无所谓

打开AOF持久化机制之后,redis每次接收到一条写命令,就会写入日志文件中,当然是先写入os cache的,然后每隔一定时间再fsync一下

而且即使AOF和RDB都开启了,redis重启的时候,也是优先通过AOF进行数据恢复的,因为aof数据比较完整

可以配置AOF的fsync策略,有三种策略可以选择,一种是每次写入一条数据就执行一次fsync; 一种是每隔一秒执行一次fsync; 一种是不主动执行fsync

always: 每次写入一条数据,立即将这个数据对应的写日志fsync到磁盘上去,性能非常非常差,吞吐量很低; 确保说redis里的数据一条都不丢,那就只能这样了

mysql -> 内存策略,大量磁盘,QPS到多少,一两k。QPS,每秒钟的请求数量

redis -> 内存,磁盘持久化,QPS到多少,单机,一般来说,上万QPS没问题

everysec: 每秒将os cache中的数据fsync到磁盘,这个最常用的,生产环境一般都这么配置,性能很高,QPS还是可以上万的

no: 仅仅redis负责将数据写入os cache就撒手不管了,然后后面os自己会时不时有自己的策略将数据刷入磁盘,通常不用

 

这里顺便提一下AOF的 rewrite

  因为redis将数据存在内存里面嘛 然后又基于他的垃圾清理策略,所以有时候日志满了就要清理,这个清理策略也是可控的,同样的在redis的conf文件中修改有关信息:

redis中的数据其实有限的,很多数据可能会自动过期,可能会被用户删除,可能会被redis用缓存清除的算法清理掉

redis中的数据会不断淘汰掉旧的,就一部分常用的数据会被自动保留在redis内存中

所以可能很多之前的已经被清理掉的数据,对应的写日志还停留在AOF中,AOF日志文件就一个,会不断的膨胀,到很大很大

所以AOF会自动在后台每隔一定时间做rewrite操作,比如日志里已经存放了针对100w数据的写日志了; redis内存只剩下10万; 基于内存中当前的10万数据构建一套最新的日志,到AOF中; 覆盖之前的老日志; 确保AOF日志文件不会过大,保持跟redis内存数据量一致

redis 2.4之前,还需要手动,开发一些脚本,crontab,通过BGREWRITEAOF命令去执行AOF rewrite,但是redis 2.4之后,会自动进行rewrite操作

在redis.conf中,可以配置rewrite策略

auto-aof-rewrite-percentage 100: 就是当前AOF大小膨胀到超过上次100%,上次的两倍

auto-aof-rewrite-min-size 64mb: 根据你的数据量来定,16mb,32mb

比如说上一次AOF rewrite之后,是128mb

然后就会接着128mb继续写AOF的日志,如果发现增长的比例,超过了之前的100%,256mb,就可能会去触发一次rewrite

但是此时还要去跟min-size,64mb去比较,256mb > 64mb,才会去触发rewrite

(1)redis fork一个子进程

(2)子进程基于当前内存中的数据,构建日志,开始往一个新的临时的AOF文件中写入日志
(3)redis主进程,接收到client新的写操作之后,在内存中写入日志,同时新的日志也继续写入旧的AOF文件
(4)子进程写完新的日志文件之后,redis主进程将内存中的新日志再次追加到新的AOF文件中
(5)用新的日志文件替换掉旧的日志文件

 

 

   关于AOF破损文件的修复

如果redis在append数据到AOF文件时,机器宕机了,可能会导致AOF文件破损

用redis-check-aof --fix命令来修复破损的AOF文件

 

  AOF和RDB同时工作(就是上节我推荐使用的那种方式)

(1)如果RDB在执行snapshotting操作,那么redis不会执行AOF rewrite; 如果redis再执行AOF rewrite,那么就不会执行RDB snapshotting

(2)如果RDB在执行snapshotting,此时用户执行BGREWRITEAOF命令,那么等RDB快照生成之后,才会去执行AOF rewrite
(3)同时有RDB snapshot文件和AOF日志文件,那么redis重启的时候,会优先使用AOF进行数据恢复,因为其中的日志更完整

转载于:https://www.cnblogs.com/notably/p/11131765.html

你可能感兴趣的文章
搭建ftp服务器
查看>>
安装阿里巴巴java规范插件安装
查看>>
linux 运维工程师
查看>>
windows本地连接腾讯云的mysql服务器
查看>>
ActionBarSherlock学习笔记 第一篇——部署
查看>>
Rock Paper Azure Challenge回来啦
查看>>
//数组逆序
查看>>
预习任务:python 网络爬虫
查看>>
[LeeetCode] Remove Linked List Elements
查看>>
Selenium Grid的Java调用方法
查看>>
SpringMVC controller 时间 T
查看>>
id 的选择器为什么要这么写 li#first? [转]
查看>>
Nginx+Tomcat+Memcached负载均衡集群服务搭建
查看>>
五步打造APP节日主题设计:以Lofter新年图标设计为例
查看>>
redisson client 介绍及优缺点
查看>>
docker微服务部署之:二、搭建文章微服务项目
查看>>
在线压力测试,测试网站并发量
查看>>
使用 Linux Mint 作为主要操作系统的一些个人常用软件
查看>>
Oracle 10g RAC (linux) ASM 共享存储的管理详解
查看>>
kubernetes 环境搭建(ubuntu16.04)
查看>>