相关资料

Redis官网
Redis命令参考——推荐
Redis命令参考
Jedis文档
Redis数据结构
Redis实现秒杀
优雅地处理重复请求(并发请求)——附Java实现

1、概述

1.1、简介

  • Redis 是一个开源的 key-value 存储系统。
  • 和 Memcached 类似,它支持存储的 value 类型相对更多,包括 string (字符串)、list (链表)、set (集合)、zset (sorted set –有序集合) 和 hash(哈希类型)。
  • 这些数据类型都支持 push/pop、add/remove 及取交集并集和差集及更丰富的操作,而且这些操作都是原子性的。
  • 在此基础上,Redis 支持各种不同方式的排序。
  • 与 memcached 一样,为了保证效率,数据都是缓存在内存中。
  • 区别的是 Redis 会周期性的把更新的数据写入磁盘或者把修改操作写入追加的记录文件。
  • 并且在此基础上实现了 master-slave (主从) 同步。

1.2、应用场景

  1. 配合关系型数据库做高速缓存

    • 高频次,热门访问的数据,降低数据库 IO。
    • 分布式架构,做 session 共享。
  2. 多样的数据结构存储持久化数据

    场景 实现
    最新N个数据 List实现按自然时间排序
    排行榜,TopN Zset
    时效性数据,比如手机验证码,Token Expire过期
    计数器,秒杀 原子性,自增方法INCR、DECR
    去除大量数据中的重复数据 利用Set
    构建队列 利用List
    发布订阅消息系统 pub/sub模式

1.3、相关技术

多路复用是指使用一个线程来检查多个文件描述符(Socket)的就绪状态,比如调用 select 和 poll 函数,传入多个文件描述符,如果有一个文件描述符就绪,则返回,否则阻塞直到超时。得到就绪状态后进行真正的操作可以在同一个线程里执行,也可以启动线程执行(比如使用线程池)。

串行 vs 多线程 + 锁(memcached) vs 单线程 + 多路 IO 复用 (Redis)
与 Memcache 三点不同:支持多数据类型,支持持久化,单线程 + 多路 IO 复用

2、数据类型

2.1、String——字符串

概述

  1. String 是 Redis 最基本的类型,你可以理解成与 Memcached 一模一样的类型,一个 key 对应一个 value。
  2. String 类型是二进制安全的。意味着 Redis 的 string 可以包含任何数据。比如 jpg 图片或者序列化的对象。
  3. String 类型是 Redis 最基本的数据类型,一个 Redis 中字符串 value 最多可以是 512M。

数据结构

String 的数据结构为简单动态字符串 (Simple Dynamic String, 缩写 SDS),是可以修改的字符串,内部结构实现上类似于 Java 的 ArrayList,采用预分配冗余空间的方式来减少内存的频繁分配.
在这里插入图片描述
如图中所示,内部为当前字符串实际分配的空间 capacity 一般要高于实际字符串长度 len。当字符串长度小于 1M 时,扩容都是加倍现有的空间,如果超过 1M,扩容时一次只会多扩 1M 的空间。需要注意的是字符串最大长度为 512M。

2.2、List——列表

概述
单键多值:Redis 列表是简单的字符串列表,按照插入顺序排序。你可以添加一个元素到列表的头部(左边)或者尾部(右边)。
底层实际是个双向链表,对两端的操作性能很高,通过索引下标的操作中间的节点性能会较差。

数据结构

  1. List 的数据结构为快速链表 quickList。

  2. 在列表元素较少的情况下会使用一块连续的内存存储,这个结构是 ziplist,也即是压缩列表。它将所有的元素紧挨着一起存储,分配的是一块连续的内存。

  3. 当数据量比较多的时候才会改成 quicklist。因为普通的链表需要的附加指针空间太大,会比较浪费空间。比如这个列表里存的只是 int 类型的数据,结构上还需要两个额外的指针 prev 和 next。
    在这里插入图片描述

  4. Redis 将链表和 ziplist 结合起来组成了 quicklist。也就是将多个 ziplist 使用双向指针串起来使用。这样既满足了快速的插入删除性能,又不会出现太大的空间冗余。

2.3、Set——集合

概述

  1. set 与 list 类似,特殊之处:set自动去重,提供了判断元素是否是集合的成员(list没有)。
  2. Redis 的 Set 是 string 类型的无序集合。它底层其实是一个 value 为 null 的 hash 表,所以添加,删除,查找的复杂度都是 O (1)
  3. 一个算法,随着数据的增加,执行时间的长短,如果是 O (1),数据增加,查找数据的时间不变。

数据结构

  1. Set 数据结构是 dict 字典,字典是用哈希表实现的。
  2. Java 中 HashSet 的内部实现使用的是 HashMap,只不过所有的 value 都指向同一个对象。Redis 的 set 结构也是一样,它的内部也使用 hash 结构,所有的 value 都指向同一个内部值。

2.4、Hash——哈希

概述

  1. Redis hash 是一个键值对集合。
  2. Redis hash 是一个 string 类型的 field 和 value 的映射表,hash 特别适合用于存储对象。
  3. 类似 Java 里面的 Map<String,Object>。
  4. 用户 ID 为查找的 key,存储的 value 用户对象包含姓名,年龄,生日等信息
    • 单纯存一个字符串,缺点:数据更新难,取值难
    • 存每个属性:数据太分散。属性太多的话,每个都要存,麻烦

数据结构
对应数据结构是两种:ziplist(压缩列表),hashtable(哈希表)。当 field-value 长度较短且个数较少时,使用 ziplist,否则使用 hashtable。

2.5、Zset——有序集合

概述

  1. Redis 有序集合 zset 与普通集合 set 非常相似,是一个没有重复元素的字符串集合。
  2. 不同之处是有序集合的每个成员都关联了一个评分(score),这个评分(score)被用来按照从最低分到最高分的方式排序集合中的成员。集合的成员唯一,但是评分可以重复
  3. 因为元素是有序的,所以你也可以很快的根据评分(score)或者次序(position)来获取一个范围的元素。
  4. 访问有序集合的中间元素也是非常快的,因此你能够使用有序集合作为一个没有重复成员的智能列表。

数据结构

SortedSet (zset) 是 Redis 提供的一个非常特别的数据结构,一方面它等价于 Java 的数据结构 Map<String, Double>,可以给每一个元素 value 赋予一个权重 score,另一方面它又类似于 TreeSet,内部的元素会按照权重 score 进行排序,可以得到每个元素的名次,还可以通过 score 的范围来获取元素的列表。

zset 底层使用了两个数据结构:

  1. hash,hash 的作用就是关联元素 value 和权重 score,保障元素 value 的唯一性,可以通过元素 value 找到相应的 score 值。
  2. 跳跃表,跳跃表的目的在于给元素 value 排序,根据 score 的范围获取元素列表。

跳跃表

简介:有序集合在生活中比较常见,例如根据成绩对学生排名,根据得分对玩家排名等。对于有序集合的底层实现,可以用数组、平衡树、链表等。数组不便元素的插入、删除;平衡树或红黑树虽然效率高但结构复杂;链表查询需要遍历所有效率低。Redis 采用的是跳跃表,跳跃表效率堪比红黑树,实现远比红黑树简单。

实例
对比有序链表和跳跃表,从链表中查询出 51:
在这里插入图片描述
​ 要查找值为 51 的元素,需要从第一个元素开始依次查找、比较才能找到。共需要 6 次比较

在这里插入图片描述

  • 从第 2 层开始,1 节点比 51 节点小,向后比较;
  • 21 节点比 51 节点小,继续向后比较,后面就是 NULL 了,所以从 21 节点向下到第 1 层;
  • 在第 1 层,41 节点比 51 节点小,继续向后,61 节点比 51 节点大,所以从 41 向下;
  • 在第 0 层,51 节点为要查找的节点,节点被找到,共查找 4 次。

2.6、Bitmaps

场景:记录每日独立访问用户

Redis 提供了 Bitmaps 这个 “数据类型” 可以实现对位的操作:

  1. Bitmaps 本身不是一种数据类型, 实际上它就是字符串(key-value) , 但是它可以对字符串的位进行操作。
  2. Bitmaps 单独提供了一套命令, 所以在 Redis 中使用 Bitmaps 和使用字符串的方法不太相同。 可以把 Bitmaps 想象成一个以位为单位的数组, 数组的每个单元只能存储 0 和 1, 数组的下标在 Bitmaps 中叫做偏移量。
    在这里插入图片描述
    Bitmaps 与 set 对比
    假设网站有 1 亿用户, 每天独立访问的用户有 5 千万, 如果每天用集合类型和 Bitmaps 分别存储活跃用户可以得到表:

set 和 Bitmaps 存储一天活跃用户对比

数据类型 每个用户 id 占用空间 需要存储的用户量 全部内存量
集合 64 位 50000000 64 位 * 50000000 = 400MB
Bitmaps 1 位 100000000 1 位 * 100000000 = 12.5MB

很明显, 这种情况下使用 Bitmaps 能节省很多的内存空间, 尤其是随着时间推移节省的内存还是非常可观的。

set 和 Bitmaps 存储独立用户空间对比

数据类型 一天 一个月 一年
集合 400MB 12GB 144GB
Bitmaps 12.5MB 375MB 4.5GB

但 Bitmaps 并不完美, 假如该网站每天的独立访问用户很少, 例如只有 10 万(大量的僵尸用户) , 那么两者的对比如下表所示, 很显然, 这时候使用 Bitmaps 就不太合适了, 因为基本上大部分位都是 0。

set 和 Bitmaps 存储一天活跃用户对比(用户比较少)

数据类型 每个 userid 占用空间 需要存储的用户量 全部内存量
集合 64 位 100000 64 位 * 100000 = 800KB
Bitmaps 1 位 100000000 1 位 * 100000000 = 12.5MB

其他
很多应用的用户id以一个指定数字(例如10000) 开头, 直接将用户id和Bitmaps的偏移量对应,势必会造成一定的浪费, 通常的做法是每次做setbit操作时将用户id减去这个指定数字。

在第一次初始化Bitmaps时, 假如偏移量非常大, 那么整个初始化过程执行会比较慢, 可能会造成Redis的阻塞。

2.7、HyperLogLog

解决基数问题(求集合中不重复元素个数的问题称为基数问题)
比如数据集 {1, 3, 5, 7, 5, 7, 8},那么这个数据集的基数集为 {1, 3, 5 ,7, 8},基数 (不重复元素) 为 5。 基数估计就是在误差可接受的范围内,快速计算基数。

场景
UV(UniqueVisitor 独立访客)、独立 IP 数、搜索记录数等需要去重和计数的问题

解决基数问题有很多种方案:

  1. 数据存储在 MySQL 表中,使用 distinct count 计算不重复个数。
  2. 使用 Redis 提供的 hash、set、bitmaps 等数据结构来处理。

以上的方案结果精确,但随着数据不断增加,导致占用空间越来越大,对于非常大的数据集是不切实际的。能否能够降低一定的精度来平衡存储空间?Redis 推出了 HyperLogLog。

  1. Redis HyperLogLog 是用来做基数统计的算法,HyperLogLog 的优点是:在输入元素的数量或者体积非常非常大时,计算基数所需的空间总是固定的、并且是很小的。
  2. 在 Redis 里面,每个 HyperLogLog 键只需要花费 12 KB 内存,就可以计算接近 2^64 个不同元素的基数。这和计算基数时,元素越多耗费内存就越多的集合形成鲜明对比。
  3. 但是,因为 HyperLogLog 只会根据输入元素来计算基数,而不会储存输入元素本身,所以 HyperLogLog 不能像集合那样,返回输入的各个元素。

2.8、Geospatial——地理位置

Redis 3.2 中增加了对 GEO 类型的支持。GEO,Geographic,地理信息的缩写。该类型,就是元素的 2 维坐标,在地图上就是经纬度。redis 基于该类型,提供了经纬度设置,查询,范围查询,距离查询,经纬度 Hash 等常见操作。

3、发布订阅

3.1、什么是发布订阅

  1. Redis 发布订阅 (pub/sub) 是一种消息通信模式:发送者 (pub) 发送消息,订阅者 (sub) 接收消息。
  2. Redis 客户端可以订阅任意数量的频道。

3.2、Redis 的发布和订阅

客户端可以订阅频道如下图:
在这里插入图片描述
当给这个频道发布消息后,消息就会发送给订阅的客户端:
在这里插入图片描述

3.3、命令行实现发布订阅

在这里插入图片描述

//打开一个客户端订阅 cha:
SUBSCRIBE cha
//打开另一个客户端,给 cha发布消息 1234567:
PUBLISH cha 1234567
//打开第一个客户端可以看到发送的消息

4、事务

4.1、Redis 事务定义

Redis 事务是一个单独的隔离操作:事务中的所有命令都会序列化、按顺序地执行。事务在执行的过程中,不会被其他客户端发送来的命令请求所打断。

Redis 事务的主要作用就是串联多个命令防止别的命令插队。

4.2、Multi、Exec、discard

从输入 Multi 命令开始,输入的命令都会依次进入命令队列,但不会执行,直到输入 Exec 后,Redis 会将之前的命令队列中的命令依次执行。

组队的过程中可以通过 discard 来放弃组队。

4.3、事务的错误处理

  1. 组队中某个命令出现了报告错误,执行时整个的所有队列都会被取消。
  2. 执行阶段某个命令报出了错误,则只有报错的命令不会被执行,而其他的命令都会执行,不会回滚。

4.4、事务冲突的问题

一个请求想给金额减 8000;
一个请求想给金额减 5000;
一个请求想给金额减 1000。
最终我们可以发现,总共金额是 10000,如果请求全部执行,那最后的金额变为 - 4000,很明显不合理。
在这里插入图片描述

4.4.1、悲观锁

在这里插入图片描述

悲观锁 (Pessimistic Lock),顾名思义,就是很悲观,每次去拿数据的时候都认为别人会修改,所以每次在拿数据的时候都会上锁,这样别人想拿这个数据就会 block 直到它拿到锁。传统关系型数据库很多场景使用悲观锁机制,比如行锁,表锁等,读锁,写锁等,都是在操作前先上锁。

4.4.2、乐观锁

在这里插入图片描述
乐观锁 (Optimistic Lock),顾名思义,就是很乐观,每次去拿数据的时候都认为别人不会修改,所以不会上锁,但是在更新的时候会判断一下在此期间别人有没有去更新这个数据,可以使用版本号等机制。乐观锁适用于多读的应用类型,这样可以提高吞吐量。Redis 就是利用这种 check-and-set 机制实现事务的。

4.4.3、WATCH 和 UNWATCH

  1. watch: 监视一个(或多个) key ,如果在事务执行之前这个(或这些) key 被其他命令所改动,那么事务将被打断。
  2. unwatch:取消 WATCH 命令对所有 key 的监视。
    如果在执行 WATCH 命令之后, EXEC 命令或 DISCARD 命令先被执行了的话,那么就不需要再执行 UNWATCH 了。

4.5、Redis事务三特性

  1. 单独的隔离操作
    事务中的所有命令都会序列化、按顺序地执行。事务在执行的过程中,不会被其他客户端发送来的命令请求所打断。

  2. 没有隔离级别的概念
    队列中的命令没有提交之前都不会实际被执行,因为事务提交前任何指令都不会被实际执行。

  3. 不保证原子性
    事务中如果有一条命令执行失败,其后的命令仍然会被执行,没有回滚 。

5、持久化之RDB

5.1、是什么

在指定的时间间隔内将内存中的数据集快照写入磁盘, 也就是行话讲的 Snapshot 快照,它恢复时是将快照文件直接读到内存里

5.2、如何执行

Redis 会单独创建(fork)一个子进程来进行持久化,首先会将数据入到一个临时文件中,待持久化过程都结束了,再用这个临时文件替换上次持久化好的文件。整个过程中,主进程是不进行任何 IO 操作的,这就确保了极高的性能。如果需要进行大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,那 RDB 方式要比 AOF 方式更加的高效。RDB 的缺点是最后一次持久化后的数据可能丢失。

5.3、Fork

  1. Fork 的作用是复制一个与当前进程一样的进程。新进程的所有数据(变量、环境变量、程序计数器等) 数值都和原进程一致,但是是一个全新的进程,并作为原进程的子进程。
  2. 在 Linux 程序中,fork () 会产生一个和父进程完全相同的子进程,但子进程在此后多会 exec 系统调用,出于效率考虑,Linux 中引入了 “写时复制技术”。
  3. 一般情况父进程和子进程会共用同一段物理内存,只有进程空间的各段的内容要发生变化时,才会将父进程的内容复制一份给子进程。

5.4、配置及命令

  1. dump.rdb
    在 redis.conf 中配置文件名称,默认为 dump.rdb。
    rdb 文件的保存路径,也可以修改。默认为 Redis 启动时命令行所在的目录下 “dir ./”

    # 指定持久化的文件名称
    dbfilename dump.rdb
    # redis同级的目录下
    dir ./
    
  2. 持久化快照条件 save
    900s之内,发生1次 300s之内,发生10次修改 1分钟之内发生10000次数据修改,就保存起来

    save 900 1
    save 300 10
    save 60 10000
    
  3. 命令 save VS bgsave

    • save :save 时只管保存,其它不管,全部阻塞。手动保存,不建议。
    • bgsave:Redis 会在后台异步进行快照操作, 快照同时还可以响应客户端请求。
    • 可以通过 lastsave 命令获取最后一次成功执行快照的时间。
  4. 其他

    # 当Redis无法写入磁盘时,直接关掉Redis的写操作。推荐yes
    stop-writes-on-bgsave-error yes
    # 对于存储到磁盘中的快照,可以设置是否进行压缩存储(采用LZF算法),推荐yes。
    rdbcompression yes
    # 使用CRC64算法进行数据校验,会增加约10%的性能消耗。
    rdbchecksum yes
    
  5. 动态停止RDB
    动态停止 RDB:redis-cli config set save “”#save 后给空值,表示禁用保存策略。

5.5、备份恢复

先通过config get dir 查询 rdb 文件的目录
将 *.rdb的文件拷贝到别的地方

rdb恢复:

  1. 关闭redis
  2. 先将备份的文件拷贝到工作目录下 cp dump2.rdb dump.rdb
  3. 启动redis,备份数据会直接加载

5.6、优势劣势

  1. 优势
    • 适合大规模的数据恢复
    • 对数据完整性和一致性要求不高更适合使用
    • 节省磁盘空间
    • 恢复速度快
  2. 劣势
    • Fork 的时候,内存中的数据被克隆了一份,大致 2 倍的膨胀性需要考虑。
    • 虽然 Redis 在 fork 时使用了写时拷贝技术,但是如果数据庞大时还是比较消耗性能。
    • 在备份周期在一定间隔时间做一次备份,所以如果 Redis 意外 down 掉的话,就会丢失最后一次快照后的所有修改。

6、持久化之AOF

6.1、是什么

  1. 以日志的形式来记录每个写操作(增量保存),将 Redis 执行过的所有写指令记录下来 (读操作不记录), 只许追加文件但不可以改写文件,redis 启动之初会读取该文件重新构建数据,换言之,redis 重启的话就根据日志文件的内容将写指令从前到后执行一次以完成数据的恢复工作

  2. AOF 默认不开启
    可以在 redis.conf 中配置文件名称默认为 appendonly.aof 文件中开启,AOF 文件的保存路径,同 RDB 的路径一致。

  3. AOF 和 RDB 同时开启,系统默认取 AOF 的数据(数据不会存在丢失)。

6.2、持久化流程

  1. 客户端的请求写命令会被 append 追加到 AOF 缓冲区内;
  2. AOF 缓冲区根据 AOF 持久化策略 [always,everysec,no] 将操作 sync 同步到磁盘的 AOF 文件中;
  3. AOF 文件大小超过重写策略或手动重写时,会对 AOF 文件 rewrite 重写,压缩 AOF 文件容量;
  4. Redis 服务重启时,会重新 load 加载 AOF 文件中的写操作达到数据恢复的目的。

6.3、启动、修复、恢复

AOF 的备份机制和性能虽然和 RDB 不同,但是备份和恢复的操作同 RDB 一样,都是拷贝备份文件,需要恢复时再拷贝到 Redis 工作目录下,启动系统即加载。

  1. 正常恢复

    • 修改默认的 appendonly no,改为 yes。
    • 将有数据的 aof 文件复制一份保存到对应目录 (查看目录:config get dir)。
    • 恢复:重启 redis 然后重新加载。
  2. 异常恢复

    • 修改默认的 appendonly no,改为 yes。
    • 如遇到 AOF 文件损坏,通过 /usr/local/bin/ redis-check-aof–fix appendonly.aof 进行恢复。
    • 备份被写坏的 AOF 文件。
    • 恢复:重启 redis,然后重新加载。

6.4、AOF 同步频率设置

  1. appendfsync always:始终同步,每次 Redis 的写入都会立刻记入日志;性能较差但数据完整性比较好。
  2. appendfsync everysec:每秒同步,每秒记入日志一次,如果宕机,本秒的数据可能丢失。
  3. appendfsync no:redis 不主动进行同步,把同步时机交给操作系统。

6.5、Rewrite 压缩

  1. Rewrite 压缩是什么
    AOF 采用文件追加方式,文件会越来越大为避免出现此种情况,新增了重写机制,当 AOF 文件的大小超过所设定的阈值时,Redis 就会启动 AOF 文件的内容压缩,只保留可以恢复数据的最小指令集,可以使用命令 bgrewriteaof。

  2. 重写原理,如何实现重写
    AOF 文件持续增长而过大时,会 fork 出一条新进程来将文件重写 (也是先写临时文件最后再 rename),redis4.0 版本后的重写,是指把 rdb 的快照,以二进制的形式附在新的 aof 头部,作为已有的历史数据,替换掉原来的流水账操作。

  3. no-appendfsync-on-rewrite:
    如果 no-appendfsync-on-rewrite=yes ,不写入 aof 文件只写入缓存,用户请求不会阻塞,但是在这段时间如果宕机会丢失这段时间的缓存数据。(降低数据安全性,提高性能)

    如果 no-appendfsync-on-rewrite=no,还是会把数据往磁盘里刷,但是遇到重写操作,可能会发生阻塞。(数据安全,但是性能降低)

  4. 触发机制,何时重写

    Redis 会记录上次重写时的 AOF 大小,默认配置是当 AOF 文件大小是上次 rewrite 后大小的一倍且文件大于 64M 时触发。

    重写虽然可以节约大量磁盘空间,减少恢复时间。但是每次重写还是有一定的负担的,因此设定 Redis 要满足一定条件才会进行重写。

    • auto-aof-rewrite-percentage:设置重写的基准值,文件达到 100% 时开始重写(文件是原来重写后文件的 2 倍时触发)。
    • auto-aof-rewrite-min-size:设置重写的基准值,最小文件 64MB。达到这个值开始重写。
    • 系统载入时或者上次重写完毕时,Redis 会记录此时 AOF 大小,设为 base_size,
    • 如果 Redis 的 AOF 当前大小 >= base_size +base_size*100% (默认) 且当前大小 >=64mb (默认) 的情况下,Redis 会对 AOF 进行重写。
    • 例如:文件达到 70MB 开始重写,降到 50MB,下次什么时候开始重写?100MB
  5. 重写流程

    • bgrewriteaof 触发重写,判断是否当前有 bgsave 或 bgrewriteaof 在运行,如果有,则等待该命令结束后再继续执行;
    • 主进程 fork 出子进程执行重写操作,保证主进程不会阻塞;
    • 子进程遍历 redis 内存中数据到临时文件,客户端的写请求同时写入 aof_buf 缓冲区和 aof_rewrite_buf 重写缓冲区,保证原 AOF 文件完整以及新 AOF 文件生成期间的新的数据修改动作不会丢失;
    • 子进程写完新的 AOF 文件后,向主进程发信号,父进程更新统计信息。主进程把 aof_rewrite_buf 中的数据写入到新的 AOF 文件;
    • 使用新的 AOF 文件覆盖旧的 AOF 文件,完成 AOF 重写。

6.6、优势劣势

  1. 优势
    • 备份机制更稳健,丢失数据概率更低。
    • 可读的日志文本,通过操作 AOF 文件,可以处理误操作。
  2. 劣势
    • 比起 RDB 占用更多的磁盘空间。
    • 恢复备份速度要慢。
    • 每次读写都同步的话,有一定的性能压力。
    • 存在个别 Bug,造成恢复不能。

6.7、RDB和AOF总结

  1. 用哪个?
    • 如果对数据不敏感,可以选单独用 RDB。
    • 不建议单独用 AOF,因为可能会出现 Bug。
    • 如果只是做纯内存缓存,可以都不用。
  2. 官网建议
    • RDB 持久化方式能够在指定的时间间隔能对你的数据进行快照存储。
    • AOF 持久化方式记录每次对服务器写的操作,当服务器重启的时候会重新执行这些命令来恢复原始的数据,AOF 命令以 redis 协议追加保存每次写的操作到文件末尾。
    • Redis 还能对 AOF 文件进行后台重写,使得 AOF 文件的体积不至于过大。
    • 只做缓存:如果你只希望你的数据在服务器运行的时候存在,你也可以不使用任何持久化方式。
    • 同时开启两种持久化方式:在这种情况下,当 redis 重启的时候会优先载入 AOF 文件来恢复原始的数据,因为在通常情况下 AOF 文件保存的数据集要比 RDB 文件保存的数据集要完整。
    • RDB 的数据不实时,同时使用两者时服务器重启也只会找 AOF 文件。那要不要只使用 AOF 呢?
      建议不要,因为 RDB 更适合用于备份数据库 (AOF 在不断变化不好备份),快速重启,而且不会有 AOF 可能潜在的 bug,留着作为一个万一的手段。
    • 性能建议:
      • 因为 RDB 文件只用作后备用途,建议只在 Slave 上持久化 RDB 文件,而且只要 15 分钟备份一次就够了,只保留 save 9001 这条规则。
      • 如果使用 AOF,好处是在最恶劣情况下也只会丢失不超过两秒数据,启动脚本较简单,只 load 自己的 AOF 文件就可以了。
      • aof 代价:一是带来了持续的 IO,二是 AOF rewrite 的最后,将 rewrite 过程中产生的新数据写到新文件造成的阻塞几乎是不可避免的。
      • 只要硬盘许可,应该尽量减少 AOF rewrite 的频率,AOF 重写的基础大小默认值 64M 太小了,可以设到 5G 以上。默认超过原大小 100% 大小时重写可以改到适当的数值。

7、主从

主从复制的好处有2点:
1、 避免redis单点故障
2、 构建读写分离架构,满足读多写少的应用场景

7.1、什么是主从分离

主机数据更新后根据配置和策略, 自动同步到备机的 master/slaver 机制,Master 以写为主,Slave 以读为主,主从复制节点间数据是全量的。

持久化保证了即使redis服务重启也不会丢失数据,因为redis服务重启后会将硬盘上持久化的数据恢复到内存中,但是当redis服务器的硬盘损坏了可能会导致数据丢失,如果通过redis的主从复制机制就可以避免这种单点故障,如下图:

说明:

  1. 主redis中的数据有两个副本(replication)即从redis1和从redis2,即使一台redis服务器宕机其它两台redis服务也可以继续提供服务。(查看相关主从切换的东西)
  2. 主redis中的数据和从redis上的数据保持实时同步,当主redis写入数据时通过主从复制机制会复制到两个从redis服务上。
  3. 只有一个主redis,可以有多个从redis。
  4. 主从复制不会阻塞master,在同步数据时,master 可以继续处理client 请求
  5. 一个redis可以即是主又是从,如下图:
  6. 在从机上执行 slaveof 主机IP 端口号,即可设置主从关系
  7. 执行 slaveof no one 命令,断开主从关系;
  8. 默认情况下redis数据库充当slave角色时是只读的不能进行写操作。可以在配置文件中开启非只读:slave-read-only no 。但是从库中写入的数据不会向上(向主库)同步。
  9. 主机挂掉,重启即可,主从关系照旧。
    从机挂掉,需重设 slaveof 主机IP 端口号 (可以将配置增加到文件中,永久生效)

7.2、复制原理

  1. 当从库和主库建立MS关系后,会向主数据库发送SYNC命令;
  2. 主库接收到SYNC命令后会开始在后台保存快照(RDB持久化过程),并将期间接收到的写命令缓存起来;
  3. 当快照完成后,主Redis会将快照文件和所有缓存的写命令发送给从Redis;
  4. 从Redis接收到后,会载入快照文件并且执行收到的缓存的命令;
  5. 之后,主Redis每当接收到写命令时就会将命令发送从Redis,从而保证数据的一致;

7.3、哨兵模式 (sentinel)

  1. 是什么
    顾名思义,哨兵的作用就是对Redis的系统的运行情况的监控,它是一个独立进程。它的功能有2个:

    • 监控主数据库和从数据库是否运行正常;
    • 主数据出现故障后自动将从数据库转化为主数据库;
  2. 复制延时
    由于所有的写操作都是先在 Master 上操作,然后同步更新到 Slave 上,所以从 Master 同步到 Slave 机器有一定的延迟,当系统很繁忙的时候,延迟问题会更加严重,Slave 机器数量的增加也会使这个问题更加严重。

  3. 故障恢复
    在这里插入图片描述
    优先级:在 redis.conf 中默认 slave-priority 100,值越小优先级越高。
    偏移量:指获得原主机数据最全的概率。
    runid:每个 redis 实例启动后都会随机生成一个 40 位的 runid。

8、集群

8.1、什么是集群?

Redis 集群(包括很多小集群)实现了对 Redis 的水平扩容,即启动 N 个 redis 节点,将整个数据库分布存储在这 N 个节点中,每个节点存储总数据的 1/N,即一个小集群存储 1/N 的数据,每个小集群里面维护好自己的 1/N 的数据。

Redis 集群通过分区(partition)来提供一定程度的可用性(availability): 即使集群中有一部分节点失效或者无法进行通讯, 集群也可以继续处理命令请求。

该模式的 redis 集群特点是:分治、分片。

8.1、架构细节

  1. 所有的redis节点彼此互联(PING-PONG机制),内部使用二进制协议优化传输速度和带宽.
  2. 节点的fail是通过集群中超过半数的节点检测失效时才生效.
  3. 客户端与redis节点直连,不需要中间proxy层.客户端不需要连接集群所有节点,连接集群中任何一个可用节点即可
  4. redis-cluster把所有的物理节点映射到[0-16383]slot上,cluster 负责维护node<->slot<->value
    Redis 集群中内置了 16384 个哈希槽,当需要在 Redis 集群中放置一个 key-value 时,redis 先对key 使用 crc16 算法算出一个结果,然后把结果对 16384 求余数,这样每个 key 都会对应一个编号在 0-16383 之间的哈希槽,redis 会根据节点数量大致均等的将哈希槽映射到不同的节点
  5. 不在一个slot下的键值,是不能使用mget,mset等多键操作。
  6. 可以通过{}定义组的概念,从而使key中{}内相同内容的键值对放到一个slot中去。

8.2、插槽和key的关系

计算key的插槽值:
key的有效部分使用CRC16算法计算出哈希值,再将哈希值对16384取余,得到插槽值。

什么是有效部分?

  1. 如果key中包含了{符号,且在{符号后存在}符号,并且{和}之间至少有一个字符,则有效部分是指{和}之间的部分;
    例如: key={hello}_tatao的有效部分是hello
  2. 如果不满足上一条情况,整个key都是有效部分;
    例如: key=hello_taotao的有效部分是全部

8.3、redis-cluster投票:容错

  1. 集群中所有master参与投票,如果半数以上master节点与其中一个master节点通信超时(cluster-node-timeout),认为该master节点挂掉.
  2. 如果集群任意master挂掉,且当前master没有slave,则集群进入fail状态。也可以理解成集群的[0-16383] slot映射不完全时进入fail状态
  3. 如果集群超过半数以上master挂掉,无论是否有slave,集群进入fail状态。

8.4、故障恢复

  1. 主节点下线,从节点自动升为主节点。

  2. 主节点恢复后,主节点变为从节点

  3. 如果所有某一段插槽的主从节点都宕掉,redis 服务是否还能继续?

    1. 如果某一段插槽的主从都挂掉,而 cluster-require-full-coverage 为 yes ,那么整个集群都挂掉。

    2. 如果某一段插槽的主从都挂掉,而 cluster-require-full-coverage 为 no ,那么,该插槽数据全都不能使用,也无法存储。

    如果无法访问的数据,是连续的业务数据,设置yes。数据相对独立,设置no

8.5、优势劣势

  1. 优势
    • 实现扩容
    • 分摊压力
    • 无中心配置相对简单
  2. 劣势
    • 多键操作是不被支持的。
    • 多键的 Redis 事务是不被支持的,lua 脚本不被支持。
    • 由于集群方案出现较晚,很多公司已经采用了其他的集群方案,而代理或者客户端分片的方案想要迁移至 redis cluster,需要整体迁移而不是逐步过渡,复杂度较大。