DukeDuke
主页
项目文档
技术文档
  • 单机版
  • 微服务
  • 代办项目
  • 优鲜项目
项目管理
关于我们
主页
项目文档
技术文档
  • 单机版
  • 微服务
  • 代办项目
  • 优鲜项目
项目管理
关于我们
  • 技术文档

    • 网络原理

      • 交换机
      • 路由器
      • TCP/IP协议
      • HTTP 与 HTTPS
    • 软件架构

      • 什么是软件架构
      • 分层架构
      • 微服务架构
      • 事件驱动架构
      • 领域驱动设计(DDD)
      • 架构图
      • 高并发系统
    • Vue3

      • Vue3简介
      • Vue3响应式系统
      • Vue3组合式API
      • Vue3生命周期
      • Vue3模板语法
      • Vue3组件系统
      • Vue3 路由系统
      • Vue3 状态管理
      • Vue3 性能优化
      • Vue3 TypeScript 支持
      • Vue3 项目实战
      • VUE 面试题大全
      • Node.js 安装
    • JAVA

      • JVM

        • 认识JVM
        • JVM类加载器
        • 运行时数据区
        • 执行引擎
        • 本地方法接口
        • 本地方法库
        • JVM垃圾回收
        • JVM性能监控
        • JVM调优
      • 设计模式
        • 单例模式
        • 工厂模式
        • 策略模式
        • 适配器模式
        • 建造者模式
        • 原型模式
        • 装饰器模式
        • 代理模式
        • 外观模式
        • 享元模式
        • 组合模式
        • 桥接模式
      • Java多线程

        • Java 线程基础详解
        • Java 线程池详解
        • Java ThreadLocal 详解
        • Java volatile 详解
        • Java 线程间通信详解
        • Java 线程安全详解
        • Java 线程调度详解
        • Java 线程优先级详解

        • Java 线程中断详解
        • Java 线程死锁详解
      • Java反射
      • Java 面试题

        • Java 基础概念面试题
        • Java 面向对象编程面试题
        • Java 集合框架面试题
        • Java 多线程与并发面试题
        • JVM 与内存管理面试题
        • Java I/O 与 NIO 面试题
        • Java 异常处理面试题
        • Java 反射与注解面试题
        • Java Spring 框架面试题
        • Java 数据库与 JDBC 面试题
        • Java 性能优化面试题
        • Java 实际项目经验面试题
        • Java 高级特性面试题
        • Java 面试准备建议
    • Python

      • Python简介
      • Python安装
      • Python hello world
      • Python基础语法
      • Python数据类型
      • Python数字
      • Python字符串
      • Python列表
      • Python元组
      • Python字典
      • Python日期时间
      • Python文件操作
      • Python异常处理
      • Python函数
      • Python类
      • Python模块
      • Python包
      • Python多线程
      • Python面向对象
      • Python爬虫
      • Django web框架
      • Python 面试题

        • Python 面试题导航
        • Python 基础概念
        • Python 面向对象编程
        • Python 数据结构
        • Python 高级特性
        • Python 框架
        • Python 性能优化
        • Python 项目经验
    • Spring

      • Spring
      • Springboot
      • Spring Security 安全框架
      • SpringBoot 中的事件详解
      • SpringBoot 中的定时任务详解
      • SpringBoot 自动装配原理与源码解释
    • Mybatis

      • Mybatis
      • Mybatis-Plus
    • 数据库

      • Redis

        • Redis简介
        • Redis(单机)安装
        • Redis配置
        • Redis数据结构
        • RDB、AOF 和混合持久化机制
        • Redis内存管理
        • Redis缓存一致性
        • Redis缓存穿透
        • Redis缓存击穿
        • Redis缓存雪崩
        • Redis Lua脚本
        • Redis主从复制
        • Redis哨兵模式
        • Redis集群
        • Redis数据分片
        • Redis CPU使用率过高
        • Redis面试题
      • MySQL

        • MySQL简介
        • MySQL安装
        • MySQL配置
        • MYSQL日常维护
        • MYSQL优化-慢查询
        • MYSQL优化-索引
        • MYSQL数据库设计规范
    • 消息队列

      • RocketMQ
      • Kafka
      • RabbitMQ
      • 消息队列面试题
    • 微服务

      • SpringCloud 微服务
      • Eureka 注册中心
      • Nacos 注册中心
      • Gateway 网关
      • Feign 服务调用
      • Sentinel 限流 与 熔断
      • Seata 分布式事务
      • CAP 理论
      • Redis 分布式锁
      • 高并发系统设计
    • ELK日志分析系统

      • Elasticsearch 搜索引擎
      • Logstash 数据处理
      • Kibana 可视化
      • ELK 实战
    • 开放API

      • 开放API设计
      • 开放API示例项目
    • 人工智能

      • 人工智能简介
      • 机器学习

      • 深度学习

      • 自然语言处理

      • 计算机视觉

        • CUDA与cuDNN详细安装
        • Conda 安装
        • Pytorch 深度学习框架
        • yolo 目标检测
        • TensorRT 深度学习推理优化引擎
        • TensorFlow 机器学习
        • CVAT 图像标注
        • Windows 下安装 CUDA、cuDNN、TensorRT、TensorRT-YOLO 环境
        • Windows10+CUDA+cuDNN+TensorRT+TensorRT-YOLO 部署高性能YOLO11推理
    • 大数据

      • 大数据简介
      • Hadoop 数据存储
      • Flume 数据采集
      • Sqoop 数据导入导出
      • Hive 数据仓库
      • Spark 数据处理
      • Flink 数据处理
      • Kafka 数据采集
      • HBase 数据存储
      • Elasticsearch 搜索引擎
    • 图像处理

      • 图像处理简介
      • 医学图像web呈现
      • 医学图像处理
      • 切片细胞分离问题
    • 服务器&运维

      • Linux 系统

        • Linux 系统管理
        • Linux 网络管理
        • Linux 文件管理
        • Linux 命令大全
      • Nginx Web 服务器

        • Nginx 安装 与 配置
        • Nginx 负载均衡
        • Nginx SSL证书配置
        • Nginx Keepalived 高可用
      • Docker 容器

        • Docker 简介
        • Docker 安装与配置
        • Docker 命令
        • Docker 部署 Nginx
        • Docker 部署 MySQL
        • Docker 部署 Redis
      • 服务器

        • 塔式服务器
        • 机架式服务器
        • 刀片服务器
      • Git 版本控制
      • Jenkins 持续集成
      • Jmeter 性能测试
      • Let's Encrypt 免费SSL证书
    • 简历

      • 项目经理简历
      • 开发工程师简历

Redis cluster 数据分片(crc16 哈希算法)

1. 什么是数据分片

在 Redis 的 Cluster 集群模式中,使用了哈希槽(hash slot)的方式来进行数据分片,将整个数据集划分为 16384 个槽,每个节点负责部分槽。客户端访问数据时,先计算出数据对应的槽,然后直接连接到该槽所在的节点进行操作,如下图:

hsv

当我们存取 key 的时候,Redis 会根据 CRC16 算法得出一个结果,然后把结果对 16384 取模,这样就得到了一个在 0~16384 范围之间的哈希槽,通过这个值,去找到对应负责该槽的节点,然后就可以进行存取操作了。

2. Redis 节点的增加和删除

无论是增加还是删除节点,redis cluster 都会让数据尽可能的均匀分布。比如,现在有三个节点:Redis1[0,5460],Redis2[5461,10922],Redis3[10924,16383]。

  • 这时增加了一台 Redis4,那么 cluster 就会从 1、2、3 的数据会迁移一部分到节点 4 上,实现 4 个节点数据均匀,这时每个节点的负责 16384/4 = 4096 个槽。
  • 减少节点也同理,假设删除 Redis,那么 Redis4 节点上数据也会均匀地迁移到 1、2、3,删除后,现在每个节点负责的槽位是:16384/3=6128。

3. Redis Cluster 的分片实现(CRC16 哈希算法)

3.1 CRC16 算法原理

CRC16(Cyclic Redundancy Check)是一种循环冗余校验算法,Redis Cluster 使用 CRC16 算法来计算键的哈希值。具体实现如下:

public class CRC16 {
    private static final int[] CRC16_TABLE = new int[256];

    static {
        for (int i = 0; i < 256; i++) {
            int crc = i;
            for (int j = 0; j < 8; j++) {
                if ((crc & 1) == 1) {
                    crc = (crc >>> 1) ^ 0xA001;
                } else {
                    crc = crc >>> 1;
                }
            }
            CRC16_TABLE[i] = crc;
        }
    }

    public static int getCRC16(String key) {
        int crc = 0;
        for (byte b : key.getBytes()) {
            crc = ((crc << 8) & 0xFF00) ^ CRC16_TABLE[((crc >> 8) ^ b) & 0xFF];
        }
        return crc & 0xFFFF;
    }

    public static int getSlot(String key) {
        return getCRC16(key) % 16384;
    }
}

3.2 哈希槽分配过程

  1. 计算哈希值:

    • 对键名进行 CRC16 计算
    • 得到 16 位的哈希值(0-65535)
  2. 计算槽位:

    • 将哈希值对 16384 取模
    • 得到 0-16383 之间的槽位号
  3. 查找节点:

    • 根据槽位号找到负责该槽位的节点
    • 将请求转发到对应节点

3.3 SpringBoot 集成 Redis Cluster 示例

3.3.1 添加依赖

<dependency>
    <groupId>org.springframework.boot</groupId>
    <artifactId>spring-boot-starter-data-redis</artifactId>
</dependency>

3.3.2 配置文件

spring:
  redis:
    cluster:
      nodes:
        - 127.0.0.1:7001
        - 127.0.0.1:7002
        - 127.0.0.1:7003
        - 127.0.0.1:7004
        - 127.0.0.1:7005
        - 127.0.0.1:7006
      max-redirects: 3
    timeout: 6000
    lettuce:
      pool:
        max-active: 8
        max-wait: -1
        max-idle: 8
        min-idle: 0

3.3.3 配置类

@Configuration
public class RedisConfig {

    @Bean
    public RedisTemplate<String, Object> redisTemplate(RedisConnectionFactory connectionFactory) {
        RedisTemplate<String, Object> template = new RedisTemplate<>();
        template.setConnectionFactory(connectionFactory);

        // 设置key的序列化方式
        template.setKeySerializer(new StringRedisSerializer());
        // 设置value的序列化方式
        template.setValueSerializer(new GenericJackson2JsonRedisSerializer());
        // 设置hash key的序列化方式
        template.setHashKeySerializer(new StringRedisSerializer());
        // 设置hash value的序列化方式
        template.setHashValueSerializer(new GenericJackson2JsonRedisSerializer());

        template.afterPropertiesSet();
        return template;
    }
}

3.3.4 使用示例

@Service
public class UserService {

    @Autowired
    private RedisTemplate<String, Object> redisTemplate;

    // 存储用户信息
    public void saveUser(User user) {
        String key = "user:" + user.getId();
        redisTemplate.opsForValue().set(key, user);
    }

    // 获取用户信息
    public User getUser(String userId) {
        String key = "user:" + userId;
        return (User) redisTemplate.opsForValue().get(key);
    }

    // 批量操作示例
    public void batchSaveUsers(List<User> users) {
        Map<String, User> userMap = users.stream()
            .collect(Collectors.toMap(
                user -> "user:" + user.getId(),
                user -> user
            ));
        redisTemplate.opsForValue().multiSet(userMap);
    }
}

3.3.5 哈希标签使用示例

@Service
public class OrderService {

    @Autowired
    private RedisTemplate<String, Object> redisTemplate;

    // 使用哈希标签确保相关数据在同一个槽位
    public void saveOrder(Order order) {
        // 使用 {} 作为哈希标签
        String key = "order:{user:" + order.getUserId() + "}:" + order.getOrderId();
        redisTemplate.opsForValue().set(key, order);
    }

    // 获取用户的所有订单
    public List<Order> getUserOrders(String userId) {
        String pattern = "order:{user:" + userId + "}:*";
        Set<String> keys = redisTemplate.keys(pattern);
        return redisTemplate.opsForValue().multiGet(keys);
    }
}

3.4 注意事项

  1. 键的设计:

    • 使用哈希标签确保相关数据在同一个槽位
    • 避免使用过长的键名
    • 合理使用命名空间
  2. 批量操作:

    • 使用 pipeline 减少网络往返
    • 注意批量操作的数据量
    • 考虑使用 multiSet/multiGet 等批量命令
  3. 异常处理:

    • 处理 MOVED 重定向
    • 处理 ASK 重定向
    • 处理集群节点故障
  4. 性能优化:

    • 使用连接池
    • 合理设置超时时间
    • 避免大键值对

4. 数据分片的优势

  1. 水平扩展:可以方便地添加新节点来扩展集群容量
  2. 负载均衡:数据被均匀分布到各个节点
  3. 高可用性:支持主从复制,提高系统可用性
  4. 自动故障转移:当节点故障时,集群可以自动进行故障转移

5. 数据分片的局限性

  1. 不支持多键操作:由于数据分布在不同节点,无法保证多键操作的原子性
  2. 事务限制:无法在多个节点间执行事务
  3. 键的迁移开销:在节点间迁移数据时会有一定的性能开销
  4. 客户端复杂度:需要客户端支持集群模式

6. 总结

Redis Cluster 的数据分片机制通过 CRC16 哈希算法和哈希槽的概念,实现了数据的自动分布和负载均衡。虽然存在一些限制,但通过合理的设计和优化,可以构建出高性能、高可用的分布式缓存系统。

最近更新:: 2025/8/14 09:20
Contributors: Duke
Prev
Redis集群
Next
Redis CPU使用率过高