ShardingSphere 高可用功能详解 & 实战演练-赵锦超ShardingSphere 提供数据库发现的能力,自动感知数据库主从 关系,并修正计算节点对数据库的连接。 目前支持的高可用方案 : • MySQL MGR 单主模式 • MySQL 主从复制模式 • openGauss 主从复制模式。 Apache ShardingSphere 高可用介绍 Apache ShardingSphere 高可用介绍 ShardingSphere 读写分离 Apache0 码力 | 19 页 | 2.12 MB | 1 年前3
Apache ShardingSphere 中文文档 5.2.0和从库。高可用的数据源会动态的修正读 写分离的主从关系,并正确地疏导读写流量。 3.4.7 使用限制 支持项 • MySQL MGR 单主模式。 • MySQL 主从复制模式。 • openGauss 主从复制模式。 不支持项 • MySQL MGR 多主模式。 3.5 数据库网关 3.5.1 背景 随着数据库碎片化趋势的不可逆转,多种类型数据库的共存已渐成常态。使用一种 SQL 理机、虚拟机、容器等。 集群 为了提供特定服务而集合在一起的多个节点。 源端 原始数据所在的存储集群。 目标端 原始数据将要迁移的目标存储集群。 数据迁移作业 把数据从某一个存储集群复制到另一个存储集群的完整流程。 存量数据 在数据迁移作业开始前,数据节点中已有的数据。 增量数据 在数据迁移作业执行过程中,业务系统所产生的新数据。 3.7.7 使用限制 支持项 • 将外围数据迁移至 ZooKeeper Curator 客户端,集群模式使用 ZooKeeper 无须引入其他依 赖。 如果集群模式使用 Etcd,需要将 Etcd 的客户端驱动程序 jetcd‐core 0.5.0 复制至目录 ext-lib。 6. (可选)引入分布式事务所需依赖 与 ShardingSphere‐JDBC 使用方式相同。具体可参考分布式事务。 7. (可选)引入自定义算法 当用户需要使用0 码力 | 449 页 | 5.85 MB | 1 年前3
Apache ShardingSphere 中文文档 5.0.0-alpha由于存量数据迁移耗费的时间受到数据量和并行度等因素影响,此时需要对这段时间内业务新增的数据 进行同步。不同的数据库使用的技术细节不同,但总体上均为基于复制协议或 WAL 日志实现的变更数据 捕获功能。 • MySQL:订阅并解析 binlog • PostgreSQL:采用官方逻辑复制 test_decoding 这些捕获的增量数据,同样会由弹性伸缩模块根据新规则写入到新数据节点中。当增量数据基本同步完 成时 量和增量数据进行在线加密解密。 那么另一种相对安全的做法是:重新搭建一套和生产环境一模一样的预发环境,然后通过相关迁移洗数 工具把生产环境的存量原文数据加密后存储到预发环境,而新增数据则通过例如 MySQL 主从复制及业务 方自行开发的工具加密后存储到预发环境的数据库里,再把重构后可以进行加解密的代码部署到预发环 境。这样生产环境是一套以明文为核心的查询修改的环境;预发环境是一套以密文为核心加解密查询修 PostgreSQL 1. 使用任何 PostgreSQL 的客户端连接。如: psql -U root -h 127.0.0.1 -p 3307 使用 MySQL 1. 将 MySQL 的 JDBC 驱动程序复制至目录 ext-lib/。 2. 使用任何 MySQL 的客户端连接。如: mysql -u root -h 127.0.0.1 -P 3307 使用自定义分片算法 当用户需要使用自定义的分片算法类时,无法再通过简单的行表达式在0 码力 | 301 页 | 3.44 MB | 1 年前3
Apache ShardingSphere 中文文档 5.1.1MySQL 1. 将 MySQL 的 JDBC 驱动程序复制至目录 ext-lib/。 2. 使用任何 MySQL 的客户端连接。如: mysql -u root -h 127.0.0.1 -P 3307。 使用 openGauss 1. 将以 org.opengauss 包名为前缀的 openGauss 的 JDBC 驱动程序复制至目录 ext-lib/。 2. 使用任何 openGauss 127.0.0.1 -p 3307。 选择元数据持久化仓库 使用 ZooKeeper 默认集成 ZooKeeper Curator 客户端。 使用 Etcd 1. 将 Etcd 的客户端驱动程序复制至目录 ext-lib/。 5.2. ShardingSphere-Proxy 140 Apache ShardingSphere document, v5.1.1 使用分布式事务 与 ShardingSphere‐JDBC 由于存量数据迁移耗费的时间受到数据量和并行度等因素影响,此时需要对这段时间内业务新增的数据 进行同步。不同的数据库使用的技术细节不同,但总体上均为基于复制协议或 WAL 日志实现的变更数据 捕获功能。 • MySQL:订阅并解析 binlog; • PostgreSQL:采用官方逻辑复制 test_decoding。 这些捕获的增量数据,同样会由弹性伸缩模块根据新规则写入到新数据节点中。当增量数据基本同步完0 码力 | 409 页 | 4.47 MB | 1 年前3
Apache ShardingSphere 中文文档 5.1.0MySQL 1. 将 MySQL 的 JDBC 驱动程序复制至目录 ext-lib/。 2. 使用任何 MySQL 的客户端连接。如: mysql -u root -h 127.0.0.1 -P 3307 使用 openGauss 1. 将以 org.opengauss 包名为前缀的 openGauss 的 JDBC 驱动程序复制至目录 ext-lib/。 2. 使用任何 openGauss 127.0.0.1 -p 3307 选择元数据持久化仓库 使用 ZooKeeper 默认集成 ZooKeeper Curator 客户端。 使用 Etcd 1. 将 Etcd 的客户端驱动程序复制至目录 ext-lib/。 5.2. ShardingSphere-Proxy 139 Apache ShardingSphere document, v5.1.0 使用分布式事务 与 ShardingSphere‐JDBC 由于存量数据迁移耗费的时间受到数据量和并行度等因素影响,此时需要对这段时间内业务新增的数据 进行同步。不同的数据库使用的技术细节不同,但总体上均为基于复制协议或 WAL 日志实现的变更数据 捕获功能。 • MySQL:订阅并解析 binlog • PostgreSQL:采用官方逻辑复制 test_decoding 这些捕获的增量数据,同样会由弹性伸缩模块根据新规则写入到新数据节点中。当增量数据基本同步完 成时0 码力 | 406 页 | 4.40 MB | 1 年前3
Apache ShardingSphere 中文文档 5.1.2MySQL 1. 将 MySQL 的 JDBC 驱动程序复制至目录 ext-lib/。 2. 使用任何 MySQL 的客户端连接。如: mysql -u root -h 127.0.0.1 -P 3307。 使用 openGauss 1. 将以 org.opengauss 包名为前缀的 openGauss 的 JDBC 驱动程序复制至目录 ext-lib/。 2. 使用任何 openGauss 127.0.0.1 -p 3307。 选择元数据持久化仓库 使用 ZooKeeper 默认集成 ZooKeeper Curator 客户端。 使用 Etcd 1. 将 Etcd 的客户端驱动程序复制至目录 ext-lib/。 5.2. ShardingSphere-Proxy 143 Apache ShardingSphere document, v5.1.2 使用分布式事务 与 ShardingSphere‐JDBC 由于存量数据迁移耗费的时间受到数据量和并行度等因素影响,此时需要对这段时间内业务新增的数据 进行同步。不同的数据库使用的技术细节不同,但总体上均为基于复制协议或 WAL 日志实现的变更数据 捕获功能。 • MySQL:订阅并解析 binlog; • PostgreSQL:采用官方逻辑复制 test_decoding。 这些捕获的增量数据,同样会由弹性伸缩模块根据新规则写入到新数据节点中。当增量数据基本同步完0 码力 | 446 页 | 4.67 MB | 1 年前3
Apache ShardingSphere 中文文档 5.0.0PostgreSQL 的客户端连接。如: psql -U root -h 127.0.0.1 -p 3307 使用 MySQL/openGauss 1. 将 MySQL/openGauss 的 JDBC 驱动程序复制至目录 ext-lib/。 2. 使用任何 MySQL/openGauss 的客户端连接。如: mysql -u root -h 127.0.0.1 -P 3307 或 gsql。 使用自定义分片算法 能。配 置 规 则同 ShardingSphere‐JDBC YAML 保持一致。 其他第三方组件 详情请参考支持的第三方组件。 1. 使用 SPI 方式实现相关逻辑编码,并将生成的 jar 包复制至 ShardingSphere‐Proxy 的 lib 目录。 2. 按照配置规则进行配置,即可使用。 分布式事务 ShardingSphere‐Proxy 接入的分布式事务 API 同 ShardingSphere‐JDBC 由于存量数据迁移耗费的时间受到数据量和并行度等因素影响,此时需要对这段时间内业务新增的数据 进行同步。不同的数据库使用的技术细节不同,但总体上均为基于复制协议或 WAL 日志实现的变更数据 捕获功能。 • MySQL:订阅并解析 binlog • PostgreSQL:采用官方逻辑复制 test_decoding 这些捕获的增量数据,同样会由弹性伸缩模块根据新规则写入到新数据节点中。当增量数据基本同步完 成时0 码力 | 385 页 | 4.26 MB | 1 年前3
Apache ShardingSphere 中文文档 5.4.1理机、虚拟机、容器等。 集群 为了提供特定服务而集合在一起的多个节点。 源端 原始数据所在的存储集群。 目标端 原始数据将要迁移的目标存储集群。 数据迁移作业 把数据从某一个存储集群复制到另一个存储集群的完整流程。 存量数据 在数据迁移作业开始前,数据节点中已有的数据。 增量数据 在数据迁移作业执行过程中,业务系统所产生的新数据。 8.6.7 使用限制 支持项 • 将外围数据迁移至 ZooKeeper Curator 客户端,集群模式使用 ZooKeeper 无须引入其他依 赖。 如果集群模式使用 Etcd,需要将 Etcd 的客户端驱动程序 jetcd‐core 0.7.3 复制至目录 ext-lib。 6. (可选)引入分布式事务所需依赖 与 ShardingSphere‐JDBC 使用方式相同。具体可参考分布式事务。 7. (可选)引入自定义算法 9.2. ShardingSphere-Proxy 由于存量数据迁移耗费的时间受到数据量和并行度等因素影响,此时需要对这段时间内业务新增的数据 进行同步。不同的数据库使用的技术细节不同,但总体上均为基于复制协议或 WAL 日志实现的变更数据 捕获功能。 • MySQL:订阅并解析 binlog; • PostgreSQL:采用官方逻辑复制 test_decoding。 这些捕获的增量数据,同样会由数据迁移模块写入到新数据节点中。当增量数据基本同步完成时(由于0 码力 | 530 页 | 4.49 MB | 1 年前3
Apache ShardingSphere 中文文档 5.3.2理机、虚拟机、容器等。 集群 为了提供特定服务而集合在一起的多个节点。 源端 原始数据所在的存储集群。 目标端 原始数据将要迁移的目标存储集群。 数据迁移作业 把数据从某一个存储集群复制到另一个存储集群的完整流程。 存量数据 在数据迁移作业开始前,数据节点中已有的数据。 增量数据 在数据迁移作业执行过程中,业务系统所产生的新数据。 8.6.7 使用限制 支持项 • 将外围数据迁移至 ZooKeeper Curator 客户端,集群模式使用 ZooKeeper 无须引入其他依 赖。 如果集群模式使用 Etcd,需要将 Etcd 的客户端驱动程序 jetcd‐core 0.7.3 复制至目录 ext-lib。 6. (可选)引入分布式事务所需依赖 与 ShardingSphere‐JDBC 使用方式相同。具体可参考分布式事务。 7. (可选)引入自定义算法 9.2. ShardingSphere-Proxy 由于存量数据迁移耗费的时间受到数据量和并行度等因素影响,此时需要对这段时间内业务新增的数据 进行同步。不同的数据库使用的技术细节不同,但总体上均为基于复制协议或 WAL 日志实现的变更数据 捕获功能。 • MySQL:订阅并解析 binlog; • PostgreSQL:采用官方逻辑复制 test_decoding。 这些捕获的增量数据,同样会由数据迁移模块写入到新数据节点中。当增量数据基本同步完成时(由于0 码力 | 508 页 | 4.44 MB | 1 年前3
Apache ShardingSphere v5.5.0 中文文档理机、虚拟机、容器等。 集群 为了提供特定服务而集合在一起的多个节点。 源端 原始数据所在的存储集群。 目标端 原始数据将要迁移的目标存储集群。 数据迁移作业 把数据从某一个存储集群复制到另一个存储集群的完整流程。 存量数据 在数据迁移作业开始前,数据节点中已有的数据。 增量数据 在数据迁移作业执行过程中,业务系统所产生的新数据。 8.6.7 使用限制 支持项 • 将外围数据迁移至 Curator 客户端,集群模式使用 ZooKeeper 无须引入其他依 赖。 如果集群模式使用 Etcd,需要将 Etcd 依赖的 vertx‐grpc 4.5.1 和 vertx‐core 4.5.1 复制至目录 ext-lib。 6. (可选)引入分布式事务所需依赖 与 ShardingSphere‐JDBC 使用方式相同。具体可参考分布式事务。 7. (可选)引入自定义算法 9.2. ShardingSphere-Proxy 由于存量数据迁移耗费的时间受到数据量和并行度等因素影响,此时需要对这段时间内业务新增的数据 进行同步。不同的数据库使用的技术细节不同,但总体上均为基于复制协议或 WAL 日志实现的变更数据 捕获功能。 • MySQL:订阅并解析 binlog; • PostgreSQL:采用官方逻辑复制 test_decoding。 这些捕获的增量数据,同样会由数据迁移模块写入到新数据节点中。当增量数据基本同步完成时(由于0 码力 | 557 页 | 4.61 MB | 1 年前3
共 10 条
- 1













