Apache ShardingSphere 中文文档 5.0.0-alpha有大量明文历史数据。现在的问题是如何让 历史数据得以加密清洗、如何让增量数据得以加密处理、如何让业务在新旧两套数据系统之间进行无缝、 透明化迁移。 解决方案说明:在提供解决方案之前,我们先来头脑风暴一下:首先,既然是旧业务需要进行加密改造, 那一定存储了非常重要且敏感的信息。这些信息含金量高且业务相对基础重要。不应该采用停止业务禁 止新数据写入,再找个加密算法把历史数据全部加密清洗,再把之前重构的代码部署上线,使其能把存0 码力 | 301 页 | 3.44 MB | 1 年前3
Apache ShardingSphere 中文文档 5.0.0有大量明文历史数据。现在的问题是如何让 历史数据得以加密清洗、如何让增量数据得以加密处理、如何让业务在新旧两套数据系统之间进行无缝、 透明化迁移。 解决方案说明:在提供解决方案之前,我们先来头脑风暴一下:首先,既然是旧业务需要进行加密改造, 那一定存储了非常重要且敏感的信息。这些信息含金量高且业务相对基础重要。不应该采用停止业务禁 止新数据写入,再找个加密算法把历史数据全部加密清洗,再把之前重构的代码部署上线,使其能把存0 码力 | 385 页 | 4.26 MB | 1 年前3
Apache ShardingSphere 中文文档 5.1.1有大量明文历史数据。现在的问题是如何让 历史数据得以加密清洗、如何让增量数据得以加密处理、如何让业务在新旧两套数据系统之间进行无缝、 透明化迁移。 解决方案说明:在提供解决方案之前,我们先来头脑风暴一下:首先,既然是旧业务需要进行加密改造, 那一定存储了非常重要且敏感的信息。这些信息含金量高且业务相对基础重要。不应该采用停止业务禁 止新数据写入,再找个加密算法把历史数据全部加密清洗,再把之前重构的代码部署上线,使其能把存0 码力 | 409 页 | 4.47 MB | 1 年前3
Apache ShardingSphere 中文文档 5.2.0有大量明文历史数据。现在的问题是如何让 历史数据得以加密清洗、如何让增量数据得以加密处理、如何让业务在新旧两套数据系统之间进行无缝、 透明化迁移。 解决方案说明:在提供解决方案之前,我们先来头脑风暴一下:首先,既然是旧业务需要进行加密改造, 那一定存储了非常重要且敏感的信息。这些信息含金量高且业务相对基础重要。不应该采用停止业务禁 止新数据写入,再找个加密算法把历史数据全部加密清洗,再把之前重构的代码部署上线,使其能把存0 码力 | 449 页 | 5.85 MB | 1 年前3
Apache ShardingSphere 中文文档 5.1.0有大量明文历史数据。现在的问题是如何让 历史数据得以加密清洗、如何让增量数据得以加密处理、如何让业务在新旧两套数据系统之间进行无缝、 透明化迁移。 解决方案说明:在提供解决方案之前,我们先来头脑风暴一下:首先,既然是旧业务需要进行加密改造, 那一定存储了非常重要且敏感的信息。这些信息含金量高且业务相对基础重要。不应该采用停止业务禁 止新数据写入,再找个加密算法把历史数据全部加密清洗,再把之前重构的代码部署上线,使其能把存0 码力 | 406 页 | 4.40 MB | 1 年前3
Apache ShardingSphere 中文文档 5.1.2有大量明文历史数据。现在的问题是如何让 历史数据得以加密清洗、如何让增量数据得以加密处理、如何让业务在新旧两套数据系统之间进行无缝、 透明化迁移。 解决方案说明:在提供解决方案之前,我们先来头脑风暴一下:首先,既然是旧业务需要进行加密改造, 那一定存储了非常重要且敏感的信息。这些信息含金量高且业务相对基础重要。不应该采用停止业务禁 止新数据写入,再找个加密算法把历史数据全部加密清洗,再把之前重构的代码部署上线,使其能把存0 码力 | 446 页 | 4.67 MB | 1 年前3
携程 Redis 多数据中心 双向同步实践 祝辰• Redis提供了方 便开发的平台 • 实现一个命令 的方式 回环复制 SET KEY=VAL SET KEY=VAL SET KEY=VAL SET KEY=VAL • 网络风暴 • 数据不一致 如何解决 SET KEY=VAL • 标记数据来 源 • 只发送本站 点数据 SET KEY=VAL 两份缓存 SET KEY=VAL Master-Master0 码力 | 33 页 | 2.15 MB | 1 年前3
TiDB v7.1 中文手册#15279 @YuJuncen – 修复在执行 FLASHBACK 后 Region Merge 可能被阻塞的问题 #15258 @overvenus – 减少 Store 心跳重试次数,修复心跳风暴的问题 #15184 @nolouch – 修复 Online Unsafe Recovery 超时未中止的问题 #15346 @Connor1996 – 修复部分写入时加密可能导致数据损坏的问题 sync-recover 阶段 QPS 下降到 0 的问题 #14975 @nolouch – 修复部分写入时加密可能导致数据损坏的问题 #15080 @tabokie – 减少 Store 心跳重试次数,修复心跳风暴的问题 #15184 @nolouch – 修复当待处理的数据整理字节数较高时流量控制可能无效的问题 #14392 @Connor1996 – 修复 PD 和 TiKV 之间的网络中断可能导致 PITR0 码力 | 4369 页 | 98.92 MB | 1 年前3
TiDB v8.0 中文手册#15279 @YuJuncen – 修复在执行 FLASHBACK 后 Region Merge 可能被阻塞的问题 #15258 @overvenus – 减少 Store 心跳重试次数,修复心跳风暴的问题 #15184 @nolouch – 修复 Online Unsafe Recovery 超时未中止的问题 #15346 @Connor1996 – 修复部分写入时加密可能导致数据损坏的问题 sync-recover 阶段 QPS 下降到 0 的问题 #14975 @nolouch – 修复部分写入时加密可能导致数据损坏的问题 #15080 @tabokie – 减少 Store 心跳重试次数,修复心跳风暴的问题 #15184 @nolouch – 修复当待处理的数据整理字节数较高时流量控制可能无效的问题 #14392 @Connor1996 – 修复 PD 和 TiKV 之间的网络中断可能导致 PITR0 码力 | 4805 页 | 101.28 MB | 1 年前3
TiDB v7.5 中文手册#15279 @YuJuncen – 修复在执行 FLASHBACK 后 Region Merge 可能被阻塞的问题 #15258 @overvenus – 减少 Store 心跳重试次数,修复心跳风暴的问题 #15184 @nolouch – 修复 Online Unsafe Recovery 超时未中止的问题 #15346 @Connor1996 – 修复部分写入时加密可能导致数据损坏的问题 sync-recover 阶段 QPS 下降到 0 的问题 #14975 @nolouch – 修复部分写入时加密可能导致数据损坏的问题 #15080 @tabokie – 减少 Store 心跳重试次数,修复心跳风暴的问题 #15184 @nolouch – 修复当待处理的数据整理字节数较高时流量控制可能无效的问题 #14392 @Connor1996 – 修复 PD 和 TiKV 之间的网络中断可能导致 PITR0 码力 | 4590 页 | 100.91 MB | 1 年前3
共 16 条
- 1
- 2













