新一代云原生分布式存储新一代云原生分布式存储—Curve 上 李小翠 网易数帆存储团队分布式存储介绍 01 存储的发展 | 分布式存储的分类 | 分布式存储的要素 02 03 04 Ceph 架构简介 | 场景介绍 | 使用中的问题 Curve 架构简介 | 数据对比 | 应用情况 FAQ 答疑存储的发展 互联网时代,数据大爆炸 大型主机 成本高 单点问题 扩容困难 各存储设备通过网络互联 写性能提升,速度取决于写的较快的大多数 W R client W W W client分布式存储介绍 01 存储的发展 | 分布式存储的分类 | 分布式存储的要素 02 03 04 Ceph 架构简介 | 块存储场景 | 使用中的问题 Curve 架构简介 | 数据对比 | 应用情况 FAQ 答疑架构简介 — 总体架构 开源分布式存储界的扛把子 支持块存储、文件存储、对象存储架构简介 人为干预 • 上述问题和架构涉及、核心功能的选型有关,在已有开源版本上改进代价很大分布式存储介绍 01 存储的发展 | 分布式存储的分类 | 分布式存储的要素 02 03 04 Ceph 架构简介 | 块存储场景 | 使用中的问题 Curve 架构简介 | 主要亮点 | 应用情况 FAQ 答疑架构简介 — 总体架构 支持块存储、文件存储(多种存储后端)架构简介 —0 码力 | 29 页 | 2.46 MB | 6 月前3
Curve for CNCF Mainio/Agenda • What is Curve • Use Cases • CurveBS • Key Features • Comparing to Ceph • CurveFS • Comparing to Ceph • Current Status • RoadmapWhat is Curve • Curve is an distributed storage system three replicas) • csi / storage class for kubernete, nbd for HOST/VMPerformance (vs. Ceph RBD)Performance (vs. Ceph RBD)CurveBS Features • RAFT for data consistency • minor impaction when chunk server tuning, abnormal detection and schedule tuningStorage Engine Comparison (vs. Ceph) DATA CONSISTENT PROTOCOL CURVE (RAFT) CEPH WRITE SUCCESS majority write successful all write successful READ Leader of0 码力 | 21 页 | 4.56 MB | 6 月前3
Curve设计要点https://github.com/opencurve/curve 概述背景 01 02 03 04 总体设计 系统特性 近期规划背景 • 多个存储软件:SDFS、NEFS、NBS • 已有的开源软件:Ceph • 不能胜任性能、延迟敏感的场景 • 异常场景抖动较大(比如慢盘场景) • 去中心节点设计在集群不均衡的情况下需要人工运维 • 基于通用分布式存储构建上层存储服务背景 01 02 03 多个连续地址空间chunk(物理文件)的聚合数据组织形式 • CopySet • 逻辑概念 • 减少元数据数量 • 数据放置的基本单元 • 提高数据可靠性 • 包含多个chunk • 减少复制组数量 类似Ceph中的PG 「Copysets: Reducing the Frequency of Data Loss in Cloud Storage」数据组织形式 • PageFile • 地址空间到—>chunk: Client通知用户请求完成。背景 01 02 03 04 总体设计 系统特性 近期规划单卷4K随机读写IOPS 102k 39.7k 41.7k 127k 4K随机写 4K随机读 Ceph(L/N) Curve 151.89% 204.56% 单卷4K随机读写平均延迟(ms) 1.244 3.2 3.1 0.998 4K随机写 4K随机读 61.12 % 67.8%0 码力 | 35 页 | 2.03 MB | 6 月前3
OID CND Asia Slide: CurveFSsystemopen-source storage ● Requirements ○ Cloud Native ○ Easy operation and maintenance ○ High performance ● CEPH ○ Complex and Large amount of codes ○ system maintenance are difficult in corner cases ○ Performance Performance test vs CEPH ● BenchmarkSQL transactions per minute increased by 39% ● In PGBench tests, latency decreased by 21% and TPS improved by 26%Performance compare with CEPH The test environment0 码力 | 24 页 | 3.47 MB | 6 月前3
CurveBS IO Processing Flowprovides lower write latencies. Ceph community have compared majority replicas case with all replicas case on write latency difference: https://github.com/ceph/ceph/pull/15027In the test, the average0 码力 | 13 页 | 2.03 MB | 6 月前3
Open Flags 调研std::list<ceph::condition_variable*> pos_waiters; // waiters for pos UserPerm actor_perms; // perms I opened the file with Readahead readahead; // file lock std::unique_ptr<ceph_lock_state_t> e_t> fcntl_locks; std::unique_ptr<ceph_lock_state_t> flock_locks; bool has_any_filelocks() { return© XXX Page 11 of 23 (fcntl_locks && !fcntl_locks->empty()) || (flock_locks && !0 码力 | 23 页 | 524.47 KB | 6 月前3
Raft在Curve存储中的工程实践2018~2021 Curve块存储 2021~2022 Curve文件存储 • 基于Openstack构建云计算平台 • 底层存储使用Ceph块存储 • 稳定性挑战 • 算力平台kubernetes的迅速发展 • AI/大数据业务的快速增长 • 存储使用Ceph文件存储/HDFS • 成本/性能挑战 Curve块存储和文件存储均采用raft协议整体架构 • 对接OpenStack平台为云主机提供高性能块0 码力 | 29 页 | 2.20 MB | 6 月前3
TGT服务器的优化TCMU的用户态代码会受到框架约束,不够灵活。iSCSI target 服务器 • TGT(STGT) • 比较久的历史,原来叫STGT,后来改成TGT • 纯用户态,不与内核绑定 • 支持复杂的存储系统,例如ceph rbd, sheepdog, glfs • 纯C代码,外加一些脚本 • 完整的源代码和维护工具、手册 • 编写IO驱动比较容易,容易扩展支持新的存储系统 • 代码独立,容易编译、调试、修改,适应性强让TGT支持curve0 码力 | 15 页 | 637.11 KB | 6 月前3
NJSD eBPF 技术文档 - 0924版本降低内核与libfuse通讯延迟 • 基于⽂件属性的操作内核直接返回? • 基于⽂件数据的操作先内核读写 cache?实现POSIX兼容API途径及问题 • 基于FUSE的实现 • curve / ceph / gluster • LD_PRELOAD重载⽂件系统系统调⽤ • vpp / f-stack / DirectFUSE • Kernel版本实现 • BentoFS 基于ru0 码力 | 20 页 | 7.40 MB | 6 月前3
Curve核心组件之mds – 网易数帆Curve系统中数据分片的最小单位称之为Chunk。在大规模的存储容量下,会产生大量的Chunk,如此众多的 Chunk,会对元数据的存储、管理产生一定压力。因此引入CopySet的概念,CopySet类似于ceph的pg。CopySet 可以理解为一组复制组,这组复制组的成员关系完全一样。CopySet的概念在文献「Copysets: Reducing the Frequency of Data Loss0 码力 | 23 页 | 1.74 MB | 6 月前3
共 11 条
- 1
- 2













