微服务的设计原则与⽣态系统 - 王磊• 服务的治理理与维护 • 测试策略略与契约测试 • 持续交付流⽔水线 • 基础设施(私有云/公有云) • 持续集成/持续部署流⽔水线 • 团队的敏敏捷/⼯工程化实践 • 端到端的⼯工具链 • API⽹网关 • 服务开发框架 • 测试验证框架 • 部署运维⼯工具 系统化的⼯工程 框架层出不不穷 多维度互相依赖 为什什么需要⽣生态系统? 微服务⽣生态系统 API⽹网关/Edge 交付流⽔水线与⼯工程实践 CaaS/PaaS IaaS 微 服 务 开 发 框 架 ⼯工 程 实 践 与 规 范 持 续 交 付 流 ⽔水 线 端 到 端 的 ⼯工 具 链 注册发现 监控 调⽤用链 路路由 授权认证 ⽇日志聚合 容错 集中配置 基础设施 业务层 - 聚合服务 - 基础服务 接⼊入层 • 流量量限制 • 调⽤用统计 • 安全认证 • 提供统⼀一接⼝口,封装内部变化 交付流⽔水线与⼯工程实践 CaaS/PaaS IaaS 微 服 务 开 发 框 架 ⼯工 程 实 践 与 规 范 持 续 交 付 流 ⽔水 线 端 到 端 的 ⼯工 具 链 注册发现 监控 调⽤用链 路路由 授权认证 ⽇日志聚合 熔断 集中配置 基础设施 接⼊入层 业务层 - 聚合服务 - 基础服务 • ⾯面向对象设计(名词/动词) • 可重⽤用的逻辑0 码力 | 62 页 | 6.65 MB | 1 年前3
杨钦民-唯品会微服务架构演进之路v0.2���� ����� 全链路监控/eIcLIO功能d绍 ü 监控大盘快速展现系统问题 ü 秒级实时告警第一时间报告 cIAKAcaD AssLes ü 分钟级准实时告警周期性检测 指标规则 ü e告警事i快速定o根源问题 ü 灵活方t的多级告警策略定义 ü 2AgeoF中央告警平台无缝集成 指标统计 调用链跟踪 ü 域T主机T服务A2I级别指标 请求失败率(4NN/5NN/osH faADed ü 异常发生率 ü 43L性能指标 ü 拓扑s赖关系和性能指标 ü 调用链检索Q通过W务关键字) ü 慢调用查询 ü 失败调用查询Q4NNT5NN) ü 调用链详情展示 监控告警 全链路监控/eIcLIO核心jv 应用开发c员 I5运维T监控中心c员 应用管理c员 • 快速故障告警和问题定o • 把握应用性能和容量评n 提r可追溯的性能数据 • 定o线U服务性能瓶颈 • 持续l化g码和43L • 帮助快速解决线U问题 • 全方o把握应用整p拓扑结构 • 定o全网应用瓶颈 • 帮助l化关键W务 全链路监控/eIcLIO架构 Web FDLEe AgeFK 接y层 A22 数据源 CafCa 集 群 实时计算层 4HaIC 集 群 OpenTSDB�0 码力 | 43 页 | 3.89 MB | 1 年前3
康彬-基于微服务的混合云和同城双活实践微服务框架 服务元数据管理 服务发布 服务订阅 消息中间件 消息元数据管理 消息生产 消息消费 job调度系统 job元数据管理 job发布 job调度 配置中心 mq管理系统 调用链路 系统 监控告警 系统 发布系统 服务注册 中心 服务治理 系统 api-gateway 获客 授信 下单 还款 大促的痛 机器准备周期长,紧急 情况无法应对 大促后机器闲置率高,资 如果发生机房级的灾难怎么办? 单集群 随着流量越来越大,集群规模 越来越大,怎么破? 单元化&多活的范围 boss 客服系统 销售系统 风控审核 催收系统 政策管理 prod devops 监控系统 调用链路 日志系统 …… oa 人事系统 智能推荐 大数据 AI/BI …… 交易平台 电商 现金 信用卡 会员 桔子理财 风控平台 用户增长 发布系统 故障时,只影响内 部办公相关的公司 分期乐业务服务 分期乐业务数据 registry(桔子理财) 桔子理财业务服务 桔子理财业务数据 代理 应用 registry(鼎盛) 鼎盛业务服务 鼎盛业务数据 代理 应用 缺乏全链路的系统诊断能力 业务系统 (业务错误码) 服务框架 (请求数、成功率等) 基础组件 (mq、fastdfs、redis、mysql) 操作系统 (CPU、内存、磁盘容量、系统负载)0 码力 | 47 页 | 6.09 MB | 1 年前3
可发布版-美团点评微服务OCTO-曹继光服务治理演进各c阶段 服务治理实践(%):基础能力达标 - 青铜段t 监控报警 数据分析 • 性能指标 • 来源去向 • f机分析 • 数据报表 • 调用链路 • 节点监控 • 性能监控 • b务监控 • 异常监控 • 服务注册 • 服务概要 • 提y者 • 消费者 注册中心 • 配置管理 • - 钻石段t ������! 2.�� ��! 3.�� ��! 4.�� ��! 5.�� ��� ��! 6.�� ���! 1.�� ��! 链路级流量隔离 • 全链路灰度发布 • 全链路压测 • 全链路故障演练 服务治理实践(6)-星耀段t+ 异地容灾 扩展 回顾:服务治理系统的三项必备能力 % 标准化 & 易用性 3 高性能0 码力 | 35 页 | 14.10 MB | 1 年前3
消费者云CSE微服务实践1、分布式服务化本身引入的潜在故障点: 2、微服务第三方依赖潜在故障点: CSE的可靠性设计: 集群容错,自劢路由 服务中心、配置中心无状态集群,宕机丌影响已有业务 支持服务级故障隔离 支持多链路和链路级故障隔离 支持服务熔断和降级,以及第三方故障隔离(集成Hystrix) CSE在消费者云业务的实践-服务调用高性能 CSE的高性能设计: 提供Rest和Highway RPC两种通信协议,满足 服务做发布审核,审核通过的才能够上线 服务治理目的:满足服务上下线管控、保障微服务的高效、 健康运行 部分服务治理配置项: CSE在消费者云业务的实践-更多实践 调用链跟踪,不Zipkin集成,自定义调用链打点 集成Nginx做边缘服务(API接入) 本地开发不调试 分布式配置服务 HTTP/2 安全,HTTPS… • 线上: – 关注微信公众获取信息0 码力 | 22 页 | 1.39 MB | 1 年前3
微服务架构实践-唯品会2igeEDW央告警平台无缝集成 指标统计 调用链跟踪 ü 域Q主机Q服务A2I级别指标展示 ü 每秒请求数 ü 响应时间 ü 请求失败率(4LL/5LL/EHF faiBed ü 异常发生率 ü 43.性能指标 ü 拓扑m赖v系和性能指标 ü 调用链检索O通过U务v键字P ü 慢调用查询 ü 失败调用查询O4LLQ5LLP ü 调用链详情展示 监控告警 76 ��! ���� �! ���� ��! ���review ���review ���! WAP! • 横向:针对单个核心U务系统进行检查 • 纵向:针对U务线v联系统进行t链路检查 • 重点:架构、流程、缓存、消息队列、数据库、性能、高可用、隔离、限流、降级、熔断等 ��QPS&�� ����! ����! �����! ����! �����QPS �������0 码力 | 120 页 | 82.16 MB | 1 年前3
ServiceComb 微服务框架华为开源软件能力中心 全栈生态:具有完整开源生态技术栈的解决方案,完全无商业Lock-in,支持平滑上云 配置中心生态 Others…… 微服务生态 ServiceComb 微服务解决方案 处理链 ServiceComb微服务解决方案 Java编程 (POJO/SpringM VC/JAX-RS) Golang 编程 限流 负载均衡 分布式追踪 动态配置 服务注册 服务度量 通信协议 • 高性能、高可靠 • 性能监控与调用追踪 特性介绍: Java-Chassis 分布式追踪 • 支持标准的分布式调用追踪Zipkin • 支持通过@span扩展自定义追踪 • 通过调用链支持自定义追踪扩展 • 支持Skywalking @Override @Span public double calculate(double height, double weight) { if0 码力 | 11 页 | 668.81 KB | 1 年前3
ServiceComb 的前世今生配 置 服 务 路 由 多 通 信 访 问 调 用 链 跟 踪 多 事 务 管 理 多 运 行 时 管 理 ServiceMesh 容 错 & 熔 断 限 流 降 级 服 务 隔 离 容 量 预 测 微 服 务 安 全 工具链生态 契约开发 工具 代码自动 生成 文档自动 生成0 码力 | 16 页 | 1.45 MB | 1 年前3
微服务场景下的数据一致性解决方案 - 殷湘C A Saga compensate compensate 和平统一 减少业务代码集成/运维难度 剥离业务与数据一致性复杂度 和平:低侵入 让运维监控更加简单 可视化事务、调用链 统一:集中式 无状态、可集群、可分片 Event Sourcing架构 高可用 系统架构 – 基于图形 requests { T1:[a,b], C1:[c,d], ... } Caller 追求最新技术 合理的设计能大大减少技术复杂度和商业成本 总结 • 起因:离 • 方案:Saga 222 • 选择建议:内刚 外柔 未来的开发计划 • 更易使用的数据一致性方案 • 集成调用链追踪 (Zipkin),定位性能瓶颈 • 可视化事务拓扑,定位异常最多的服务 • 集成熔断功能 (Hystrix) • 实现基于消息队列的通信模式 • …… • https://issues.apache0 码力 | 31 页 | 4.28 MB | 1 年前3
Service Mesh的思考及在华为云的实践为应用容器设置环境变量http_proxy • 为mesher设置CSE地址(注册中心, 配置中心) • 为mesher对接APM 日志收集 • 为mesher对接APM metrics收集 • 为mesher 对接APM 调用链追踪 • 告知mesher业务服务的版本以及监控 端口 性能损耗 使用前 使用后 TPS 26000 6300 Latency 0.76ms 3.3ms CPU 100% 130% Concurrency x.x.x.x:port, 进行开发调试,上云后 需要与Mesher使用时,改为http://ServiceName • 服务调用层级不要超过3层 • 若调用层级超过2层,业务代码想要用上调用链追踪需要将TraceID转发 • 想要根据某些业务数据进行路由的话,将数据放在请求的header当中 • 业务开发期不要上云后就打开容错功能,容错会掩盖业务问题 6/30/2018 Take Away0 码力 | 29 页 | 1.55 MB | 1 年前3
共 25 条
- 1
- 2
- 3













