Service Mesh 发展趋势(续) 蚂蚁金服 | 骑士到中盘路向何方?递给适配器的数据。 这些包括“metrics”,“logentry”,“tracepan”等。这些抽 象与后端想要消费的数据不匹配,导致运维需要编写一些手动配置, 以便在规范的 Istio 样式和后端特定的样式之间进行映射。原本期望 这种映射可以在适配器中实现很大程度上的自动化,但是最终还是 太复杂并需要手动配置。如果要性能,该怎么做? Part 1:ServiceMesh灵魂拷问一:要架构还是要性能? 实例模版的操作系统配置 操作系统 镜像文件 自动启动脚本 创建应用 启动业务容器 按照实例模版启动虚拟机+应用 启动应用 k8s replicaset 通过实例模版设置实例数 管理实例副本(固定) k8s HPA或者serverless 通过实例模版设置自动伸缩 管理实例副本(伸缩) 更改镜像文件 更改实例模版 应用版本升级 容器/k8s 虚拟机(托管式实例组)Part 3:ServiceMesh灵魂拷问三:要不要支持虚拟机?0 码力 | 43 页 | 2.90 MB | 6 月前3
 Service Mesh的实践分享服务实例的差异导致配置相当复杂,容易 配置不合理 • 无法动态根据系统指标调整阈值 • 目标 • 用户无需拍脑袋设值,服务治理中心根据 历史指标进行推荐,对不合理的设置进行 建议,如 • 根据应用的历史延迟时间推荐超时设置 • 根据应用的历史流量数据推荐限流设置 • 根据动态指标自动调整配置 • 如单个实例内指标异常(超时率、cpu异常等) 动态调整限流值或直接降级 Proxy Server Intelligent0 码力 | 30 页 | 4.80 MB | 6 月前3
 进击的 Traefik | 云原生边缘路由器探秘Kubernetes, M arathon, Mesos, Consul, Etcd, Z ookeeper, BoltDB, Rest API, file…) 来自动化、动态的应用它的 配置文件进行设置Traefik 项目 •https://github.com/containous/traefik •MIT License •Written in Go •25,400+⭐ 2,700+⬇0 码力 | 35 页 | 8.58 MB | 6 月前3
 陌陌Service Mesh架构实践方案:出流量降级至本应用的其他Agent 出流量容灾20/24 数据平面性能优化 方案整体 • 新增MOA Mesh协议 • 减少decode请求体开销 • ProtoBuf替换JSON • 复用连接并适当设置连接数 Agent内部 • 对象池化:减少资源消耗与GC压力 • 响应等待机制:非阻塞等待 两次请求转发小于0.2ms Agent外部 • 提升服务器性能(缩减耗时绝对值) API层接口耗时增长小于6%21/240 码力 | 25 页 | 1.25 MB | 6 月前3
 严选 ServiceMesh 实践• 常用服务管理功能:服务上下线、服务实例管理 • 服务生命周期管控与查询 • 服务扩缩容:服务副本数、配额、扩缩容策略; 调整后自动应用至 K8s 集群 02.服务管控 • 服务监控项设置并对接基础监控平台 • 服务质量指标(SLI)定制并监控:如 Latency、QPS 等 04.服务监控 • 借助APM的能力 • 发现异常调用链 • 分析请求来源及去向 06.问题定位与诊断0 码力 | 25 页 | 2.07 MB | 6 月前3
 大规模微服务架构下的Service Mesh探索之路Cloudwatch • Dogstatsd • Fluentd • Prometheus • Solarwinds • Stackdriver • Statsd • Stdio 同意视为基础设置, 甚至可能集成更多, 这里的抽象隔离是 我们认可的 但是这些??更应该 视为基本能力,直接 做成Mesh内置功能 List backend Redis for Quota memquota0 码力 | 37 页 | 7.99 MB | 6 月前3
 蚂蚁金服网络代理演进之路SOFARPC、HTTP/1.x、消息、TLS 等多种协议无损迁移资源问题 CPU • Cpuset模式,与业务App共享独占核 • Cpushare模式,与应用容器共享物理机Cpu资源 • 根据具体业务情况设置Cpu资源 内存 • 使用应用内存的1/16 • 与业务Share内存,最大限制使用1G,存在超卖问题,触发Pod 级别的direct reclaim问题 磁盘 • Sidecar与业务容0 码力 | 46 页 | 19.93 MB | 6 月前3
共 7 条
- 1
 













