(四)基于Istio on Kubernetes 云原生应用的最佳实践 - Alibaba Cloud K8S Playground� 准备Kubernetes集群 阿⾥里里云容器器服务Kubernetes 1.10.4⽬目前已经上线,可以通过容器器服务管理理控制台⾮非常⽅方便便地快速创建 Kubernetes 集群。具体过 程可以参考创建Kubernetes集群。 安装和设置kubectl客户端,请参考不不同的操作系统,如果已经安装完成请忽略略: macos 1 2 3 4 curl -LO https://kubectl oss-cn-hangzhou.aliyuncs.com/windows/kubectl.exe 放到系统PATH路路径下 1 kubectl --help 配置kubectl连接Kubernetes集群的配置,可参考⽂文档通过kubectl连接Kubernetes集群 示例例中⽤用到的⽂文件请参考: ⽂文件 , Clone下载到本地,切换到⽬目录kubecon2018sh。 查看本⽂文件: https://github https://github.com/osswangxining/yunqi2018-workshop-istio/tree/master/kubecon2018sh (四)基于Istio on Kubernetes 云原⽣生应⽤用的最佳 实践 2018-11-09 � 部署Istio 打开容器器服务控制台,在左侧导航栏中选中集群,右侧点击更更多,在弹出的菜单中选中 部署Istio。 在打开的⻚页⾯面中可以看0 码力 | 6 页 | 1.33 MB | 1 年前3
36-云原生监控体系建设-秦晓辉个人主页:https://ulricqin.github.io/ 大纲 • 云原生之后监控需求的变化 • 从Kubernetes架构来看要监控的组件 • Kubernetes所在宿主的监控 • Kubernetes Node组件监控 • Kubernetes控制面组件监控 • Kubernetes资源对象的监控 • Pod内的业务应用的监控 • 业务应用依赖的中间件的监控 云原生之后监控需求的 变化 指标维度更为丰富 •Kubernetes体系庞大,组件众多,涉及underlay、overlay两层网络,容器内容器外两个namespace,搞懂需要花些时间 •Kubernetes的监控,缺少体系化的文档指导,关键指标是哪些?最佳实践是什么?不是随便搜索几个yaml文件能搞定的 平台侧自身复杂度变高, 监控难度加大 从 Kubernetes 架构来 看要监控的组件 Kubernetes架构 l 服务端组件,控制面:API 个其实是最重要的 随着 Kubernetes 越来越流行,几乎所有云厂商都提供 了托管服务,这就意味着,服务端组件的可用性保障交 给云厂商来做了,客户主要关注工作负载节点的监控即 可。如果公司上云了,建议采用这种托管方式,不要自 行搭建 Kubernetes,毕竟,复杂度真的很高,特别是 后面还要涉及到升级维护的问题。既然负载节点更重要, 我们讲解监控就从工作负载节点开始。 Kubernetes 所在宿主 的监控0 码力 | 32 页 | 3.27 MB | 6 月前3
24-云原生中间件之道-高磊FlexVolume 插件, 和 Kubernetes 的存储卷控制框架进行集成。Agent 处理所有的存储操 作,例如挂载存储设备、加载存储卷以及格式化文件系统等; • Discovers:检测挂接到存储节点上的存储设备。 Rook 将 Ceph 存储服务作为 Kubernetes 的 一个服务进行部署,MON、OSD、MGR 守 护进程会以 pod 的形式在 Kubernetes 进行 部署,而 rook 能力,支持对象、块、文件存储服务,让 你通过一套系统实现对多种存储服务的需 求。同时 rook 默认部署云原生存储接口 的实现,通过 CSI / Flexvolume 驱动将应 用服务与底层存储进行衔接,其设计之初 即为 Kubernetes 生态所服务,对容器化应 用的适配非常友好。 高级能力-云原生中间件-应用的基石-MQ为例 云原生消息服务是云原生的通信基础设施 消息中间件在云原生的应用场景,主要是为微服务和EDA架 置文件获取方式的变更等),这些都需要 大数据团队来做适配,在资源管理的方式,则从适配Yarn修改为适配Kubernetes,总体改造成本比较高;另一方面, 需要在大数据应用的资源申请层面进行改造,使其具备直接向Kubernetes集群申请资源的特性,也称为Native on Kubernetes。目前Apache Spark、Apache Flink已经从框架内核不同程度的支持了该特性,但整体的完整对依赖于社0 码力 | 22 页 | 4.39 MB | 6 月前3
Volcano加速金融行业大数据分析平台云原生化改造的应用实践。 4. 性能优化和异构资源管理 调度性能优化,并结合 Kubernetes 提供扩展性、吞吐、网络、运行时的 多项优化,异构硬件支持x86, Arm, GPU, 昇腾,昆仑等。 Volcano Global Kubernetes Volcano-controller Volcano-scheduler Kubernetes Volcano-controller Volcano-scheduler 100用户,年增长率8.1%; • DAP平台运行项目450+ Volcano大幅度提高大数据平台资源利用率 Kubernetes + YARN Kubernetes + Volcano 静态划分资源池 统一资源池 Kubernetes + YARN Kubernetes + Volcano 集群低负载场景 K8s资源池空闲,大数据业务无法使用 大数据业务可以使用集群整体空闲资源, 提高整体资源利用率 - 公平调度 - 抢占 - …… More k8s native resource support • 首个Batch调度器 ü 2022年Volcano成为Spark on kubernetes的首个 batch调度器 ü 1.5K Pod/s 的大规模批量任务调度能力 Spark基于Volcano的用法 1. Specify custom scheduler 2. Specify0 码力 | 18 页 | 1.82 MB | 1 年前3
16-Nocalhost重新定义云原生开发环境-王炜2021/1/20 2 / 7 云原⽣和 Kubernetes 的普及,进⼀步屏蔽了“微服务”应⽤的复杂度,这主要体现在部署和运维阶段。 为了解决微服务应⽤在开发、测试和⽣产阶段环境⼀致性的问题,现代的微服务应⽤开发,都会将每⼀个组 件打包成 Docker 镜像,并以⼯作负载的形式对其进⾏部署。利⽤ DevOps 流⽔线中的持续集成和持续部署, 配合 Kubernetes 探针、HPA、应⽤⾃愈的能⼒,彻底解放了微服务应⽤的部署和运维环节。 探针、HPA、应⽤⾃愈的能⼒,彻底解放了微服务应⽤的部署和运维环节。 但我们忽略了⼀个关键节点:开发阶段 微服务应⽤使⽤ Kubernetes ⼯作负载封装后,解决了开发过程应⽤的快速启动问题,开发⼈员只需要在本地 安装单节点的 Kubernetes 集群,例如 Minikube、Kind 等即可快速启动微服务应⽤。 但对于开发⼈员来说,原来单体应⽤的开发体验变得不复存在,由于应⽤很难在 Docker 容器之外运⾏,所以 每次代码修改,都需要经历以下步骤: 每次代码修改,都需要经历以下步骤: 执⾏ docker build 构建镜像 执⾏ docker tag 对镜像进⾏标记 执⾏ docker push 推送镜像到仓库 修改 Kubernetes ⼯作负载的镜像版本 等待镜像拉取结束 等待 Pod 重建 查看修改后的代码效果 这直接拖慢了开发的循环反馈过程,每次修改,动辄需要数分钟甚⾄⼗分钟的等待时间。 Nocalhost - 重新定义云原⽣开发环境 Nocalhost0 码力 | 7 页 | 7.20 MB | 6 月前3
02. Kubevela 以应用为中心的渐进式发布 - 孙健波云原生时代的应用与发布挑战 01 KubeVela 简介 02 KubeVela 中的渐进式发布实践 03 云原生时代,应用是怎 么样的? 以 K8s 资源组合为核心 kubernetes/StatefulSet Kubernetes/Deployment K8s 的原生资源组合 1. 复杂、难懂、门槛高 2. 能力局限,不同场景各不相同 3. 不统一,每一个模式需要重新编 写发布对接 K8s-sigs K8s-sigs 的 Application 1. 只描述了应用产品元数据, 研发、运维无从入手。 2. 无人维护、缺乏活跃度。 3. 信息不足以对接发布。 kubernetes-sigs/application 几乎成为事实标准的应用打包工具 helm 1. 黑盒,不明确内部有哪些 资源。 2. 无法使用/对接云资源。 3. 发布能力缺失,使用 helm upgrade 没有灰度 具备全部发布能力 的标准化应用管理引擎 KubeVela 简介 第二部分 What is KubeVela? KubeCon NA 发布 一个标准化的云原生应用平台构建引擎。 • 基于 Kubernetes 和 OAM 模型构建 • 纯 Golang 编写 • 社区发起,社区构建 • 正式发布第 4 天,登顶趋势榜首 应用 平台团队 Canary Autoscale Route0 码力 | 26 页 | 9.20 MB | 1 年前3
多云下的云原生之道multicloudAcross Multicloud Guang Ya Liu (liugya@cn.ibm.com) Senior Software Engineer - IBM Cloud Private Kubernetes Member Istio Maintainer Why Multicloud As our businesses become ecosystems for delivering greater Cloud Private 3rd Party Private Clouds 3rd Party Public Clouds IBM Public Cloud Service Mesh Kubernetes Federation V2 Istio Resource Propagation Visibility Security Application Management IBM Next Generation Middleware, Data, Integration & Analytics IBM MQ IBM Cloud private Platform Kubernetes-based Platform Multiple open compute models IaaS Automation, Containers, PaaS & Functions Stateful0 码力 | 7 页 | 1.86 MB | 1 年前3
带给你“一份应用需求定义,到处交付”的云原生交付体验IaC:⾯向终态IaC⽅式的云资源编排。 ⽅便GitOps集成,DevOps⾃动化容易。 • ⽣态:强⼤的社区Provider Plugins⽣ 态⼒量 Crossplane优势 • Kubernetes:使⽤Kubernetes add-on 将集群打造为通⽤控制平⾯。 • 跨⼚商:⽀持多个⼚商基础设施资源 的管理· Terraform不⾜之处 • ⾯向业务应⽤不够友好。 • 云服务⽆跨⼚商规范标准。 CNBaaS Operator CNBaaS Controllers ServiceController | ComponentController CNBaaS Operator (Kubernetes AddOn) OwnerReference OwnerReference Invoke Plugin Runime 4.Build and adapt component 5. Apply0 码力 | 16 页 | 30.13 MB | 1 年前3
云原生中的数据科学KubeConAsia2018Finalcom/en-us/azure/container-registry/container- registry-tasks-overview Azure Kubernetes Service: https://azure.microsoft.com/en-us/services/kubernetes-service/ Pipeline Images: https://github.com/pachyderm/pachyd0 码力 | 47 页 | 14.91 MB | 1 年前3
使用Chaos Mesh来保障云原生系统的健壮性-周强 action: partition mode: one selector: labelSelectors: "app.kubernetes.io/component": "tikv" direction: to target: selector: labelSelectors: "app.kubernetes.io/component": "tikv" mode: one duration: "10s" scheduler:0 码力 | 28 页 | 986.42 KB | 6 月前3
共 18 条
- 1
- 2













