Kubernetes开源书 - 周立以被界定。它们⽐VM更容易构建,并且由于它们与 底层基础架构和宿主机⽂件系统解耦了,可实现跨云、跨操作系统的移植。 由于容器⼩⽽快,因此可在每个容器镜像中包装⼀个应⽤程序。这种⼀对⼀的应⽤到镜像关系解锁了容器的全部优势。 使⽤容器,可以在构建/发布期间(⽽⾮部署期间)创建不可变的容器镜像,因为每个应⽤程序⽆需与其余的应⽤程序 栈组合,也⽆需与⽣产基础架构环境结合。 在构建/发布期间⽣成容器 官⽅出品、部署较简单、懂Ansible就能上⼿ 不够透明 RKE 部署较简单、需要花⼀些时间了解RKE的cluster.yml配置 ⽂件 不够透明 ⼿动部署 第三⽅操作⽂ 档 完全透明、可配置、便于理解K8s各组件之间的关系 部署⾮常麻烦,容易出 错 其他诸如Kops之类的⽅案,由于⽆法跨平台,或者其他因素,被我pass了。 最终,笔者决定使⽤Kubespray部署Kubernetes集群。也希望⼤家能够⼀起讨论,总结出更加好的部署⽅案。 赖于特定云提供商的功能代码。在未来的版本中,云供应商的特定代码应由云供应商⾃⼰维护,并在运⾏Kubernetes时 与cloud-controller-manager相关联。 以下控制器存在云提供商依赖: Node Controller:⽤于检查云提供商,从⽽确定Node在停⽌响应后从云中删除 Route Controller:⽤于在底层云基础设施中设置路由 Service Controll0 码力 | 135 页 | 21.02 MB | 1 年前3
石墨文档Go在K8S上微服务的实践-彭友顺--job=install • 初始化数据 ./app --job=initialize • 单元测试 go test ./... 单元测试大部分的玩法,都是在做解除依赖 • 面向接口编程 • mock • 依赖注入 解除依赖很好,但成本很高 基础设施将所有依赖构建起来,就不要让研发用代码去实现 微服务的部署阶段 注入信息 版本信息 发布版本 • 注入应用名称、应用版本号、编译所在机器、编译时间配置 做所有SLA报警 如何管理好微服务 第三部分 如何管理好微服务 责任 管理版本信息 管理拓扑关系 管理成本 • 应用部门、应用负责人 • 升级版本 如何管理好微服务 责任 管理版本信息 管理拓扑关系 管理成本 如何管理好微服务 责任 管理版本信息 管理拓扑关系 管理成本 资料 框架:https://github.com/gotomicro/ego 编译:https://ego0 码力 | 41 页 | 3.20 MB | 1 年前3
第29 期| 2023 年9 月- 技术雷达Inc. All Rights Reserved. 采纳 1. 设计系统 2. 轻量级的 RFCs 方法 试验 3. 具有可访问性意识的组件测试设计 4. 攻击路径分析 5. 自动合并依赖项更新 PR 6. 针对 FAIR 数据的数据产品思维 7. OIDC for GitHub Actions 8. 使用 Terraform 创建监控和告警 9. ReAct 提示工程 10. 检索增强生成 11. 基于风险的故障建模 12. 大语言模型半结构化自然语言输入 13. 追踪健康债务状况 14. 对告警规则的单元测试 15. CI/CD 的零信任保护 评估 16. 通过依赖健康检查化解包幻觉风险 17. 设计系统决策记录 18. GitOps 19. 大语言模型驱动的自主代理 20. 平台编排 21. 自托管式大语言模型 暂缓 22. 忽略 OWASP 十大安全风险榜单 暂缓 暂缓 评估 评估 试验 试验 采纳 采纳 采纳 1. 设计系统 2. 轻量级的 RFCs 方法 试验 3. 具有可访问性意识的组件测试设计 4. 攻击路径分析 5. 自动合并依赖项更新 PR 6. 针对 FAIR 数据的数据产品思维 7. OIDC for GitHub Actions 8. 使用 Terraform 创建监控和告警 9. ReAct 提示工程0 码力 | 43 页 | 2.76 MB | 1 年前3
k8s操作手册 2.3e.pem ②安装k8s二进制组件 #使用aliyun的源(如果用的是RHEL8系列的系统,也是用的el7的仓库源,因为 k8s组件是用go语言写的,直接二进制文件就可用,不需要特殊的库依赖,于是 和系统弱相关,8或9系列的系统也直接可用这些rpm软件) # cat >> /etc/yum.repos.d/k8s-ali.repo <关系图 [root@k8s-node01 ~]# ip route #查看k8s node结点上的路由表 default via 10.99.1.1 dev xy会使用负 载均衡机制。 ★每创建一个service资源,就会创建一个同名的EndPoints Endpoints:记录了service的targetPort与目标pod的 ip:port映射关系,当目标pod 漂移或重启时,endpoints会自动更新 service-ip:是虚拟的ip,是由kube-proxy去建立相应的iptables/ipvs规则进行流量 的转发 ★kube-proxy的代理规则模式有: 0 码力 | 126 页 | 4.33 MB | 1 年前3
Kubernetes 容器编排与应用编排DaemonSet DaemonSet Pod 1. 可以在指定节点一个副本 * NodeSelector * Affinity 2. 可控的滚动更新模式 3. 独立的调度模式 * 不依赖 Scheduler * 无视 unschedulable Kubernetes 控制器 CronJob CronJob Job Pod 1. 定时执行的批处理任务 2. 定时任务并发策略 Update 3. 极简的部署方式:YAML + Image Kubernetes 的现状 1. 对于大型应用而言,需要组合使用大量的 Kubernetes 资源 2. 缺乏统一的依赖管理机制,需要用户自行解决依赖关系 3. 极简的部署方式也给用户带来了新的负担 应用编排架构 应用单元 应用是什么? = + + 应用 Services Pods Volumes 应用编排架构 应用单元0 码力 | 20 页 | 4.22 MB | 1 年前3
第1930期:Kubernetes基础介绍还提供完善的管理工具,涵盖开发、部署测试、运维监控等各个环节。 5 www.h3c.com Confidential 秘密 55 Kubernetes基础结构介绍 Kubernetes特性: 自动装箱:构建于容器之上,基于资源依赖和其他约束自动完成容器部署。 自我修复:容器故障后自动重启、节点故障后重新调度容器,以及容器自我修复机制。 水平扩展:通过简单明了实现水平扩展,基于CPU等资源负载率的自动水平扩展。 服务发现和负载 PV和PVC使得K8s集群具备了存储的逻辑抽象能力,使得在配置Pod的逻辑里可以忽略对实际后台存储技术的配置, 而把这项配置的工作交给PV的配置者,即集群的管理者。存储的PV和PVC的这种关系,跟计算的Node和Pod的关系是非 常类似的;PV和Node是资源的提供者,根据集群的基础设施变化而变化,由K8s集群管理员配置;而PVC和Pod是资源 的使用者,根据业务服务的需求变化而变化,由K8s集群的使用者即服务的管理员来配置。0 码力 | 49 页 | 4.11 MB | 1 年前3
云计算白皮书作伙伴作为连接云厂商与企业的桥梁,是云厂商长期稳定发展的保 障。过去一年,全球主流云服务商积极汇聚伙伴生态、变革伙伴合 作模式、坚持伙伴优先战略,合作伙伴生态被提升到新高度。一是 云服务商关注到上云企业对 ISV 等合作伙伴依赖突出,通过“赢得 伙伴”的战略赢得市场。随着数字化转型进入深水区,企业上云着 重于把数字技术与企业业务、运营、管理等深入结合,获得端到端 的解决方案和服务,这离不开细分领域解决方案提供商的深度支持。 管理与优化 治理成效。 稳定性层面,云上系统稳定性挑战持续存在,系统稳定性保障 云计算白皮书(2023 年) 20 体系不断完善、技术不断创新。云上系统自带“分布式”属性,各 模块之间依赖关系错综复杂,给服务性能分析、故障定位、根因分 析等带来了诸多困难;云上系统故障率随设备数量的增加而呈指数 级增长,单一节点问题可能会被无限放大,日常运行过程中一定会 伴随“异常”发生;同时,节点分布范围更广,节点数量更多,对 第三 梯队行业上云一般具有业务流程长且复杂、数据来源多且流通差、 IT 技术储备不足等特点,具体表现为:一是应用系统多样复杂,难 以云化改造。当前,第三梯队行业信息化整体程度较低,系统技术 依赖性强、二次开发难度高,难以实现应用现代化改造,如石油化 工涉及生产维护、炼化生产、供应链协调等多个系统,整合改造门 槛高。二是存在数据孤岛现象,云上安全流通受阻。传统工业数据 生成速度快,管理0 码力 | 47 页 | 1.22 MB | 1 年前3
腾讯云 Kubernetes 高性能网络技术揭秘——使用 eBPF 增强 IPVS 优化 K8s 网络性能-范建明编写eBPF程序 • 编译成eBPF中间代码 • 注入内核 • 挂载到network traffic control • 报文激发eBPF代码 技术创新点一 • IPVS 对conntrack的功能依赖 • Iptables SNAT • 具体如何绕过conntrack? • 进报文 • 将处理请求的钩子从nf local-in 前移到nf pre-routing • skb的路由指针是NULL • 同一个cluster,在不同的时间段,性能可能不同 • cpu 超卖 • 使用同一个cluster,在相近的时间段,比较两种mode • 使得cpu成为瓶颈点 • cpu和网卡pps的比例关系 < 1/50w pps • Target server pool /client pool 的配置要足够强大。 测试拓扑 测试数据 • 处理每一个req耗费的指令数 目降低了38% 050 码力 | 27 页 | 1.19 MB | 9 月前3
高性能 Kubernetes 元数据存储 KubeBrain 的设计思路和落地效果-许辰Range 扫描读,支持快照读,支持分页 写 • K8s 乐观锁 resource version • 单 Key CAS Watch • Kubernetes list-watch 的底层依赖 K8s 元信息存储的需求 (2) K8s 元信息存储的需求 (3) 所以 etcd 为目前 K8s 唯一支持的存储 KubeBrain 架构 Kine KubeBrain KubeBrain KubeBrain 能否使用类似的格式? 1. 否 2. 底层存储引擎全局有序,有写热点那问题 Etcd 以 Revision 为 Key 内存 Btree 索引维护 key 和 revision 的映射关系 存储层 - 数据格式 KubeBrain 逻辑层 逻辑层 – 写 逻辑层 – Watch(1) Watch 机制本质上是一个消息队列系统 1. 可靠性 - 不重复、不丢失 2. 顺序性0 码力 | 60 页 | 8.02 MB | 1 年前3
运维上海2017-Kubernetes与AI相结合架构、落地解析-赵慧智(Container Runtime Interface) 层将 Kuernetes 与具体的 Container 管理工具隔离,并且可以进行 Container 的操作。 在 Node 上的层次关系 通过 Label 的方式将 Node 分类 在企业环境中 Node 很有可能需要进行不同类别的区分,而每 一类 Node 上的环境都有可能会不同。 关键点回顾 • Kubernetes Example 将数组 a 和数组 b 相加并将计算结果放入数组 c 中。 数组运算并行化 – CUDA by Example 当我们有多个 core 的时候 深度学习对于并行化硬件的依赖 - GPU • Core 的多少往往决定真正并行化运算的数量 GPU 硬件使用流程 AI 模型 • AI 模型会决定最终使用资源的多少 • AI 模型的服务性能还与网络相关0 码力 | 77 页 | 14.48 MB | 1 年前3
共 28 条
- 1
- 2
- 3













