K8S安装部署开放服务A. 准备主机/虚拟机 安装 k8s 集群需要至少 4 台主机/虚拟机,下面是参考配置: 1 台作为 k8s master CPU:2 核, 内存:8GB, 系统盘:40GB, docker 数据盘:80GB 3 台作为 k8s node CPU:2 核, 内存:16GB, 系统盘:40GB, docker 数据盘:40GB, ceph 数据盘:1TB *下面是 vSphere vSphere 上创建虚拟机的步骤: A1. 创建 k8s-master CPU:2 核, 内存:8GB,系统盘:40GB,docker 数据盘:80GB step1. 从模板上新建虚拟机 Step2. 配置虚拟机网络 打开虚拟机的控制台: 设置主机名: hostnamectl set-hostname k8s-master 设置网络: cd /etc/s /dev/mapper/centos-docker df –Th A2. 创建 k8s-node1, k8s-node2, k8s-node3 内存:16GB, 系统盘:40GB,docker 数据盘:40GB,ceph 数据盘:200GB 【注】所有节点(k8s-master, k8s-node1, k8s-node2, k8s-node3)均需做以下 B~D: B. 升级&配置 centos70 码力 | 54 页 | 1.23 MB | 1 年前3
Zabbix高级应用 -- K8S 集群监控Zabbix高级应用 --K8s集群监控 ����� ��������FiberHome 演讲主题: • CactiFans • Zabbix • Microservice • K8s • Golang https://blog.cactifans.com/ 无边界监控 应用架构发展趋势 数据采集 RESTful 接口 LLD – 低级别发现 低级发现提供了一种监控主机上变化实体,并 对采集器采集的原始数据通过管道进行处理,最终达到 数据展现和存储的要求。 例如 SNMP采集交换机内存 15MB string? 图形?触发器? Kubernetes 架构 k8s node k8s pod k8s master 应用 Zabbix Agent HTTP Agent CPU/内存/磁盘/网络 服务/日志/... 状态/CPU/内存 Kubernetes 监控 Kubernetes metrics-server ① ② ③ Token Pods https://K8S_API_SERVER:6443/apis/metrics.k8s.io/v1beta1/pods Kubernetes Metrics Server API Nodes https://K8S_API_SERVER:6443/apis/metrics.k8s.io/v1beta1/nodes Zabbix HTTP Agent0 码力 | 25 页 | 11.98 MB | 1 年前3
k8s操作手册 2.3k8s操作手册 前言: 1.蓝色字体表示命令行命令,正式执行时不要复制前面的#号,#号只是提示应 该使用root权限操作 2.绿色字体表示注释,有时注释太多就不用绿色表示了 3.注意:本文档的所有操作请先在测环境进行实践,请不要直接在真实的服务 器中操作! 版权声明: 本文档以开源的形式发布,所有条款如下: (1)无担保:作者不保证文档内容的准确无误,亦不承担由于使用此文档所导致的任何后果 更新日期:2023-12-29 ★第0章、K8S集群搭建准备工作 相关单词原义: docker 码头工人 pod 集装箱 kubernetes 舵手,领航员 helm 舵轮,驾驶盘 chart 图表,海图 ①k8s对系统要求 linux内核在3.10及以上 ②规划主机名及ip k8s的服务器使用固定ip地址,配置主机名,要求能解析相应的主机名(master 结点)到对应的ip地址,可以使用内网集群的dns服务器或写入/etc/hosts文件 里。如: 主机名 ip地址 k8s-master1.cof-lee.com 10.99.1.51 k8s-master2.cof-lee.com 10.99.1.52 k8s-master3.cof-lee0 码力 | 126 页 | 4.33 MB | 1 年前3
K8s扩展功能解析0 码力 | 12 页 | 1.08 MB | 1 年前3
涂小刚-基于k8s的微服务实践镜像编译 服务发布 镜像同步 镜像上传 镜像下载 镜像安全 k8s tcp负载 https-http 虚拟主机 服务路由 traefik ingress-nginx nginx 流 量 入 口 k8s平台组件 k8s平台接入流程 k8s环境空间和应用名规范 k8s-namespace k8s-service k8s-app-name app-name ai-test ai-dc-server ai-dc-api 业务线名称 ai dt ad 现有环境名 test preview prod 统一规划环境名和业务应用名,适配标准自动化运维。 业务线名称采用拼音首字母缩写 k8s-namespaces 环境名称定义采用业务线缩写名加环境名组成 k8s-service名称、app名称和应用名称包名保持一致 k8s-api配置对象 作用 k8s-namespace 通 通过配置文件关键字dev/test/prod等声明应用所属的环境,隔离不同环境业务,通过特定标识来识别业务线。 k8s-service k8s-dns注册服务名,通过配置文件关键字关联业务线应用名称,保持应用和k8s之间的关联。 k8s-app-name 容器host应用名称,deployment 名,通过配置文件关键字关联业务线应用名称,保持应用和k8s之间的关联。 规范 范例 应用名称 ai-dc-server0 码力 | 19 页 | 1.34 MB | 1 年前3
绕过conntrack,使用eBPF增强 IPVS优化K8s网络性能(kenieevan@github) Zhiguohong (honkiko@github) Bypassing conntrack: Optimizing K8s Service By Enhancing IPVS with eBPF Agenda 目录 01 Problems with K8s Service How to optimize 02 Comparison with industry Performance Performance measurement 03 04 Future work 05 06 Lessons from eBPF What is K8s Service • It exposes a set of pods via VIP using a load balancer • Two types • ClusterIP provides in-cluster access •0 码力 | 24 页 | 1.90 MB | 1 年前3
Envoy原理介绍及线上问题踩坑Technologies Co., Ltd. All rights reserved. Page 11 Envoy网络及线程模型 主线程 初始化 日 志 线 程 读 取 配 置 x D S 监 听 网络事件 启 动 工 作 线 程 定时器事件 a d m i n 请 求 X D S 更 新 合 并 s t a t 刷 新 D N S 调度器 工作线程 网络事件 定时器事件 群管理器状态更新等工作。 • 请求完成后延迟释放内存,解决本次事件处理中回调所引用对象可以被安全访问,并在下次 事件处理中安全删除。 admin连接 数据面连接 主 机 健 康 检 查 看 门 狗 线 程 Copyright © Huawei Technologies Co., Ltd. All rights reserved. Page 12 Envoy网络及线程模型-共享数据同步 • 1 TP90对比 默认连接策略平均tp90(s) 增强连接策略平均tp90(s) 增加80% 降低60% 默认连接策略 增强连接策略 Tp50(最快的50% 请求)增加不大, 分析可能被分配 到压力较小的线 程因此处理较快。 Tp50较默认连接 策略增加较大, 分析由于平均后 不存在压力显著 较小的线程,同 时qps的增加也会 增加端到端tp50 时延 虽然tp50增加, 但tp90显著降低 60%,并且tp50更0 码力 | 30 页 | 2.67 MB | 1 年前3
石墨文档Go在K8S上微服务的实践-彭友顺石墨文档GO在K8S上微服务的实践 彭友顺 石墨文档 基础设施负责人 目 录 1 架构演进 01 2 微服务的生命周期 02 3 如何管理好微服务 03 架构演进 第一部分 架构演进 单体应用时期 垂直应用时期 微服务时期 快速、简单 耦合强 隔离、稳定 复制多 隔离、稳定 复用高 架构演进 组件增多 架构复杂 维护困难 架构演进 传统模式 K8S模式 应用开发 资源调度 权限控制 标准统一 运维简单 框架简单 编译 部署 应用开发 启动方式 日志采集 加载配置 监控采集 资源隔离 故障转移 资源调度 权限控制 编译 部署 2014年6月K8S开源 微服务的生命周期 第二部分 微服务的生命周期 开发 测试 部署 启动 调用 治理 微服务的开发阶段 配置 对接 Debug • 配置驱动 • 配置补齐 • 配置工具 统一配置、调用用方式,降低开发心智负担 UserErrNotFound()) 微服务的开发阶段 • protobuf lint的注释,利于阅读文档 • 调试gRPC,服务中注入reflection.Register的方法 • 通过K8S API,选择环境、应用、pod, 配置 对接 Debug • 配置驱动 • 配置补齐 • 配置工具 • Proto的管理 • 错误码管理 • 调试gRPC • 调试信息 •0 码力 | 41 页 | 3.20 MB | 1 年前3
(四)基于Istio on Kubernetes 云原生应用的最佳实践 - Alibaba Cloud K8S Playground0 码力 | 6 页 | 1.33 MB | 1 年前3
逐灵&木苏-阿里巴巴 K8S 超大规模实践经验阿里云云原生应用平台 阿里巴巴 k8s 超大规模实践 关注“阿里巴巴云原生”公众号 回复 1124 获取 PPT自我介绍 •曾凡松(逐灵),当前主要负责 k8s 在阿里巴巴场景中的规模化落地,将 k8s 应用于阿里最核心的业务,帮助客 户以云原生的方式管理应用并获得效率、 稳定性及成本的改善。 •汪萌海(木苏),经历了阿里巴巴集团 集群调度从自研 sigma 系统迁移到 k8s 体系的过程,目前主要负责解决阿 体系的过程,目前主要负责解决阿 里巴巴集团在大规模场景下使用 k8s 碰到的稳定性、容器编排质量和性能问 题。❖ 阿里巴巴容器的发展历程 ❖ 基于 k8s 云原生改造实践 ❖ k8s 规模及性能优化实践 ❖ 云原生应用管理演进路线 主要内容阿里巴巴容器的发展历程 2013 初步探索 使用容器的方式替换传统使用 VM 部署应用的,基于 lxc 自研 了 t4 容器并构建了 AI 集团管理 系统 统,并构建了集团统一资源池, 在此基础上发展出弹性、混部等 技术成果,大幅降低了数据中心 的资源成本 2019 全面拥抱云原生 阿里业务全面上云,运维体系全 面拥抱云原生,基于 k8s 生态在 阿里内部蓬勃发展。在 2019 双 11 中,k8s 体系支撑了阿里史上 规模最大的集群,并提供了极速 的应用扩容体验 2015 野蛮生长 体验到使用容器部署应用的优势 后,阿里内部发展出众多的运维 平台,包括0 码力 | 33 页 | 8.67 MB | 6 月前3
共 989 条
- 1
- 2
- 3
- 4
- 5
- 6
- 99













