05-MoonBit 编程语言(WASM 技术)服务端应用展望以及对Kubernetes生态的影响语言社区开发者) 本分享包含大量目前尚处在早期开发阶段甚至概念阶段, 尚未获得广泛应用的技术。 仅为前景展望,不推荐用于当前立项开发的实际工程。 敬请注意 内容 • WASM 技术栈现状和 WASM 后端应用的构想 • MoonBit 语言介绍 • MoonBit 方案对 WASM 技术栈的作用 • 对 Kubernetes 提出的挑战 分享者 • 沙渺,大连本地独立开发者 • Rust 前端应用实际接受 • 有后端应用潜力,但更多具体疑问仍待解答 • 问题集中在扩展特性(features)、外部语言接口(FFI)、 操作系统界面(system interfaces 或 WASI)上 WASM 后端应用先驱 wasmCloud (CNCF-Sandbox) fermyon/spin WasmEdge (CNCF-Sandbox) • 多数特性已标准化 • 一些特性对后端应用 不可或缺 • 用于允许 WASM 代码调用操作系统的能力 (stdout、socket这些) • 目前处在 0.2 预览版 • 功能缺口和争议都很大 WASM 系统接口(WASI) WASM 应用于后端的构想初步存在 但具体的挑战非常巨大 Kubernetes + WASM • 方法(1)将 WASM 独立运行时程序看作工作负载 Kubernetes containerd + Linux0 码力 | 30 页 | 3.41 MB | 9 月前3
大规模微服务架构下的Service Mesh探索之路+ c = 300 a * b * c = 1000000 笛卡尔乘积Mixer反省之二:隔离和抽象的层次 ü Mixer的设计目标: • 提供统一抽象(Adapter) • 隔离基础设施后端和Istio其他部分 • 容许运维对所有交互进行精细控制合并Check和Quota ü 我们的反思 • 认可这样的抽象和隔离,确实有必要从应用中剥离出来 • 但是要加多一层Mixer,多一次远程调用 抽象和隔离在Sidecar层面完成,也是可以达到效果的 • 对于Check和Quota,性能损失太大,隔离的效果并不明显 应用 Sidecar Mixer 基础设施后端 但是多付出一次远程 调用是否有足够必要? 对基础设施后端的访问的确 可以下沉到Service Mesh探讨:何为基础设施后端?是否可以区别对待? ü 实现Check的Adapter: • listchecker (黑白名单) • opa (Open Policy Sidecar Mixer Backend 交换机 交换机 应用 Sidecar Backend 交换机 应用 Backend 交换机 应用直连基础设施后端: Sidecar连接基础设施后端: Mixer连接基础设施后端: Localhost不影响 两倍吞吐量 ü 决策: • 暂时不确认是否会造成 直接影响,先不动 • 等待实际验证后再决定 是否合并report部分 ü0 码力 | 37 页 | 7.99 MB | 6 月前3
有了 NGINX 和 Kong,为什么还需要 Apache APISIX-王院生社 区 M e e t u p 第 四 期 · ⼴ 州 站 有了 NGINX 和 Kong 为什么还需要 Apache APISIX? 王院⽣@⽀流科技 ⽬录 1. 个⼈和公司介绍 2. 后端架构演变史 3. Nginx 和 Kong 的问题 4. Apache APISIX 现状 5. Apache APISIX 未来计划 CONTENTS 云 原 ⽣ 社 区 M e e t u p 第 M e e t u p 第 四 期 · ⼴ 州 站 后端架构演变史 云 原 ⽣ 社 区 M e e t u p 第 四 期 · ⼴ 州 站 后端架构演变史 云 原 ⽣ 社 区 M e e t u p 第 四 期 · ⼴ 州 站 后端架构演变史 云 原 ⽣ 社 区 M e e t u p 第 四 期 · ⼴ 州 站 后端架构演变 -- 7 层处理 • 动态、性能、功能,不可兼得0 码力 | 34 页 | 25.78 MB | 6 月前3
Service Mesh Meetup #3 深圳站如何提升工程效率?DevOps • CI/CD 实战 • ServiceMesh • 踩过的一些坑 • Q&A技术架构的演进 • 单体架构 • 一个框架 • 一个数据库 • 分模块整合架构(前后端分析) • 不同的框架或业务模块 • 多种数据源 • 微服务架构 • 各种语言、各种框架或子系统 • 各种数据源 • ServiceMesh一般的开发流程 • 1. 开启一个新的 feature; appleboy/drone-jenkins我是作者名称我是作者名称我是作者名称Talk is cheap, Show me the code!• 当使用一个客户端实例和多个后端实例进行部署时,所有的调用仅 路由到单个后端实例。当部署第二个客户端时,它可能被路由到另 一个后端实例。这不是所需的那种负载均衡,因为它不允许独立地 扩展客户端和服务器。当客户端实例比服务器实例少时,一些服务 器实例将处于空闲状态,所以 Kubernetes0 码力 | 45 页 | 18.62 MB | 6 月前3
蚂蚁金服ServiceMesh数据平面 SOFAMosn深层揭秘Ø对于满足请求Stream池化的需求 Ø需处理上层传入的状态事件PROXY 7 Ø基于Stream抽象提供多协议转发能力 Ø执行Stream扩展Filters Ø提供可扩展的路由寻址能力 Ø提供可扩展的后端管理,负载均衡,健康检查能力 Ø维护上/下游核心指标转发流程 8 IO Read Codec Stream Route / LB Codec Stream IO write F1 F2 F1 Writer Pool send encode Q u e u e C模块划分 11要点总结 12 Ø模块化,分层解耦 Ø统一的编程模型接口 Ø可扩展的事件驱动模型 Ø可扩展的路由/后端管理机制 Ø更好的吞吐量3 能力核心能力 1 网络处理 •网络编程接口 •链接管理 •事件机制 •Metrics 收集 •TCP 代理 •TLS 支持 •TProxy 支持 •平滑 TLS 核心路由 •支持 virtual host 路由 •支持 headers/url/prefix 路由 •支持基于 host metadata 的 subset 路 由 •支持重试 后端管理 •基础负载均衡算法 •主动健康检查 •Subset 负载策略Highlights 2 ØX-Protocol: 支持 RPC on HTTP2的通用方案(完善中) Ø支持平滑升级中协议无关存量链接迁移0 码力 | 44 页 | 4.51 MB | 6 月前3
Service Mesh 发展趋势(续) 蚂蚁金服 | 骑士到中盘路向何方?Adapter不再是Istio的组成部分 • 安装部署 • 配置 • 维护Part 1:ServiceMesh灵魂拷问一:要架构还是要性能? Mixer v1 架构的优点 • 集中式服务: • 提高基础设施后端的可用性 • 为前提条件检查结果提供集群级别的全局2级缓存 • 灵活的适配器模型,使其以下操作变得简 单: • 运维添加、使用和删除适配器 • 开发人员创建新的适配器(超过20个适配器)Part Mixer使用一组称为模板的核心抽象,来描述传递给适配器的数据。 这些包括“metrics”,“logentry”,“tracepan”等。这些抽 象与后端想要消费的数据不匹配,导致运维需要编写一些手动配置, 以便在规范的 Istio 样式和后端特定的样式之间进行映射。原本期望 这种映射可以在适配器中实现很大程度上的自动化,但是最终还是 太复杂并需要手动配置。如果要性能,该怎么做? Part 1 Adapter的运行时资源开销 • 不受Adapter增减/更新/升级影响 • 保持Proxy代码简单 • 保持Proxy代码简单 • 数据平面可替换原则 • 集中式服务: • 提高基础设施后端的可用性 • 为前提条件检查结果提供集群级别的全局2级缓存 • 灵活的适配器模型,使其以下操作变得简 单: • 运维添加、使用和删除适配器 • 开发人员创建新的适配器(超过20个适配器)合并没问题,如何合并才是问题0 码力 | 43 页 | 2.90 MB | 6 月前3
Nacos架构&原理
token 模式(推荐) 分布式回话保持 默认换⼀个机器就没了,如果具备分 布式,需要把 session 放到 redis 中 天生具备分布式能力,因为身份直接 放到 token 里面了 后端实现成本 简单 复杂,需要依赖 jwt 的组件搞,扩展 之前 sso 实现成本也比较高 前端实现成本 高,目前采用 reactive,都在⼀个页 面,无法做拦截跳转 简单 Nacos 架构 openapi。 传输通道 登录目前大部分都是 https,nacos 默认不支持 https,如果需要使用 https 功能,在 nacos 前 面配置 nginx,nginx 上做 443 端口转后端 8848 端口,nginx 上管理证书。 117 > Nacos 架构 Nacos 前端设计 Nacos 前端设计 背景 我们需要提供⼀个简单控制台提升易用性,并且可以得到开发者的共建。前端框架上选择目前比较 发布平台。整个迁移过程全自动化,规避人为操作造成的遗漏。 3、同步服务订阅 Etcd 集群获取任务列表,并监听同步集群的节点状态。 4、同步服务根据存活节点的⼀致性 Hash 算法,找到处理任务节点,后端接口通过 SLB 负载均衡, 删除任务指令轮询到的节点。如果是自己处理任务则移除心跳,否则找到处理节点,代理出去。 5、同步服务监听源注册中心每个业务服务实例状态,将正常的业务服务实例同步到目标注册中心,0 码力 | 326 页 | 12.83 MB | 9 月前3
SOFAMOSN持续演进路径及实践分享prometheus Ø 支持Mixer filter Ø 平滑升级迁移支持metrics Ø Access log Ø Listener log、Default log Ø IO、协议、前后端核心 metrics技术案例 – 协议自动识别 TLS链接 核心实现思路: Ø TLS通过ALPN来识别。 Ø TLS不带ALPN或者明文,通过预读首部字段识别。 ALPN扩展 预读字段 是 0版本已经初步具备了生产所需的大部分功能点,支持 云原生场景下的多协议、路由&LB、后端管理、TLS、遥感监测、XDS对接等功能, 并充分优化了性能,目前已经在蚂蚁、UC生产环境进行了验证。落地实践案例蚂蚁落地 – 应用接入 ü 适用于蚂蚁当前的服务发现 体系 ü 通过中间件通道对应用推送 MOSN调用地址 ü 通过扩展cluster类型的方式 动态获取配置中心后端 ü MOSN出向路由基于明确的 服务依赖关系生成0 码力 | 29 页 | 7.03 MB | 6 月前3
普通人学AI指南. . . . 13 2.6.4 Llama3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 3 零代码本地部署 AI 后端 13 3.1 大模型 Llama3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 3.1.1 步骤 1:安装 Ollama 工具,旨在提高 AI 应用的可访问性和效 率。 2.6.4 Llama3 描述:Meta 推出的最新开源大型语言模型,具有高级自然语言处理能力,适用 于多种 AI 任务。 3 零代码本地部署 AI 后端 首先介绍一种最精简的本地部署大模型的方法。使用目前最强开源大模型 LlaMA3,2024 年 4 月 19 日,Meta 公司发布,共有 8B,70B 两种参数,分 为基础预训练和指令微调两种模型。 是一个在本地搭建自己本地知识库问答的系统。主要优势: 1. 开箱即用 27 2. 支持 GPT、百度千帆、Lama3,通义千问等几十种大语言模型 3. 操作界面简介,小白也能快速上手 根据教程章节本地部署 AI 后端,安装完 docker 后,执行下面命令获取到 MaxKB 的镜像到本地,如下图 30所示: Figure 29: 执行命令获取到 MaxKB 的镜像到本地 下图是正在安装的过程: Figure0 码力 | 42 页 | 8.39 MB | 8 月前3
廖雪峰JavaScript教程重要了。并且,新兴的Node.js把JavaScript引入到了服务器端,JavaScript已经变成了全能型选 手。 JavaScript一度被认为是一种玩具编程语言,它有很多缺陷,所以不被大多数后端开发人员所重视。 很多人认为,写JavaScript代码很简单,并且JavaScript只是为了在网页上添加一点交互和动画效 果。 但这是完全错误的理解。JavaScript确实很容易上手,但其精髓却不为大多数开发人员所熟知。编写 Chaining 小结 8.5 Chaining - 225 - 本文档使用 书栈(BookStack.CN) 构建 9 Node.js 从本章开始,我们就正式开启JavaScript的后端开发之旅。 Node.js是目前非常火热的技术,但是它的诞生经历却很奇特。 众所周知,在Netscape设计出JavaScript后的短短几个月,JavaScript事实上已经是前端开发的 唯一标准。 和V8引擎的开源Web服务器项目,命名为 Node.js。虽然名字很土,但是,Node第一次把JavaScript带入到后端服务器开发,加上世界上已 经有无数的JavaScript开发人员,所以Node一下子就火了起来。 在Node上运行的JavaScript相比其他后端开发语言有何优势? 最大的优势是借助JavaScript天生的事件驱动机制加V8高性能引擎,使编写高性能Web服务轻而易0 码力 | 264 页 | 2.81 MB | 10 月前3
共 91 条
- 1
- 2
- 3
- 4
- 5
- 6
- 10













