基于Apache APISIX 与RocketMQ 构建云原生一体化架构业务场景复杂、集成要求尽可能简单 • 运维及流量调拨要求高 极简架构 高性能 金融级高可靠 打造业务消息领域首选 零依赖 可扩展 低延迟 高吞吐 强同步刷盘 ACK 机制 普通消息 顺序消息 延迟消息 事务消息 重试消息 死信消息 设计思想: 1.消息不丢、高可靠是架构的基础 2.时延优先,兼顾吞吐 3.收敛业务共性问题,提供丰富的业务消息类型 4.注重可运维性、弹性扩缩、流量调拨能力建设 RocketMQ 任务计算过程中,会将同一个业务类型的数据发到同一个队列 • Binlog 等数据同步过程中,需要保证严格顺序 RAFT 存储支持:自动主从切换,强一致性保证 逻辑队列:秒级无损弹性扩缩,无数据复制,流量精准调度 消息与流融合索引支持 核心问题 • 消息体小且存储结构面向单 条消息,导致提升吞吐困难 • 在进行状态存储时,无 KV 语义支撑 挑战 • Commitlog 格式存储,0 码力 | 22 页 | 2.26 MB | 1 年前3
消息中间件RocketMQ原理解析 - 斩秋1. 获取 ProcessQueue 判读是否 drop 的, drop 为 true 返回 2. 给 ProcessQueue 设置拉消息时间戳 3. 流量控制,正在消费队列中消息(未被消费的)超过阀值,稍后在执行拉消息 4. 流量控制,正在消费队列中消息的跨度超过阀值(默认 2000),稍后在消费 5. 根据 topic 获取订阅关系 6. 构建拉消息回调对象 PullBack, 从0 码力 | 57 页 | 2.39 MB | 1 年前3
万亿级数据洪峰下的消息引擎Apache RocketMQ订阅消息峰值:数千万条/秒 堆积消息峰值:千亿条 消息中间件核心链路 1.4万亿 万亿洪峰下有哪些问题 机器假死 IO Util,Load飙高 磁盘响应慢 消息大量堆积 网卡故障,甚至流量跑满 磁盘损坏 零点之战:发布消息SLA要求100% 慢请求开始大量增加 分布式系统雪崩 容量不足,单机热点 问题的本质: 可用性无限接近100% 可靠性无限接近100% 可用性 >0 码力 | 35 页 | 993.29 KB | 1 年前3
万亿级数据洪峰下的消息引擎 Apache RocketMQ订阅消息峰值:数千万条/秒 堆积消息峰值:千亿条 消息中间件核心链路 1.4万亿 万亿洪峰下有哪些问题 机器假死 IO Util,Load飙高 磁盘响应慢 消息大量堆积 网卡故障,甚至流量跑满 磁盘损坏 零点之战:发布消息SLA要求100% 慢请求开始大量增加 分布式系统雪崩 容量不足,单机热点 问题的本质: 可用性无限接近100% 可靠性无限接近100% 可用性 >0 码力 | 35 页 | 5.82 MB | 1 年前3
Apache RocketMQ on Amazon Web ServicesSwitchyOmega 插件并选择刚刚创建的 RocketMQ profile,如下图 Page 16 of 18 8. 完成了上面这步之后,浏览器就会将所有的流量通过本地的 40011 端⼝ proxy 到 Bastion Host 机器。 9. 在浏览器中输⼊部署好的任何一个 Nameserver 的私有 ip 地址加上 8080 端⼝ (http://100 码力 | 18 页 | 1.55 MB | 1 年前3
快速部署高可用的Apache RocketMQ 集群 - Amazon S3SwitchyOmega 插件并选择刚刚创建的 RocketMQ profile,如下图 Page 19 of 21 8. 完成了上面这步之后,浏览器就会将所有的流量通过本地的 40011 端口 proxy 到 Bastion Host 机器。 9. 在浏览器中输入部署好的任何一个 Nameserver 的私有 ip 地址加上 8080 端 口(http://100 码力 | 21 页 | 2.57 MB | 1 年前3
Apache RocketMQ 从入门到实战通过追踪源码来寻求答案,如果大家想急于答案,可以跳过问题分析,直接查看本文末尾的 问题解答部分。 通过本文的阅读,您将获得如下信息: 1. RocketMQ 消费 TPS 的收集与计算逻辑。 2. RocketMQ 监控指标的设计思路。 3. RocketMQ 主从同步,消费者从主服务器拉取还是从从服务器拉取的判断逻辑。 本文来自『中间件兴趣圈』公众号,仅作技术交流,未授权任何商业行为。 51 > 1.5 踩坑记:rocketmq-console 消费 TPS 统计实现原理 消费 TPS 计算逻辑 首先我们还是从 tpsGroupGetNums 方法入手,探究一下 tps 的获取逻辑,然后再 探究数据的采集原理(这也是 rocketmq 监控相关)。 BrokerStatsManager#tpsGroupGetNums public double tpsGroupGetNums(final String group, final String merGroup,即消息主 题@消费组名。 要读懂 代码@2 的代码,先来看一下 rocketmq 监控指标的存储数据结构,如下图 所示: 正如上图所示:RocketMQ 使用 HashMap来存储监 控收集的数据,其中 Key 为监控指标的类型,例如 topic 发送消息数量、topic 发送消息 大小、消费组获取消息个数等信息,每一项使用 0 码力 | 165 页 | 12.53 MB | 1 年前3
RocketMQ v3.2.4 开发指南过滤程序做过滤,过滤完成后迒回给 Consumer。 总结: 项目开源主页:https://github.com/alibaba/RocketMQ 29 1. 使用 CPU 资源来换叏网卡流量资源 2. FilterServer 不 Broker 部署在同一台机器,数据通过本地回环通信,丌走网卡 3. 一台 Broker 部署多个 FilterServer,充分利用 CPU 资源,因为单个0 码力 | 52 页 | 1.61 MB | 1 年前3
王强-Apache RocketMQ事务消息互操作性,易易部署,可监控管理理 消息系统挑战 • 传统设计和实现⽅方⾯面 • 组件的微服务化,例例如存储和计算分离 • 开源软件的冲击,云服务选型⾯面临挑战 • 缺少稳定的多语⾔言类库 • Cloud AI Ops⽅方⾯面 • 容器器化部署,K8S编排 • 诸如IoT/IIoT新场景下的规模化部署能⼒力力不不⾜足 • HTTP/RESTful/JSON 灵活调⽤用,监控及运维能⼒力力不不⾜足0 码力 | 34 页 | 6.17 MB | 1 年前3
rocketmq 服务部署0.00(0,0 s) 0.00(0,0ms) 0 453367.41 -1.0000 单机部署 部署rocketmq-console可视化监控 1、git clone git@github.com:apache/rocketmq-externals.git 2、cd rocketmq-externals 3、git checkout0 码力 | 11 页 | 284.35 KB | 1 年前3
共 10 条
- 1













