使用 Docker 建立 MySQL 集群/*如果已经开启了同步,停止同步*/ stop slave; /*设定主数据库*/ change master to master_host='master_db', master_user='sync', master_password='sync', master_port=3306, master_log_file='<主数据库查询得到的 File 值>', master_log_pos=<主数据库查询得到的 Positions Positions 值>; 下面是我的脚本例子: change master to master_host='master_db', master_user='sync', master_password='sync', master_port=3306, master_log_file='mariadb-bin.000004', master_log_pos=789; /*开启从数据库复制*/ start slave;0 码力 | 3 页 | 103.32 KB | 1 年前3
RocketMQ v3.2.4 开发指南F%97%EF%BC %88jbd2%EF%BC%89bug/ 6.3 数据存储结构 Producer Consumer topic、queueId、message Commit Log 消费队列服务 (存储消息在CommitLog中的Offset 信息) Offset、Size、TagsCode 消息索引服务 (存储消息Key与消息在CommitLog 中的Offset对应关系) topic、queueId、message Commit Log Consume Queue存储消息在Commit Log中的位置信息 CommitLog Offset Size 8 Byte 4 Byte Message Tag Hashcode 8 Byte 图表 7-1RocketMQ 队列 (1). 所有数据单独存储到一个 Commit Log,完全顺序写,随机读。 (2). 对最终用户展现的队列实际只存储消息在 对最终用户展现的队列实际只存储消息在 Commit Log 的位置信息,幵丏串行方式刷盘。 项目开源主页:https://github.com/alibaba/RocketMQ 17 返样做的好处如下: (1). 队列轻量化,单个队列数据量非常少。 (2). 对磁盘的访问串行化,避免磁盘竟争,丌会因为队列增加导致 IOWAIT 增高。 每个方案都有缺点,它的缺点如下:0 码力 | 52 页 | 1.61 MB | 1 年前3
消息中间件RocketMQ原理解析 - 斩秋broker3_queue0, 2) Producer 如何实现轮询队列: Producer 从 namesrv 获取的到 Topic_A 路由信息 TopicPublishInfo --ListmessageQueueList //Topic_A 的所有的队列 --AtomicInteger sendWhichQueue //自增整型 tranStateTable 的文件中;如果是 commitType 和 rollbackType 消息, 修改事物状态表格 tranStateTable 中的消息状态。 记 录 Transaction Redo Log 日 志 : 记 录 了 commitLogOffset, msgSize, preapredTransactionOffset, storeTimestamp。 2.2.3 事物状态表 先按照正常流程恢复 Tran Redo Log commitLog 异常恢复,commitLog 根据 checkpoint 时间点重新生成 redolog, 重新分发 消息 DispatchRequest, 分发消息到位置信息到 ConsumeQueue 更新 Transaction State Table 记录 Transaction Redo Log 删除事物状态表 0 码力 | 57 页 | 2.39 MB | 1 年前3
强大的音视频处理工具: FFmpeg-sources device list sources of the input device -sources device list sources of the input device -sinks device list sinks of the output device -sinks device list sinks of the output the number of bits per raw the number of bits per raw -vol volume change audio volume -vol volume change audio volume ((256 256==normal normal)) Per-file main options: Per-file audio codec (('copy' 'copy' to copy strea to copy strea -vol volume change audio volume -vol volume change audio volume ((256 256==normal normal)) -af filter_graph -af filter_graph0 码力 | 73 页 | 11.57 MB | 1 年前3
Kubernetes Operator 实践 - MySQL容器化API Server Reflector DeltaFIFO Local Storage Callbacks OnAdd OnUpdate OnDelete WorkQueue List/Watch - CRD - Pod Write Informer Worker ReadOnly • Informer:监听事件并触发回调函数的二级缓存工具包 • WorkQueue:事件合并、过滤、延时、限速 Host Path Volumes • 优点:读写延迟低 • 缺点:单点数据,容器漂移时 数据丢失 踩到的坑 • 现象:执行 docker 命令时,docker daemon 无响应,/var/log/messages 大量报错 libceph: osdxx 10.0.0.0:6812 socket closed (con state OPEN) 原因:libceph 触发了 linux 内核 的一个0 码力 | 42 页 | 4.77 MB | 1 年前3
JavaScript 正则表达式迷你书 老姚 - v1.11.1. 两种模糊匹配 如果正则只有精确匹配是没多大意义的,比如 /hello/,也只能匹配字符串中的 "hello" 这个子串。 var regex = /hello/; console.log( regex.test("hello") ); // => true 正则表达式之所以强大,是因为其能实现模糊匹配。 而模糊匹配,有两个方向上的“模糊”:横向模糊和纵向模糊。 1.1.1. 横向模糊匹配 页 测试如下: var regex = /ab{2,5}c/g; var string = "abc abbc abbbc abbbbc abbbbbc abbbbbbc"; console.log( string.match(regex) ); // => ["abbc", "abbbc", "abbbbc", "abbbbbc"] NOTE 案例中用的正则是 /ab{2,5}c/g,其中 "a1b"、"a2b"、"a3b"。 其可视化形式如下: 测试如下: var regex = /a[123]b/g; var string = "a0b a1b a2b a3b a4b"; console.log( string.match(regex) ); // => ["a1b", "a2b", "a3b"] 以上就是本章讲的主体内容,只要掌握横向和纵向模糊匹配,就能解决很大部分正则匹配问题。 接下来,我们将具体展开来说。0 码力 | 89 页 | 3.42 MB | 11 月前3
JavaScript 正则表达式迷你书 老姚 - v1.01.1. 两种模糊匹配 如果正则只有精确匹配是没多大意义的,比如 /hello/,也只能匹配字符串中的 "hello" 这个子串。 var regex = /hello/; console.log( regex.test("hello") ); // => true 正则表达式之所以强大,是因为其能实现模糊匹配。 而模糊匹配,有两个方向上的“模糊”:横向模糊和纵向模糊。 1.1.1. 横向模糊匹配 页 测试如下: var regex = /ab{2,5}c/g; var string = "abc abbc abbbc abbbbc abbbbbc abbbbbbc"; console.log( string.match(regex) ); // => ["abbc", "abbbc", "abbbbc", "abbbbbc"] NOTE 案例中用的正则是 /ab{2,5}c/g,其中 "a1b"、"a2b"、"a3b"。 其可视化形式如下: 测试如下: var regex = /a[123]b/g; var string = "a0b a1b a2b a3b a4b"; console.log( string.match(regex) ); // => ["a1b", "a2b", "a3b"] 以上就是本章讲的主体内容,只要掌握横向和纵向模糊匹配,就能解决很大部分正则匹配问题。 接下来,我们将具体展开来说。0 码力 | 89 页 | 3.42 MB | 11 月前3
谈谈MYSQL那点事1024M innodb_flush_log_at_trx _commit 1 0 0 代表日志只大约每秒写入日志文件并且日志文件 刷新到磁盘 ; 1 为执行完没执行一条 SQL 马上 commit; 2 代表日志写入日志文件在每次提交 后 , 但是日志文件只有大约每秒才会刷新到磁盘上 . 对速度影响比较大,同时也关系数据完整性 innodb_log_file_size 8M 512M innodb_buffer_pool_size 的 25% ,官方推荐是 innodb_buffer_pool_size 的 40-50%, 设置大 一点来避免在日志文件覆写上不必要的缓冲池刷新 行为 innodb_log_buffer_size 128K 64M 用来缓冲日志数据的缓冲区的大小 . 推荐是 8M , 官方推荐该值小于 16M ,最好是 1M-8M 之间 设计合理的数据表结构:适当的数据冗余 设计合理的数据表结构:适当的数据冗余 执行情况,是否锁表,查看相应的 SQL SQL 语句 语句 设置 设置 my.cnf my.cnf 中的 中的 long-query-time long-query-time 和 和 log-slow-queries log-slow-queries 能 能 够 够 记录服务器那些 记录服务器那些 SQL SQL 执行速度比较慢 执行速度比较慢 另外有用的几个查询: 另外有用的几个查询:0 码力 | 38 页 | 2.04 MB | 1 年前3
MySQL高可用 - 多种方案d/authkeys auth 1 1 crc ha.cf 的配置 master 的 ha.cf 的配置 vim /etc/ha.d/ha.cf logfile /var/log/ha-log logfacility local0 keepalive 2 deadtime 30 warntime 10 initdead 60 udpport 694 ucast hacluster /usr/lib64/heartbeat/ipfail backup 的 ha.cf 的配置 vim /etc/ha.d/ha.cf logfile /var/log/ha-log logfacility local0 keepalive 2 deadtime 30 warntime 10 initdead 60 udpport 694 ucast auth 1 1 crc ha.cf 的配置 master(dbserver1)的 ha.cf 的配置 vim /etc/ha.d/ha.cf logfile /var/log/ha-log logfacility local0 keepalive 2 deadtime 30 warntime 10 initdead 60 udpport 694 ucast0 码力 | 31 页 | 874.28 KB | 1 年前3
Manage Edge Nodes with KubeEdge and Case StudyStatus Configuration (Pod Spec) • Goal • Offline autonomous – network connectivity • Only sync change data – network performance • Lightweight Kubelet – resource constrain edge node • Components •0 码力 | 11 页 | 1.42 MB | 1 年前3
共 13 条
- 1
- 2













