 消息中间件RocketMQ原理解析 - 斩秋......................................................................... 50 3. invokeOnewayImpl 单向请求 ................................................................................... 51 4 scanResponseTable 接收 server 端响应,根据 opaque 从缓存获取 responseFuture,调用回调方法即接 口 InvokeCallback 实现 3. invokeOnewayImpl 单向请求 标记 onewayRpc 用信号量控制并发的数 //这是我对在这里用新号量控制的理解 4 scanResponseTable 由定时任务启动,0 码力 | 57 页 | 2.39 MB | 1 年前3 消息中间件RocketMQ原理解析 - 斩秋......................................................................... 50 3. invokeOnewayImpl 单向请求 ................................................................................... 51 4 scanResponseTable 接收 server 端响应,根据 opaque 从缓存获取 responseFuture,调用回调方法即接 口 InvokeCallback 实现 3. invokeOnewayImpl 单向请求 标记 onewayRpc 用信号量控制并发的数 //这是我对在这里用新号量控制的理解 4 scanResponseTable 由定时任务启动,0 码力 | 57 页 | 2.39 MB | 1 年前3
 机器学习课程-温州大学-12机器学习-关联规则{I2,I3:4}, {I1:I3:3}, {I2,I1,I3:3} I1 {I2:4} {I2:4} {I2,I1:4} 下面给出的图描绘了与条件节点l3相关联的条件FP树。 项目 支持度 链表 l2 4 l1 3 Null l1:3 l2:3,1 根据条件FP树,我们可以进 行全排列组合,得到挖掘出 来的频繁模式(这里要将商 品本身,如I4也算进去,每 个商品挖掘出来的频繁模式0 码力 | 49 页 | 1.41 MB | 1 年前3 机器学习课程-温州大学-12机器学习-关联规则{I2,I3:4}, {I1:I3:3}, {I2,I1,I3:3} I1 {I2:4} {I2:4} {I2,I1:4} 下面给出的图描绘了与条件节点l3相关联的条件FP树。 项目 支持度 链表 l2 4 l1 3 Null l1:3 l2:3,1 根据条件FP树,我们可以进 行全排列组合,得到挖掘出 来的频繁模式(这里要将商 品本身,如I4也算进去,每 个商品挖掘出来的频繁模式0 码力 | 49 页 | 1.41 MB | 1 年前3
 机器学习课程-温州大学-13深度学习-TransformerTransformer的训练 02 Transformer的工作流程 04 BERT 4 1.Transformer介绍 为什么需要用transformer 其实在之前我们使用的是RNN(或者是其的单向或者双向变种LSTM/GRU等) 来 作为编解码器。RNN模块每次只能够吃进一个输入token和前一次的隐藏状态,然 后得到输出。它的时序结构使得这个模型能够得到长距离的依赖关系,但是这也 使得它不能够并行计算,模型效率十分低。0 码力 | 60 页 | 3.51 MB | 1 年前3 机器学习课程-温州大学-13深度学习-TransformerTransformer的训练 02 Transformer的工作流程 04 BERT 4 1.Transformer介绍 为什么需要用transformer 其实在之前我们使用的是RNN(或者是其的单向或者双向变种LSTM/GRU等) 来 作为编解码器。RNN模块每次只能够吃进一个输入token和前一次的隐藏状态,然 后得到输出。它的时序结构使得这个模型能够得到长距离的依赖关系,但是这也 使得它不能够并行计算,模型效率十分低。0 码力 | 60 页 | 3.51 MB | 1 年前3
 机器学习课程-温州大学-12深度学习-自然语言处理和词嵌入Transformer架构可分为自回归系列(例如GPT-3,偏好生成性任务)、双向Transformer+Mask的自编码系列(例如BERT, 偏好自然语言理解)、Encoder-decoder架构(例如T5,使用双向/单向attention,偏好条件文本生成) 图:Transformer典型技术场景下的原理介绍如下所述 Transformer 34 GPT-1:借助预训练,进行无监督训练和有监督微调 ◼ G0 码力 | 44 页 | 2.36 MB | 1 年前3 机器学习课程-温州大学-12深度学习-自然语言处理和词嵌入Transformer架构可分为自回归系列(例如GPT-3,偏好生成性任务)、双向Transformer+Mask的自编码系列(例如BERT, 偏好自然语言理解)、Encoder-decoder架构(例如T5,使用双向/单向attention,偏好条件文本生成) 图:Transformer典型技术场景下的原理介绍如下所述 Transformer 34 GPT-1:借助预训练,进行无监督训练和有监督微调 ◼ G0 码力 | 44 页 | 2.36 MB | 1 年前3
 OpenShift Container Platform 4.14 存储AWS 帐户 A 中的对等连接。 c. 修改 AWS 帐户 B 中每个子网的路由表 (EFS-volume 使用的子网): i. 在左侧窗格中,在 Virtual private cloud 下,单向下箭头以展开可用选项。 ii. 在 Virtual private cloud 下,点 Route tables"。 。 iii. 点 Routes 选项卡。 iv. 在 Destination AWS 帐户 A 中每个子网的路由表 (OpenShift Container Platform 集群节点使用的子 网): i. 在左侧窗格中,在 Virtual private cloud 下,单向下箭头以展开可用选项。 ii. 在 Virtual private cloud 下,点 Route tables"。 。 iii. 点 Routes 选项卡。 iv. 在 Destination0 码力 | 215 页 | 2.56 MB | 1 年前3 OpenShift Container Platform 4.14 存储AWS 帐户 A 中的对等连接。 c. 修改 AWS 帐户 B 中每个子网的路由表 (EFS-volume 使用的子网): i. 在左侧窗格中,在 Virtual private cloud 下,单向下箭头以展开可用选项。 ii. 在 Virtual private cloud 下,点 Route tables"。 。 iii. 点 Routes 选项卡。 iv. 在 Destination AWS 帐户 A 中每个子网的路由表 (OpenShift Container Platform 集群节点使用的子 网): i. 在左侧窗格中,在 Virtual private cloud 下,单向下箭头以展开可用选项。 ii. 在 Virtual private cloud 下,点 Route tables"。 。 iii. 点 Routes 选项卡。 iv. 在 Destination0 码力 | 215 页 | 2.56 MB | 1 年前3
 Apache RocketMQ 从入门到实战为订阅组的 whichBrokerWhenConsumeSlowly 指定的 Broker 服 务器,该值默认为 1,代表从服务器。 问:主从服务消息消费进是如何同步的? 答:消息消费进度的同步时单向的,从服务器开启一个定时任务,定时从主服务器同步 消息消费进度;无论消息消费者是从主服务器拉的消息还是从从服务器拉取的消息,在向 Broker 反馈消息消费进度时,优先向主服务器汇报;消息消费者向主服务器拉取消息时,0 码力 | 165 页 | 12.53 MB | 1 年前3 Apache RocketMQ 从入门到实战为订阅组的 whichBrokerWhenConsumeSlowly 指定的 Broker 服 务器,该值默认为 1,代表从服务器。 问:主从服务消息消费进是如何同步的? 答:消息消费进度的同步时单向的,从服务器开启一个定时任务,定时从主服务器同步 消息消费进度;无论消息消费者是从主服务器拉的消息还是从从服务器拉取的消息,在向 Broker 反馈消息消费进度时,优先向主服务器汇报;消息消费者向主服务器拉取消息时,0 码力 | 165 页 | 12.53 MB | 1 年前3
 Kubernetes开源书 -  周立在ansible-client机器上配置免密登录 ⽣成ssh公钥和私钥 在ansible-cilent机器上执⾏: ~]# ssh-keygen 然后三次回⻋,⽣成ssh公钥和私钥。 建⽴ssh单向通道 在ansible-cilent机器上执⾏: ~]# ssh-copy-id root@172.20.0.88 #将公钥分发给88机器 ~]# ssh-copy-id root@1720 码力 | 135 页 | 21.02 MB | 1 年前3 Kubernetes开源书 -  周立在ansible-client机器上配置免密登录 ⽣成ssh公钥和私钥 在ansible-cilent机器上执⾏: ~]# ssh-keygen 然后三次回⻋,⽣成ssh公钥和私钥。 建⽴ssh单向通道 在ansible-cilent机器上执⾏: ~]# ssh-copy-id root@172.20.0.88 #将公钥分发给88机器 ~]# ssh-copy-id root@1720 码力 | 135 页 | 21.02 MB | 1 年前3
 OpenShift Container Platform 4.14 Operatorpackage manifest 是 Catalog Registry 中的一个条目,用于将软件包标识与 CSV 集相关联。在软件包 中,频道指向特定 CSV。因为 CSV 明确引用了所替换的 CSV,软件包清单向 Catalog Operator 提供了 将 CSV 更新至频道中最新版本所需的信息,逐步安装和替换每个中间版本。 2.4.3. Operator Lifecycle Manager 工作流 本指南概述了 package manifest 是 Catalog Registry 中的一个条目,用于将软件包标识与 CSV 集相关联。在软件包 中,频道指向特定 CSV。因为 CSV 明确引用了所替换的 CSV,软件包清单向 Catalog Operator 提供了 将 CSV 更新至频道中最新版本所需的信息,逐步安装和替换每个中间版本。 其他 其他资源 源 如需更多信息,请参阅了解 Operator Lifecycle0 码力 | 423 页 | 4.26 MB | 1 年前3 OpenShift Container Platform 4.14 Operatorpackage manifest 是 Catalog Registry 中的一个条目,用于将软件包标识与 CSV 集相关联。在软件包 中,频道指向特定 CSV。因为 CSV 明确引用了所替换的 CSV,软件包清单向 Catalog Operator 提供了 将 CSV 更新至频道中最新版本所需的信息,逐步安装和替换每个中间版本。 2.4.3. Operator Lifecycle Manager 工作流 本指南概述了 package manifest 是 Catalog Registry 中的一个条目,用于将软件包标识与 CSV 集相关联。在软件包 中,频道指向特定 CSV。因为 CSV 明确引用了所替换的 CSV,软件包清单向 Catalog Operator 提供了 将 CSV 更新至频道中最新版本所需的信息,逐步安装和替换每个中间版本。 其他 其他资源 源 如需更多信息,请参阅了解 Operator Lifecycle0 码力 | 423 页 | 4.26 MB | 1 年前3
 动手学深度学习 v2.0引入两个广泛使用的网 络,即门控循环单元(gated recurrent units,GRU)和 长短期记忆网络(long short‐term memory,LSTM)。 然后,我们将基于一个单向隐藏层来扩展循环神经网络架构。我们将描述具有多个隐藏层的深层架构,并讨 论基于前向和后向循环计算的双向设计。现代循环网络经常采用这种扩展。在解释这些循环神经网络的变体 时,我们将继续考虑 8节中的语言建模问题。 1)之间呢? 5. 实现一个能够基于时间序列进行预测而不是基于字符序列进行预测的长短期记忆网络模型。 Discussions110 9.3 深度循环神经网络 到目前为止,我们只讨论了具有一个单向隐藏层的循环神经网络。其中,隐变量和观测值与具体的函数形式 的交互方式是相当随意的。只要交互类型建模具有足够的灵活性,这就不是一个大问题。然而,对一个单层 来说,这可能具有相当的挑战性。之前在线 (9.7.2) 比如,当选择q(h1, . . . , hT ) = hT 时(就像 图9.7.1中一样),上下文变量仅仅是输入序列在最后时间步的隐状 态hT 。 到目前为止,我们使用的是一个单向循环神经网络来设计编码器,其中隐状态只依赖于输入子序列,这个子 序列是由输入序列的开始位置到隐状态所在的时间步的位置(包括隐状态所在的时间步)组成。我们也可以 使用双向循环神经网络构造编码器,其0 码力 | 797 页 | 29.45 MB | 1 年前3 动手学深度学习 v2.0引入两个广泛使用的网 络,即门控循环单元(gated recurrent units,GRU)和 长短期记忆网络(long short‐term memory,LSTM)。 然后,我们将基于一个单向隐藏层来扩展循环神经网络架构。我们将描述具有多个隐藏层的深层架构,并讨 论基于前向和后向循环计算的双向设计。现代循环网络经常采用这种扩展。在解释这些循环神经网络的变体 时,我们将继续考虑 8节中的语言建模问题。 1)之间呢? 5. 实现一个能够基于时间序列进行预测而不是基于字符序列进行预测的长短期记忆网络模型。 Discussions110 9.3 深度循环神经网络 到目前为止,我们只讨论了具有一个单向隐藏层的循环神经网络。其中,隐变量和观测值与具体的函数形式 的交互方式是相当随意的。只要交互类型建模具有足够的灵活性,这就不是一个大问题。然而,对一个单层 来说,这可能具有相当的挑战性。之前在线 (9.7.2) 比如,当选择q(h1, . . . , hT ) = hT 时(就像 图9.7.1中一样),上下文变量仅仅是输入序列在最后时间步的隐状 态hT 。 到目前为止,我们使用的是一个单向循环神经网络来设计编码器,其中隐状态只依赖于输入子序列,这个子 序列是由输入序列的开始位置到隐状态所在的时间步的位置(包括隐状态所在的时间步)组成。我们也可以 使用双向循环神经网络构造编码器,其0 码力 | 797 页 | 29.45 MB | 1 年前3
 OpenShift Container Platform 4.6 网络OVN-Kubernetes Container Network Interface(CNI)默认网络供应商是一个手动过程,其中会 包括一些停机时间使集群无法访问。虽然提供了一个回滚过程,但迁移通常被认为是一个单向过程。 注意 注意 迁移至 OVN-Kubernetes 网络供应商仅在裸机硬件的安装程序置备的集群中支持。 不支持在裸机硬件的用户置备的集群上执行迁移。 14.2.1.1. 迁移到 迁移到0 码力 | 256 页 | 2.78 MB | 1 年前3 OpenShift Container Platform 4.6 网络OVN-Kubernetes Container Network Interface(CNI)默认网络供应商是一个手动过程,其中会 包括一些停机时间使集群无法访问。虽然提供了一个回滚过程,但迁移通常被认为是一个单向过程。 注意 注意 迁移至 OVN-Kubernetes 网络供应商仅在裸机硬件的安装程序置备的集群中支持。 不支持在裸机硬件的用户置备的集群上执行迁移。 14.2.1.1. 迁移到 迁移到0 码力 | 256 页 | 2.78 MB | 1 年前3
共 13 条
- 1
- 2













