 【PyTorch深度学习-龙龙老师】-测试版2021126 索引与切片 4.7 维度变换 4.8 Broadcasting 4.9 数学运算 4.10 前向传播实战 4.11 参考文献 第 5 章 PyTorch 进阶 5.1 合并与分割 5.2 数据统计 5.3 张量比较 5.4 填充与复制 5.5 数据限幅 5.6 高级操作 5.7 经典数据集加载 5.8 MNIST 测试实战 5.9 在介绍完张量的基本操作后,现在来进一步学习张量的进阶操作,如张量的合并与分 割、范数统计、张量填充、张量限幅等。最后通过 MNIST 数据集的测试实战,来加深读 者对 PyTorch 张量进阶操作的理解。 5.1 合并与分割 5.1.1 合并 合并是指将多个张量在某个维度上合并为一个张量。以某学校班级成绩册数据为例, 设张量?保存了某学校 1~4 号班级的成绩册,每个班级 35 个学生,共 8 门科目成绩,则张 参数对应的插入位置设置如图 5.1 所 示。 [b, c, h, w] 0 1 2 3 4 -5 -4 -3 -2 -1 图 5.1 stack 插入维度位置示意图 通过堆叠方式合并这两个班级成绩册,班级维度插入在 dim=0 位置,代码如下: In [4]: a = torch.randn([35,8]) 预览版202112 5.1 合并与分割 30 码力 | 439 页 | 29.91 MB | 1 年前3 【PyTorch深度学习-龙龙老师】-测试版2021126 索引与切片 4.7 维度变换 4.8 Broadcasting 4.9 数学运算 4.10 前向传播实战 4.11 参考文献 第 5 章 PyTorch 进阶 5.1 合并与分割 5.2 数据统计 5.3 张量比较 5.4 填充与复制 5.5 数据限幅 5.6 高级操作 5.7 经典数据集加载 5.8 MNIST 测试实战 5.9 在介绍完张量的基本操作后,现在来进一步学习张量的进阶操作,如张量的合并与分 割、范数统计、张量填充、张量限幅等。最后通过 MNIST 数据集的测试实战,来加深读 者对 PyTorch 张量进阶操作的理解。 5.1 合并与分割 5.1.1 合并 合并是指将多个张量在某个维度上合并为一个张量。以某学校班级成绩册数据为例, 设张量?保存了某学校 1~4 号班级的成绩册,每个班级 35 个学生,共 8 门科目成绩,则张 参数对应的插入位置设置如图 5.1 所 示。 [b, c, h, w] 0 1 2 3 4 -5 -4 -3 -2 -1 图 5.1 stack 插入维度位置示意图 通过堆叠方式合并这两个班级成绩册,班级维度插入在 dim=0 位置,代码如下: In [4]: a = torch.randn([35,8]) 预览版202112 5.1 合并与分割 30 码力 | 439 页 | 29.91 MB | 1 年前3
 Experiment 1: Linear Regression: , 2 ) − mu( 2 ) ) . / sigma ( 2 ) ; x ( : , 3 ) = ( x ( : , 3 ) − mu( 3 ) ) . / sigma ( 3 ) ; 5.1 Selecting A Learning Rate Using J(θ) Now it’s time to select a learning rate α. The goal of this part0 码力 | 7 页 | 428.11 KB | 1 年前3 Experiment 1: Linear Regression: , 2 ) − mu( 2 ) ) . / sigma ( 2 ) ; x ( : , 3 ) = ( x ( : , 3 ) − mu( 3 ) ) . / sigma ( 3 ) ; 5.1 Selecting A Learning Rate Using J(θ) Now it’s time to select a learning rate α. The goal of this part0 码力 | 7 页 | 428.11 KB | 1 年前3
 经典算法与人工智能在外卖物流调度中的应用订单的最优分配方案 KM算法 (1) 初始化可行标杆 (2) 用匈牙利算法寻找完备匹配 (3) 若未找到完备匹配则修改可行标杆 (4) 重复(2)(3)直到找到相等子图的完备匹配 供需平衡 13 5.1 配送时长预估模型 • 基于现有状况、订单增速、消 化速度、天气、当前手段等多 维特征,使用XGBoost模型回 归预测未来五分钟进单的平均 配送时长 • 分商圈、分时段、多模型的精 细化预估0 码力 | 28 页 | 6.86 MB | 1 年前3 经典算法与人工智能在外卖物流调度中的应用订单的最优分配方案 KM算法 (1) 初始化可行标杆 (2) 用匈牙利算法寻找完备匹配 (3) 若未找到完备匹配则修改可行标杆 (4) 重复(2)(3)直到找到相等子图的完备匹配 供需平衡 13 5.1 配送时长预估模型 • 基于现有状况、订单增速、消 化速度、天气、当前手段等多 维特征,使用XGBoost模型回 归预测未来五分钟进单的平均 配送时长 • 分商圈、分时段、多模型的精 细化预估0 码力 | 28 页 | 6.86 MB | 1 年前3
 Keras: 基于 Python 的深度学习库11 get_layer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 5 关于 Keras 网络层 58 5.1 关于 Keras 层 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 5.2 核心网络层 • index: 整数,层的索引。 返回 一个层实例。 异常 • ValueError: 如果层的名称或索引不正确。 关于 KERAS 网络层 58 5 关于 Keras 网络层 5.1 关于 Keras 层 所有 Keras 层都有很多共同的函数: • layer.get_weights(): 以含有 Numpy 矩阵的列表形式返回层的权重。 • layer.set_weights(weights):0 码力 | 257 页 | 1.19 MB | 1 年前3 Keras: 基于 Python 的深度学习库11 get_layer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 5 关于 Keras 网络层 58 5.1 关于 Keras 层 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 5.2 核心网络层 • index: 整数,层的索引。 返回 一个层实例。 异常 • ValueError: 如果层的名称或索引不正确。 关于 KERAS 网络层 58 5 关于 Keras 网络层 5.1 关于 Keras 层 所有 Keras 层都有很多共同的函数: • layer.get_weights(): 以含有 Numpy 矩阵的列表形式返回层的权重。 • layer.set_weights(weights):0 码力 | 257 页 | 1.19 MB | 1 年前3
 动手学深度学习 v2.0提交Kaggle预测 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188 5 深度学习计算 191 5.1 层和块 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191 读写到磁盘,以及利用GPU实现显著的 加速。这些知识将使读者从深度学习“基础用户”变为“高级用户”。虽然本章不介绍任何新的模型或数据 集,但后面的高级模型章节在很大程度上依赖于本章的知识。 5.1 层和块 之前首次介绍神经网络时,我们关注的是具有单一输出的线性模型。在这里,整个模型只有一个输出。注意, 单个神经网络(1)接受一些输入;(2)生成相应的标量输出;(3)具有一组相关 参数(parameters),更新 forward(self, X): # 注意,这里我们使用ReLU的函数版本,其在nn.functional模块中定义。 return self.out(F.relu(self.hidden(X))) 5.1. 层和块 193 我们首先看一下前向传播函数,它以X作为输入,计算带有激活函数的隐藏表示,并输出其未规范化的输出 值。在这个MLP实现中,两个层都是实例变量。要了解这为什么是合理的,可以想象实例化两个多层感知机0 码力 | 797 页 | 29.45 MB | 1 年前3 动手学深度学习 v2.0提交Kaggle预测 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188 5 深度学习计算 191 5.1 层和块 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191 读写到磁盘,以及利用GPU实现显著的 加速。这些知识将使读者从深度学习“基础用户”变为“高级用户”。虽然本章不介绍任何新的模型或数据 集,但后面的高级模型章节在很大程度上依赖于本章的知识。 5.1 层和块 之前首次介绍神经网络时,我们关注的是具有单一输出的线性模型。在这里,整个模型只有一个输出。注意, 单个神经网络(1)接受一些输入;(2)生成相应的标量输出;(3)具有一组相关 参数(parameters),更新 forward(self, X): # 注意,这里我们使用ReLU的函数版本,其在nn.functional模块中定义。 return self.out(F.relu(self.hidden(X))) 5.1. 层和块 193 我们首先看一下前向传播函数,它以X作为输入,计算带有激活函数的隐藏表示,并输出其未规范化的输出 值。在这个MLP实现中,两个层都是实例变量。要了解这为什么是合理的,可以想象实例化两个多层感知机0 码力 | 797 页 | 29.45 MB | 1 年前3
 PyTorch Release Notes11.2.1 ‣ NVIDIA cuDNN 8.0.4 ‣ NVIDIA NCCL 2.8.2 (optimized for NVLink ™ ) ‣ APEX ‣ MLNX_OFED 5.1 ‣ OpenMPI 4.0.5 ‣ TensorBoard 1.15.0+nv20.11 ‣ Nsight Compute 2020.2.0.18 ‣ Nsight Systems 20200 码力 | 365 页 | 2.94 MB | 1 年前3 PyTorch Release Notes11.2.1 ‣ NVIDIA cuDNN 8.0.4 ‣ NVIDIA NCCL 2.8.2 (optimized for NVLink ™ ) ‣ APEX ‣ MLNX_OFED 5.1 ‣ OpenMPI 4.0.5 ‣ TensorBoard 1.15.0+nv20.11 ‣ Nsight Compute 2020.2.0.18 ‣ Nsight Systems 20200 码力 | 365 页 | 2.94 MB | 1 年前3
共 6 条
- 1













