 机器学习课程-温州大学-08机器学习-集成学习7.5 8.5 9.5 m(s) 15.72 12.07 8.36 5.78 3.91 1.93 8.01 11.73 15.74 x y 1 5.56 2 5.7 3 5.91 4 6.4 5 6.8 6 7.05 7 8.9 8 8.7 9 9 10 9.05 GBDT算法 22 ? = 6.5,?1 = 1,2 … 6 , ?2 = 7,8, … , 10 , ?2 ? =  ?=1 10 (?? − ?2(??))2 = 0.79 x y y-f(x) 1 5.56 -0.68 2 5.7 -0.54 3 5.91 -0.33 4 6.4 0.16 5 6.8 0.56 6 7.05 0.81 7 8.9 -0.01 8 8.7 -0.21 9 9 0.09 10 9.05 0.14 GBDT算法 23 ?3 ? =0 码力 | 50 页 | 2.03 MB | 1 年前3 机器学习课程-温州大学-08机器学习-集成学习7.5 8.5 9.5 m(s) 15.72 12.07 8.36 5.78 3.91 1.93 8.01 11.73 15.74 x y 1 5.56 2 5.7 3 5.91 4 6.4 5 6.8 6 7.05 7 8.9 8 8.7 9 9 10 9.05 GBDT算法 22 ? = 6.5,?1 = 1,2 … 6 , ?2 = 7,8, … , 10 , ?2 ? =  ?=1 10 (?? − ?2(??))2 = 0.79 x y y-f(x) 1 5.56 -0.68 2 5.7 -0.54 3 5.91 -0.33 4 6.4 0.16 5 6.8 0.56 6 7.05 0.81 7 8.9 -0.01 8 8.7 -0.21 9 9 0.09 10 9.05 0.14 GBDT算法 23 ?3 ? =0 码力 | 50 页 | 2.03 MB | 1 年前3
 【PyTorch深度学习-龙龙老师】-测试版2021126 高级操作 5.7 经典数据集加载 5.8 MNIST 测试实战 5.9 参考文献 第 6 章 神经网络 6.1 感知机 6.2 全连接层 6.3 神经网络 6.4 激活函数 6.5 输出层设计 6.6 误差计算 6.7 神经网络类型 6.8 油耗预测实战 6.9 参考文献 第 7 章 反向传播算法 7.1 导数与梯度 7 大差别。它在感知机的基础上,将不连续的阶跃激活函数换成了其它平滑连续可导的激活 函数,并通过堆叠多个网络层来增强网络的表达能力。 本节我们通过替换感知机的激活函数,同时并行堆叠多个神经元来实现多输入、多输 出的网络层结构。如图 6.4 所示,并行堆叠了 2 个神经元,即 2 个替换了激活函数的感知 机,构成 3 输入节点、2 个输出节点的网络层。其中第一个输出节点的输出为: ?1 = ?(?11 ∙ ?1 + ?21 ∙ ?2 矩阵叫做全连接层的权值矩阵,?向量叫做全连接层的偏置向量。 ?1 ?2 ? ? ? ?11 ?21 ? 1 ?12 ?22 ? 2 ?1 ?2 ?1 ?2 图 6.4 全连接层 预览版202112 第 6 章 神经网络 4 6.2.1 张量方式实现 在 PyTorch 中,要实现全连接层,只需要定义好权值张量?和偏置张量?,并利用0 码力 | 439 页 | 29.91 MB | 1 年前3 【PyTorch深度学习-龙龙老师】-测试版2021126 高级操作 5.7 经典数据集加载 5.8 MNIST 测试实战 5.9 参考文献 第 6 章 神经网络 6.1 感知机 6.2 全连接层 6.3 神经网络 6.4 激活函数 6.5 输出层设计 6.6 误差计算 6.7 神经网络类型 6.8 油耗预测实战 6.9 参考文献 第 7 章 反向传播算法 7.1 导数与梯度 7 大差别。它在感知机的基础上,将不连续的阶跃激活函数换成了其它平滑连续可导的激活 函数,并通过堆叠多个网络层来增强网络的表达能力。 本节我们通过替换感知机的激活函数,同时并行堆叠多个神经元来实现多输入、多输 出的网络层结构。如图 6.4 所示,并行堆叠了 2 个神经元,即 2 个替换了激活函数的感知 机,构成 3 输入节点、2 个输出节点的网络层。其中第一个输出节点的输出为: ?1 = ?(?11 ∙ ?1 + ?21 ∙ ?2 矩阵叫做全连接层的权值矩阵,?向量叫做全连接层的偏置向量。 ?1 ?2 ? ? ? ?11 ?21 ? 1 ?12 ?22 ? 2 ?1 ?2 ?1 ?2 图 6.4 全连接层 预览版202112 第 6 章 神经网络 4 6.2.1 张量方式实现 在 PyTorch 中,要实现全连接层,只需要定义好权值张量?和偏置张量?,并利用0 码力 | 439 页 | 29.91 MB | 1 年前3
 Lecture Notes on Gaussian Discriminant Analysis, Naivecalculated by θ[t+1] = arg max θ � i � z(i)∈Ω Q[t] i (z(i)) log p(x(i), z(i); θ) Q[t] i (z(i)) 6.4 Applying EM Algorithm to Gaussian Discriminant Analysis Again, assume {x(i)}i∈[m] is the set of training0 码力 | 19 页 | 238.80 KB | 1 年前3 Lecture Notes on Gaussian Discriminant Analysis, Naivecalculated by θ[t+1] = arg max θ � i � z(i)∈Ω Q[t] i (z(i)) log p(x(i), z(i); θ) Q[t] i (z(i)) 6.4 Applying EM Algorithm to Gaussian Discriminant Analysis Again, assume {x(i)}i∈[m] is the set of training0 码力 | 19 页 | 238.80 KB | 1 年前3
 动手学深度学习 v2.03.2 步幅 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230 6.4 多输入多输出通道 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232 6.4.1 对于音频信号,步幅2说明什么? 4. 步幅大于1的计算优势是什么? Discussions84 84 https://discuss.d2l.ai/t/1851 6.3. 填充和步幅 231 6.4 多输入多输出通道 虽然我们在 6.1.4节中描述了构成每个图像的多个通道和多层卷积层。例如彩色图像具有标准的RGB通道来 代表红、绿和蓝。但是到目前为止,我们仅展示了单个输入和单个输出通道的简化例子。这使得我们可以将 接起来,构造了一个具有3个输出通道的卷积核。 K = torch.stack((K, K + 1, K + 2), 0) K.shape torch.Size([3, 2, 2, 2]) 6.4. 多输入多输出通道 233 下面,我们对输入张量X与卷积核张量K执行互相关运算。现在的输出包含3个通道,第一个通道的结果与先前 输入张量X和多输入单输出通道的结果一致。 corr2d_multi_in_out(X0 码力 | 797 页 | 29.45 MB | 1 年前3 动手学深度学习 v2.03.2 步幅 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230 6.4 多输入多输出通道 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232 6.4.1 对于音频信号,步幅2说明什么? 4. 步幅大于1的计算优势是什么? Discussions84 84 https://discuss.d2l.ai/t/1851 6.3. 填充和步幅 231 6.4 多输入多输出通道 虽然我们在 6.1.4节中描述了构成每个图像的多个通道和多层卷积层。例如彩色图像具有标准的RGB通道来 代表红、绿和蓝。但是到目前为止,我们仅展示了单个输入和单个输出通道的简化例子。这使得我们可以将 接起来,构造了一个具有3个输出通道的卷积核。 K = torch.stack((K, K + 1, K + 2), 0) K.shape torch.Size([3, 2, 2, 2]) 6.4. 多输入多输出通道 233 下面,我们对输入张量X与卷积核张量K执行互相关运算。现在的输出包含3个通道,第一个通道的结果与先前 输入张量X和多输入单输出通道的结果一致。 corr2d_multi_in_out(X0 码力 | 797 页 | 29.45 MB | 1 年前3
共 4 条
- 1













