机器学习课程-温州大学-08机器学习-集成学习3.5 4.5 5.5 6.5 7.5 8.5 9.5 m(s) 15.72 12.07 8.36 5.78 3.91 1.93 8.01 11.73 15.74 x y 1 5.56 2 5.7 3 5.91 4 6.4 5 6.8 6 7.05 7 8.9 8 8.7 9 9 10 9.05 GBDT算法 22 ? = 6.5,?1 = 1,2 … 6 , ?2 = = x<3.5 -0.52 0.22 ? ?, ?2 ? = ?=1 10 (?? − ?2(??))2 = 0.79 x y y-f(x) 1 5.56 -0.68 2 5.7 -0.54 3 5.91 -0.33 4 6.4 0.16 5 6.8 0.56 6 7.05 0.81 7 8.9 -0.01 8 8.7 -0.21 9 9 0.09 10 90 码力 | 50 页 | 2.03 MB | 1 年前3
机器学习课程-温州大学-11深度学习-序列模型第一句话的概率是: ?(The apple and pair salad) = 3.2 × 10−13, 而第二句话的概率是: ? The apple and pear salad = 5.7 × 10−10, 15 03 长短期记忆(LSTM) 04 双向循环神经网络 3.长短期记忆(LSTM) 01 序列模型概述 02 循环神经网络(RNN)0 码力 | 29 页 | 1.68 MB | 1 年前3
【PyTorch深度学习-龙龙老师】-测试版20211211 参考文献 第 5 章 PyTorch 进阶 5.1 合并与分割 5.2 数据统计 5.3 张量比较 5.4 填充与复制 5.5 数据限幅 5.6 高级操作 5.7 经典数据集加载 5.8 MNIST 测试实战 5.9 参考文献 第 6 章 神经网络 6.1 感知机 6.2 全连接层 6.3 神经网络 6.4 激活函数 6 肯定的,meshgrid 函数即可实现。 图 5.5 Sinc 函数 通过在 x 轴上进行采样 100 个数据点,y 轴上采样 100 个数据点,然后利用 预览版202112 5.7 经典数据集加载 27 torch.meshgrid(x, y)即可返回这 10000 个数据点的张量数据,保存在 shape 为[100,100,2]的 张量中。为了方便计算,torch 坐标轴 # 根据网格点绘制 sinc 函数 3D 曲面 ax.contour3D(x.numpy(), y.numpy(), z.numpy(), 50) plt.show() 5.7 经典数据集加载 到这里为止,已经学习完张量的常用操作方法,已具备实现大部分深度网络的技术储 备。最后我们将以一个完整的张量方式实现的分类网络模型实战收尾本章。在进入实战之 前,先来正式介绍对于常用的经典数据集,如何利用0 码力 | 439 页 | 29.91 MB | 1 年前3
Keras: 基于 Python 的深度学习库. 100 5.6.11 CuDNNLSTM [source] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 5.7 嵌入层 Embedding . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 5.7.1 Embedding • stateful: 布尔值 (默认 False)。如果为 True,则批次中索引 i 处的每个样品的最后状态将用 作下一批次中索引 i 样品的初始状态。 关于 KERAS 网络层 103 5.7 嵌入层 Embedding 5.7.1 Embedding [source] keras.layers.Embedding(input_dim, output_dim, embeddings_0 码力 | 257 页 | 1.19 MB | 1 年前3
共 4 条
- 1













