动手学深度学习 v2.0。假设我们读取了一个 批量的样本X,其中特征维度(输入数量)为d,批量大小为n。此外,假设我们在输出中有q个类别。那么小 批量样本的特征为X ∈ Rn×d,权重为W ∈ Rd×q,偏置为b ∈ R1×q。softmax回归的矢量计算表达式为: O = XW + b, ˆY = softmax(O). (3.4.5) 相对于一次处理一个样本,小批量样本的矢量化加快了X�W的矩阵‐向量乘法。由于X中的每一行代表一个数 variable)或隐藏变量(hidden variable)。因为隐藏层和输出层都是全连接的,所以我们有隐藏层权重W(1) ∈ Rd×h 和隐藏层偏置b(1) ∈ R1×h 以及输出层权重W(2) ∈ Rh×q 和输出层偏置b(2) ∈ R1×q。形式上,我们按如下方式计算单隐藏层多层感知机 的输出 O ∈ Rn×q: H = XW(1) + b(1), O = HW(2) + b(2). (4 3)中,我们拥有的隐藏层权重参数为Wxh ∈ Rd×h,偏置参数为bh ∈ R1×h,以及隐藏单元的数目为h。 因此求和时可以应用广播机制(见 2.1.3节)。接下来,将隐藏变量H用作输出层的输入。输出层由下式给出: O = HWhq + bq, (8.4.4) 其中,O ∈ Rn×q是输出变量,Whq ∈ Rh×q是权重参数,bq ∈ R1×q是输出层的偏置参数。如果是分类问题, 我们可以用softmax(O)0 码力 | 797 页 | 29.45 MB | 1 年前3
机器学习课程-温州大学-08深度学习-深度卷积神经网络Stacked layers Previous input x F(x) y=F(x)+x x identity + 15 2.深度残差网络 ResNets使用了许多same卷积 R1 R2 R3 16 01 经典网络 3.其它现代网络 02 深度残差网络 03 其它现代网络 04 卷积神经网络使用技巧 17 3.谷歌Inception网络0 码力 | 32 页 | 2.42 MB | 1 年前3
机器学习课程-温州大学-numpy使用总结om里面,其中有 大量的分布。 > from numpy import random as nr > np.set_printoptions(precision=2) #显示小数点后两位数 > r1 = nr.rand(4, 3) [[ 0.87, 0.42, 0.34], [ 0.25, 0.87, 0.42], [ 0.49, 0.18, 0.44], [ 0.53, 00 码力 | 49 页 | 1.52 MB | 1 年前3
共 3 条
- 1













