Keras: 基于 Python 的深度学习库中,你可以指定自定义的损失函数,通过调用 self.add_loss(loss_tensor) (就像你在 自定义层中一样)。 在子类模型中,模型的拓扑结构是由 Python 代码定义的(而不是网络层的静态图)。这意 味着该模型的拓扑结构不能被检查或序列化。因此,以下方法和属性不适用于子类模型: 模型 41 • model.inputs 和 model.outputs。 • model.to_yaml() __call__(以及 RNN.call)的 constants 关键字参数将「外部」常量传 递给单元。这要求 cell.call 方法接受相同的关键字参数 constants。这些常数可用于调节附 加静态输入(不随时间变化)上的单元转换,也可用于注意力机制。 例子 # 首先,让我们定义一个 RNN 单元,作为网络层子类。 class MinimalRNNCell(keras.layers.Layer): ACTIVATIONS 144 10.2.3 selu selu(x) 可伸缩的指数线性单元 (Klambauer et al., 2017)。 Arguments • x: 一个用来用于计算激活函数的张量或变量。 Returns 与 x 具有相同类型及形状的张量。 Note • 与”lecun_normal” 初始化方法一起使用。 • 与 dropout 的变种”AlphaDropout” 一起使用。0 码力 | 257 页 | 1.19 MB | 1 年前3
【PyTorch深度学习-龙龙老师】-测试版2021125.2 静态图和动态图 虽然深度学习框架数量众多,但是大体上可以分为两类:基于静态图的和基于动态图 的。基于静态图的代表性框架是 TensorFlow 1,特点是建立计算图过程和实际计算过程是 分开的;PyTorch 是基于动态图的流行框架,特点是计算图的建图过程和计算过程是同时 进行的。 下面以简单的2.0 + 4.0的加法运算为例,介绍静态图和动态图的主要区别。首先介绍 静态图,以 TensorFlow 15 程,也称为动态图模式。PyTorch 是采用动态图模式的深度学习框架,开发效率高,调试 方便,所见即所得。一般认为,动态图模式开发效率高,但是运行效率可能不如静态图模 式,更适合算法设计和开发;静态图模式运行效率高,更适合算法部署。然而并不全是如 此,在很多任务上,PyTorch 的速度都优于 TensorFlow,而且 PyTorch 在工业部署上也有成 熟的 ONNX 生态,丝毫不逊色于 rch 还会自动 构建计算图,通过 PyTorch 提供的自动求导的功能,不需要手动推导,就可计算输出对网 络参数的偏导数。考虑如下函数的表达式: = ?? + ?? + ? 输出 对于变量?的导数关系为: d d? = 2?? + ? 考虑在(?, ?, ?, ?) = (1,2,3,4)处的导数,代入上式可得 d? d? = 2 ∙ 1 ∙ 4 + 2 = 10。因此通过手0 码力 | 439 页 | 29.91 MB | 1 年前3
PyTorch OpenVINO 开发实战系列教程第一篇不是内部 或外部命令,也不是可运行的程序”则说明第二步中没有勾选 上“add Python3.6 to PATH”,此时请手动把 python.exe 所 在路径添加到 Windows 系统的环境变量中去之后再次执行 即可。 4. 安装好 Python 语言包支持之后,只要运行下面的命令行即 可完成 Pytorch 框架的安装,GPU 支持版本的命令行如下(需 要 GPU 显卡支持): 深度学习是基于计算图完成模型构建,实现数据在各个计算图 节点之间流动,最终输出,因此计算图又被称为数据流图。 根据构建计算图的方式不同还可以分为静态图与动态图, Pytorch 默认是基于动态图的方式构建计算图,动态图采用类 似 python 语法,可以随时运行,灵活修改调整;而静态图则 是效率优先,但是在图构建完成之前无法直接运行。可以看出 动态图更加趋向于开发者平时接触的面向对象的编程方式,也 更容 运行结果: tensor([[1., 1., 1., 1.], [1., 1., 1., 1.]]) 上面都是创建常量数组的方式。在实际的开发中,经常需要随 机初始化一些张量变量,创建张量并随机初始化的方式主要通 过 torch.rand 函数实现。用该函数创建张量的代码演示如下: v1 = torch.rand((2, 3)) print("v1 = ", v1)0 码力 | 13 页 | 5.99 MB | 1 年前3
机器学习课程-温州大学-10机器学习-聚类簇的质心移动到这个新位置。对所有其他簇重 复相同的步骤。 迭代更新 20 2.K-means聚类 K-means算法流程 优化 上述两个步骤是迭代进行的,直到质心停止移动,即它们不再改变自己的位置,并且成为静态的。一 旦这样做,k-均值算法被称为收敛。 设训练集为:{?(1), ?(2), ?(3), … , ?(?)},簇划分? = {?1, ?2, ⋯ , ??},用?1, ?2, . . . , K-means聚类 K-means的缺点 • 需要预先指定簇的数量; • 如果有两个高度重叠的数据,那么它就 不能被区分,也不能判断有两个簇; • 欧几里德距离可以不平等的权重因素, 限制了能处理的数据变量的类型; • 有时随机选择质心并不能带来理想的结 果; • 无法处理异常值和噪声数据; • 不适用于非线性数据集; • 对特征尺度敏感; • 如果遇到非常大的数据集,那么 计算机可能会崩溃。0 码力 | 48 页 | 2.59 MB | 1 年前3
机器学习课程-温州大学-02深度学习-神经网络的编程基础?? ?? = 1 20 3.静态图与动态图 •动态图:运算与搭建同时进行 •静态图:先搭建图,后运算 根据计算图搭建方式,可将计算图分为动态图和静态图 PyTorch 是支持动态图的,可以在进行运算的同时进行 TensorFlow 是支持静态图的,需要在计算之前,先进行搭 建( TensorFlow 2.X引入了动态图 ) 21 4.静态图与动态图 TensorFlow:先搭建所有的计 TensorFlow:先搭建所有的计 算图之后,再把数据输入进去 PyTorch:动态图的搭建是根据 每一步的计算搭建的 创建图 运行每次迭代 每次迭代中创建图 22 4.静态图与动态图 23 4.向量化 02 梯度下降 01 二分类与逻辑回归 03 计算图 04 向量化 24 4.向量化 非向量化版本的for循环花费了大约718 毫秒,向量化版本花费了大约33毫秒。0 码力 | 27 页 | 1.54 MB | 1 年前3
机器学习课程-温州大学-02-数学基础回顾-2.CS229-Prob2. 随机变量 2.1 累积分布函数 2.2 概率质量函数 2.3 概率密度函数 2.4 期望 2.5 方差 2.6 一些常见的随机变量 3. 两个随机变量 3.1 联合分布和边缘分布 3.2 联合概率和边缘概率质量函数 3.3 联合概率和边缘概率密度函数 3.4 条件概率分布 3.5 贝叶斯定理 3.6 独立性 3.7 期望和协方差 4. 多个随机变量 4.1 基本性质 的概率没有任何影响。 2. 随机变量 考虑一个实验,我们翻转10枚硬币,我们想知道正面硬币的数量。这里,样本空间 的元素是长度为10 的序列。例如,我们可能有 , , , , , , , , , 。然而,在实践中,我 们通常不关心获得任何特定正反序列的概率。相反,我们通常关心结果的实值函数,比如我们10次投掷 中出现的正面数,或者最长的背面长度。在某些技术条件下,这些函数被称为随机变量。 更正式地说,随机变量 更正式地说,随机变量 是一个的 函数。通常,我们将使用大写字母 或更简单的 (其中 隐含对随机结果 的依赖)来表示随机变量。我们将使用小写字母 来表示随机变量的值。 举例: 在我们上面的实验中,假设 是在投掷序列 中出现的正面的数量。假设投掷的硬币只有10枚,那 么 只能取有限数量的值,因此它被称为离散随机变量。这里,与随机变量 相关联的集合取某个 特定值 的概率为: 图1:一个累计分布函数(CDF)0 码力 | 12 页 | 1.17 MB | 1 年前3
机器学习课程-温州大学-概率论回顾目录 01 随机事件和概率 02 随机变量及其概率分布 03 多维随机变量及其分布 05 数理统计的基本概念 04 随机变量的数字特征 3 1.随机事件和概率 01 随机事件和概率 02 随机变量及其概率分布 03 多维随机变量及其分布 05 数理统计的基本概念 04 随机变量的数字特征 4 1.事件的关系与运算 (1) 或0)的事件与任何事件相互独立. 1.随机事件和概率 14 2.随机变量及其概率分布 01 随机事件和概率 02 随机变量及其概率分布 03 多维随机变量及其分布 05 数理统计的基本概念 04 随机变量的数字特征 15 1.随机变量及概率分布 取值带有随机性的变量,严格地说是定义在样本空间上,取值于实数的函数称为随机 变量,概率分布通常指分布函数或分布律 2.分布函数的概念与性质 (3)右连续?(? + 0) = ?(?) (4)?(−∞) = 0, ?(+∞) = 1 2.随机变量及其概率分布 16 3.离散型随机变量的概率分布 ?(? = ??) = ??, ? = 1,2, ⋯ , ?, ⋯ ?? ≥ 0, σ?=1 ∞ ?? = 1 4.连续型随机变量的概率密度 概率密度?(?);非负可积,且:(1)?(?) ≥ 0, (2)−∞ +∞ ?(?)?0 码力 | 45 页 | 862.61 KB | 1 年前3
动手学深度学习 v2.05.1 一个简单的例子 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 2.5.2 非标量变量的反向传播 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 2.5.3 分离计算 . . . . . . 基本概率论 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 2.6.2 处理多个随机变量 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 2.6.3 期望和方差 . . . . . P(·):概率分布 • z ∼ P: 随机变量z具有概率分布P • P(X | Y ):X | Y 的条件概率 • p(x): 概率密度函数 • Ex[f(x)]: 函数f对x的数学期望 • X ⊥ Y : 随机变量X和Y 是独立的 • X ⊥ Y | Z: 随机变量X和Y 在给定随机变量Z的条件下是独立的 • Var(X): 随机变量X的方差 • σX: 随机变量X的标准差 • Cov(X,0 码力 | 797 页 | 29.45 MB | 1 年前3
房源质量打分中深度学习应用及算法优化-周玉驰v1.0 - 初版模型系统概览 • 房源特征 静态特征 时序特征 • 特征处理 特征提取 特征组合 离散化 • 模型预测 XGBoost • 分数映射 房源质量分数 M 2019 KE.COM ALL COPYRIGHTS RESERVED 17 房源特征 6大方向设计了90维特征 静态特征:69维 时序特征:21维 一套房源能否成交同很多因素相关 COPYRIGHTS RESERVED 46 总结&思考 AI选房解决的是房地产领域的TopN排序问题 AI选房采用了DNN + RNN的混合网络结构 - DNN,静态数据;RNN,时序数据 - DNN+RNN的混合模型,提供了静态数据+时序数据的解决方案 模型输出值并不能直接适用于业务,需要做一些转换 - 为了便于经纪人理解和指导经纪人, 采用分数映射和雷达图两种方式 2019 KE0 码力 | 48 页 | 3.75 MB | 1 年前3
机器学习课程-温州大学-02-数学基础回顾-0.机器学习的数学基础整理(国内教材)有相同的特征值 5) |?| = |?|,从而?, ?同时可逆或者不可逆 6) 秩(?) =秩(?), |?? − ?| = |?? − ?|,?, ?不一定相似 二次型 1.?个变量??, ??, ⋯ , ??的二次齐次函数 机器学习的数学基础 17 ?(?1, ?2, ⋯ , ??) = ∑ ∑ ??????? ? ?=1 ? ?=1 ,其中??? = ⋯ , ??)也相互 独立,其中?(⬝),?(⬝)分别表示对相应事件做任意事件运算后所得的事件,另外,概率为 1 (或 0)的事件与任何事件相互独立. 随机变量及其概率分布 1.随机变量及概率分布 取值带有随机性的变量,严格地说是定义在样本空间上,取值于实数的函数称为随机变 量,概率分布通常指分布函数或分布律 2.分布函数的概念与性质 定义: ?(?) = ?(? ≤ (3)右连续?(? + 0) = ?(?) (4)?(−∞) = 0, ?(+∞) = 1 3.离散型随机变量的概率分布 ?(? = ??) = ??, ? = 1,2, ⋯ , ?, ⋯ ?? ≥ 0, ∑ ?? ∞ ?=1 = 1 4.连续型随机变量的概率密度 概率密度?(?);非负可积,且:(1)?(?) ≥ 0, (2)∫ ?(?)?? = 1 +∞ −∞0 码力 | 31 页 | 1.18 MB | 1 年前3
共 31 条
- 1
- 2
- 3
- 4













