 深度学习与PyTorch入门实战 - 18.1 激活函数梯度激活函数及其梯度 主讲人:龙良曲 Activation Functions Derivative Sigmoid / Logistic Derivative torch.sigmoid Tanh = 2??????? 2? − 1 Derivative torch.tanh Rectified Linear Unit Derivative F.relu 下一课时 Loss及其梯度0 码力 | 14 页 | 724.00 KB | 1 年前3 深度学习与PyTorch入门实战 - 18.1 激活函数梯度激活函数及其梯度 主讲人:龙良曲 Activation Functions Derivative Sigmoid / Logistic Derivative torch.sigmoid Tanh = 2??????? 2? − 1 Derivative torch.tanh Rectified Linear Unit Derivative F.relu 下一课时 Loss及其梯度0 码力 | 14 页 | 724.00 KB | 1 年前3
 常见函数梯度常见函数梯度 主讲人:龙良曲 Common Functions ?? + ? ??? + ?? ??? + ?? [? − (?? + ?)]? ?log(?? + ?) 下一课时 什么是激活函数 Thank You.0 码力 | 9 页 | 282.15 KB | 1 年前3 常见函数梯度常见函数梯度 主讲人:龙良曲 Common Functions ?? + ? ??? + ?? ??? + ?? [? − (?? + ?)]? ?log(?? + ?) 下一课时 什么是激活函数 Thank You.0 码力 | 9 页 | 282.15 KB | 1 年前3
 激活函数与GPU加速激活函数与GPU加速 主讲人:龙良曲 Leaky ReLU simply SELU softplus GPU accelerated 下一课时 测试 Thank You.0 码力 | 11 页 | 452.22 KB | 1 年前3 激活函数与GPU加速激活函数与GPU加速 主讲人:龙良曲 Leaky ReLU simply SELU softplus GPU accelerated 下一课时 测试 Thank You.0 码力 | 11 页 | 452.22 KB | 1 年前3
 机器学习课程-温州大学-12深度学习-自然语言处理和词嵌入Context矩 阵(即使两个矩阵都在我们的词汇表中嵌入了每个单词)。 23 3.Word2Vec 训练流程 现在我们需要一种方法将这些分数转化为看起来像概率的东西 : 使用sigmoid函数把概率转换为0和1。 然后,我们计算输入嵌入与每个上下文嵌入的点积。在每种情况 下,会产生一个数字,该数字表示输入和上下文嵌入的相似性。 24 3.Word2Vec 训练流程 现在我们可以将 2017 ◼ Transformer摆脱了人工标注数据集的缺陷,模型在质量上更优、 更易于并行化,所需训练时间明显更少 ◼ Transformer通过成功地将其应用于具有大量和有限训练数据的分 析,可以很好地推广到其他任务 ✓ 2017年,在Ashish Vaswani et.al 的论文《Attention Is All You Need》 中,考虑到主导序列转导模型基于编码器-解码器配置中的复杂递归或卷积 始GPT是基于上文的预测,这更贴近人类的话语模式,因为人类言语无法基于将来的话来做分析。 图:GPT-1模型相比于Transformer模型有了显著简化 Transformer架构 GPT-1架构 GPT用于对不同任务进行微调的输入转换的示意图 GPT的发展 36 GPT-2的核心抓 手—采用多任务 模型(Multi- task) GPT-2要 实现的目 标 • GPT-20 码力 | 44 页 | 2.36 MB | 1 年前3 机器学习课程-温州大学-12深度学习-自然语言处理和词嵌入Context矩 阵(即使两个矩阵都在我们的词汇表中嵌入了每个单词)。 23 3.Word2Vec 训练流程 现在我们需要一种方法将这些分数转化为看起来像概率的东西 : 使用sigmoid函数把概率转换为0和1。 然后,我们计算输入嵌入与每个上下文嵌入的点积。在每种情况 下,会产生一个数字,该数字表示输入和上下文嵌入的相似性。 24 3.Word2Vec 训练流程 现在我们可以将 2017 ◼ Transformer摆脱了人工标注数据集的缺陷,模型在质量上更优、 更易于并行化,所需训练时间明显更少 ◼ Transformer通过成功地将其应用于具有大量和有限训练数据的分 析,可以很好地推广到其他任务 ✓ 2017年,在Ashish Vaswani et.al 的论文《Attention Is All You Need》 中,考虑到主导序列转导模型基于编码器-解码器配置中的复杂递归或卷积 始GPT是基于上文的预测,这更贴近人类的话语模式,因为人类言语无法基于将来的话来做分析。 图:GPT-1模型相比于Transformer模型有了显著简化 Transformer架构 GPT-1架构 GPT用于对不同任务进行微调的输入转换的示意图 GPT的发展 36 GPT-2的核心抓 手—采用多任务 模型(Multi- task) GPT-2要 实现的目 标 • GPT-20 码力 | 44 页 | 2.36 MB | 1 年前3
 【PyTorch深度学习-龙龙老师】-测试版2021121 感知机 6.2 全连接层 6.3 神经网络 6.4 激活函数 6.5 输出层设计 6.6 误差计算 6.7 神经网络类型 6.8 油耗预测实战 6.9 参考文献 第 7 章 反向传播算法 7.1 导数与梯度 7.2 导数常见性质 7.3 激活函数导数 7.4 损失函数梯度 7.5 全连接层梯度 预览版202112 7 7.6 链式法则 7.7 反向传播算法 7.8 Himmelblau 函数优化实战 7.9 反向传播算法实战 7.10 参考文献 第 8 章 PyTorch 高级用法 8.1 常见功能模块 8.2 模型装配、训练与测试 8.3 模型保存与加载 8.4 自定义类 8.5 模型乐园 8.6 测量工具 8.7 可视化 8.8 参考文献 第 WGAN 原理 13.8 WGAN-GP 实战 13.9 参考文献 第 14 章 强化学习 14.1 先睹为快 14.2 强化学习问题 14.3 策略梯度方法 14.4 值函数方法 14.5 Actor-Critic 方法 14.6 小结 14.7 参考文献 第 15 章 自定义数据集 15.1 精灵宝可梦数据集 15.2 自定义数据集加载流程0 码力 | 439 页 | 29.91 MB | 1 年前3 【PyTorch深度学习-龙龙老师】-测试版2021121 感知机 6.2 全连接层 6.3 神经网络 6.4 激活函数 6.5 输出层设计 6.6 误差计算 6.7 神经网络类型 6.8 油耗预测实战 6.9 参考文献 第 7 章 反向传播算法 7.1 导数与梯度 7.2 导数常见性质 7.3 激活函数导数 7.4 损失函数梯度 7.5 全连接层梯度 预览版202112 7 7.6 链式法则 7.7 反向传播算法 7.8 Himmelblau 函数优化实战 7.9 反向传播算法实战 7.10 参考文献 第 8 章 PyTorch 高级用法 8.1 常见功能模块 8.2 模型装配、训练与测试 8.3 模型保存与加载 8.4 自定义类 8.5 模型乐园 8.6 测量工具 8.7 可视化 8.8 参考文献 第 WGAN 原理 13.8 WGAN-GP 实战 13.9 参考文献 第 14 章 强化学习 14.1 先睹为快 14.2 强化学习问题 14.3 策略梯度方法 14.4 值函数方法 14.5 Actor-Critic 方法 14.6 小结 14.7 参考文献 第 15 章 自定义数据集 15.1 精灵宝可梦数据集 15.2 自定义数据集加载流程0 码力 | 439 页 | 29.91 MB | 1 年前3
 动手学深度学习 v2.0. . . . . . . . . . . . . . . . . . . . 81 2.7.1 查找模块中的所有函数和类 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 2.7.2 查找特定函数和类的用法 . . . . . . . . . . . . . . . . . . . . . . . . . . . 定义模型 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 3.2.5 定义损失函数 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 3.2.6 定义优化算法 . . . 4 初始化模型参数 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 3.3.5 定义损失函数 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 ii 3.3.6 定义优化算法0 码力 | 797 页 | 29.45 MB | 1 年前3 动手学深度学习 v2.0. . . . . . . . . . . . . . . . . . . . 81 2.7.1 查找模块中的所有函数和类 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 2.7.2 查找特定函数和类的用法 . . . . . . . . . . . . . . . . . . . . . . . . . . . 定义模型 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 3.2.5 定义损失函数 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 3.2.6 定义优化算法 . . . 4 初始化模型参数 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 3.3.5 定义损失函数 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 ii 3.3.6 定义优化算法0 码力 | 797 页 | 29.45 MB | 1 年前3
 机器学习课程-温州大学-01深度学习-引言传统翻译采用人工查词的方式,不但耗时长 ,而且错误率高。图像识别技术(OCR)的出 现大大提升了翻译的效率和准确度,用户通 过简单的拍照、截图或划线就能得到准确的 翻译结果。 体育赛事 计算机视觉还有助于比赛和策略分 析、球员表现和评级,以及跟踪体育 节目中品牌赞助的可见性。 农业 半自动联合收割机可以利用人工智能 和计算机视觉来分析粮食品质,并找 出农业机械穿过作物的最佳路径。另 外也可用来识别杂草和作物,有效减 导数(Derivative),也叫导函数值。又名微商, 是微积分中的重要基础概念。当函数? = ?(?) 的自变量?在一点?0上产生一个增量??时,函 数输出值的增量??与自变量增量??的比值在 ??趋于0时的极限?如果存在,?即为在?0处的 导数,记作?′(?0)。 32 高等数学-函数的连续性 设函数 y = ? ? 在点?0的某邻域内有定义,如果当自变量的改变量??趋近 于零时,相应函数的改变量Δ?也趋近于零,则称 lim Δ?→0 ? ?0 + Δ? − ? ?0 = 0 33 函数?(?) 在点 处连续,需要满足的条件: 存在 1. 函数在该点处有定义 2. 函数在该点处极限 3. 极限值等于函数值 高等数学-函数的连续性 ?0 ?(?0) lim ?→?0? ? 34 , 如果平均变化率的极限存在 则称此极限为函数 ? = ?(?) 在点 处的导数, 高等数学-导数 limΔ0 码力 | 80 页 | 5.38 MB | 1 年前3 机器学习课程-温州大学-01深度学习-引言传统翻译采用人工查词的方式,不但耗时长 ,而且错误率高。图像识别技术(OCR)的出 现大大提升了翻译的效率和准确度,用户通 过简单的拍照、截图或划线就能得到准确的 翻译结果。 体育赛事 计算机视觉还有助于比赛和策略分 析、球员表现和评级,以及跟踪体育 节目中品牌赞助的可见性。 农业 半自动联合收割机可以利用人工智能 和计算机视觉来分析粮食品质,并找 出农业机械穿过作物的最佳路径。另 外也可用来识别杂草和作物,有效减 导数(Derivative),也叫导函数值。又名微商, 是微积分中的重要基础概念。当函数? = ?(?) 的自变量?在一点?0上产生一个增量??时,函 数输出值的增量??与自变量增量??的比值在 ??趋于0时的极限?如果存在,?即为在?0处的 导数,记作?′(?0)。 32 高等数学-函数的连续性 设函数 y = ? ? 在点?0的某邻域内有定义,如果当自变量的改变量??趋近 于零时,相应函数的改变量Δ?也趋近于零,则称 lim Δ?→0 ? ?0 + Δ? − ? ?0 = 0 33 函数?(?) 在点 处连续,需要满足的条件: 存在 1. 函数在该点处有定义 2. 函数在该点处极限 3. 极限值等于函数值 高等数学-函数的连续性 ?0 ?(?0) lim ?→?0? ? 34 , 如果平均变化率的极限存在 则称此极限为函数 ? = ?(?) 在点 处的导数, 高等数学-导数 limΔ0 码力 | 80 页 | 5.38 MB | 1 年前3
 机器学习课程-温州大学-01机器学习-引言用于描述和解决智能体(agent)在与环境的交 互过程中通过学习策略以达成回报最大化或实现 特定目标的问题 。 2. 机器学习的类型-强化学习 19 ✓ 机器学习方法 ✓ 模型 ✓ 损失函数 ✓ 优化算法 ✓ 模型评估指标 机器学习的概念 20 机器学习的概念-模型 机器学习首先要考虑使用什么样的模型。 模型的类别,大致有两种:一是概率模型(Probabilistic Model)和非概率模型 对于非概率模型而言,可按照判别函数线性与否分成线性模型与非线性模型。 感知机、线性支持向量机、KNN、K-means是线性模型。 核支持向量机、AdaBoost、神经网络属于非线性模型。 机器学习的概念-模型 22 1. 0-1损失函数(0-1 Loss Function) L ?, ? ? = ቊ1, ? ≠ ? ? 0, ? = ? ? 2. 平方损失函数(Quadratic Loss ? ? = ? − ? ? 2 3. 绝对损失函数(Absolute Loss Function) L ?, ? ? = ? − ? ? 4. 对数损失函数(Logarithmic Loss Function) L ?, ? ? ? = −log? ? ? 机器学习的概念-损失函数 23 根据上述损失函数模型,我们可知,损失函数值越小,模型性能越好。给定一个数据集,我们将 训练0 码力 | 78 页 | 3.69 MB | 1 年前3 机器学习课程-温州大学-01机器学习-引言用于描述和解决智能体(agent)在与环境的交 互过程中通过学习策略以达成回报最大化或实现 特定目标的问题 。 2. 机器学习的类型-强化学习 19 ✓ 机器学习方法 ✓ 模型 ✓ 损失函数 ✓ 优化算法 ✓ 模型评估指标 机器学习的概念 20 机器学习的概念-模型 机器学习首先要考虑使用什么样的模型。 模型的类别,大致有两种:一是概率模型(Probabilistic Model)和非概率模型 对于非概率模型而言,可按照判别函数线性与否分成线性模型与非线性模型。 感知机、线性支持向量机、KNN、K-means是线性模型。 核支持向量机、AdaBoost、神经网络属于非线性模型。 机器学习的概念-模型 22 1. 0-1损失函数(0-1 Loss Function) L ?, ? ? = ቊ1, ? ≠ ? ? 0, ? = ? ? 2. 平方损失函数(Quadratic Loss ? ? = ? − ? ? 2 3. 绝对损失函数(Absolute Loss Function) L ?, ? ? = ? − ? ? 4. 对数损失函数(Logarithmic Loss Function) L ?, ? ? ? = −log? ? ? 机器学习的概念-损失函数 23 根据上述损失函数模型,我们可知,损失函数值越小,模型性能越好。给定一个数据集,我们将 训练0 码力 | 78 页 | 3.69 MB | 1 年前3
 机器学习课程-温州大学-03深度学习-PyTorch入门cpu_tensor.numpy()  注意:  GPU tensor不能直接转为numpy数组,必须先转到CPU tensor。  如果tensor是标量的话,可以直接使用 item() 函数(只能是标量)将值取出来:loss_output.item() 1.Tensors张量的概念 8  Tensor与NumPy的异同 对比项 NumPy Tensor 相同点 可以定义多维数组,进行切片、改变维度、 tensor 含 义 device ( 是 否 使 用 GPU ) , requires_grad(是否需要求导)等设置参数。 1.Tensors张量的概念 9  Tensor与NumPy的函数对比 . 操作类别 Numpy PyTorch 数据类型 np.ndarray torch.Tensor np.float32 torch.float32; torch.float np.float64 Tensor张量乘法 1. 二维矩阵乘法 torch.mm() torch.mm(mat1, mat2, out=None) 其中???1 ∈ ℝ?×?,???2 ∈ ℝ?×?, 输出的??? ∈ ℝ?×? 该函数一般只用来计算两个二维矩阵的矩阵乘法,并且不支持 broadcast操作。 12 1.Tensor张量乘法 2. 三维带batch的矩阵乘法 torch.bmm() 由于神经网络训练一般采用mini-batch,经常输入的时0 码力 | 40 页 | 1.64 MB | 1 年前3 机器学习课程-温州大学-03深度学习-PyTorch入门cpu_tensor.numpy()  注意:  GPU tensor不能直接转为numpy数组,必须先转到CPU tensor。  如果tensor是标量的话,可以直接使用 item() 函数(只能是标量)将值取出来:loss_output.item() 1.Tensors张量的概念 8  Tensor与NumPy的异同 对比项 NumPy Tensor 相同点 可以定义多维数组,进行切片、改变维度、 tensor 含 义 device ( 是 否 使 用 GPU ) , requires_grad(是否需要求导)等设置参数。 1.Tensors张量的概念 9  Tensor与NumPy的函数对比 . 操作类别 Numpy PyTorch 数据类型 np.ndarray torch.Tensor np.float32 torch.float32; torch.float np.float64 Tensor张量乘法 1. 二维矩阵乘法 torch.mm() torch.mm(mat1, mat2, out=None) 其中???1 ∈ ℝ?×?,???2 ∈ ℝ?×?, 输出的??? ∈ ℝ?×? 该函数一般只用来计算两个二维矩阵的矩阵乘法,并且不支持 broadcast操作。 12 1.Tensor张量乘法 2. 三维带batch的矩阵乘法 torch.bmm() 由于神经网络训练一般采用mini-batch,经常输入的时0 码力 | 40 页 | 1.64 MB | 1 年前3
 PyTorch OpenVINO 开发实战系列教程第一篇本书内容以 Python 完成全部代码构建与程序演示。本章的主要目标是帮助初 次接触 Python 与 Pytorch 的读者搭建好开发环境,认识与理解 Pytorch 框架 中常见的基础操作函数、学会使用它们完成一些基础的数据处理与流程处理, 为后续内容学习打下良好基础。 好了,下面就让我们来一起开启这段 Pytorch 框架的深度学习破冰之旅。 PyTorch + OpenVINO Release)、Beta 版本、原型版本(Prototype)。 其中稳定版本长期支持维护没有明显的性能问题与缺陷,理论 上支持向后兼容的版本;Beta 版本是基于用户反馈的改动版 本,可能有 API/SDK 函数改动,性能有进一步需要提升的空间; 原型版本是新功能还不可以,需要开发不能通过 pip 方式直接 安装。 1.1.2 Pytorch 的模块与功能 Pytorch 当前支持绝大数的深度学习常见的算子操作,基于相 训练、导出与部署等操作。这些功能的相关模块主要有如下: 1)torch.nn 包,里面主要包含构建卷积神经网络的各种算子 操作,主要包括卷积操作(Conv2d、Conv1d、Conv3d)激 活函数、序贯模型 (Sequential)、功能函数 (functional)、损 失功能、支持自定义的模型类(Module)等。通过它们就可 以实现大多数的模型结构搭建与生成。 2)torch.utils 包,里面主要包括训练模型的输入数据处理类、0 码力 | 13 页 | 5.99 MB | 1 年前3 PyTorch OpenVINO 开发实战系列教程第一篇本书内容以 Python 完成全部代码构建与程序演示。本章的主要目标是帮助初 次接触 Python 与 Pytorch 的读者搭建好开发环境,认识与理解 Pytorch 框架 中常见的基础操作函数、学会使用它们完成一些基础的数据处理与流程处理, 为后续内容学习打下良好基础。 好了,下面就让我们来一起开启这段 Pytorch 框架的深度学习破冰之旅。 PyTorch + OpenVINO Release)、Beta 版本、原型版本(Prototype)。 其中稳定版本长期支持维护没有明显的性能问题与缺陷,理论 上支持向后兼容的版本;Beta 版本是基于用户反馈的改动版 本,可能有 API/SDK 函数改动,性能有进一步需要提升的空间; 原型版本是新功能还不可以,需要开发不能通过 pip 方式直接 安装。 1.1.2 Pytorch 的模块与功能 Pytorch 当前支持绝大数的深度学习常见的算子操作,基于相 训练、导出与部署等操作。这些功能的相关模块主要有如下: 1)torch.nn 包,里面主要包含构建卷积神经网络的各种算子 操作,主要包括卷积操作(Conv2d、Conv1d、Conv3d)激 活函数、序贯模型 (Sequential)、功能函数 (functional)、损 失功能、支持自定义的模型类(Module)等。通过它们就可 以实现大多数的模型结构搭建与生成。 2)torch.utils 包,里面主要包括训练模型的输入数据处理类、0 码力 | 13 页 | 5.99 MB | 1 年前3
共 60 条
- 1
- 2
- 3
- 4
- 5
- 6













