 AutoEncoder自编码器0 码力 | 29 页 | 3.49 MB | 1 年前3 AutoEncoder自编码器0 码力 | 29 页 | 3.49 MB | 1 年前3
 【PyTorch深度学习-龙龙老师】-测试版202112境式的感受算法设计思想,从而掌握分析问题、解决问题的能力。这种方式也是对读者的基 础要求较少的,读者在学习本书的过程中会自然而然地了解算法的相关背景知识,体会到知 识是为了解决问题而生的,避免陷入为了学习而学习的窘境。 尽管作者试图将读者的基础要求降到最低,但是人工智能不可避免地需要使用正式化的 数学符号推导,其中涉及到少量的概率与统计、线性代数、微积分等数学知识,一般要求读 者对这些数学知识有初步印象或了解即可。比起理论基础,读者需要有少量的编程经验,特 11.11 LSTM/GRU 情感分类问题再战 11.12 预训练的词向量 11.13 参考文献 第 12 章 自编码器 12.1 自编码器原理 12.2 MNIST 图片重建实战 12.3 自编码器变种 12.4 变分自编码器 12.5 VAE 实战 12.6 参考文献 第 13 章 生成对抗网络 13.1 博弈学习实例 13.2 GAN 监督信号,即模型需要学习的映射为??: ? → ?,称为自监督学习(Self-supervised Learning)。在训练时,通过计算模型的预测值??(?)与自身?之间的误差来优化网络参数?。 常见的无监督学习算法有自编码器、生成对抗网络等。 强化学习 也称为增强学习,通过与环境进行交互来学习解决问题的策略的一类算法。 与有监督学习、无监督学习不同,强化学习问题并没有明确的“正确的”动作监督信号, 预览版2021120 码力 | 439 页 | 29.91 MB | 1 年前3 【PyTorch深度学习-龙龙老师】-测试版202112境式的感受算法设计思想,从而掌握分析问题、解决问题的能力。这种方式也是对读者的基 础要求较少的,读者在学习本书的过程中会自然而然地了解算法的相关背景知识,体会到知 识是为了解决问题而生的,避免陷入为了学习而学习的窘境。 尽管作者试图将读者的基础要求降到最低,但是人工智能不可避免地需要使用正式化的 数学符号推导,其中涉及到少量的概率与统计、线性代数、微积分等数学知识,一般要求读 者对这些数学知识有初步印象或了解即可。比起理论基础,读者需要有少量的编程经验,特 11.11 LSTM/GRU 情感分类问题再战 11.12 预训练的词向量 11.13 参考文献 第 12 章 自编码器 12.1 自编码器原理 12.2 MNIST 图片重建实战 12.3 自编码器变种 12.4 变分自编码器 12.5 VAE 实战 12.6 参考文献 第 13 章 生成对抗网络 13.1 博弈学习实例 13.2 GAN 监督信号,即模型需要学习的映射为??: ? → ?,称为自监督学习(Self-supervised Learning)。在训练时,通过计算模型的预测值??(?)与自身?之间的误差来优化网络参数?。 常见的无监督学习算法有自编码器、生成对抗网络等。 强化学习 也称为增强学习,通过与环境进行交互来学习解决问题的策略的一类算法。 与有监督学习、无监督学习不同,强化学习问题并没有明确的“正确的”动作监督信号, 预览版2021120 码力 | 439 页 | 29.91 MB | 1 年前3
 Keras: 基于 Python 的深度学习库Numpy 数组 -- 就像在 Scikit-Learn API 中一样。 model.fit(x_train, y_train, epochs=5, batch_size=32) 或者,你可以手动地将批次的数据提供给模型: model.train_on_batch(x_batch, y_batch) 只需一行代码就能评估模型性能: loss_and_metrics = model.evaluate(x_test Keras 本身了。有两种方法安装 Keras: • 使用 PyPI 安装 Keras (推荐): sudo pip install keras 如果你使用 virtualenv 虚拟环境, 你可以避免使用 sudo: pip install keras • 或者:使用 Github 源码安装 Keras: 首先,使用 git 来克隆 Keras: git clone https://github np.random.random((1000, 100)) labels = np.random.randint(10, size=(1000, 1)) # 将标签转换为分类的 one-hot 编码 one_hot_labels = keras.utils.to_categorical(labels, num_classes=10) # 训练模型,以 32 个样本为一个 batch 进行迭代0 码力 | 257 页 | 1.19 MB | 1 年前3 Keras: 基于 Python 的深度学习库Numpy 数组 -- 就像在 Scikit-Learn API 中一样。 model.fit(x_train, y_train, epochs=5, batch_size=32) 或者,你可以手动地将批次的数据提供给模型: model.train_on_batch(x_batch, y_batch) 只需一行代码就能评估模型性能: loss_and_metrics = model.evaluate(x_test Keras 本身了。有两种方法安装 Keras: • 使用 PyPI 安装 Keras (推荐): sudo pip install keras 如果你使用 virtualenv 虚拟环境, 你可以避免使用 sudo: pip install keras • 或者:使用 Github 源码安装 Keras: 首先,使用 git 来克隆 Keras: git clone https://github np.random.random((1000, 100)) labels = np.random.randint(10, size=(1000, 1)) # 将标签转换为分类的 one-hot 编码 one_hot_labels = keras.utils.to_categorical(labels, num_classes=10) # 训练模型,以 32 个样本为一个 batch 进行迭代0 码力 | 257 页 | 1.19 MB | 1 年前3
 动手学深度学习 v2.08.5 循环神经网络的从零开始实现 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317 8.5.1 独热编码 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317 8.5.2 初始化模型参数 . . . . . . . . . . . . . . . . . . . 362 9.6 编码器‐解码器架构 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 364 9.6.1 编码器 . . . . . . . . . . . . . . . . . . . . . . . . 6.3 合并编码器和解码器 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 365 9.7 序列到序列学习(seq2seq) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366 9.7.1 编码器 . . .0 码力 | 797 页 | 29.45 MB | 1 年前3 动手学深度学习 v2.08.5 循环神经网络的从零开始实现 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317 8.5.1 独热编码 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317 8.5.2 初始化模型参数 . . . . . . . . . . . . . . . . . . . 362 9.6 编码器‐解码器架构 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 364 9.6.1 编码器 . . . . . . . . . . . . . . . . . . . . . . . . 6.3 合并编码器和解码器 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 365 9.7 序列到序列学习(seq2seq) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366 9.7.1 编码器 . . .0 码力 | 797 页 | 29.45 MB | 1 年前3
 机器学习课程-温州大学-12深度学习-自然语言处理和词嵌入2017年,在Ashish Vaswani et.al 的论文《Attention Is All You Need》 中,考虑到主导序列转导模型基于编码器-解码器配置中的复杂递归或卷积 神经网络,性能最好的模型被证明还是通过注意力机制(attention mechanism)连接编码器和解码器,因而《Attention Is All You Need》 中提出了一种新的简单架构——Transformer,它完全基于注意力机制, 主流思路是分离文本属性及文本内容 迁移 隐式方法即使用某类无监督学习学习或强化学 习模式将文本属性及内容自动分离,常见的有 生成对抗方式,即通过GAN实现目标属性和 文本量性完全由不同的编码控制的状态。 对话式文本生成适用于智能客服等任务型和闲聊型机器人等 非任务型人机交互场景,可分类为管道模式及端对端模式。 结构性的文本生成,首先通过注意力机制、多层感知器等系 统进行语句内容预选,对数值、时间等类型数据进行推理。 增强数据间的结构信息。其次通过Transformer等模式结合 上下文进行推导,生成最终文本。 ◼ Transformer架构可分为自回归系列(例如GPT-3,偏好生成性任务)、双向Transformer+Mask的自编码系列(例如BERT, 偏好自然语言理解)、Encoder-decoder架构(例如T5,使用双向/单向attention,偏好条件文本生成) 图:Transformer典型技术场景下的原理介绍如下所述0 码力 | 44 页 | 2.36 MB | 1 年前3 机器学习课程-温州大学-12深度学习-自然语言处理和词嵌入2017年,在Ashish Vaswani et.al 的论文《Attention Is All You Need》 中,考虑到主导序列转导模型基于编码器-解码器配置中的复杂递归或卷积 神经网络,性能最好的模型被证明还是通过注意力机制(attention mechanism)连接编码器和解码器,因而《Attention Is All You Need》 中提出了一种新的简单架构——Transformer,它完全基于注意力机制, 主流思路是分离文本属性及文本内容 迁移 隐式方法即使用某类无监督学习学习或强化学 习模式将文本属性及内容自动分离,常见的有 生成对抗方式,即通过GAN实现目标属性和 文本量性完全由不同的编码控制的状态。 对话式文本生成适用于智能客服等任务型和闲聊型机器人等 非任务型人机交互场景,可分类为管道模式及端对端模式。 结构性的文本生成,首先通过注意力机制、多层感知器等系 统进行语句内容预选,对数值、时间等类型数据进行推理。 增强数据间的结构信息。其次通过Transformer等模式结合 上下文进行推导,生成最终文本。 ◼ Transformer架构可分为自回归系列(例如GPT-3,偏好生成性任务)、双向Transformer+Mask的自编码系列(例如BERT, 偏好自然语言理解)、Encoder-decoder架构(例如T5,使用双向/单向attention,偏好条件文本生成) 图:Transformer典型技术场景下的原理介绍如下所述0 码力 | 44 页 | 2.36 MB | 1 年前3
 经典算法与人工智能在外卖物流调度中的应用订单、前序订单误差等 • 组合特征:核心基础特征的组合 • 统计特征:订单信息的数据统计特征,如均值、方差 • 稀疏特征:采用one-hot编码,各个菜品、商户、周几等作为特征维,构造稀疏特征 • 降维:PCA降维,减少内存消耗并一定程度上避免过拟合 模型 • DNN模型 - DNN深度神经网络学习;通过引入非线性映射,并包含多层感知器,海量的出餐时间训练数据,DNN 更好地学习自身有用的特征 时间复杂度较高 • XGBoost模型 - 采用近似求解算法,找出可能的分裂点,避免选用贪心算法的过高时间复杂度 - 计算采用不同分裂点时,叶子打分函数的增益;并选择增益最高的分裂点,作为新迭代树的最终分裂 节点,构造新的迭代树 - 通过调节迭代树数目、学习倍率、迭代树最大深度、L2正则化参数等进一步避免过拟合 2 获取样本数据 过滤数据 抽取基础特征 组合基础特征,构造组合特征 组合基础特征,构造组合特征 组合基础特征,构造组合特征 统计基础信息,构造统计特征 独热编码,构造稀疏特征 降维 决策模型 11 • 骑士体验 取餐距离、订单数量、订单组数 • 用户体验 订单剩余时间、骑士完成时间、 订单准时性 • 配送效率 等餐时间、空驶距离、空闲骑士、 商圈压力 距离的节省: 订单组与骑士打分: 根据商圈压力调整: 3 分配方案 12 Greedy + 多轮KM算法分配方案0 码力 | 28 页 | 6.86 MB | 1 年前3 经典算法与人工智能在外卖物流调度中的应用订单、前序订单误差等 • 组合特征:核心基础特征的组合 • 统计特征:订单信息的数据统计特征,如均值、方差 • 稀疏特征:采用one-hot编码,各个菜品、商户、周几等作为特征维,构造稀疏特征 • 降维:PCA降维,减少内存消耗并一定程度上避免过拟合 模型 • DNN模型 - DNN深度神经网络学习;通过引入非线性映射,并包含多层感知器,海量的出餐时间训练数据,DNN 更好地学习自身有用的特征 时间复杂度较高 • XGBoost模型 - 采用近似求解算法,找出可能的分裂点,避免选用贪心算法的过高时间复杂度 - 计算采用不同分裂点时,叶子打分函数的增益;并选择增益最高的分裂点,作为新迭代树的最终分裂 节点,构造新的迭代树 - 通过调节迭代树数目、学习倍率、迭代树最大深度、L2正则化参数等进一步避免过拟合 2 获取样本数据 过滤数据 抽取基础特征 组合基础特征,构造组合特征 组合基础特征,构造组合特征 组合基础特征,构造组合特征 统计基础信息,构造统计特征 独热编码,构造稀疏特征 降维 决策模型 11 • 骑士体验 取餐距离、订单数量、订单组数 • 用户体验 订单剩余时间、骑士完成时间、 订单准时性 • 配送效率 等餐时间、空驶距离、空闲骑士、 商圈压力 距离的节省: 订单组与骑士打分: 根据商圈压力调整: 3 分配方案 12 Greedy + 多轮KM算法分配方案0 码力 | 28 页 | 6.86 MB | 1 年前3
 超大规模深度学习在美团的应用-余建平• Online Learning的价值  用户的近期行为,更能表现意图和偏好  增强新item的模型感知能力 • 更快数据反馈、更少资源消耗  分钟级的数据反馈  增量训练、避免batch重训带来的资源消耗 关于Online Learning MLX的模型能力 • 支持千亿级特征、千亿级样本 • 支持计算图模式,模型结构灵活多样  支持推荐、搜索、广告场景常用的深度学习模型 Delta方式  增量提供ACK机制,确保模型正确性 Parameter Server • 模型数据的统一管理  模型结构  模型参数 PS的参数放置策略 • Ps分布式分片的均衡,避免分片大小不一致  NN网络矩阵按行切分,解决请求包不均衡问题  特征按照Hash方式分布式存储 • 模型并行调超参  grid search  random search PS的多模型训练 根据业务的自身逻辑获取特征原始数据  特征抽取: 将特征数据进行转换,转换成模型所需的格式,比如离散化  模型计算: 传入转换后的特征数据,调用模型计算引擎 在线预估服务 • 特征编码方式  通过明文hash的方式编码  适用于特征的动态增长  不需要预分配,提高处理效率 • 框架与实现分离  提供op形式的特征抽取类  逻辑一致性:在线、近线、离线 特征抽取框架 目录 •0 码力 | 41 页 | 5.96 MB | 1 年前3 超大规模深度学习在美团的应用-余建平• Online Learning的价值  用户的近期行为,更能表现意图和偏好  增强新item的模型感知能力 • 更快数据反馈、更少资源消耗  分钟级的数据反馈  增量训练、避免batch重训带来的资源消耗 关于Online Learning MLX的模型能力 • 支持千亿级特征、千亿级样本 • 支持计算图模式,模型结构灵活多样  支持推荐、搜索、广告场景常用的深度学习模型 Delta方式  增量提供ACK机制,确保模型正确性 Parameter Server • 模型数据的统一管理  模型结构  模型参数 PS的参数放置策略 • Ps分布式分片的均衡,避免分片大小不一致  NN网络矩阵按行切分,解决请求包不均衡问题  特征按照Hash方式分布式存储 • 模型并行调超参  grid search  random search PS的多模型训练 根据业务的自身逻辑获取特征原始数据  特征抽取: 将特征数据进行转换,转换成模型所需的格式,比如离散化  模型计算: 传入转换后的特征数据,调用模型计算引擎 在线预估服务 • 特征编码方式  通过明文hash的方式编码  适用于特征的动态增长  不需要预分配,提高处理效率 • 框架与实现分离  提供op形式的特征抽取类  逻辑一致性:在线、近线、离线 特征抽取框架 目录 •0 码力 | 41 页 | 5.96 MB | 1 年前3
 pytorch 入门笔记-03- 神经网络时,被自动 地注册为一个参数。 ● autograd.Function:实现一个自动求导操作的前向和反向定义,每个变量操作至少创建一个函数 点,每一个Tensor 的操作都会创建一个接到创建Tensor 和编码其历史 的函数的Function 节点。 重点如下: ● 定义一个网络 ● 处理输入,调用 backword 还剩: ● 计算损失 ● 更新网络权重 原文链接:pytorch 入门笔记 criterion(output, target) # 计算损失 loss.backward() # 反向传播 optimizer.step() # 更新参数 注意 观察如何使用 optimizer.zero_grad() 手动将梯度缓冲区设置为零。 原文链接:pytorch 入门笔记 -03- 神经网络 这是因为梯度是按 Backprop 部分中的说明累积的。 原文链接:pytorch 入门笔记 -03- 神经网络0 码力 | 7 页 | 370.53 KB | 1 年前3 pytorch 入门笔记-03- 神经网络时,被自动 地注册为一个参数。 ● autograd.Function:实现一个自动求导操作的前向和反向定义,每个变量操作至少创建一个函数 点,每一个Tensor 的操作都会创建一个接到创建Tensor 和编码其历史 的函数的Function 节点。 重点如下: ● 定义一个网络 ● 处理输入,调用 backword 还剩: ● 计算损失 ● 更新网络权重 原文链接:pytorch 入门笔记 criterion(output, target) # 计算损失 loss.backward() # 反向传播 optimizer.step() # 更新参数 注意 观察如何使用 optimizer.zero_grad() 手动将梯度缓冲区设置为零。 原文链接:pytorch 入门笔记 -03- 神经网络 这是因为梯度是按 Backprop 部分中的说明累积的。 原文链接:pytorch 入门笔记 -03- 神经网络0 码力 | 7 页 | 370.53 KB | 1 年前3
 机器学习课程-温州大学-03深度学习-PyTorch入门ward。叠加的处理 方式使得backward不需要考虑之前有没有被计算过导数,只需要加上去就行了,这 使得设计变得更简单。 因此我们用户在反向传播之前,常常需要用zero_grad函数对导数手动清零,确保 计算出来的是正确的结果。 24 2. Autograd自动求导 l1 = input x w1 l2 = l1 + w2 l3 = l1 x w3 l4 = l2 x 当把它赋值给一个Module时,被自动的注册为参数。 autograd.Function-实现一个自动求导操作的前向和反向定义, 每个张量操作都会 创建至少一个Function节点,该节点连接到创建张量并对其历史进行编码的函数。 33 数据处理工具箱 34 4. 训练一个分类器 01 Tensors张量 02 Autograd自动求导 03 神经网络 04 训练一个分类器 350 码力 | 40 页 | 1.64 MB | 1 年前3 机器学习课程-温州大学-03深度学习-PyTorch入门ward。叠加的处理 方式使得backward不需要考虑之前有没有被计算过导数,只需要加上去就行了,这 使得设计变得更简单。 因此我们用户在反向传播之前,常常需要用zero_grad函数对导数手动清零,确保 计算出来的是正确的结果。 24 2. Autograd自动求导 l1 = input x w1 l2 = l1 + w2 l3 = l1 x w3 l4 = l2 x 当把它赋值给一个Module时,被自动的注册为参数。 autograd.Function-实现一个自动求导操作的前向和反向定义, 每个张量操作都会 创建至少一个Function节点,该节点连接到创建张量并对其历史进行编码的函数。 33 数据处理工具箱 34 4. 训练一个分类器 01 Tensors张量 02 Autograd自动求导 03 神经网络 04 训练一个分类器 350 码力 | 40 页 | 1.64 MB | 1 年前3
 《TensorFlow 快速入门与实战》6-实战TensorFlow验证码识别类才能解答。 由于计算机无法解答CAPTCHA的问题,所以回答出问题的用户就可以被认为是人类。 一种常用的CAPTCHA测试是让用户输入一个扭曲变形的图片上所显示的文字或数字,扭 曲变形是为了避免被光学字符识别(OCR, Optical Character Recognition)之类的计算机程 序自动识别出图片上的文数字而失去效果。由于这个测试是由计算机来考人类,而不是 标准图灵测试中 图像处理:RGB图 -> 灰度图 -> 规范化数据 输入数据处理 适配 Keras 图像数据格式:“channels_frist” 或 “channels_last” 输出数据处理 One-hot 编码:验证码转向量 输出数据处理 解码:模型输出向量转验证码 argmax “Hello TensorFlow” Try it 模型结构设计 分类问题 图像分类模型 AlexNet Krizhevsky0 码力 | 51 页 | 2.73 MB | 1 年前3 《TensorFlow 快速入门与实战》6-实战TensorFlow验证码识别类才能解答。 由于计算机无法解答CAPTCHA的问题,所以回答出问题的用户就可以被认为是人类。 一种常用的CAPTCHA测试是让用户输入一个扭曲变形的图片上所显示的文字或数字,扭 曲变形是为了避免被光学字符识别(OCR, Optical Character Recognition)之类的计算机程 序自动识别出图片上的文数字而失去效果。由于这个测试是由计算机来考人类,而不是 标准图灵测试中 图像处理:RGB图 -> 灰度图 -> 规范化数据 输入数据处理 适配 Keras 图像数据格式:“channels_frist” 或 “channels_last” 输出数据处理 One-hot 编码:验证码转向量 输出数据处理 解码:模型输出向量转验证码 argmax “Hello TensorFlow” Try it 模型结构设计 分类问题 图像分类模型 AlexNet Krizhevsky0 码力 | 51 页 | 2.73 MB | 1 年前3
共 34 条
- 1
- 2
- 3
- 4













