 从推荐模型的基础特点看大规模推荐类深度学习系统的设计 袁镱样本读取 样本解析 基于GPU的多级存储训练:更⾼的性价⽐ � 推荐模型GPU训练的挑战 � 显存(A100最⼤80GB)放不下TB级的模型 � GPU多线程并⾏计算能⼒对稀疏数据不友好 � ⽅案 � 原有:内存能够存储的参数->对应的样本量Group � 新增:显存能够存储的参数->对应的样本量Pass � 新增:GPU并⾏操作友好->CSR格式的显存数据访问 SSD磁盘 10TB CPU型服务 Feature 2.2 Hotkey缓存优化 <10台 内存型服务 并发查询优化 数⼗台 ⽹络型服务 TB级模型实时上线 � 问题:TB模型实时多地传输和加载成本⾼ � ⽅案:⾼低频分别上线 � 更灵活的⽤法:模型多切⽚,按需上线 � Dssm � wdl ... 分布式Serving集群 副本1 副本2 Group 1 Group N 副本1 副本2 推理节点 的特点) 通讯量可以变⼩来提升训练速度么?---参数,梯度压缩 � 问题: � 参数w和梯度g占据主要的通讯量,拉⻓了请求时间 � 常规的数值⽆损的压缩⽅法效果不明显 � 业界主流做法: � 量化 � 稀疏化。累计发 送,需要做本地 梯度修正 float32->float16->int8->int4->2bit 直接压缩->训练算法补偿 [2020] Compressed Communication0 码力 | 22 页 | 6.76 MB | 1 年前3 从推荐模型的基础特点看大规模推荐类深度学习系统的设计 袁镱样本读取 样本解析 基于GPU的多级存储训练:更⾼的性价⽐ � 推荐模型GPU训练的挑战 � 显存(A100最⼤80GB)放不下TB级的模型 � GPU多线程并⾏计算能⼒对稀疏数据不友好 � ⽅案 � 原有:内存能够存储的参数->对应的样本量Group � 新增:显存能够存储的参数->对应的样本量Pass � 新增:GPU并⾏操作友好->CSR格式的显存数据访问 SSD磁盘 10TB CPU型服务 Feature 2.2 Hotkey缓存优化 <10台 内存型服务 并发查询优化 数⼗台 ⽹络型服务 TB级模型实时上线 � 问题:TB模型实时多地传输和加载成本⾼ � ⽅案:⾼低频分别上线 � 更灵活的⽤法:模型多切⽚,按需上线 � Dssm � wdl ... 分布式Serving集群 副本1 副本2 Group 1 Group N 副本1 副本2 推理节点 的特点) 通讯量可以变⼩来提升训练速度么?---参数,梯度压缩 � 问题: � 参数w和梯度g占据主要的通讯量,拉⻓了请求时间 � 常规的数值⽆损的压缩⽅法效果不明显 � 业界主流做法: � 量化 � 稀疏化。累计发 送,需要做本地 梯度修正 float32->float16->int8->int4->2bit 直接压缩->训练算法补偿 [2020] Compressed Communication0 码力 | 22 页 | 6.76 MB | 1 年前3
 动手学深度学习 v2.085 3.1.1 线性回归的基本元素 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 3.1.2 矢量化加速 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 3.1.3 正态分布与平方损失 softmax运算 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 3.4.5 小批量样本的矢量化 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 3.4.6 损失函数 . . . . . . 小批量随机梯度下降 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 457 11.5.1 向量化和缓存 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 457 11.5.2 小批量 . .0 码力 | 797 页 | 29.45 MB | 1 年前3 动手学深度学习 v2.085 3.1.1 线性回归的基本元素 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 3.1.2 矢量化加速 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 3.1.3 正态分布与平方损失 softmax运算 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 3.4.5 小批量样本的矢量化 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 3.4.6 损失函数 . . . . . . 小批量随机梯度下降 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 457 11.5.1 向量化和缓存 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 457 11.5.2 小批量 . .0 码力 | 797 页 | 29.45 MB | 1 年前3
 AI大模型千问 qwen 中文文档Qwen 成为可能。该库是 一个纯 C/C++ 实现,不依赖任何外部库,并且针对 x86 架构提供了 AVX、AVX2 和 AVX512 加速支持。此 外,它还提供了 2、3、4、5、6 以及 8 位量化功能,以加快推理速度并减少内存占用。对于大于总 VRAM 容量的大规模模型,该库还支持 CPU+GPU 混合推理模式进行部分加速。本质上,llama.cpp 的用途在于运行 GGUF(由 GPT 生 色扮演的乐趣,并使用不同类型的量化模型。您可 以训练诸如 LoRA 这样的算法,并将 Stable Diffusion 和 Whisper 等扩展功能纳入其中。赶快去探索更多高级 用法,并将它们应用于 Qwen 模型中吧! 1.7 AWQ 对于量化模型,我们推荐使用 AWQ 结合 AutoAWQ 。AWQ 即激活感知权重量化,是一种针对 LLM 的低比 特权重量化的硬件友好方法。而 AutoAWQ 是一个易于使用的工具包,专门用于 4 比特量化模型。相较于 FP16,AutoAWQ 能够将模型的运行速度提升 3 倍,并将内存需求降低至原来的 1/3。AutoAWQ 实现了激活 感知权重量化(AWQ)算法,可用于 LLM 的量化处理。在本文档中,我们将向您展示如何在 Transformers 框 架下使用量化模型,以及如何对您自己的模型进行量化。 1.7.1 如何在 Transformers 中使用 AWQ 量化模型 现在,Transformers0 码力 | 56 页 | 835.78 KB | 1 年前3 AI大模型千问 qwen 中文文档Qwen 成为可能。该库是 一个纯 C/C++ 实现,不依赖任何外部库,并且针对 x86 架构提供了 AVX、AVX2 和 AVX512 加速支持。此 外,它还提供了 2、3、4、5、6 以及 8 位量化功能,以加快推理速度并减少内存占用。对于大于总 VRAM 容量的大规模模型,该库还支持 CPU+GPU 混合推理模式进行部分加速。本质上,llama.cpp 的用途在于运行 GGUF(由 GPT 生 色扮演的乐趣,并使用不同类型的量化模型。您可 以训练诸如 LoRA 这样的算法,并将 Stable Diffusion 和 Whisper 等扩展功能纳入其中。赶快去探索更多高级 用法,并将它们应用于 Qwen 模型中吧! 1.7 AWQ 对于量化模型,我们推荐使用 AWQ 结合 AutoAWQ 。AWQ 即激活感知权重量化,是一种针对 LLM 的低比 特权重量化的硬件友好方法。而 AutoAWQ 是一个易于使用的工具包,专门用于 4 比特量化模型。相较于 FP16,AutoAWQ 能够将模型的运行速度提升 3 倍,并将内存需求降低至原来的 1/3。AutoAWQ 实现了激活 感知权重量化(AWQ)算法,可用于 LLM 的量化处理。在本文档中,我们将向您展示如何在 Transformers 框 架下使用量化模型,以及如何对您自己的模型进行量化。 1.7.1 如何在 Transformers 中使用 AWQ 量化模型 现在,Transformers0 码力 | 56 页 | 835.78 KB | 1 年前3
 深度学习在电子商务中的应用论文,并有10多项相关领域的专利。  业余爱好: 骑行 个人简介 电子邮箱: jim.cheng@ususing.com 5 议程 • 深度学习与商品搜索  矢量化搜索技术简介  基于词语聚类的矢量化  基于用户会话的矢量化  原型评测结果及效果示例 • 深度学习与聊天机器人  聊天机器人简介  聊天机器人主要模块及架构  深度学习探索  聊天机器人评测结果 6 • 语义词汇差异 尚未进入生产线。 8 • 搜索数值矢量化  传统搜索基于文字匹配, 商品包含搜索词或者不包含搜索词  利用深度学习技术, 将搜索词和商品全部数值矢量化, 将文字匹配转化为数值矢量计算  词语矢量化是进一步进行各种深度学习的基础。 • 矢量化模型介绍  Mikolov(Google员工)等人2013发表了两篇关于Word2Vec的文章, 成为词语矢量化表示的基础  Word2vec的优点: vec(中国) )  矢量化模型的现况  词语的矢量化模型已经有开源实现方案  句子和文档的矢量化还在摸索阶段,尚不成熟  已经有一些在词语相似度,舆情分析等方面的应用 矢量化搜索模型 9 词语矢量化模型 CBOW: 通过上下文词语 来预测词语本身出现的概 率 Skip-gram: 通过词语本身 来预测上下文词语出现的 概率 10 基于词语聚类的矢量化模型 • Word2vec等工具可以有效地将词语转化为向量0 码力 | 27 页 | 1.98 MB | 1 年前3 深度学习在电子商务中的应用论文,并有10多项相关领域的专利。  业余爱好: 骑行 个人简介 电子邮箱: jim.cheng@ususing.com 5 议程 • 深度学习与商品搜索  矢量化搜索技术简介  基于词语聚类的矢量化  基于用户会话的矢量化  原型评测结果及效果示例 • 深度学习与聊天机器人  聊天机器人简介  聊天机器人主要模块及架构  深度学习探索  聊天机器人评测结果 6 • 语义词汇差异 尚未进入生产线。 8 • 搜索数值矢量化  传统搜索基于文字匹配, 商品包含搜索词或者不包含搜索词  利用深度学习技术, 将搜索词和商品全部数值矢量化, 将文字匹配转化为数值矢量计算  词语矢量化是进一步进行各种深度学习的基础。 • 矢量化模型介绍  Mikolov(Google员工)等人2013发表了两篇关于Word2Vec的文章, 成为词语矢量化表示的基础  Word2vec的优点: vec(中国) )  矢量化模型的现况  词语的矢量化模型已经有开源实现方案  句子和文档的矢量化还在摸索阶段,尚不成熟  已经有一些在词语相似度,舆情分析等方面的应用 矢量化搜索模型 9 词语矢量化模型 CBOW: 通过上下文词语 来预测词语本身出现的概 率 Skip-gram: 通过词语本身 来预测上下文词语出现的 概率 10 基于词语聚类的矢量化模型 • Word2vec等工具可以有效地将词语转化为向量0 码力 | 27 页 | 1.98 MB | 1 年前3
 机器学习课程-温州大学-02深度学习-神经网络的编程基础深度学习-神经网络的编程基础 黄海广 副教授 2 本章目录 01 二分类与逻辑回归 02 梯度下降 03 计算图 04 向量化 3 1.二分类与逻辑回归 02 梯度下降 01 二分类与逻辑回归 03 计算图 04 向量化 4 符号定义 ?:表示一个??维数据,为输入数 据,维度为(??, 1); ?:表示输出结果,取值为(0,1); (?( (1−?) (1−?)) ⋅ ?(1 − ?) = ? − ? ?=??? + ? 9 2.梯度下降 02 梯度下降 01 二分类与逻辑回归 03 计算图 04 向量化 10 梯度下降 ? 学习率 步长 11 梯度下降的三种形式 批量梯度下降(Batch Gradient Descent,BGD) 梯度下降的每一步中,都用到了所有的训练样本 随机梯度下降(Stochastic − ?(?) ?? (?) (同步更新?? ,(j=0,1,...,n )) 17 3.计算图 02 梯度下降 01 二分类与逻辑回归 03 计算图 04 向量化 18 3.计算图 ? = ?? ? = 3? ? = ? + ? ? ?, ?, ? = 3(? + ??), ? = 5, ? = 3, ? = 2 ? = 5 ? = 3 ? =0 码力 | 27 页 | 1.54 MB | 1 年前3 机器学习课程-温州大学-02深度学习-神经网络的编程基础深度学习-神经网络的编程基础 黄海广 副教授 2 本章目录 01 二分类与逻辑回归 02 梯度下降 03 计算图 04 向量化 3 1.二分类与逻辑回归 02 梯度下降 01 二分类与逻辑回归 03 计算图 04 向量化 4 符号定义 ?:表示一个??维数据,为输入数 据,维度为(??, 1); ?:表示输出结果,取值为(0,1); (?( (1−?) (1−?)) ⋅ ?(1 − ?) = ? − ? ?=??? + ? 9 2.梯度下降 02 梯度下降 01 二分类与逻辑回归 03 计算图 04 向量化 10 梯度下降 ? 学习率 步长 11 梯度下降的三种形式 批量梯度下降(Batch Gradient Descent,BGD) 梯度下降的每一步中,都用到了所有的训练样本 随机梯度下降(Stochastic − ?(?) ?? (?) (同步更新?? ,(j=0,1,...,n )) 17 3.计算图 02 梯度下降 01 二分类与逻辑回归 03 计算图 04 向量化 18 3.计算图 ? = ?? ? = 3? ? = ? + ? ? ?, ?, ? = 3(? + ??), ? = 5, ? = 3, ? = 2 ? = 5 ? = 3 ? =0 码力 | 27 页 | 1.54 MB | 1 年前3
 微博在线机器学习和深度学习实践-黄波特征深度化:特征embedding • 模型深度化:深度学习模型, Wide&Deep;DeepFM 4 深度学习 物料粗排 特征向量化 基于Item2vec的 博主召回和微博 召回 物料精排 向量索引 DSSM/FM/FF M生成博主与物 料向量,采用 向量进行召回 特征向量化:Item2vec 向量索引:FM/FFM/ DSSM 模型召回:DIN/DIEN/TDM 模型召回 融入用户近期互动行 分布式模型推理框架:WeiServing 异构CPU集群 kubernetes/ol-submit RPC服务框架 LR/GBDT DNN/DeepFM/W&D 负载均衡/统一版本管理/动态加载/批量化机制 特征映射 Embedding 数据处理 异构GPU集群 CNN 业务应用 模型服务 框架 排序模型服务 多媒体分析服务 自然语言分析服务 集群调度层 核心架构层 算法模型层0 码力 | 36 页 | 16.69 MB | 1 年前3 微博在线机器学习和深度学习实践-黄波特征深度化:特征embedding • 模型深度化:深度学习模型, Wide&Deep;DeepFM 4 深度学习 物料粗排 特征向量化 基于Item2vec的 博主召回和微博 召回 物料精排 向量索引 DSSM/FM/FF M生成博主与物 料向量,采用 向量进行召回 特征向量化:Item2vec 向量索引:FM/FFM/ DSSM 模型召回:DIN/DIEN/TDM 模型召回 融入用户近期互动行 分布式模型推理框架:WeiServing 异构CPU集群 kubernetes/ol-submit RPC服务框架 LR/GBDT DNN/DeepFM/W&D 负载均衡/统一版本管理/动态加载/批量化机制 特征映射 Embedding 数据处理 异构GPU集群 CNN 业务应用 模型服务 框架 排序模型服务 多媒体分析服务 自然语言分析服务 集群调度层 核心架构层 算法模型层0 码力 | 36 页 | 16.69 MB | 1 年前3
 QCon北京2018-《深度学习在微博信息流排序的应用》-刘博Ø 存在问题 • 信息过载 • 互动性好 • 信噪比低 Ø 排序目标 • 提高用户的信息消费效率 • 提升用户黏性 技术挑战 Ø 规模大 • 用户和Feed内容数量大 Ø 指标量化 • 用户体验 • 内容更新快,实时性要求高 • 内容形式多样、非结构化 • 海量计算、超大规模模型优化 1 2 3 深度学习应用与实践 常规CTR方法排序 微博Feed流排序场景介绍0 码力 | 21 页 | 2.14 MB | 1 年前3 QCon北京2018-《深度学习在微博信息流排序的应用》-刘博Ø 存在问题 • 信息过载 • 互动性好 • 信噪比低 Ø 排序目标 • 提高用户的信息消费效率 • 提升用户黏性 技术挑战 Ø 规模大 • 用户和Feed内容数量大 Ø 指标量化 • 用户体验 • 内容更新快,实时性要求高 • 内容形式多样、非结构化 • 海量计算、超大规模模型优化 1 2 3 深度学习应用与实践 常规CTR方法排序 微博Feed流排序场景介绍0 码力 | 21 页 | 2.14 MB | 1 年前3
 机器学习课程-温州大学-04深度学习-深层神经网络. . . . . . ?4 ሾ1]?. . . ? 1 ∗ ฑ ?1 ?2 ?3 ????? + ?1 1 ?2 1 ?3 1 ?4 1 ? 1 2.神经网络的向量化 6 3.激活函数 Sigmoid函数 ? = ?(?) = ?(?) = 1 1+?−? 当? ? 大于等于0.5时,预测 y=1 当? ? 小于0.5时,预测 y=0 sigmoid0 码力 | 28 页 | 1.57 MB | 1 年前3 机器学习课程-温州大学-04深度学习-深层神经网络. . . . . . ?4 ሾ1]?. . . ? 1 ∗ ฑ ?1 ?2 ?3 ????? + ?1 1 ?2 1 ?3 1 ?4 1 ? 1 2.神经网络的向量化 6 3.激活函数 Sigmoid函数 ? = ?(?) = ?(?) = 1 1+?−? 当? ? 大于等于0.5时,预测 y=1 当? ? 小于0.5时,预测 y=0 sigmoid0 码力 | 28 页 | 1.57 MB | 1 年前3
 机器学习课程-温州大学-01机器学习-引言SciPy是一款方便、易于使用、专为科学和 工程设计的Python工具包,它包括了统计 、优化、整合以及线性代数模块、傅里叶 变换、信号和图像图例,常微分方差的求 解等 scipy.cluster 向量量化 scipy.constants 数学常量 scipy.fftpack 快速傅里叶变换 scipy.integrate 积分 scipy.interpolate 插值 scipy.io 数据输入输出0 码力 | 78 页 | 3.69 MB | 1 年前3 机器学习课程-温州大学-01机器学习-引言SciPy是一款方便、易于使用、专为科学和 工程设计的Python工具包,它包括了统计 、优化、整合以及线性代数模块、傅里叶 变换、信号和图像图例,常微分方差的求 解等 scipy.cluster 向量量化 scipy.constants 数学常量 scipy.fftpack 快速傅里叶变换 scipy.integrate 积分 scipy.interpolate 插值 scipy.io 数据输入输出0 码力 | 78 页 | 3.69 MB | 1 年前3
 机器学习课程-温州大学-01深度学习-引言SciPy是一款方便、易于使用、专为科学和 工程设计的Python工具包,它包括了统计 、优化、整合以及线性代数模块、傅里叶 变换、信号和图像图例,常微分方差的求 解等 scipy.cluster 向量量化 scipy.constants 数学常量 scipy.fftpack 快速傅里叶变换 scipy.integrate 积分 scipy.interpolate 插值 scipy.io 数据输入输出0 码力 | 80 页 | 5.38 MB | 1 年前3 机器学习课程-温州大学-01深度学习-引言SciPy是一款方便、易于使用、专为科学和 工程设计的Python工具包,它包括了统计 、优化、整合以及线性代数模块、傅里叶 变换、信号和图像图例,常微分方差的求 解等 scipy.cluster 向量量化 scipy.constants 数学常量 scipy.fftpack 快速傅里叶变换 scipy.integrate 积分 scipy.interpolate 插值 scipy.io 数据输入输出0 码力 | 80 页 | 5.38 MB | 1 年前3
共 14 条
- 1
- 2













