 Keras: 基于 Python 的深度学习库. . . . . . . . . 28 3.3.6.1 保存/加载整个模型(结构 + 权重 + 优化器状态) . . . . . . . . . 28 3.3.6.2 只保存/加载模型的结构 . . . . . . . . . . . . . . . . . . . . . . . . 29 3.3.6.3 只保存/加载模型的权重 . . . . . . . . . . . . . . . 35 3.3.18 如何在 Keras 中使用 HDF5 输入? . . . . . . . . . . . . . . . . . . . . . . . 35 3.3.19 Keras 配置文件保存在哪里? . . . . . . . . . . . . . . . . . . . . . . . . . . 36 3.3.20 如何在 Keras 开发过程中获取可复现的结果? . 2 从一个后端切换到另一个后端 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171 14.3 keras.json 详细配置 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171 14.4 使用抽象 Keras 后端编写新代码0 码力 | 257 页 | 1.19 MB | 1 年前3 Keras: 基于 Python 的深度学习库. . . . . . . . . 28 3.3.6.1 保存/加载整个模型(结构 + 权重 + 优化器状态) . . . . . . . . . 28 3.3.6.2 只保存/加载模型的结构 . . . . . . . . . . . . . . . . . . . . . . . . 29 3.3.6.3 只保存/加载模型的权重 . . . . . . . . . . . . . . . 35 3.3.18 如何在 Keras 中使用 HDF5 输入? . . . . . . . . . . . . . . . . . . . . . . . 35 3.3.19 Keras 配置文件保存在哪里? . . . . . . . . . . . . . . . . . . . . . . . . . . 36 3.3.20 如何在 Keras 开发过程中获取可复现的结果? . 2 从一个后端切换到另一个后端 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171 14.3 keras.json 详细配置 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171 14.4 使用抽象 Keras 后端编写新代码0 码力 | 257 页 | 1.19 MB | 1 年前3
 【PyTorch深度学习-龙龙老师】-测试版202112第 5 章 PyTorch 进阶 5.1 合并与分割 5.2 数据统计 5.3 张量比较 5.4 填充与复制 5.5 数据限幅 5.6 高级操作 5.7 经典数据集加载 5.8 MNIST 测试实战 5.9 参考文献 第 6 章 神经网络 6.1 感知机 6.2 全连接层 6.3 神经网络 6.4 激活函数 6.5 输出层设计 函数优化实战 7.9 反向传播算法实战 7.10 参考文献 第 8 章 PyTorch 高级用法 8.1 常见功能模块 8.2 模型装配、训练与测试 8.3 模型保存与加载 8.4 自定义类 8.5 模型乐园 8.6 测量工具 8.7 可视化 8.8 参考文献 第 9 章 过拟合 9.1 模型的容量 9.2 过拟合与欠拟合 9 值函数方法 14.5 Actor-Critic 方法 14.6 小结 14.7 参考文献 第 15 章 自定义数据集 15.1 精灵宝可梦数据集 15.2 自定义数据集加载流程 15.3 宝可梦数据集实战 15.4 迁移学习 15.5 Saved_model 15.6 模型部署 15.7 参考文献 预览版202112 人工智能绪论0 码力 | 439 页 | 29.91 MB | 1 年前3 【PyTorch深度学习-龙龙老师】-测试版202112第 5 章 PyTorch 进阶 5.1 合并与分割 5.2 数据统计 5.3 张量比较 5.4 填充与复制 5.5 数据限幅 5.6 高级操作 5.7 经典数据集加载 5.8 MNIST 测试实战 5.9 参考文献 第 6 章 神经网络 6.1 感知机 6.2 全连接层 6.3 神经网络 6.4 激活函数 6.5 输出层设计 函数优化实战 7.9 反向传播算法实战 7.10 参考文献 第 8 章 PyTorch 高级用法 8.1 常见功能模块 8.2 模型装配、训练与测试 8.3 模型保存与加载 8.4 自定义类 8.5 模型乐园 8.6 测量工具 8.7 可视化 8.8 参考文献 第 9 章 过拟合 9.1 模型的容量 9.2 过拟合与欠拟合 9 值函数方法 14.5 Actor-Critic 方法 14.6 小结 14.7 参考文献 第 15 章 自定义数据集 15.1 精灵宝可梦数据集 15.2 自定义数据集加载流程 15.3 宝可梦数据集实战 15.4 迁移学习 15.5 Saved_model 15.6 模型部署 15.7 参考文献 预览版202112 人工智能绪论0 码力 | 439 页 | 29.91 MB | 1 年前3
 动手学深度学习 v2.0. . . . . . . . . . . . . . . . . . . . 208 5.5.1 加载和保存张量 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208 5.5.2 加载和保存模型参数 . . . . . . . . . . . . . . . . . . . . . . . 词表 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361 9.5.4 加载数据集 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361 9.5.5 训练模型 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 661 14.3.5 小批量加载训练实例 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 663 14.3.6 整合代码 . . . .0 码力 | 797 页 | 29.45 MB | 1 年前3 动手学深度学习 v2.0. . . . . . . . . . . . . . . . . . . . 208 5.5.1 加载和保存张量 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208 5.5.2 加载和保存模型参数 . . . . . . . . . . . . . . . . . . . . . . . 词表 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361 9.5.4 加载数据集 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361 9.5.5 训练模型 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 661 14.3.5 小批量加载训练实例 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 663 14.3.6 整合代码 . . . .0 码力 | 797 页 | 29.45 MB | 1 年前3
 AI大模型千问 qwen 中文文档量化模型。玩得开心! 1.8 GPTQ GPTQ 是一种针对类 GPT 大型语言模型的量化方法,它基于近似二阶信息进行一次性权重量化。在本文 档中,我们将向您展示如何使用 transformers 库加载并应用量化后的模型,同时也会指导您如何通过 AutoGPTQ 来对您自己的模型进行量化处理。 1.8.1 在 Transformers 中使用 GPTQ 模型 现在,Transformers 正式支持了 use_safetensors=True) tokenizer.save_pretrained(quant_path) 很遗憾,save_quantized 方法不支持模型分片。若要实现模型分片,您需要先加载模型,然后使用来自 transformers 库的 save_pretrained 方法来保存并分片模型。除此之外,一切操作都非常简单。祝您 使用愉快! 1.9 GGUF 最近,在社区中本地运行 AI大模型千问 qwen 中文文档量化模型。玩得开心! 1.8 GPTQ GPTQ 是一种针对类 GPT 大型语言模型的量化方法,它基于近似二阶信息进行一次性权重量化。在本文 档中,我们将向您展示如何使用 transformers 库加载并应用量化后的模型,同时也会指导您如何通过 AutoGPTQ 来对您自己的模型进行量化处理。 1.8.1 在 Transformers 中使用 GPTQ 模型 现在,Transformers 正式支持了 use_safetensors=True) tokenizer.save_pretrained(quant_path) 很遗憾,save_quantized 方法不支持模型分片。若要实现模型分片,您需要先加载模型,然后使用来自 transformers 库的 save_pretrained 方法来保存并分片模型。除此之外,一切操作都非常简单。祝您 使用愉快! 1.9 GGUF 最近,在社区中本地运行- [--use_lora␣ �→True] [--q_lora True] 为您的模型指定 - ,为您的数据指定 - ,并为您的 Deepspeed 配置指定 - 。如果您使用 LoRA 或 Q-LoRA,只需根据您的需求添加 --use_lora True 或 --q_lora True 。这是开始微调的最简单方式。如果您想 0 码力 | 56 页 | 835.78 KB | 1 年前3
 PyTorch OpenVINO 开发实战系列教程第一篇����������������������������������������������������������������������������� 5 1.4.1 PyCharm 的安装与配置 �������������������������������������������������������������������������������������������������� 2)torch.utils 包,里面主要包括训练模型的输入数据处理类、 pytorch 自带的模型库、模型训练时候可视化支持组件、检查 点与性能相关的组件功能。重要的类有数据集类(Dataset), 数据加载类 (DataLoader)、自定义编程的可视化支持组件 tensorboard 相关类。 3)torch 开头的一些包与功能,主要包括支持模型导出功能 的 torch.onnx 模块、优化器 其中第一行表示导入 pytorch 的包支持,第二行表示版本查询, 第三行是执行结果(GPU 版本)。 现在很多开发者喜欢使用 Ubuntu 开发系统,在 Ubuntu 系统 下如下正确安装与配置 Pytorch,第一步同样是安装 python 语言依赖包 Python3.6,主要是执行一系列的安装命令行,具 体步骤如下: 1. 导入第三方软件仓库 sudo add-apt-repository0 码力 | 13 页 | 5.99 MB | 1 年前3 PyTorch OpenVINO 开发实战系列教程第一篇����������������������������������������������������������������������������� 5 1.4.1 PyCharm 的安装与配置 �������������������������������������������������������������������������������������������������� 2)torch.utils 包,里面主要包括训练模型的输入数据处理类、 pytorch 自带的模型库、模型训练时候可视化支持组件、检查 点与性能相关的组件功能。重要的类有数据集类(Dataset), 数据加载类 (DataLoader)、自定义编程的可视化支持组件 tensorboard 相关类。 3)torch 开头的一些包与功能,主要包括支持模型导出功能 的 torch.onnx 模块、优化器 其中第一行表示导入 pytorch 的包支持,第二行表示版本查询, 第三行是执行结果(GPU 版本)。 现在很多开发者喜欢使用 Ubuntu 开发系统,在 Ubuntu 系统 下如下正确安装与配置 Pytorch,第一步同样是安装 python 语言依赖包 Python3.6,主要是执行一系列的安装命令行,具 体步骤如下: 1. 导入第三方软件仓库 sudo add-apt-repository0 码力 | 13 页 | 5.99 MB | 1 年前3
 微博在线机器学习和深度学习实践-黄波+WeiPS 样本生成和特征处理 1.配置化 2.多标签样本 3.支持高维HASH 训练预处理 1.标签选择 2.标签UDF 3.样本过滤 4.特征过滤 模型训练 1.支持回归和分类 2.支持LR、FM、 DeepFM等模型 3.支持SGD 、 FTRL 、 Adagrad等优化算法 模型评估 1.独立模型评估 2.配置化 3.UI展示 3 在线机器学习-实时模型训练 VGG Yolo inception resnet GRU LSTM Wide&Deep DeepFM Deep Cross Network Spark 超参数 资源 算法 BERT 配置 Tensorflow 4 深度学习-深度学习模型训练 • 通信优化 • PS:BSP/SSP/ASP多种通信模式支持 • MPI&RingAllreduce:Horovod,使用 MPI 分布式模型推理框架:WeiServing 异构CPU集群 kubernetes/ol-submit RPC服务框架 LR/GBDT DNN/DeepFM/W&D 负载均衡/统一版本管理/动态加载/批量化机制 特征映射 Embedding 数据处理 异构GPU集群 CNN 业务应用 模型服务 框架 排序模型服务 多媒体分析服务 自然语言分析服务 集群调度层 核心架构层 算法模型层0 码力 | 36 页 | 16.69 MB | 1 年前3 微博在线机器学习和深度学习实践-黄波+WeiPS 样本生成和特征处理 1.配置化 2.多标签样本 3.支持高维HASH 训练预处理 1.标签选择 2.标签UDF 3.样本过滤 4.特征过滤 模型训练 1.支持回归和分类 2.支持LR、FM、 DeepFM等模型 3.支持SGD 、 FTRL 、 Adagrad等优化算法 模型评估 1.独立模型评估 2.配置化 3.UI展示 3 在线机器学习-实时模型训练 VGG Yolo inception resnet GRU LSTM Wide&Deep DeepFM Deep Cross Network Spark 超参数 资源 算法 BERT 配置 Tensorflow 4 深度学习-深度学习模型训练 • 通信优化 • PS:BSP/SSP/ASP多种通信模式支持 • MPI&RingAllreduce:Horovod,使用 MPI 分布式模型推理框架:WeiServing 异构CPU集群 kubernetes/ol-submit RPC服务框架 LR/GBDT DNN/DeepFM/W&D 负载均衡/统一版本管理/动态加载/批量化机制 特征映射 Embedding 数据处理 异构GPU集群 CNN 业务应用 模型服务 框架 排序模型服务 多媒体分析服务 自然语言分析服务 集群调度层 核心架构层 算法模型层0 码力 | 36 页 | 16.69 MB | 1 年前3
 搜狗深度学习技术在广告推荐领域的应用任一模型的输出作为另一模型的特征输入 • 实现方法复杂,模型之间有依赖关系 • 实验方案较多,改进空间较大 模型融合 模型融合的工程实现 • 可支持多个不同模型的加载和计算 • 可支持模型之间的交叉和CTR的bagging • 可通过配置项随时调整模型融合方案 • 避免不必要的重复操作,减少时间复杂度 目标 • 模型本身也看做一个抽象特征 • 模型特征依赖于其它特征,通过计算得到新的特征 •0 码力 | 22 页 | 1.60 MB | 1 年前3 搜狗深度学习技术在广告推荐领域的应用任一模型的输出作为另一模型的特征输入 • 实现方法复杂,模型之间有依赖关系 • 实验方案较多,改进空间较大 模型融合 模型融合的工程实现 • 可支持多个不同模型的加载和计算 • 可支持模型之间的交叉和CTR的bagging • 可通过配置项随时调整模型融合方案 • 避免不必要的重复操作,减少时间复杂度 目标 • 模型本身也看做一个抽象特征 • 模型特征依赖于其它特征,通过计算得到新的特征 •0 码力 | 22 页 | 1.60 MB | 1 年前3
 经典算法与人工智能在外卖物流调度中的应用收益,指导商户配送 配送范围划分 分级配送缩短交付用户时长 根据不同POI的用户 交付时长及单量,测 算增加固定骑士进行 末端分级配送用户交 付成本和直接配送成 本,选取适合耳机配 送POI 精细指导骑士人数配置 根据仿真系统及历史 大数据精细模拟在不 同单量不同骑士数量 下配送体验,预估在 天气变化、运营活动 订单激增等情况下合 理骑士人数 商圈健康度诊断 综合分析商圈内用户、 商户及骑士,提供线 下运营方案指导 基础设施 搜索方式 Grid Search 训练维度 分商圈 分时段 Genetic Algorithm Gradient Descent 仿真系统 离线训练 在线学习 优化 模型 加载 数据 仿真 调度 评估 结果 计算 偏导 求得 梯度 24 智能调度系统对顾客等待时间的优化 数据分析和技术是减少肥尾从而 提高用户体验的最大贡献者,降 低客户流失的可能性 顾客等待时间0 码力 | 28 页 | 6.86 MB | 1 年前3 经典算法与人工智能在外卖物流调度中的应用收益,指导商户配送 配送范围划分 分级配送缩短交付用户时长 根据不同POI的用户 交付时长及单量,测 算增加固定骑士进行 末端分级配送用户交 付成本和直接配送成 本,选取适合耳机配 送POI 精细指导骑士人数配置 根据仿真系统及历史 大数据精细模拟在不 同单量不同骑士数量 下配送体验,预估在 天气变化、运营活动 订单激增等情况下合 理骑士人数 商圈健康度诊断 综合分析商圈内用户、 商户及骑士,提供线 下运营方案指导 基础设施 搜索方式 Grid Search 训练维度 分商圈 分时段 Genetic Algorithm Gradient Descent 仿真系统 离线训练 在线学习 优化 模型 加载 数据 仿真 调度 评估 结果 计算 偏导 求得 梯度 24 智能调度系统对顾客等待时间的优化 数据分析和技术是减少肥尾从而 提高用户体验的最大贡献者,降 低客户流失的可能性 顾客等待时间0 码力 | 28 页 | 6.86 MB | 1 年前3
 《TensorFlow 2项目进阶实战》2-快速上手篇:动⼿训练模型和部署服务《TensorFlow 2 项目进阶实战》视频课程 快速上手篇:动⼿训练模型和部署服务 • TensorFlow 2 开发环境搭建 • 使用 tf.keras.datasets 加载数据 • 使用 tf.data.Dataset 加载数据 • 使用 tf.keras.Model 管理模型 • Fashion MNIST 数据集介绍 • 使用 TensorFlow 2 训练分类网络 目录 TensorFlow datasets 加载数据 使用 tf.keras.datasets 预置数据集 使用 tf.keras.datasets.mnist 数据集 使用 tf.keras.datasets.mnist 数据集 “Hello TensorFlow” Try it! 使用 tf.data.Dataset 加载数据 使用 tf.data.Dataset.from_tensor_slices 加载 List List 使用 tf.data.Dataset.from_generator 加载 Generator 使用 tf.data.TextLineDataset 加载文本 “Hello TensorFlow” Try it! 使用 tf.keras.Model 管理模型 历史上的 tf.keras.Model • Class tf.compat.v1.keras.Model • Class tf0 码力 | 52 页 | 7.99 MB | 1 年前3 《TensorFlow 2项目进阶实战》2-快速上手篇:动⼿训练模型和部署服务《TensorFlow 2 项目进阶实战》视频课程 快速上手篇:动⼿训练模型和部署服务 • TensorFlow 2 开发环境搭建 • 使用 tf.keras.datasets 加载数据 • 使用 tf.data.Dataset 加载数据 • 使用 tf.keras.Model 管理模型 • Fashion MNIST 数据集介绍 • 使用 TensorFlow 2 训练分类网络 目录 TensorFlow datasets 加载数据 使用 tf.keras.datasets 预置数据集 使用 tf.keras.datasets.mnist 数据集 使用 tf.keras.datasets.mnist 数据集 “Hello TensorFlow” Try it! 使用 tf.data.Dataset 加载数据 使用 tf.data.Dataset.from_tensor_slices 加载 List List 使用 tf.data.Dataset.from_generator 加载 Generator 使用 tf.data.TextLineDataset 加载文本 “Hello TensorFlow” Try it! 使用 tf.keras.Model 管理模型 历史上的 tf.keras.Model • Class tf.compat.v1.keras.Model • Class tf0 码力 | 52 页 | 7.99 MB | 1 年前3
 全连接神经网络实战. pytorch 版. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 3.1 模型的加载与保存 15 3.2 初始化网络权重-方法一 16 3.3 初始化网络权重-方法二和三 17 4 构建自己的数据集 . . . . . . . . . . . . . . . . . . . 模块是用来导入数据的:torch.utils.data.Dataset 以及 torch.utils.data.DataLoader。 Dataset 存储样本以及它们的标签等信息,Dataset 可以使用预加载的数据集(例如 mnist), 也可以使用自定义的数据集;而 DataLoader 是把样本进行访问和索引的工具,它实现了迭代器 功能,也就是说它可以依次将 batch_size 数量的样本导出。 前面说过,Dataset 可以存储自定义数据,我们可以继承 Dataset 类,在子类中实现一些固定 功能的函数,这样就相当于封装了自己的数据为 Dataset 类型。为了方便起见,我们先描述如何 使用预加载数据,然后第二章就开始构建神经网络模型。等第四章我们再描述如何自定义数据集。 我们一次写一个完整的程序来把数据可视化一下: from torchvision import datasets from0 码力 | 29 页 | 1.40 MB | 1 年前3 全连接神经网络实战. pytorch 版. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 3.1 模型的加载与保存 15 3.2 初始化网络权重-方法一 16 3.3 初始化网络权重-方法二和三 17 4 构建自己的数据集 . . . . . . . . . . . . . . . . . . . 模块是用来导入数据的:torch.utils.data.Dataset 以及 torch.utils.data.DataLoader。 Dataset 存储样本以及它们的标签等信息,Dataset 可以使用预加载的数据集(例如 mnist), 也可以使用自定义的数据集;而 DataLoader 是把样本进行访问和索引的工具,它实现了迭代器 功能,也就是说它可以依次将 batch_size 数量的样本导出。 前面说过,Dataset 可以存储自定义数据,我们可以继承 Dataset 类,在子类中实现一些固定 功能的函数,这样就相当于封装了自己的数据为 Dataset 类型。为了方便起见,我们先描述如何 使用预加载数据,然后第二章就开始构建神经网络模型。等第四章我们再描述如何自定义数据集。 我们一次写一个完整的程序来把数据可视化一下: from torchvision import datasets from0 码力 | 29 页 | 1.40 MB | 1 年前3
共 29 条
- 1
- 2
- 3













