深度学习与PyTorch入门实战 - 18.1 激活函数梯度激活函数及其梯度 主讲人:龙良曲 Activation Functions Derivative Sigmoid / Logistic Derivative torch.sigmoid Tanh = 2??????? 2? − 1 Derivative torch.tanh Rectified Linear Unit Derivative F.relu 下一课时 Loss及其梯度0 码力 | 14 页 | 724.00 KB | 1 年前3
常见函数梯度常见函数梯度 主讲人:龙良曲 Common Functions ?? + ? ??? + ?? ??? + ?? [? − (?? + ?)]? ?log(?? + ?) 下一课时 什么是激活函数 Thank You.0 码力 | 9 页 | 282.15 KB | 1 年前3
激活函数与GPU加速激活函数与GPU加速 主讲人:龙良曲 Leaky ReLU simply SELU softplus GPU accelerated 下一课时 测试 Thank You.0 码力 | 11 页 | 452.22 KB | 1 年前3
Keras: 基于 Python 的深度学习库的相同的栈式 LSTM 模型 . . . . . . . . . . . . 15 3.2 函数式 API 指引 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 3.2.1 开始使用 Keras 函数式 API . . . . . . . . . . . . . . . . . . . . . . 47 4.2.3.11 get_layer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 4.3 函数式 API . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 4.3.1 Model . . . . . . . . . . . . . . . . 133 7 损失函数 Losses 134 7.1 损失函数的使用 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134 7.2 可用损失函数 . . . . . . . . . . . . . . . . . . . .0 码力 | 257 页 | 1.19 MB | 1 年前3
PyTorch OpenVINO 开发实战系列教程第一篇本书内容以 Python 完成全部代码构建与程序演示。本章的主要目标是帮助初 次接触 Python 与 Pytorch 的读者搭建好开发环境,认识与理解 Pytorch 框架 中常见的基础操作函数、学会使用它们完成一些基础的数据处理与流程处理, 为后续内容学习打下良好基础。 好了,下面就让我们来一起开启这段 Pytorch 框架的深度学习破冰之旅。 PyTorch + OpenVINO Release)、Beta 版本、原型版本(Prototype)。 其中稳定版本长期支持维护没有明显的性能问题与缺陷,理论 上支持向后兼容的版本;Beta 版本是基于用户反馈的改动版 本,可能有 API/SDK 函数改动,性能有进一步需要提升的空间; 原型版本是新功能还不可以,需要开发不能通过 pip 方式直接 安装。 1.1.2 Pytorch 的模块与功能 Pytorch 当前支持绝大数的深度学习常见的算子操作,基于相 训练、导出与部署等操作。这些功能的相关模块主要有如下: 1)torch.nn 包,里面主要包含构建卷积神经网络的各种算子 操作,主要包括卷积操作(Conv2d、Conv1d、Conv3d)激 活函数、序贯模型 (Sequential)、功能函数 (functional)、损 失功能、支持自定义的模型类(Module)等。通过它们就可 以实现大多数的模型结构搭建与生成。 2)torch.utils 包,里面主要包括训练模型的输入数据处理类、0 码力 | 13 页 | 5.99 MB | 1 年前3
AI大模型千问 qwen 中文文档) 请 注 意, 原 Qwen 仓 库 中 的 旧 方 法 chat() 现 在 已 被 generate() 方 法 替 代。 这 里 使 用 了 apply_chat_template() 函数将消息转换为模型能够理解的格式。其中的 add_generation_prompt 参数用于在输入中添加生成提示,该提示指向 <|im_start|>assistant\n 。尤其需要注意的是,我们 。尤其需要注意的是,我们 遵循先前实践,对 chat 模型应用 ChatML 模板。而 max_new_tokens 参数则用于设置响应的最大长度。此 外,通过 tokenizer.batch_decode() 函数对响应进行解码。关于输入部分,上述的 messages 是一个 示例,展示了如何格式化对话历史记录和系统提示。默认情况下,如果您没有指定系统提示,我们将直接使 用 You are a helpful assistant 高级用法!” 1.4 llama.cpp llama.cpp 是一个 C++ 库,用于简化 LLM 推理的设置。它使得在本地机器上运行 Qwen 成为可能。该库是 一个纯 C/C++ 实现,不依赖任何外部库,并且针对 x86 架构提供了 AVX、AVX2 和 AVX512 加速支持。此 外,它还提供了 2、3、4、5、6 以及 8 位量化功能,以加快推理速度并减少内存占用。对于大于总 VRAM 容量的大规模模型,该库还支持0 码力 | 56 页 | 835.78 KB | 1 年前3
Chatbots 中对话式交互系统的分析与应用(2016) Chitchat-Bot: 开域闲聊机器人 闲聊机器人 • Seq2seq+Attention Question 闲聊机器人 • 问题 • 容易产生“安全”的答案 • 目标函数中考虑 • 对话容易继续进行 • 降低产生“我不知道”这类答案的可能性 • 带来新的信息 • 让产生的答复与之前的不同 • 语义要连贯 • 加入互信息:同时考虑从answer到question的概率 概率 Deep Reinforcement Learning for Dialogue Generation 闲聊机器人:其他因素 • 小心你的训练数据 • 如何引入上下文信息 • 如何加入外部信息 • 如何产生个性化答复 总结:三个Bot框架 • IR-Bot(成熟度: ) • 基于检索/排序的流程,历史悠久,技术成熟 • 引入深度学习,计入长效依赖,生成更好的语句表达 • Task-Bot(成熟度:0 码力 | 39 页 | 2.24 MB | 1 年前3
动手学深度学习 v2.0. . . . . . . . . . . . . . . . . . . . 81 2.7.1 查找模块中的所有函数和类 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 2.7.2 查找特定函数和类的用法 . . . . . . . . . . . . . . . . . . . . . . . . . . . 定义模型 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 3.2.5 定义损失函数 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 3.2.6 定义优化算法 . . . 4 初始化模型参数 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 3.3.5 定义损失函数 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 ii 3.3.6 定义优化算法0 码力 | 797 页 | 29.45 MB | 1 年前3
【PyTorch深度学习-龙龙老师】-测试版2021121 感知机 6.2 全连接层 6.3 神经网络 6.4 激活函数 6.5 输出层设计 6.6 误差计算 6.7 神经网络类型 6.8 油耗预测实战 6.9 参考文献 第 7 章 反向传播算法 7.1 导数与梯度 7.2 导数常见性质 7.3 激活函数导数 7.4 损失函数梯度 7.5 全连接层梯度 预览版202112 7 7.6 链式法则 7.7 反向传播算法 7.8 Himmelblau 函数优化实战 7.9 反向传播算法实战 7.10 参考文献 第 8 章 PyTorch 高级用法 8.1 常见功能模块 8.2 模型装配、训练与测试 8.3 模型保存与加载 8.4 自定义类 8.5 模型乐园 8.6 测量工具 8.7 可视化 8.8 参考文献 第 WGAN 原理 13.8 WGAN-GP 实战 13.9 参考文献 第 14 章 强化学习 14.1 先睹为快 14.2 强化学习问题 14.3 策略梯度方法 14.4 值函数方法 14.5 Actor-Critic 方法 14.6 小结 14.7 参考文献 第 15 章 自定义数据集 15.1 精灵宝可梦数据集 15.2 自定义数据集加载流程0 码力 | 439 页 | 29.91 MB | 1 年前3
机器学习课程-温州大学-02-数学基础回顾-2.CS229-Prob概率的基本要素 1.1 条件概率和独立性 2. 随机变量 2.1 累积分布函数 2.2 概率质量函数 2.3 概率密度函数 2.4 期望 2.5 方差 2.6 一些常见的随机变量 3. 两个随机变量 3.1 联合分布和边缘分布 3.2 联合概率和边缘概率质量函数 3.3 联合概率和边缘概率密度函数 3.4 条件概率分布 3.5 贝叶斯定理 3.6 独立性 3.7 期望和协方差 事件集(事件空间) :元素 的集合(称为事件)是 的子集(即每个 是一个实 验可能结果的集合)。 备注: 需要满足以下三个条件: (1) (2) (3) 概率度量 :函数 是一个 的映射,满足以下性质: 对于每个 , , 如果 是互不相交的事件 (即 当 时, ), 那么: 以上三条性质被称为概率公理。 举例: 考虑投掷六面骰子的事件。样本空间为 , , , , , , , , , , 。然而,在实践中,我 们通常不关心获得任何特定正反序列的概率。相反,我们通常关心结果的实值函数,比如我们10次投掷 中出现的正面数,或者最长的背面长度。在某些技术条件下,这些函数被称为随机变量。 更正式地说,随机变量 是一个的 函数。通常,我们将使用大写字母 或更简单的 (其中 隐含对随机结果 的依赖)来表示随机变量。我们将使用小写字母 来表示随机变量的值。0 码力 | 12 页 | 1.17 MB | 1 年前3
共 57 条
- 1
- 2
- 3
- 4
- 5
- 6













