【PyTorch深度学习-龙龙老师】-测试版202112个人或者企 业的商业用途,违法盗版和销售,必究其法律责任。 龙龙老师 2021 年 10 月 19 日 预览版202112 配 套 资 源 ❑ 提交错误或者修改等反馈意见,请在 Github Issues 页面提交: https://github.com/dragen1860/Deep-Learning-with-PyTorch-book/issues ❑ 本书主页,以及 的。 怎么实现人工智能是一个非常广袤的问题。人工智能的发展主要经历了三个阶段,每 个阶段都代表了人们从不同的角度尝试实现人工智能的探索足迹。早期,人们试图通过总 结、归纳出一些逻辑规则,并将逻辑规则以计算机程序的方式实现,来开发出智能系统。 但是这种显式的规则往往过于简单,并且很难表达复杂、抽象的概念和规则。这一阶段被 称为推理期。 1970 年代,科学家们尝试通过知识库加推理的方式解决人工智能,通过构建庞大复杂 年代成为人工智能中的热门学 预览版202112 第 1 章 人工智能绪论 2 科。 在机器学习中,有一个通过神经网络来学习复杂、抽象逻辑的研究方向,称为神经网 络。神经网络方向的研究经历了两起两落。从 2012 年开始,由于算法效果极为显著,深层 神经网络技术在计算机视觉、自然语言处理、机器人等领域取得了重大突破,部分任务上 甚至超越了人类智能水平,开启了以深层神经网络为代表的人工智能的第三次复兴。深层0 码力 | 439 页 | 29.91 MB | 1 年前3
动手学深度学习 v2.0模型选择 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187 4.10.8 提交Kaggle预测 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188 5 深度学习计算 191 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 639 13.13.7 在 Kaggle 上对测试集进行分类并提交结果 . . . . . . . . . . . . . . . . . . . . . . . 640 13.14 实战Kaggle比赛:狗的品种识别(ImageNet Dogs) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 646 13.14.7 对测试集分类并在Kaggle提交结果 . . . . . . . . . . . . . . . . . . . . . . . . . . . 647 14 自然语言处理:预训练 649 14.1 词嵌入(word2vec)0 码力 | 797 页 | 29.45 MB | 1 年前3
Keras: 基于 Python 的深度学习库换为实验结果,是做好研究的关键。 如果你在以下情况下需要深度学习库,请使用 Keras: • 允许简单而快速的原型设计(由于用户友好,高度模块化,可扩展性)。 • 同时支持卷积神经网络和循环神经网络,以及两者的组合。 • 在 CPU 和 GPU 上无缝运行。 查看文档,请访问 Keras.io。 Keras 兼容的 Python 版本: Python 2.7-3.6。 1.2 指导原则 • 用户友好。Keras HDF5 和 h5py (如果你需要将 Keras 模型保存到磁盘,则需要这些)。 • graphviz 和 pydot (用于可视化工具绘制模型图)。 然后你就可以安装 Keras 本身了。有两种方法安装 Keras: • 使用 PyPI 安装 Keras (推荐): sudo pip install keras 如果你使用 virtualenv 虚拟环境, 你可以避免使用 sudo: Keras? Keras (κέρας) 在希腊语中意为 号角。它来自古希腊和拉丁文学中的一个文学形象,首先出 现于 《奥德赛》中,梦神 (Oneiroi, singular Oneiros) 从这两类人中分离出来:那些用虚幻的景象 欺骗人类,通过象牙之门抵达地球之人,以及那些宣告未来即将到来,通过号角之门抵达之人。 它类似于文字寓意,κέρας (号角) / κραίνω (履行),以及 ἐλέφας0 码力 | 257 页 | 1.19 MB | 1 年前3
AI大模型千问 qwen 中文文档中使用量化后的模型。以下 是一个非常简单的代码片段示例,展示如何运行 Qwen1.5-7B-Chat-GPTQ-Int8 (请注意,对于每种大 小的 Qwen1.5 模型,我们都提供了 Int4 和 Int8 两种量化版本): from transformers import AutoModelForCausalLM, AutoTokenizer device = "cuda" # the device to {generated_text!r}") 1.10.3 适配 OpenAI-API 的 API 服务 借助 vLLM,构建一个与 OpenAI API 兼容的 API 服务十分简便,该服务可以作为实现 OpenAI API 协议的服 务器进行部署。默认情况下,它将在 http://localhost:8000 启动服务器。您可以通过 --host 和 --port 参数 来自定义地址。请按照以下所示运行命令: python 5-7B-Chat-GPTQ-Int8 \ --quantization gptq \ --kv-cache-dtype fp8_e5m2 1.10.6 常见问题 您可能会遇到令人烦恼的 OOM(内存溢出)问题。我们推荐您尝试两个参数进行修复。第一个参数是 --max-model-len 。我们提供的默认最大位置嵌入(max_position_embedding)为 32768,因此服务时的最 大长度也是这个值,这会导致更高0 码力 | 56 页 | 835.78 KB | 1 年前3
机器学习课程-温州大学-12深度学习-自然语言处理和词嵌入Word2Vec 负采样 计算的角度来看,SkipGram非常消耗资源:尤其是我们将在 数据集中为每个训练样本做一次(很可能数千万次)。我们 需要做一些事情来提高效率。 一种方法是将目标分成两个步骤: 1.生成高质量的单词嵌入(不要担心下一个单词预测)。 2.使用这些高质量的嵌入来训练语言模型(进行下一个单词 预测)。 19 3.Word2Vec 负采样 并不是每次迭代都训练全部10 在训练过程开始之前,我们预先处理我们正在训练模型的文本。在这一步中, 我们确定词汇量的大小(我们称之为vocab_size,比如说,将其视为10,000)以及 哪些词属于它。在训练阶段的开始,我们创建两个矩阵 - Embedding矩阵和Context 矩阵。这两个矩阵在我们的词汇表中嵌入了每个单词(这vocab_size是他们的维度 之一)。第二个维度是我们希望每次嵌入的时间长度(embedding_size- 300是一个 /上下文单词:( thou实际邻 居),aaron,和taco(负样本)。我们继续查找它们的嵌入 - 对于输 入词,我们查看Embedding矩阵。对于上下文单词,我们查看Context矩 阵(即使两个矩阵都在我们的词汇表中嵌入了每个单词)。 23 3.Word2Vec 训练流程 现在我们需要一种方法将这些分数转化为看起来像概率的东西 : 使用sigmoid函数把概率转换为0和1。 然0 码力 | 44 页 | 2.36 MB | 1 年前3
机器学习课程-温州大学-13深度学习-Transformer件部分也是由相同数量 (与编码器对应)的解 码器(decoder)组成 的。 17 2.Transformer的工作流程 所有的编码器在结构上都是相同 的,但它们没有共享参数。每个 解码器都可以分解成两个子层。 18 2.Transformer的工作流程 从编码器输入的句子首先会经过一个自注意力(self-attention)层,这层帮助编码器在对每 个单词编码时关注输入句子的其他单词。 神经网络都完全一样(译注:另一种解读就是一层窗口为一个单词的一维卷积神经网络)。 解码器中也有编码器的自注意力(self-attention)层和前馈(feed-forward)层。除此之外, 这两个层之间还有一个注意力层,用来关注输入句子的相关部分(和seq2seq模型的注意力 作用相似)。 19 2.Transformer的工作流程 各种向量或张量是怎样在模型的不同部分中,将输入转化为输出的。 ,它就是下一层编码器的输出(也是一个向量列表)。 向量列表大小是我们可以设置的超参数:一般是我们训练集中最长句子的长度。 20 2.Transformer的工作流程 将输入序列进行词嵌入之后,每个单词都会流经编码器中的两个子层。 Transformer的一个核心特性,在这里 输入序列中每个位置的单词都有自己 独特的路径流入编码器。在自注意力 层中,这些路径之间存在依赖关系。 而前馈(feed-forward)层没有这些依赖0 码力 | 60 页 | 3.51 MB | 1 年前3
谭国富:深度学习在图像审核的应用识别率超过99% 和95% 1970 受限于 计算能 力,进 入第一 个寒冬 XCON专 家系统出 现,每年 节约4000 万美元 第1阶段:人工智能起步 期 (1956-1980s) 第2阶段:专家系统推 广 (1980s-1990s) 第3阶段:深度学习 (2000s-至今 ) 1997 IBM的 Deep Blue战 胜国际 象棋冠 军 2011 苹果的 Siri问世, 技术上不 WK Job 2 WK Job 3 监控/启停 任务调度/资源管理 监控上报 cephfs存储集 群 本地文件系统 数据 模型/日志 client 管理数据 提取模型、 查看日志 提交/管理任务 用户 docker.oa.co m 自动拉取镜像 Redis 冷数据 热任务/监控数据/集群信息 • 任务监控与自动重启 • 分布式多机训练,不可避免遇到由于硬件/网 络波动引起的异常 xx-randroid-sdk.java xx-ios-arm-sdk.m xx-x86-sdk.cpp Rapidnet : 深度网络应用的解决方案 • 将深度网络SDK生成,分为解析,编译,运行三个阶段 • 一键生成深度学习SDK,一个模型到处应用 加快应用速度 - RapidNet Ncnn : 移动端前向网络开源框 https://github.com/tencent/ncnn • 针对移动端优化版本0 码力 | 32 页 | 5.17 MB | 1 年前3
机器学习课程-温州大学-09深度学习-目标检测st等)。 12 1.目标检测概述 2.基于深度学习的Two Stages目标检测框架 (准确度有优势) 此类算法将检测问题分为两个阶段, 第一阶段生成大量可能含有目标的候选区域(Region Proposal),并附 加大概的位置信息; 第二个阶段对其进行分类,选出包含目标的候选区域并对其位置进行 修正(常使用R-CNN、Fast R-CNN、Faster R-CNN等算法)。 13 1.目标检测概述 3.基于深度学习的One Stage目标检测框架 (速度有优势) 此类检测算法属于端到端(End-to-End),不需要生成大量候选区域 的阶段,而是将问题转化为回归(Regression)问题处理,使用完整 图像作为输入,直接在图像的多个位置上回归出该位置的目标边框 及所属类别(常使用YOLO、SSD、CornerNet等算法)。 14 1.目标检测概述 输出非极大化抑制的结果 最后你要运行一下这个非极大值抑制,为了让内容更有趣一些,我们看看一张新的测 试图像,这就是运行非极大值抑制的过程。如果你使用两个anchor box,那么对于9个 格子中任何一个都会有两个预测的边界框,其中一个的概率??很低。但9个格子中,每 个都有两个预测的边界框,比如说我们得到的边界框是是这样的,注意有一些边界框可 以超出所在格子的高度和宽度(编号1所示)。接下来你抛弃概率很低的预测,去掉这0 码力 | 43 页 | 4.12 MB | 1 年前3
机器学习课程-温州大学-01机器学习-引言✓ 大数据存储/并行计算 ✓ 做一个机器人 机器学习可以解决什么问题 11 机器学习发展史 总的来说,人工智能经历了逻辑推理、知识工程、机器 学习三个阶段。 机器学习伴随着人工智能的发展而诞生,它是人工智能 发展到一定阶段的必然产物。 12 机器学习发展史 13 机器学习发展史 14 2. 机器学习的类型 01 机器学习概述 02 机器学习的类型 03 19 ✓ 机器学习方法 ✓ 模型 ✓ 损失函数 ✓ 优化算法 ✓ 模型评估指标 机器学习的概念 20 机器学习的概念-模型 机器学习首先要考虑使用什么样的模型。 模型的类别,大致有两种:一是概率模型(Probabilistic Model)和非概率模型 (Non-Probabilistic Model)。 在监督学习中,概率模型可被表示为?(?|?),非概率模型则为? = ?( 为? × ?的矩阵,?为? × 1的列向量 41 线性代数 正交 给定?, ? ∈ ℝ?×1,如果 ?T? = 0, 那么向量?, ?正交。 对于方阵? ∈ ℝ?×? 来说,如果?的列向量两两正交,且ℓ2范数为1 ,那么?为正交阵,数学描述为?T? = ? = ??T。 正定性 对于 ? ∈ ℝ?×?, ∀? ∈ ℝ?×1,满足 ?T?? > 0, A为正定矩阵; ?T?? ≥ 0,0 码力 | 78 页 | 3.69 MB | 1 年前3
《TensorFlow 2项目进阶实战》4-商品检测篇:使用RetinaNet瞄准你的货架商品商品检测篇:使用 RetinaNet 瞄准你的货架商品 扫码试看/订阅 《 TensorFlow 2项目进阶实战》视频课程 • 基础:目标检测问题定义与说明 • 基础:R-CNN系列二阶段模型综述 • 基础:YOLO系列一阶段模型概述 • 基础:RetinaNet 与 Facol Loss 带来了什么 • 应用:检测数据准备与标注 • 应用:划分检测训练集与测试集 • 应用:生成CSV 格式数据集与标注 arXiv:1905.05055. 深度目标检测网络 两阶段检测器(Two-stage Detectors) •R-CNN •Fast R-CNN •Faster R-CNN •R-FCN 一阶段检测器(One-stage Detectors) •YOLO v1 •YOLO v2 •YOLO v3 理论:R-CNN系列二阶段模型综述 R-CNN 开启CNN+目标检测的大门 R-CNN R-CNN Fast R-CNN Faster R-CNN 理论:YOLO系列一阶段模型概述 YOLO 与 RCNN 系列对比 YOLOv1:首个深度学习的一阶段检测器 YOLOv1:首个深度学习的一阶段检测器 YOLO输出向量:S x S x (B * 5 + C) YOLOv1:首个深度学习的一阶段检测器 YOLO检测网络包括24个卷积层和2个全连接层,如下图所示。 7 x 70 码力 | 67 页 | 21.59 MB | 1 年前3
共 57 条
- 1
- 2
- 3
- 4
- 5
- 6













