AutoEncoder自编码器0 码力 | 29 页 | 3.49 MB | 1 年前3
动手学深度学习 v2.0. . . . . . . . . . . . . . . . . . . 362 9.6 编码器‐解码器架构 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 364 9.6.1 编码器 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 364 9.6.2 解码器 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 365 9.6.3 合并编码器和解码器 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366 9.7.1 编码器 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367 9.7.2 解码器 . . . . . . . . . . . . . . . . . . . . . . . . .0 码力 | 797 页 | 29.45 MB | 1 年前3
【PyTorch深度学习-龙龙老师】-测试版20211211.11 LSTM/GRU 情感分类问题再战 11.12 预训练的词向量 11.13 参考文献 第 12 章 自编码器 12.1 自编码器原理 12.2 MNIST 图片重建实战 12.3 自编码器变种 12.4 变分自编码器 12.5 VAE 实战 12.6 参考文献 第 13 章 生成对抗网络 13.1 博弈学习实例 13.2 GAN 监督信号,即模型需要学习的映射为??: ? → ?,称为自监督学习(Self-supervised Learning)。在训练时,通过计算模型的预测值??(?)与自身?之间的误差来优化网络参数?。 常见的无监督学习算法有自编码器、生成对抗网络等。 强化学习 也称为增强学习,通过与环境进行交互来学习解决问题的策略的一类算法。 与有监督学习、无监督学习不同,强化学习问题并没有明确的“正确的”动作监督信号, 预览版202112 元的权重参数{? , ? , … , ? }。Frank Rosenblatt 随后基于“Mark 1 感知机”硬件实现感知 机模型,如图 1.6、图 1.7 所示,输入为 400 个单元的图像传感器,输出为 8 个节点端 子,它可以成功识别一些英文字母。一般认为 1943 年~1969 年为人工智能发展的第一次兴 盛期。 ? ? ? ? ? ? 误差0 码力 | 439 页 | 29.91 MB | 1 年前3
PyTorch OpenVINO 开发实战系列教程第一篇torchtext、针对计算机视觉的 torchvision、针对语音处理 的 torchaudio,这些库支持快速模型训练与演示应用,可以 帮助开发者快速搭建原型演示。此外在移动端支持、模型部署 的压缩、量化、服务器端云化部署、推理端 SDK 支持等方面 Pytorch 也在不断的演化改进。 在操作系统与 SDK 支持方面,Pytorch 从最初的单纯支持 Python 语言到如今支持 Python/C++/Java 数据加载类 (DataLoader)、自定义编程的可视化支持组件 tensorboard 相关类。 3)torch 开头的一些包与功能,主要包括支持模型导出功能 的 torch.onnx 模块、优化器 torch.optim 模块、支持 GPU 训 练 torch.cuda 模块,这些都是会经常用的。 4)此外本书当中还会重点关注的 torchvison 库中的一些常见 模型库与功能函数,主要包括对象检测模块与模型库、图象数 而在深度学习框架中编程模式主要是基于计算图、张量数据、 自动微分、优化器等组件构成。面向对象编程运行的结果是交 互式可视化的,而深度学习通过训练模型生成模型文件,然后 再使用模型预测,本质数据流图的方式工作。所以学习深度学 习首先必须厘清深度学习编程中计算图、张量数据、自动微分、 优化器这些基本术语概念,下面分别解释如下: ● 张量 张量是深度学习编程框架中需要理解最重要的一个概念,张量0 码力 | 13 页 | 5.99 MB | 1 年前3
机器学习课程-温州大学-15深度学习-GAN其隐变量z是一个单值映射:z=f(x) 变分自编码(VAE) 其隐变量z是一个正态分布的采样 生成式对抗网络(GAN) 条件生成式对抗网络(CGAN) 在生成器和判别器中添加某一标签信息 深度卷积生成式对抗网络(DCGAN) 判别器和生成器都使用了卷积神经网络(CNN)来替代GAN 中的多层感知机 为了使整个网络可微,拿掉了CNN 中的池化层 将全连接层以全局池化层替代以减轻计算量。 由一个生成器和一个判别器构成, 通过对抗 学习的方式来训练. 目的是估测数据样本的潜在分布并生成新的数据样本。 2. GAN的理论与实现模型 10 概念简介 提出背景 GAN的概念简介及提出背景 2001年,Tony Jebara 在毕业论文中以最大熵 形式将判别模型与生成 模型结合起来联合学习 2007年,Zhuowen Tu 提出将基 于boosting分类器的判别模型与 基于采样的生成模型相结合,来 2. GAN的理论与实现模型 13 GAN 的核心思想来源于博弈论的纳什均衡。 它设定参与游戏双方分别为一个生成器 (Generator) 和一个判别器(Discriminator),生成器的目的是尽 量去学习真实的数据分布,而判别器的目的是尽量 正确判别输入数据是来自真实数据还是来自生成器; 为了取得游戏胜利,这两个游戏参与者需要不断优 化, 各自提高自己的生成能力和判别能力,这个学0 码力 | 35 页 | 1.55 MB | 1 年前3
Keras: 基于 Python 的深度学习库. . . . . . . . . . . . . . . . . . . . . . . . 10 3.1.5.1 基于多层感知器 (MLP) 的 softmax 多分类: . . . . . . . . . . . . 11 3.1.5.2 基于多层感知器的二分类: . . . . . . . . . . . . . . . . . . . . . . 12 3.1.5.3 类似 VGG Keras 模型? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 3.3.6.1 保存/加载整个模型(结构 + 权重 + 优化器状态) . . . . . . . . . 28 3.3.6.2 只保存/加载模型的结构 . . . . . . . . . . . . . . . . . . . . . . . . 29 3.3 5.11.3 AlphaDropout [source] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 5.12 层封装器 wrappers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 5.12.1 TimeDistributed0 码力 | 257 页 | 1.19 MB | 1 年前3
AI大模型千问 qwen 中文文档streamer=streamer, ) 除了使用 TextStreamer 之外,我们还可以使用 TextIteratorStreamer ,它将可打印的文本存储在一 个队列中,以便下游应用程序作为迭代器来使用: # Repeat the code above before model.generate() # Starting here, we add streamer for text generation OpenAI-API 的 API 服务 借助 vLLM,构建一个与 OpenAI API 兼容的 API 服务十分简便,该服务可以作为实现 OpenAI API 协议的服 务器进行部署。默认情况下,它将在 http://localhost:8000 启动服务器。您可以通过 --host 和 --port 参数 来自定义地址。请按照以下所示运行命令: python -m vllm.entrypoints.openai SkyPilot Serve 扩展 Qwen 的服务规模非常容易,只需运行: sky serve up -n qwen ./serve-72b.yaml 这将启动服务,使用多个副本部署在最经济的可用位置和加速器上。SkyServe 将自动管理这些副本,监控其 健康状况,根据负载进行自动伸缩,并在必要时重启它们。 将返回一个 endpoint,所有发送至该 endpoint 的请求都将被路由至就绪状态的副本。0 码力 | 56 页 | 835.78 KB | 1 年前3
机器学习课程-温州大学-机器学习项目流程机器学习的一般步骤 数据搜集 数据清洗 特征工程 数据建模 6 机器学习的一般步骤 数据搜集 数据清洗 特征工程 数据建模 • 基于性能指标比较几种机 器学习模型 • 对最佳模型执行超参数调 整 • 在测试集上评估最佳模型 • 解释模型结果 • 得出结论 • 数据清理和格式化 • 探索性数据分析(EDA) • 特征工程 • 特征选择 • 网络下载 • 网络爬虫 • 数据库读取 ,以便它们可以在模型中使用。 一般来说,我认为特征工程是从原始数据 创建附加特征。 •特征选择: 选择数据中最相关的特征的过程。在特征选择中,我们删除特征 以帮助模型更好地总结新数据并创建更具可解释性的模型。一般来说,特 征选择是减去特征,所以我们只留下那些最重要的特征。 20 特征工程 主要方法 离散型变量处理 分箱/分区 交叉特征 特征缩放 特征提取 …… 特征工程在 02 数据清洗 03 特征工程 04 数据建模 24 数据建模 • 基于性能指标比较几种机器学习模型 • 对最佳模型执行超参数调整 • 在测试集上评估最佳模型 • 解释模型结果 • 得出结论 25 参考文献 1. https://github.com/WillKoehrsen/machine-learning-project- walkthrough 260 码力 | 26 页 | 1.53 MB | 1 年前3
《TensorFlow 快速入门与实战》6-实战TensorFlow验证码识别pip install Pillow captcha pydot flask Pillow (PIL Fork) PIL(Python Imaging Library) 为 Python 解释器添加了图像处理功能。但是,在 2009 年发布 1.1.7 版本后,社区便停止更新和维护。 Pillow 是由 Alex Clark 及社区贡献者 一起开发和维护的一款分叉自 PIL 的图像工具库。 test to tell Computers and Humans Apart,简称CAPTCHA),俗称验证码,是一种区分用户是 计算机或人的公共全自动程序。在CAPTCHA测试中,作为服务器的计算机会自动生成一 个问题由用户来解答。这个问题可以由计算机生成并评判,但是必须只有人类才能解答。 由于计算机无法解答CAPTCHA的问题,所以回答出问题的用户就可以被认为是人类。 一种常用的 损失值先开始速降,后平稳多时 • 训练后期,损失值反复上下波动 优化器介绍:SGD(Stochastic Gradient Descent) 优化器介绍:SGD-M(Momentum) SGD SGD with Momentum SGD 在遇到沟壑时容易陷入震荡。为此,可以为其引入动量(Momentum),加速 SGD 在正确方向的下降并抑制震荡。 优化器介绍:Adagrad – RMSprop – Adam0 码力 | 51 页 | 2.73 MB | 1 年前3
机器学习课程-温州大学-13深度学习-Transformer04 BERT 4 1.Transformer介绍 为什么需要用transformer 其实在之前我们使用的是RNN(或者是其的单向或者双向变种LSTM/GRU等) 来 作为编解码器。RNN模块每次只能够吃进一个输入token和前一次的隐藏状态,然 后得到输出。它的时序结构使得这个模型能够得到长距离的依赖关系,但是这也 使得它不能够并行计算,模型效率十分低。 在没有transformer的时候,我们 通常来说,Seq2Seq任务最常见的是使用Encoder+Decoder的模式,先将一个序 列编码成一个上下文矩阵,在使用Decoder来解码。当然,我们仅仅把context vector作为编码器到解码器的输入。 7 1.Transformer介绍 Attention注意力机制 在介绍什么是注意力机制之前, 先让大家看一张图片。当大家看 到下面图片,会首先看到什么内 容?当过载信息映入眼帘时,我 编码组件部分由一堆编 码器(encoder)构成 (论文中是将6个编码 器叠在一起)。解码组 件部分也是由相同数量 (与编码器对应)的解 码器(decoder)组成 的。 17 2.Transformer的工作流程 所有的编码器在结构上都是相同 的,但它们没有共享参数。每个 解码器都可以分解成两个子层。 18 2.Transformer的工作流程 从编码器输入的句子首先会经过0 码力 | 60 页 | 3.51 MB | 1 年前3
共 51 条
- 1
- 2
- 3
- 4
- 5
- 6













