动手学深度学习 v2.0. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 290 8.1.1 统计工具 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 290 8.1.2 训练 . . 354 9.4.3 双向循环神经网络的错误应用 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 356 9.5 机器翻译与数据集 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 357 9.5.1 下载和预处理数据集 微调BERT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 738 16 附录:深度学习工具 741 16.1 使用Jupyter Notebook . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .0 码力 | 797 页 | 29.45 MB | 1 年前3
机器学习课程-温州大学-01深度学习-引言•图像滤波与降噪 •图像增强 •风格迁移 •三维重建 •图像检索 •GAN 12 深度学习-CV典型应用案例 翻译 传统翻译采用人工查词的方式,不但耗时长 ,而且错误率高。图像识别技术(OCR)的出 现大大提升了翻译的效率和准确度,用户通 过简单的拍照、截图或划线就能得到准确的 翻译结果。 体育赛事 计算机视觉还有助于比赛和策略分 析、球员表现和评级,以及跟踪体育 节目中品牌赞助的可见性。 机科学、数学等领域的交叉学科。自然语 言处理,是指用计算机对自然语言 的形、音、义等信息进行处理 ,即对字、词、句、篇章的输入、输出、识别、 分析、理解、生 成等的操作和加工。自然语言处理的具体表现形式包括机器 翻译 、文本摘要、文本分类、文本校对、信息抽取、语音合成、语音识 别等。 可以说,自然语言处理就是要计算机理解自然语言,自然 语言处理机制涉及 两个流程,包括自然语言理解和自然语言生成 ,自然语言理解是让计算机把 基于规则的方法 2008 • 深度学习 未来 深度学习入门-NLP(自然语言处理) 19 深度学习入门-NLP(自然语言处理) 1.短文本相似 2.文本分类 3.QA机器人 4.语义标注 5.机器翻译 6.…… 20 2020 2013 2017 2019 2018 • ELECTRA • ALBERT • GPT-3 • BERT • GPT • ELMo 2014 • word2vec0 码力 | 80 页 | 5.38 MB | 1 年前3
【PyTorch深度学习-龙龙老师】-测试版202112部分,主要介绍神经网络的核心理论和共性知识,让读者理解深 度学习的本质;第 10~15 章为模型算法应用部分,主要介绍常见的算法与模型,让读者能够 学有所用。 在本书中编写时,很多英文词汇尚无法在业界找到一个共识翻译名,因此作者备注翻译 的英文原文,供读者参考,同时也方便读者日后阅读相关英文文献时,不至于感到陌生。 尽管每天都有深度学习相关算法论文的发布,但是作者相信,深度学习的核心思想和基 础理论是共通的。本书 参考文献 第 8 章 PyTorch 高级用法 8.1 常见功能模块 8.2 模型装配、训练与测试 8.3 模型保存与加载 8.4 自定义类 8.5 模型乐园 8.6 测量工具 8.7 可视化 8.8 参考文献 第 9 章 过拟合 9.1 模型的容量 9.2 过拟合与欠拟合 9.3 数据集划分 9.4 模型设计 9.5 正则化 9 超人的智力水平, 如在围棋上 AlphaGo 智能程序已经击败人类最强围棋专家之一柯洁,在 Dota2 游戏上 OpenAI Five 智能程序击败世界冠军队伍 OG,同时人脸识别、智能语音、机器翻译等一项 项实用的技术已经进入到人们的日常生活中。现在我们的生活处处被人工智能所环绕,尽 管目前能达到的智能水平离通用人工智能(Artificial General Intelligence,简称 AGI)还有一0 码力 | 439 页 | 29.91 MB | 1 年前3
谭国富:深度学习在图像审核的应用机DARPA没 能实现,政府 投入缩减,进 入第二次低谷 深度学习 - 带动的AI浪潮 2016 2016 深度学习全面爆发 2016 - 讯飞,搜 狗,阿里 演示了实 时语音识 别翻译 2016 优图实时 美颜美妆 在众多直 播,小视 频场景大 量应用 深度学习实现 的图像风格化, 带动时光相册 等一大批风格 化软件流行 SACC2017 深度学习 – 相对于传统机器学习方法的突破 节点心跳异常告警 • 运维工具化,快速屏蔽/启动异常机器 • 灵活的资源分配 • 支持以 GPU 或节点为粒度进行资源分配 • 用户配置任务所需最小资源 • 自动扩缩容,最大化资源使用率 • 支持不同计算框架 • 调度与任务松耦合,用户可以灵活定义任务 • 支持配置 docker 镜像,完全自定义运行环 境 • 良好的用户体验 • 完善的客户端工具 • 任务进度微信提醒 SACC20170 码力 | 32 页 | 5.17 MB | 1 年前3
全连接神经网络实战. pytorch 版本章节将神经网络训练之前的准备工作进行全面介绍。但我们并不介绍如何安装 pytorch,一是由 于不同版本的 pytorch 会依赖于不同的 cuda 工具,二是因为官网资料非常齐全,也有很多博客来 介绍,因此没有必要赘述。 1.1 导入 pytorch 首先我们需要明白一个术语:tensor。这个词被翻译为中文叫张量。1 维标量是一种 tensor; 向量也是一种 tensor;而一些微分量,例如梯度、导数等也都是 tensor;矩阵也是张量;多张矩 DataLoader。 Dataset 存储样本以及它们的标签等信息,Dataset 可以使用预加载的数据集(例如 mnist), 也可以使用自定义的数据集;而 DataLoader 是把样本进行访问和索引的工具,它实现了迭代器 功能,也就是说它可以依次将 batch_size 数量的样本导出。 注意,前面已经导入过的 python 包我们就不再重复导入了。 from torch . u t i l s0 码力 | 29 页 | 1.40 MB | 1 年前3
Keras: 基于 Python 的深度学习库Keras 深度学习库时方 便本地查阅,下载最新 PDF 版本请访问: https://github.com/wanzhenchn/keras-docs-zh。 感谢 keras-team 所做的中文翻译工作,本文档制作基于此处。 严正声明:本文档可免费用于学习和科学研究,可自由传播,但切勿擅自用于商业用途,由 此引发一切后果贡献者概不负责。 The main reason of organizing . . . . . . . . . . . . . . . . . . . . 233 18 可视化 Visualization 234 19 Scikit-learn API 235 20 工具 236 20.1 CustomObjectScope [source] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236 (如果你计划在 GPU 上运行 Keras,建议安装)。 • HDF5 和 h5py (如果你需要将 Keras 模型保存到磁盘,则需要这些)。 • graphviz 和 pydot (用于可视化工具绘制模型图)。 然后你就可以安装 Keras 本身了。有两种方法安装 Keras: • 使用 PyPI 安装 Keras (推荐): sudo pip install keras 如果你使用0 码力 | 257 页 | 1.19 MB | 1 年前3
机器学习课程-温州大学-13深度学习-Transformer1.Transformer介绍 Seq2Seq任务 Seq2Seq 任务指的是输入和输出都是 序列的任务,输出的长度不确定时采 用的模型,这种情况一般是在机器翻 译的任务中出现,将一句中文翻译成 英文,那么这句英文的长度有可能会 比中文短,也有可能会比中文长,所 以输出的长度就不确定了。 上图,输入的中文长度为4,输出的英文长度为2 6 1.Transformer介绍 Encoder-Decoder模型 息会被弱化,就好像记忆能力弱的人,记不住过去的事情是一样的。 10 2017年google的机器翻译团队在 NIPS上发表了Attention is all you need的文章,开创性地提出了 在序列转录领域,完全抛弃 CNN和RNN,只依赖Attention-注 意力结构的简单的网络架构, 名为Transformer;论文实现的 任务是机器翻译。 Transformer结构 Multi-Head Attention Transformer的训练 02 Transformer的工作流程 04 BERT 14 2.Transformer的工作流程 从宏观的视角开始 首先将这个模型看成是一个黑箱操作。在机器翻译中,就 是输入一种语言,输出另一种语言。 15 2.Transformer的工作流程 那么拆开这个黑箱,我们可以看到它是由编码组件、解码组件和它们之间的 连接组成。 16 2.Transformer的工作流程0 码力 | 60 页 | 3.51 MB | 1 年前3
Qcon北京2018-《文本智能处理的深度学习技术》-陈运文机交流 应用:智能问答,机器翻译,文本分类,文本摘要,标 签提取,情感分析,主题模型 NLP发展简史 1950S 1980s 1990s 2006~至今 以机器翻译为开端,作 为早期尝试,但不是很 成功 基于统计机器学习技术 及语料库,使用统计模 型,NLP发展产生革新 多数自然语言处理系统 基于规则,人工修订等 方式,包括问答、翻译、 搜索等 深度学习起步、发展及 深度学习用于各类型文本应用的实践方法 文本挖掘各种类型应用的处理框架 文本数据 结果 预处理 输出层 表示层 隐层 不同深度学习模型 后处理 NER 分词 情感分析 文本分类 机器翻译 … 文本分类 传统机器学习 • 选择分类器(朴素贝叶斯,SVM,KNN,LR,决 策树) • 特征工程构造特征 • 不同领域定制优化成本高 • 常需要分类算法融合提升效果 深度学习(CNN,RNN等)0 码力 | 46 页 | 25.61 MB | 1 年前3
机器学习课程-温州大学-02-数学基础回顾-1.CS229-LinearAlgebra本文是斯坦福大学CS 229机器学习课程的基础材料,原始文件下载 原文作者:Zico Kolter,修改:Chuong Do, Tengyu Ma 翻译:黄海广 备注:请关注github的更新,线性代数和概率论已经更新完毕。 CS229 机器学习课程复习材料-线性代数 CS229 机器学习课程复习材料-线性代数 线性代数复习和参考 1. 基础概念和符号 1.1 基本符号 2 我们将第一种情况表示为 ,第二种情况表示为 。 保持符号清晰是非常重要的,以后完成课程作业时候你就会发现。 4.2 黑塞矩阵 假设 是一个函数,它接受 中的向量并返回实数。那么关于 的黑塞矩阵(也有翻译作海 森矩阵),写做: ,或者简单地说, 是 矩阵的偏导数: 换句话说, ,其: 注意:黑塞矩阵通常是对称阵: 与梯度相似,只有当 为实值时才定义黑塞矩阵。 很自然地认为梯度与向量函数的一 处为零(这不是唯一的条件,但它是必需的)。也就是说, 请注意,这只是线性方程 。 这表明假设 ,可能最大化(或最小化) 的唯一点是 的特征向量。 线性代数和概率论都已经翻译完毕,请关注github的更新,若有修改将在github上更新 欢迎大家提交PR,对语言进行润色。 翻译:黄海广0 码力 | 19 页 | 1.66 MB | 1 年前3
Chatbots 中对话式交互系统的分析与应用(2014) 语言生成 Natural Language Generation (NLG) • 把结构化的系统动作翻译成人类的语言 Steve Young (2016) 语言生成 Natural Language Generation (NLG) • 把结构化的系统动作翻译成人类的语言 • Semantically Conditioned LSTM (SC-LSTM) Tsung-Hsien Tsung-Hsien Wen (2016) 语言生成 Natural Language Generation (NLG) • 把结构化的系统动作翻译成人类的语言 • Semantically Conditioned LSTM (SC-LSTM) Tsung-Hsien Wen (2016) Task-Bot: 其他框架 • Microsoft: End-to-End Task-Completion0 码力 | 39 页 | 2.24 MB | 1 年前3
共 32 条
- 1
- 2
- 3
- 4













