Keras: 基于 Python 的深度学习库Keras: 基于 Python 的深度学习库 Keras: The Python Deep Learning library* Author: Keras-Team Contributor: 万 震 (WAN Zhen) � wanzhenchn � wanzhen@cqu.edu.cn 2018 年 12 月 24 日 *Copyright © 2018 by Keras-Team Keras-Team 前 言 整理 Keras: 基于 Python 的深度学习库 PDF 版的主要原因在于学习 Keras 深度学习库时方 便本地查阅,下载最新 PDF 版本请访问: https://github.com/wanzhenchn/keras-docs-zh。 感谢 keras-team 所做的中文翻译工作,本文档制作基于此处。 严正声明:本文档可免费用于学习和科学研究,可自由传播,但切勿擅自用于商业用途,由 Otherwise, the contributor is not responsible for the consequences. 目录 I 目录 1 Keras: 基于 Python 的深度学习库 1 1.1 你恰好发现了 Keras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2 指导原则0 码力 | 257 页 | 1.19 MB | 1 年前3
动手学深度学习 v2.0. . . . . . . . . . . . . . . . . . . 341 9.2 长短期记忆网络(LSTM) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342 9.2.1 门控记忆元 . . . . . . . . . . . . . . . . . . . . . . . . . . 354 9.4.3 双向循环神经网络的错误应用 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 356 9.5 机器翻译与数据集 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 357 9.5.1 下载和预处理数据集 安装CUDA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 755 16.3.3 安装库以运行代码 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 757 16.3.4 远程运行Jupyter笔记本0 码力 | 797 页 | 29.45 MB | 1 年前3
【PyTorch深度学习-龙龙老师】-测试版202112部分,主要介绍神经网络的核心理论和共性知识,让读者理解深 度学习的本质;第 10~15 章为模型算法应用部分,主要介绍常见的算法与模型,让读者能够 学有所用。 在本书中编写时,很多英文词汇尚无法在业界找到一个共识翻译名,因此作者备注翻译 的英文原文,供读者参考,同时也方便读者日后阅读相关英文文献时,不至于感到陌生。 尽管每天都有深度学习相关算法论文的发布,但是作者相信,深度学习的核心思想和基 础理论是共通的。本书 序列表示方法 11.2 循环神经网络 11.3 梯度传播 11.4 RNN 层使用方法 11.5 RNN 情感分类问题实战 11.6 梯度弥散和梯度爆炸 11.7 RNN 短时记忆 11.8 LSTM 原理 11.9 LSTM 层使用方法 11.10 GRU 简介 11.11 LSTM/GRU 情感分类问题再战 11.12 预训练的词向量 11.13 参考文献 超人的智力水平, 如在围棋上 AlphaGo 智能程序已经击败人类最强围棋专家之一柯洁,在 Dota2 游戏上 OpenAI Five 智能程序击败世界冠军队伍 OG,同时人脸识别、智能语音、机器翻译等一项 项实用的技术已经进入到人们的日常生活中。现在我们的生活处处被人工智能所环绕,尽 管目前能达到的智能水平离通用人工智能(Artificial General Intelligence,简称 AGI)还有一0 码力 | 439 页 | 29.91 MB | 1 年前3
机器学习课程-温州大学-13深度学习-Transformer1.Transformer介绍 Seq2Seq任务 Seq2Seq 任务指的是输入和输出都是 序列的任务,输出的长度不确定时采 用的模型,这种情况一般是在机器翻 译的任务中出现,将一句中文翻译成 英文,那么这句英文的长度有可能会 比中文短,也有可能会比中文长,所 以输出的长度就不确定了。 上图,输入的中文长度为4,输出的英文长度为2 6 1.Transformer介绍 Encoder-Decoder模型 息会被弱化,就好像记忆能力弱的人,记不住过去的事情是一样的。 10 2017年google的机器翻译团队在 NIPS上发表了Attention is all you need的文章,开创性地提出了 在序列转录领域,完全抛弃 CNN和RNN,只依赖Attention-注 意力结构的简单的网络架构, 名为Transformer;论文实现的 任务是机器翻译。 Transformer结构 Transformer的训练 02 Transformer的工作流程 04 BERT 14 2.Transformer的工作流程 从宏观的视角开始 首先将这个模型看成是一个黑箱操作。在机器翻译中,就 是输入一种语言,输出另一种语言。 15 2.Transformer的工作流程 那么拆开这个黑箱,我们可以看到它是由编码组件、解码组件和它们之间的 连接组成。 16 2.Transformer的工作流程0 码力 | 60 页 | 3.51 MB | 1 年前3
机器学习课程-温州大学-01深度学习-引言•图像滤波与降噪 •图像增强 •风格迁移 •三维重建 •图像检索 •GAN 12 深度学习-CV典型应用案例 翻译 传统翻译采用人工查词的方式,不但耗时长 ,而且错误率高。图像识别技术(OCR)的出 现大大提升了翻译的效率和准确度,用户通 过简单的拍照、截图或划线就能得到准确的 翻译结果。 体育赛事 计算机视觉还有助于比赛和策略分 析、球员表现和评级,以及跟踪体育 节目中品牌赞助的可见性。 机科学、数学等领域的交叉学科。自然语 言处理,是指用计算机对自然语言 的形、音、义等信息进行处理 ,即对字、词、句、篇章的输入、输出、识别、 分析、理解、生 成等的操作和加工。自然语言处理的具体表现形式包括机器 翻译 、文本摘要、文本分类、文本校对、信息抽取、语音合成、语音识 别等。 可以说,自然语言处理就是要计算机理解自然语言,自然 语言处理机制涉及 两个流程,包括自然语言理解和自然语言生成 ,自然语言理解是让计算机把 基于规则的方法 2008 • 深度学习 未来 深度学习入门-NLP(自然语言处理) 19 深度学习入门-NLP(自然语言处理) 1.短文本相似 2.文本分类 3.QA机器人 4.语义标注 5.机器翻译 6.…… 20 2020 2013 2017 2019 2018 • ELECTRA • ALBERT • GPT-3 • BERT • GPT • ELMo 2014 • word2vec0 码力 | 80 页 | 5.38 MB | 1 年前3
AI大模型千问 qwen 中文文档CHAPTER1 文档 1.1 安装 要快速上手 Qwen1.5,您可以从 Hugging Face 安装 transformers 库,并使用 Qwen1.5 Collection 中的模型。 我们建议您安装最新版本的 transformers 库,或者至少安装 4.37.0 版本。 1.1.1 Pip 安装 pip install transformers -U 1.1.2 Conda Transformers 实现 Chat Qwen1.5 最重要同时也最简单的用途是通过 transformers 库实现 Chat 功能。在本文档中,我们将展示如何在 流式模式或非流式模式下与 Qwen1.5-7B-Chat 进行对话。 1.3.1 基本用法 你只需借助 transformers 库编写几行代码,就能与 Qwen1.5-Chat 进行对话。实质上,我们通过 from_pretrained torch_dtype="auto", device_map="auto", attn_implementation="flash_attention_2", ) 请 注 意, 原 Qwen 仓 库 中 的 旧 方 法 chat() 现 在 已 被 generate() 方 法 替 代。 这 里 使 用 了 apply_chat_template() 函数将消息转换为模型能够理解的格式。其中的0 码力 | 56 页 | 835.78 KB | 1 年前3
Qcon北京2018-《文本智能处理的深度学习技术》-陈运文机交流 应用:智能问答,机器翻译,文本分类,文本摘要,标 签提取,情感分析,主题模型 NLP发展简史 1950S 1980s 1990s 2006~至今 以机器翻译为开端,作 为早期尝试,但不是很 成功 基于统计机器学习技术 及语料库,使用统计模 型,NLP发展产生革新 多数自然语言处理系统 基于规则,人工修订等 方式,包括问答、翻译、 搜索等 深度学习起步、发展及 深度学习用于各类型文本应用的实践方法 文本挖掘各种类型应用的处理框架 文本数据 结果 预处理 输出层 表示层 隐层 不同深度学习模型 后处理 NER 分词 情感分析 文本分类 机器翻译 … 文本分类 传统机器学习 • 选择分类器(朴素贝叶斯,SVM,KNN,LR,决 策树) • 特征工程构造特征 • 不同领域定制优化成本高 • 常需要分类算法融合提升效果 深度学习(CNN,RNN等)0 码力 | 46 页 | 25.61 MB | 1 年前3
谭国富:深度学习在图像审核的应用人群聚集 火灾 血腥 极端主义、恐怖主义标识 SACC2017 内容识别 – 人脸识别 l 政治敏感人物识别, 直播, 视频等场景 Ø 上亿级别的人脸检索,秒级的检索速度从黑名 单,白名单数据库中返回目标人脸信息。 Ø 技术指标:优图人脸识别通过传统方法和深度 学习技术结合,以空间面孔墙和微众银行远程 核身为基础,在性能上达到LFW 99.80%。 Ø QQ,微云等: 非法设置领导人头像, 非法植入领导人,政府国 际公众人物, 明星等等。 l 人脸识别核身技术 政治人物识别 无版权人物识别 检索结果:奥巴马 相似度:98% 政治人物 不在黑名单 检索结果:林志玲 相似度:99% 在版权库 SACC2017 图片场景识别 l 社交图像分类应用:微云,相册管家 Ø 标签体系:面向社交领域的热词标签200余种, 涵盖人物、风景、人造物、 建筑、动植物、食物等9个大类 。 Ø 技 机DARPA没 能实现,政府 投入缩减,进 入第二次低谷 深度学习 - 带动的AI浪潮 2016 2016 深度学习全面爆发 2016 - 讯飞,搜 狗,阿里 演示了实 时语音识 别翻译 2016 优图实时 美颜美妆 在众多直 播,小视 频场景大 量应用 深度学习实现 的图像风格化, 带动时光相册 等一大批风格 化软件流行 SACC2017 深度学习 – 相对于传统机器学习方法的突破0 码力 | 32 页 | 5.17 MB | 1 年前3
亚马逊AWSAI Services Overview2017 Amazon 的人工智能&深度学习 围绕数据的“飞轮” 机器学习 深度学习 人工智能 更多的用户 更好的产品 更多的数据 更好的分析 对象存储 数据库 数据仓库 数据流分析 商业智能 Map/Reduce 内存数据库 数据检索 点击流 用户活动 内容生成 购买 点击 喜好 传感器数据 机器学习& 人工智能 大数据 更多的用户 更好的产品 更多的数据 更好的分析 围绕数据的“飞轮” 自动化、精准的文本处理 2. 智能化的且易于理解 3. 将语义加入文本当中 4. 定制化的发音 文章、博客 训练材料 Chatbots (Lex) 公告 第一代: 面向机器的交互 第二代: 面向控制& 翻译 第三代: 意图导向 人-机交互会话的发展 语音 & 文本 “Chatbots” Alexa 应用 在手机、Web以及 设备上的语音交互 在Slack & Messenger 上的文本交互 企业应用 目标和场景检测 面部分析 人脸比对 人脸识别 集成了 S3, Lambda, Polly, Lex 对象和场景识别 为成千上万的对象、场景和概念生成标签,并配有可信度的数字 • 检索、过滤并对 图片库去粗取精 • 对用户生成的内 容进行智能检索 • 摄影、旅游、房 地产、度假以及 租赁等应用场景 Maple Plant Villa Garden Water Swimming Pool0 码力 | 56 页 | 4.97 MB | 1 年前3
机器学习课程-温州大学-12深度学习-自然语言处理和词嵌入我们有一个窗口(比如说三个单词) ,我们会对所有文本进行滑动。 3.滑动窗口为我们的模型生成训练样本 16 3.Word2Vec (下图左边为CBOW,右边为Skip-Gram) CBOW对小型数据库比较合适,而Skip-Gram在大型语料中表现更好。 17 3.Word2Vec 我们实际构建和训练模型的数据集将如下所示: 这被称为连续词袋结构,并在word2vec论文 one of the ,和抽取式文本摘要(EATS),即直接抽取 原始素材并拼接成简单概要 摘要/标 题生成 内容续写 (例如文 章续写) 整段文本 生成 产品 特色 通过随机Mask(即遮挡)数据库文本中的 词语或语段,让神经网络自主学习复原被 遮挡部分,从而拥有“猜测”缺失内容的 能力,产出预训练模型。再通过大规模预 训练模型理解上文或给定条件,从概率层 面推测最符合要求的输出结果。其本质是 在自然语言理解中有大量不同的任 务,尽管大量的未标记文本语料库非常丰富,但用于学习这些特定任务的标记数据却很少,这使得经过区分训练的模型很难充分执行。 同时,大多数深度学习方法需要大量手动标记的数据,这限制了它们在许多缺少注释资源的领域的适用性。 ✓ 在考虑以上局限性的前提下,GPT论文中证明,通过对未标记文本的不同语料库进行语言模型的生成性预训练,然后对每个特定任务 进行区分性微调0 码力 | 44 页 | 2.36 MB | 1 年前3
共 40 条
- 1
- 2
- 3
- 4













