【PyTorch深度学习-龙龙老师】-测试版202112务上获得了 50~90%的效果提升。常用的机器翻译模型有 Seq2Seq、BERT、GPT、GPT-2 等,其中 OpenAI 提出的 GPT-2 模型参数量高达 15 亿个,甚至发布之初一度以技术安全考 虑为由拒绝开源 GPT-2 模型。 聊天机器人(Chatbot) 聊天机器人也是自然语言处理的一项主流任务,机器自动学习与 人类对话,对于人类的简单诉求提供满意的自动回复,提高客户的服务效率和服务质量 下载速度较慢,可能需要良好的上网环境来避免下载中断、安装失败的情况。 图 1.31 安装命令确认 安装完成 GPU 版本的 PyTorch 后来测试安装是否成功。在 cmd 命令行输入 ipython 进 入 ipython 交互式终端,输入“import torch”命令,如果没有错误产生,继续输入 “torch.cuda.is_gpu_available()”测试 GPU 是否可用,返回“True”或者“False”,代表了 本章将从生物神经元的结构出发,重温科学先驱们的探索之路,逐步揭开自动学习机 器的神秘面纱。 首先,我们把生物神经元(Neuron)的模型抽象为如图 2.2(a)所示的数学结构:神经元输 入向量? = [?1, ?2, ?3, … , ??]T,经过函数映射:??: ? → ?后得到输出?,其中?为函数?自 身的参数。考虑一种简化的情况,即线性变换:?(?) = ?T? + ?,将其展开为标量形式:0 码力 | 439 页 | 29.91 MB | 1 年前3
动手学深度学习 v2.0实现这些解决方案所需的软件工具,这是一个巨大的挑战。 在我们开始写这本书的时候,没有资源能够同时满足一些条件:(1)是最新的;(2)涵盖了现代机器学习的 所有领域,技术深度丰富;(3)在一本引人入胜的教科书中,人们可以在实践教程中找到干净的可运行代码, 并从中穿插高质量的阐述。我们发现了大量关于如何使用给定的深度学习框架(例如,如何对TensorFlow中 的矩阵进行基本的数值计算)或实现 些代码示例分散在各种博客帖子和GitHub库中。但是,这些示例通常关注如何实现给定的方法,但忽略了为 什么做出某些算法决策的讨论。虽然一些互动资源已经零星地出现以解决特定主题。例如,在网站Distill1上 发布的引人入胜的博客帖子或个人博客,但它们仅覆盖深度学习中的选定主题,并且通常缺乏相关代码。另 一方面,虽然已经出现了几本教科书,其中最著名的是 (Goodfellow et al., 2016)(中文名《深度学习》),它 分类可能变得比二项分类、多项分类复杂得多。例如,有一些分类任务的变体可以用于寻找层次结构,层次 结构假定在许多类之间存在某种关系。因此,并不是所有的错误都是均等的。人们宁愿错误地分入一个相关 的类别,也不愿错误地分入一个遥远的类别,这通常被称为层次分类(hierarchical classification)。早期的一 个例子是卡尔·林奈13,他对动物进行了层次分类。 在动物分类的应用中,把0 码力 | 797 页 | 29.45 MB | 1 年前3
谭国富:深度学习在图像审核的应用技术诉求:自动识别图片或视频中出现的文 字、二维码、logo等内容以及违规人像、淫 秽、血腥、暴力、极端主义、恐怖主义图像 等,方便平台进行违规处理和风险管控。 业务痛点:面对越来越爆发的安全风险,解决办法门 槛高, 成本高;迫切需要技术解决方案 SACC2017 图像内容审核技术 OCR技术 图像分割以及超分辨率技术 优图图像技术还包括:图像分类、图像增强、艺术滤镜、图片去水印、图像融合、图像修补等。 1980 2006 Hinton提出 “深度学习” 的神经网络 2013 深度学习算法在 语音和视觉识别 上有重大突破, 识别率超过99% 和95% 1970 受限于 计算能 力,进 入第一 个寒冬 XCON专 家系统出 现,每年 节约4000 万美元 第1阶段:人工智能起步 期 (1956-1980s) 第2阶段:专家系统推 广 (1980s-1990s) 第3阶段:深度学习 (2009年 宣布) 2016 Deepmind团队 AlphaGo&Ma ster运用深度学 习算法战胜围 棋冠军 1990-1991 人工智能计算 机DARPA没 能实现,政府 投入缩减,进 入第二次低谷 深度学习 - 带动的AI浪潮 2016 2016 深度学习全面爆发 2016 - 讯飞,搜 狗,阿里 演示了实 时语音识 别翻译 2016 优图实时 美颜美妆 在众多直0 码力 | 32 页 | 5.17 MB | 1 年前3
QCon北京2018-《未来都市--智慧城市与基于深度学习的机器视觉》-陈宇恒Automation 首次中国公司在ImageNet竞赛 夺冠,视频分析技术登顶 人脸识别大幅提高精度,商汤科 技首次突破人类肉眼识别准确率 ,领先于Facebook Google5000万美元招入 Hinton,发布基于深度学习的 搜索引擎 Microsoft 深度学习驱动的语音 识别大幅提升精度 软银孙正义设立1000亿美元人 工智能基金,320亿美元收购芯 片架构公司ARM 2016 scheduling Go语言在高性能系统中的实践经验 • 为什么用Go - 比起C++,更易于实践各种并发模式 - 比起Java,更加简洁,更易于与C/C++交互 - 比起脚本语言,类型和内存安全,保证重构效率与产品质量 - 完善的配套工具,如go test, gofmt, go lint, race-detector Go语言在高性能系统中的实践经验 • Go在开发高性能应用上也有一些不足,0 码力 | 23 页 | 9.26 MB | 1 年前3
Keras: 基于 Python 的深度学习库libhdf5-serial-dev 如果你不确定是否安装了 h5py,则可以打开 Python shell 并通过下面的命令加载模块 import h5py 快速开始 38 如 果 模 块 导 入 没 有 错 误, 那 么 模 块 已 经 安 装 成 功, 否 则 你 可 以 在 http://docs.h5py.org/en/latest/build.html 中找到详细的安装说明。 模型 validation_steps=None) 以固定数量的轮次(数据集上的迭代)训练模型。 参数 • x: 训练数据的 Numpy 数组。如果模型中的输入层被命名,你也可以传递一个字典,将输 入层名称映射到 Numpy 数组。如果从本地框架张量馈送(例如 TensorFlow 数据张量)数 据,x 可以是 None(默认)。 • y: 目标(标签)数据的 Numpy 数组。如果模型中的输出层被命名,你也可以传递一个字 ': layer.__class__.__name__, 'config': config}) 如果一个层具有单个节点 (i.e. 如果它不是共享层), 你可以得到它的输入张量,输出张量,输 入尺寸和输出尺寸: • layer.input • layer.output • layer.input_shape • layer.output_shape 如果层有多个节点 (参见: 层节点和共享层的概念)0 码力 | 257 页 | 1.19 MB | 1 年前3
微博在线机器学习和深度学习实践-黄波优化,性能提升5-10倍 • 缓存优化:使用堆外内存与LRU过期机制,解决GC引起的性能损耗,性能提升3-5倍 • 分区优化:支持多种分区策略(RANGE/HASH/MOD),解决数据倾斜导致的流量热点瓶颈问题,性能提升2-5倍 • 存储优化:自定义存储方式(ByRow&ByKey),基于row进行矩阵压缩存储,参数内存占用减少90% 3 在线机器学习-参数服务器 模型验证 离线训练 实时训练 模型训练 模型部署 在线服务 离线验证 在线发布 在线验证 在线一致性/ 模型稳定性/… 一键打包 端口探测 蓝绿部署/灰度发布 AUC/准确率/ 召回率/… 流量切换 版本更新 全量发布 … verson1 verson2 … kubenetes/olsubmit 模型库 3 在线机器学习-模型服务部署 • 模型评估 • 模型上线部署前指标评估 • 周期使用验证样本进行点击率预估 • 待部署模型与线上模型进行指标对比,评估是否满足上线条件 • 一键部署 • 基于K8S的deployment模式,一键端口分配与模型服务部署 • 基于ZK的服务发现,一键进行流量灰度与发布 • 性能优化 • 通信优化:特征请求与模型计算单元化,在线样本格式压缩 • 计算优化:基于SSE/AVX 指令优化 3 在线机器学习-模型服务部署 • 模型更新频次效果对比 •0 码力 | 36 页 | 16.69 MB | 1 年前3
QCon北京2018-《深度学习在微博信息流排序的应用》-刘博模型评估 Ø 离线评估 • AUC / wAUC Ø 在线评估 • 离线评估与线上效果正相关? • A/B test测试 • 分目标人群测试:地域、活跃度… A B 小流量-实验组 小流量-对照组 数据对比分析 算法架构 互动行为 点击行为 阅读行为 能力标签 兴趣标签 亲密度 自然属性 账号属性 用户特征 关键词 类型属性 topic 内容标签 内容质量0 码力 | 21 页 | 2.14 MB | 1 年前3
阿里云上深度学习建模实践-程孟力回 模 型 EasyRec GraphLearn Alink 排 序 模 型 模型训练评估 PAI-EAS – 模型推理 model1 model2 … PAI-ABTest A/B流量划分 PAI-Rec – 推荐引擎 BE召回/Hologres hot x2i vec 排序 粗排 精排 重排 MaxCompute Datahub 离线特征 训练数据 推荐日志 模型发布 在线流程 离线流程 智能推荐解决方案 > PAI-REC 推荐引擎 PAI-REC 推荐引擎 多路召回 曝光/状态过滤 粗排/精排 策略[类目打散、流量控制、…] 实时采集后端日志 PAI-REC 配置中心 AB实验 实验工具 拉取配置 监控报警 Prometheus Grafana 读取metric 消息队列(datahub/kafka)0 码力 | 40 页 | 8.51 MB | 1 年前3
机器学习课程-温州大学-14深度学习-Vision Transformer (ViT) 但是怎么编码影响不大,干脆用简单的得了 2D(分别计算行和列的编码,然后求和)的效果还不如1D的每一层都加共享的 位置编码也没啥太大用 15 位置编码 2.模型介绍 16 将 3) 的 结 果 喂 入 标 准 Transformer 的 encoder 中 作 者将类别作为一个可学习的 patch (?0)输入模型,与图像 的patch+pos 信息作为multi- head attention 模型框架 最简洁的Vision Transformer模型 ,先将图片分成 16x16的patch块, 送入transformer encoder,第一个 cls token的输出送 入mlp head得到 预测结果。 2.模型介绍 20 来自输入空间的注意力表达 输入 输入 输入 注意力 注意力 注意力 2.模型介绍 21 左图展示了模型学习到的图嵌入,中图展示了学习到的位置嵌入,右图展示了不同层注意0 码力 | 34 页 | 2.78 MB | 1 年前3
全连接神经网络实战. pytorch 版() , ’ epoch ’ : t } torch . save ( state , path ) print ( ”Done ! ” ) #把 最 后 一 次 训 练 得 到 的 模 型 导 入 到 模 型 中 path = ’ ./ model ’ + s t r (9) +’ . pth ’ checkpoint = torch . load ( path ) model2 = NeuralNetwork 历时不到三天的业余时间完成了这本小书的计划和写作,从叙述的详细程度和阅读学习的简 单性而言,还是比较符合我的预期的。 本来这部入门小书的原名叫做《卷积网络实战》,但我思考再三,感觉卷积网络不应该作为入 28 4.5. 总结 门来学习的神经网络,因为卷积层包含了一些关于感受野方面的思想。如果给一个网络构建了卷 积层,它也就失去了普适性(尤其是不再适用于我们第四章的人造数据集了)。 书中对一些0 码力 | 29 页 | 1.40 MB | 1 年前3
共 22 条
- 1
- 2
- 3













