【PyTorch深度学习-龙龙老师】-测试版202112强大的学习能力。业界一般将利用 深层神经网络实现的算法称作深度学习,本质上神经网络和深度学习可认为是相同的。 现在简单来比较一下深度学习算法与其它算法的特点。如图 1.3 所示。基于规则的系 统一般会编写显式的检测逻辑,这些逻辑通常是针对特定的任务设计的,并不适合其他任 务。传统的机器学习算法一般会人为设计具有一定通用性的特征检测方法,如 SIFT、HOG 特征,这些特征能够适合某一类的任务 154GB。图 1.10、图 1.11 列举了一些数据集的样本数和数据集大小随时间的变化趋势。 尽管深度学习对数据集需求较高,收集数据,尤其是收集带标签的数据,往往是代价 昂贵的。数据集的形成通常需要手动采集、爬取原始数据,并清洗掉无效样本,再通过人 类智能去标注数据样本,因此不可避免地引入主观偏差和随机误差。研究数据量需求较少 的算法模型是非常有用的一个方向。 预览版202112 第 1 章 人工智能绪论 Loss)之和最小。 ? = 1. ? + . (?(1), ?(1)) (?(2), ?(2)) 图 2.4 带观测误差的估计模型 也就是说,由于观测误差?的存在,当采集了多个数据点?时,可能不存在一条直线完 美地穿过所有采样点。因此退而求其次,只需要找到一条比较“好”的位于大部分采样点 中间的直线。那么怎么衡量“好”与“不好”呢?一个很自然的想法就是,求出当前模型0 码力 | 439 页 | 29.91 MB | 1 年前3
Keras: 基于 Python 的深度学习库sample_weight=None, seed=None, save_to_dir=None, save_prefix='', save_format='png', subset=None) 采集数据和标签数组,生成批量增强数据。 参数 • x: 输入数据。秩为 4 的 Numpy 矩阵或元组。如果是元组,第一个元素应该包含图像,第 二个元素是另一个 Numpy 数组或一列 Numpy 正则化器允许在优化过程中对层的参数或层的激活情况进行惩罚。网络优化的损失函数也 包括这些惩罚项。 惩罚是以层为对象进行的。具体的 API 因层而异,但 Dense,Conv1D,Conv2D 和 Conv3D 这些层具有统一的 API。 正则化器开放 3 个关键字参数: • kernel_regularizer: keras.regularizers.Regularizer 的实例 • bias_regularizer: constraints 模块的函数允许在优化期间对网络参数设置约束(例如非负性)。 约束是以层为对象进行的。具体的 API 因层而异,但 Dense,Conv1D,Conv2D 和 Conv3D 这 些层具有统一的 API。 约束层开放 2 个关键字参数: • kernel_constraint 用于主权重矩阵。 • bias_constraint 用于偏置。 from keras.constraints0 码力 | 257 页 | 1.19 MB | 1 年前3
QCon2018北京-基于深度学习的视频结构化实践-姚唐仁覆盖全球300个节点 • 覆盖金融、公安、广电媒体、互联网等行业 • 国内领先的云计算厂商 关于七牛云 智能多媒体服务 数据洞察 机器学习 内容生产者 内容消费者 内容采集 (上传加速) 内容分发 海量存储 海量富媒体数据的业务布局 视觉智能 Vision Intelligence 数据智能 Data Intelligence 海量存储0 码力 | 39 页 | 38.01 MB | 1 年前3
QCon北京2018-《深度学习在微博信息流排序的应用》-刘博one-hot 表示 • 假设检验方式 • 相关系数评估 • 特征组合 • GBDT+互信息——有效挖掘 非线性特征及组合 皮尔逊相关系数特征评估 标签匹配度特征相关系数特征评估 样本采集 Ø 存在问题 • 头部效应 • 实时反馈类收集与在线存在差异性 Ø 解决方案 • 正负样本比例严重失衡 • 对头部曝光进行降采样,长尾曝光上采样 • 负样本进行下采样 • 后端样本预采样0 码力 | 21 页 | 2.14 MB | 1 年前3
阿里云上深度学习建模实践-程孟力模型发布 在线流程 离线流程 智能推荐解决方案 > PAI-REC 推荐引擎 PAI-REC 推荐引擎 多路召回 曝光/状态过滤 粗排/精排 策略[类目打散、流量控制、…] 实时采集后端日志 PAI-REC 配置中心 AB实验 实验工具 拉取配置 监控报警 Prometheus Grafana 读取metric 消息队列(datahub/kafka) PAI-REC平台0 码力 | 40 页 | 8.51 MB | 1 年前3
动手学深度学习 v2.0着用一台计算机和一个代码编辑器编写代码,如 图1.1.1中所示。问题看似很难解决:麦克风每秒钟将收集大 约44000个样本,每个样本都是声波振幅的测量值。而该测量值与唤醒词难以直接关联。那又该如何编写程 序,令其输入麦克风采集到的原始音频片段,输出{是, 否}(表示该片段是否包含唤醒词)的可靠预测呢?我 们对编写这个程序毫无头绪,这就是需要机器学习的原因。 图1.1.1: 识别唤醒词 通常,即使我们不知道怎样明确地 还取代了劳动密集型的 特征工程过程。此外,通过取代大部分特定领域的预处理,深度学习消除了以前分隔计算机视觉、语音识别、 自然语言处理、医学信息学和其他应用领域的许多界限,为解决各种问题提供了一套统一的工具。 除了端到端的训练,人们正在经历从参数统计描述到完全非参数模型的转变。当数据稀缺时,人们需要依靠 简化对现实的假设来获得有用的模型。当数据丰富时,可以用更准确地拟合实际情况的非参数模型来代替。 收集训练数据的分布和在实际中遇到的数据分布可能有很大的不同。这件事在一个不幸的初创公司身上发生 过,我们中的一些作者几年前和他们合作过。他们正在研究一种血液检测方法,主要针对一种影响老年男性 的疾病,并希望利用他们从病人身上采集的血液样本进行研究。然而,从健康男性身上获取血样比从系统中 已有的病人身上获取要困难得多。作为补偿,这家初创公司向一所大学校园内的学生征集献血,作为开发测 试的健康对照样本。然后这家初创公司问我0 码力 | 797 页 | 29.45 MB | 1 年前3
微博在线机器学习和深度学习实践-黄波PS:BSP/SSP/ASP多种通信模式支持 • MPI&RingAllreduce:Horovod,使用 MPI替换grpc,同步通信模式;带宽优化,增加延时; • PS&MPI:DistributionStrategy API,统一分布式语义,解耦分布式架构与模型训练框架 • 使用FP16通信,使用FP32做计算,带宽压力降低一倍 • IO优化 • 多线程样本并发读取,样本读取与计算PIPELINE,实现计算与IO的overlap 深度学习-深度学习模型训练 • 分布式模型推理框架:WeiServing 异构CPU集群 kubernetes/ol-submit RPC服务框架 LR/GBDT DNN/DeepFM/W&D 负载均衡/统一版本管理/动态加载/批量化机制 特征映射 Embedding 数据处理 异构GPU集群 CNN 业务应用 模型服务 框架 排序模型服务 多媒体分析服务 自然语言分析服务 集群调度层0 码力 | 36 页 | 16.69 MB | 1 年前3
李东亮:云端图像技术的深度学习模型与应用convolution 检测 识别 Single Frame Predictor SACC2017 视觉感知模型-融合 检测 识别 分割 跟踪 核 心 深度学习 •完全基于深度学习 •统一分类,检测,分割,跟踪 ü通过共享计算提高算法效率 ü通过多个相关任务共同学习提高算法性能 •稀疏标注 ü在节省标注工作量的的同时,充分利用视频数据 Forward Block Forward0 码力 | 26 页 | 3.69 MB | 1 年前3
机器学习课程-温州大学-10深度学习-人脸识别与风格迁移在数据库中对人脸进行聚类, 直接K-Means即可。 5 1.人脸识别概述 人脸检测的步骤 • 人脸定位 确定是否存在人脸,人脸存在的位置、范围等 • 人脸对齐 把众多人脸图像转换到一个统一角度和姿势 • 确定关键点 关键点包括:眼角、鼻尖、嘴角等 6 1.人脸识别概述 人脸检测常用算法(深度学习框架) • MTCNN算法 • HR • Face r-CNN • PyramidBox0 码力 | 34 页 | 2.49 MB | 1 年前3
超大规模深度学习在美团的应用-余建平Counting Bloom Filter 概率方式 • 模型数据通路 Base + Delta方式 增量提供ACK机制,确保模型正确性 Parameter Server • 模型数据的统一管理 模型结构 模型参数 PS的参数放置策略 • Ps分布式分片的均衡,避免分片大小不一致 NN网络矩阵按行切分,解决请求包不均衡问题 特征按照Hash方式分布式存储 •0 码力 | 41 页 | 5.96 MB | 1 年前3
共 14 条
- 1
- 2













