机器学习课程-温州大学-12机器学习-关联规则,I3链接到I1。 (这里根据项集的数量排序成I2、I1、I3) Null l2:1 l1:1 l3:1 ② 再次扫描数据库并检查事务。检查第一个事务并找出其中的项集。计数 最大的项集在顶部,计数较低的下一个项集,以此类推。这意味着树的 分支是由事务项集按计数降序构造的。 35 3.FP-Growth算法 构建FP树 1.考虑到根节点为空(null)。 2. T1:I1、I2 中, {I2,I1,I3,I4:1},{I2,I3,I4:1}。因此,将I4作为后缀, 前缀路径将是{I2,I1,I3:1},{I2,I3:1}。这形成了条件 模式基。 3.将条件模式基视为事务数据库,构造FP树。这 将包含{I2:2,I3:2},不考虑I1,因为它不满足最小支 持计数。 Null l4:1 l2:5 l1:4 l3:1 l5:1 l3:3 l4:1 l5:1 I1,I2.I5 2 I2,I4 3 I2,I3 4 I1,I2,I4 5 I1,I3 6 I2,I3 7 I1,I3 8 I1,I2,I3,I5 9 I1,I2,I3 事务数据库的建立 扫描事务数据库得到频繁项目集F I1 I2 I3 I4 I5 6 7 6 2 2 定义minsup=20%,即最小支持度为2,重新排列F I2 I1 I3 I4 I5 7 6 6 2 20 码力 | 49 页 | 1.41 MB | 1 年前3
超大规模深度学习在美团的应用-余建平在线预估服务 • 特征编码方式 通过明文hash的方式编码 适用于特征的动态增长 不需要预分配,提高处理效率 • 框架与实现分离 提供op形式的特征抽取类 逻辑一致性:在线、近线、离线 特征抽取框架 目录 • 美团超大规模模型场景简介 • 超大规模机器学习MLX MLX平台目标 MLX平台架构 • 模型场景应用 召回模型 排序模型 Deep 2. DeepFM 3. Deep Cross 树模型 小规模DNN 大规模离散DNN • 超大规模深度学习 工程实现 数据并行、模型并行 在线、近线、离线逻辑一致性 实时模型 业务应用 召回模型,ANN搜索 粗排模型,模型预计算 精排模型,大规模离散DNN 总结0 码力 | 41 页 | 5.96 MB | 1 年前3
搜狗深度学习技术在广告推荐领域的应用模型特征输出可作为CTR,也可作为特征为其它模型使用 • 限定ModelFeature的计算顺序,即可实现bagging/模型交叉等功能 解决方案(引入ModelFeature的概念) • 数据一致性 • 流程稳定 关键点 模型融合 PV Click Session Sample OneHot 特征 LR Train Ctr特征/模 型中间结果 DNN Train Feature0 码力 | 22 页 | 1.60 MB | 1 年前3
机器学习课程-温州大学-机器学习项目流程机器学习项目流程概述 02 数据清洗 03 特征工程 04 数据建模 8 2.数据清洗 什么是数据清洗? 数据清洗是指发现并纠正数据文件中可识别的错误的最后一道程序,包 括检查数据一致性,处理无效值和缺失值等。与问卷审核不同,录入后 的数据清理一般是由计算机而不是人工完成。 9 2.数据清洗 不合法值 空 值 异常检测 重复处理 拼写错误 命名习惯 数理统计技术0 码力 | 26 页 | 1.53 MB | 1 年前3
复杂环境下的视觉同时定位与地图构建Group D: fast motion with strong rotation 时间统计 • 台式机上的计算时间 • 移动终端上 • 20~50 fps on an iPhone 6. 时空一致性深度恢复 • Guofeng Zhang, Jiaya Jia, Tien-Tsin Wong, and Hujun Bao. Consistent Depth Maps Recovery from0 码力 | 60 页 | 4.61 MB | 1 年前3
微博在线机器学习和深度学习实践-黄波),基于row进行矩阵压缩存储,参数内存占用减少90% 3 在线机器学习-参数服务器 模型验证 离线训练 实时训练 模型训练 模型部署 在线服务 离线验证 在线发布 在线验证 在线一致性/ 模型稳定性/… 一键打包 端口探测 蓝绿部署/灰度发布 AUC/准确率/ 召回率/… 流量切换 版本更新 全量发布 … verson1 verson2 … kubenetes/olsubmit0 码力 | 36 页 | 16.69 MB | 1 年前3
【PyTorch深度学习-龙龙老师】-测试版202112CycleGAN 基本的假设 是,如果由图片 A 转换到图片 B,再从图片 B 转换到A′,那么A′应该和 A 是同一张图片。 因此除了设立标准的 GAN 损失项外,CycleGAN 还增设了循环一致性损失(Cycle Consistency Loss),来保证A′尽可能与 A 逼近。CycleGAN 图片的转换效果如图 13.11 所 示。 图 13.11 图片转换效果 [4] 130 码力 | 439 页 | 29.91 MB | 1 年前3
动手学深度学习 v2.0xlabel='Sorted training inputs', ylabel='Sorted testing inputs') 10.2.4 带参数注意力汇聚 非参数的Nadaraya‐Watson核回归具有一致性(consistency)的优点:如果有足够的数据,此模型会收敛到 最优结果。尽管如此,我们还是可以轻松地将可学习的参数集成到注意力汇聚中。 例如,与 (10.2.6)略有不同,在下面的查询x和键xi之间的距离乘以可学习参数w:0 码力 | 797 页 | 29.45 MB | 1 年前3
共 8 条
- 1













