 微博在线机器学习和深度学习实践-黄波% 3 在线机器学习-参数服务器 模型验证 离线训练 实时训练 模型训练 模型部署 在线服务 离线验证 在线发布 在线验证 在线一致性/ 模型稳定性/… 一键打包 端口探测 蓝绿部署/灰度发布 AUC/准确率/ 召回率/… 流量切换 版本更新 全量发布 … verson1 verson2 … kubenetes/olsubmit 模型库 3 在线机器学习-模型服务部署 周期使用验证样本进行点击率预估 • 待部署模型与线上模型进行指标对比,评估是否满足上线条件 • 一键部署 • 基于K8S的deployment模式,一键端口分配与模型服务部署 • 基于ZK的服务发现,一键进行流量灰度与发布 • 性能优化 • 通信优化:特征请求与模型计算单元化,在线样本格式压缩 • 计算优化:基于SSE/AVX 指令优化 3 在线机器学习-模型服务部署 • 模型更新频次效果对比 • FM:数据越新,效果越好 实时计算集群 业务 Storm/Flink Yarn/K8s …… …… …… 调度 Docker 存储 PS/WeiPS 基础/IDE(WeiIDE) 开发套件 控制台 控制中心 算法/模型(WeiFlow) 模型训练/评估 样本库 模型库 模型服务/推荐引擎 数据/特征(WeiData) 数据/特征生成 数据/特征存储 数据/特征服务 2 平台架构 用户0 码力 | 36 页 | 16.69 MB | 1 年前3 微博在线机器学习和深度学习实践-黄波% 3 在线机器学习-参数服务器 模型验证 离线训练 实时训练 模型训练 模型部署 在线服务 离线验证 在线发布 在线验证 在线一致性/ 模型稳定性/… 一键打包 端口探测 蓝绿部署/灰度发布 AUC/准确率/ 召回率/… 流量切换 版本更新 全量发布 … verson1 verson2 … kubenetes/olsubmit 模型库 3 在线机器学习-模型服务部署 周期使用验证样本进行点击率预估 • 待部署模型与线上模型进行指标对比,评估是否满足上线条件 • 一键部署 • 基于K8S的deployment模式,一键端口分配与模型服务部署 • 基于ZK的服务发现,一键进行流量灰度与发布 • 性能优化 • 通信优化:特征请求与模型计算单元化,在线样本格式压缩 • 计算优化:基于SSE/AVX 指令优化 3 在线机器学习-模型服务部署 • 模型更新频次效果对比 • FM:数据越新,效果越好 实时计算集群 业务 Storm/Flink Yarn/K8s …… …… …… 调度 Docker 存储 PS/WeiPS 基础/IDE(WeiIDE) 开发套件 控制台 控制中心 算法/模型(WeiFlow) 模型训练/评估 样本库 模型库 模型服务/推荐引擎 数据/特征(WeiData) 数据/特征生成 数据/特征存储 数据/特征服务 2 平台架构 用户0 码力 | 36 页 | 16.69 MB | 1 年前3
 动手学深度学习 v2.0下采样 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 658 14.3.3 中心词和上下文词的提取 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 660 14.3.4 负采样 . . . . . 些代码示例分散在各种博客帖子和GitHub库中。但是,这些示例通常关注如何实现给定的方法,但忽略了为 什么做出某些算法决策的讨论。虽然一些互动资源已经零星地出现以解决特定主题。例如,在网站Distill1上 发布的引人入胜的博客帖子或个人博客,但它们仅覆盖深度学习中的选定主题,并且通常缺乏相关代码。另 一方面,虽然已经出现了几本教科书,其中最著名的是 (Goodfellow et al., 2016)(中文名《深度学习》),它 长度的序列”或“固定长度的序列”。 回归 回归(regression)是最简单的监督学习任务之一。假设有一组房屋销售数据表格,其中每行对应一个房子, 每列对应一个相关的属性,例如房屋的面积、卧室的数量、浴室的数量以及到镇中心的步行距离,等等。每 一行的属性构成了一个房子样本的特征向量。如果一个人住在纽约或旧金山,而且他不是亚马逊、谷歌、微 软或Facebook的首席执行官,那么他家的特征向量(房屋面积,卧室数量,浴室数量,步行距离)可能类似0 码力 | 797 页 | 29.45 MB | 1 年前3 动手学深度学习 v2.0下采样 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 658 14.3.3 中心词和上下文词的提取 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 660 14.3.4 负采样 . . . . . 些代码示例分散在各种博客帖子和GitHub库中。但是,这些示例通常关注如何实现给定的方法,但忽略了为 什么做出某些算法决策的讨论。虽然一些互动资源已经零星地出现以解决特定主题。例如,在网站Distill1上 发布的引人入胜的博客帖子或个人博客,但它们仅覆盖深度学习中的选定主题,并且通常缺乏相关代码。另 一方面,虽然已经出现了几本教科书,其中最著名的是 (Goodfellow et al., 2016)(中文名《深度学习》),它 长度的序列”或“固定长度的序列”。 回归 回归(regression)是最简单的监督学习任务之一。假设有一组房屋销售数据表格,其中每行对应一个房子, 每列对应一个相关的属性,例如房屋的面积、卧室的数量、浴室的数量以及到镇中心的步行距离,等等。每 一行的属性构成了一个房子样本的特征向量。如果一个人住在纽约或旧金山,而且他不是亚马逊、谷歌、微 软或Facebook的首席执行官,那么他家的特征向量(房屋面积,卧室数量,浴室数量,步行距离)可能类似0 码力 | 797 页 | 29.45 MB | 1 年前3
 Keras: 基于 Python 的深度学习库Keras.io。 Keras 兼容的 Python 版本: Python 2.7-3.6。 1.2 指导原则 • 用户友好。Keras 是为人类而不是为机器设计的 API。它把用户体验放在首要和中心位置。 Keras 遵循减少认知困难的最佳实践:它提供一致且简单的 API,将常见用例所需的用户 操作数量降至最低,并且在用户错误时提供清晰和可操作的反馈。 • 模块化。模型被理解为由独立的、 中 你的 Keras 模型可以基于不同的深度学习后端开发。重要的是,任何仅利用内置层构建的 Keras 模型,都可以在所有这些后端中移植:用一种后端训练模型,再将它载入另一种后端中(比 如为了发布)。支持的后端有: • 谷歌的 TensorFlow 后端 • 微软的 CNTK 后端 • Theano 后端 亚马逊也正在为 Keras 开发 MXNet 后端。 如此一来,你的 Keras 来考虑下面的模型。我们试图预测 Twitter 上的一条新闻标题有多少转发和点赞数。模型的 主要输入将是新闻标题本身,即一系列词语,但是为了增添趣味,我们的模型还添加了其他的 辅助输入来接收额外的数据,例如新闻标题的发布的时间等。该模型也将通过两个损失函数进 行监督学习。较早地在模型中使用主损失函数,是深度学习模型的一个良好正则方法。 模型结构如下图所示: 让我们用函数式 API 来实现它。 主要输入接收新0 码力 | 257 页 | 1.19 MB | 1 年前3 Keras: 基于 Python 的深度学习库Keras.io。 Keras 兼容的 Python 版本: Python 2.7-3.6。 1.2 指导原则 • 用户友好。Keras 是为人类而不是为机器设计的 API。它把用户体验放在首要和中心位置。 Keras 遵循减少认知困难的最佳实践:它提供一致且简单的 API,将常见用例所需的用户 操作数量降至最低,并且在用户错误时提供清晰和可操作的反馈。 • 模块化。模型被理解为由独立的、 中 你的 Keras 模型可以基于不同的深度学习后端开发。重要的是,任何仅利用内置层构建的 Keras 模型,都可以在所有这些后端中移植:用一种后端训练模型,再将它载入另一种后端中(比 如为了发布)。支持的后端有: • 谷歌的 TensorFlow 后端 • 微软的 CNTK 后端 • Theano 后端 亚马逊也正在为 Keras 开发 MXNet 后端。 如此一来,你的 Keras 来考虑下面的模型。我们试图预测 Twitter 上的一条新闻标题有多少转发和点赞数。模型的 主要输入将是新闻标题本身,即一系列词语,但是为了增添趣味,我们的模型还添加了其他的 辅助输入来接收额外的数据,例如新闻标题的发布的时间等。该模型也将通过两个损失函数进 行监督学习。较早地在模型中使用主损失函数,是深度学习模型的一个良好正则方法。 模型结构如下图所示: 让我们用函数式 API 来实现它。 主要输入接收新0 码力 | 257 页 | 1.19 MB | 1 年前3
 阿里云上深度学习建模实践-程孟力Datahub 离线特征 样本构造 实时特征 Flink 训练数据 推荐日志 模型发布 在线流程 离线流程 智能推荐解决方案 > PAI-REC 推荐引擎 PAI-REC 推荐引擎 多路召回 曝光/状态过滤 粗排/精排 策略[类目打散、流量控制、…] 实时采集后端日志 PAI-REC 配置中心 AB实验 实验工具 拉取配置 监控报警 Prometheus Grafana Grafana 读取metric 消息队列(datahub/kafka) PAI-REC平台 自动化降级 负载均衡 灰度发布 超时控制 平台支持 日志SLS 在线存储 Hologres/OTS BE Redis 读取数据 向量引擎 BE/Hologres/Faiss/Milvus 向量检索 冷启动召 回 冷启动排 序 Pipeline1 Pipeline2 超大资源池 智能标注 可视化建模(Designer) 分布式训练(DLC) 在线服务(EAS) 生态市场 开发者工具 • CLI • PAIFlow • OpenAPI AI能力 体验中心 开源 PAI平台(Platform of Artificial Intelligence) Deep Learning Container 数据量大而全 先进的模型结构 业务场景复杂 计算力强、性价比高0 码力 | 40 页 | 8.51 MB | 1 年前3 阿里云上深度学习建模实践-程孟力Datahub 离线特征 样本构造 实时特征 Flink 训练数据 推荐日志 模型发布 在线流程 离线流程 智能推荐解决方案 > PAI-REC 推荐引擎 PAI-REC 推荐引擎 多路召回 曝光/状态过滤 粗排/精排 策略[类目打散、流量控制、…] 实时采集后端日志 PAI-REC 配置中心 AB实验 实验工具 拉取配置 监控报警 Prometheus Grafana Grafana 读取metric 消息队列(datahub/kafka) PAI-REC平台 自动化降级 负载均衡 灰度发布 超时控制 平台支持 日志SLS 在线存储 Hologres/OTS BE Redis 读取数据 向量引擎 BE/Hologres/Faiss/Milvus 向量检索 冷启动召 回 冷启动排 序 Pipeline1 Pipeline2 超大资源池 智能标注 可视化建模(Designer) 分布式训练(DLC) 在线服务(EAS) 生态市场 开发者工具 • CLI • PAIFlow • OpenAPI AI能力 体验中心 开源 PAI平台(Platform of Artificial Intelligence) Deep Learning Container 数据量大而全 先进的模型结构 业务场景复杂 计算力强、性价比高0 码力 | 40 页 | 8.51 MB | 1 年前3
 【PyTorch深度学习-龙龙老师】-测试版202112在本书中编写时,很多英文词汇尚无法在业界找到一个共识翻译名,因此作者备注翻译 的英文原文,供读者参考,同时也方便读者日后阅读相关英文文献时,不至于感到陌生。 尽管每天都有深度学习相关算法论文的发布,但是作者相信,深度学习的核心思想和基 础理论是共通的。本书已尽可能地涵盖其中基础、主流并且前沿的算法知识,但是仍然有很 多算法无法涵盖,读者学习完本书后,可以自行搜索相关方向的研究论文或资料,进一步学 进行二次撰写,代码部分完全基于 PyTorch 进行实现。考虑到本人能力有限、行文仓促,可 以预见地,本书会存在部分语句表达不准确、部分素材尚未创作完成、部分参考引用未能及 时补充、甚至一些错误出现,因此本书以开源、免费地方式发布,希望一方面能够帮助初学 者快速上手深度学习算法,另一方面也能汇聚众多行业专家们的力量,修正测试版中的谬误 之处,让本书变得更为完善。 本书虽然免费开放电子版,供个人学习使用,但是未经许可,不能用于任何个人或者企 ,高度并行化的 GPU 和海量数据让大 规模神经网络的训练成为可能。 2006 年,Geoffrey Hinton 首次提出深度学习的概念。2012 年,8 层的深层神经网络 AlexNet 发布,并在图片识别竞赛中取得了巨大的性能提升,此后几十层、数百层、甚至 上千层的神经网络模型相继提出,展现出深层神经网络强大的学习能力。业界一般将利用 深层神经网络实现的算法称作深度学习,本质上神经网络和深度学习可认为是相同的。0 码力 | 439 页 | 29.91 MB | 1 年前3 【PyTorch深度学习-龙龙老师】-测试版202112在本书中编写时,很多英文词汇尚无法在业界找到一个共识翻译名,因此作者备注翻译 的英文原文,供读者参考,同时也方便读者日后阅读相关英文文献时,不至于感到陌生。 尽管每天都有深度学习相关算法论文的发布,但是作者相信,深度学习的核心思想和基 础理论是共通的。本书已尽可能地涵盖其中基础、主流并且前沿的算法知识,但是仍然有很 多算法无法涵盖,读者学习完本书后,可以自行搜索相关方向的研究论文或资料,进一步学 进行二次撰写,代码部分完全基于 PyTorch 进行实现。考虑到本人能力有限、行文仓促,可 以预见地,本书会存在部分语句表达不准确、部分素材尚未创作完成、部分参考引用未能及 时补充、甚至一些错误出现,因此本书以开源、免费地方式发布,希望一方面能够帮助初学 者快速上手深度学习算法,另一方面也能汇聚众多行业专家们的力量,修正测试版中的谬误 之处,让本书变得更为完善。 本书虽然免费开放电子版,供个人学习使用,但是未经许可,不能用于任何个人或者企 ,高度并行化的 GPU 和海量数据让大 规模神经网络的训练成为可能。 2006 年,Geoffrey Hinton 首次提出深度学习的概念。2012 年,8 层的深层神经网络 AlexNet 发布,并在图片识别竞赛中取得了巨大的性能提升,此后几十层、数百层、甚至 上千层的神经网络模型相继提出,展现出深层神经网络强大的学习能力。业界一般将利用 深层神经网络实现的算法称作深度学习,本质上神经网络和深度学习可认为是相同的。0 码力 | 439 页 | 29.91 MB | 1 年前3
 机器学习课程-温州大学-10机器学习-聚类2.K-means聚类 K-means算法流程 1. 选择K个点作为初始质心。 2. 将每个点指派到最近的质心,形成K个簇。 3. 对于上一步聚类的结果,进行平均计算,得出该簇的新的聚类中心。 4. 重复上述两步/直到迭代结束:质心不发生变化。 17 2.K-means聚类 初始化质心 K-means算法流程 首先,初始化称为簇质心的任意点。初始化 时,必须注意簇的质心必须小于训练数据点 旦这样做,k-均值算法被称为收敛。 设训练集为:{?(1), ?(2), ?(3), … , ?(?)},簇划分? = {?1, ?2, ⋯ , ??},用?1, ?2, . . . , ??来表示聚类中心 其中??(?)代表与?(?)最近的聚类中心点。 我们的的优化目标便是找出使得代价函数最小的 ?(1),?(2),...,?(?)和 ?1, ?2, . . . , ?? 。 K-均值的代价函数(又称畸变函数 Distortion . . , ?(?), ?1, . . . , ??) = 1 ?  ?=1 ? ? ? − ??(?) 2 21 的 2.K-means聚类 K-means优化过程 记?个簇中心为?1, ?2, . . . , ??,每个簇的样本数目为?1, ?2,..., ?? 使用平方误差作为目标函数: 对关于从?1, ?2, ⋯ ??的函数求偏导,这里的求偏 导是对第?个簇心?0 码力 | 48 页 | 2.59 MB | 1 年前3 机器学习课程-温州大学-10机器学习-聚类2.K-means聚类 K-means算法流程 1. 选择K个点作为初始质心。 2. 将每个点指派到最近的质心,形成K个簇。 3. 对于上一步聚类的结果,进行平均计算,得出该簇的新的聚类中心。 4. 重复上述两步/直到迭代结束:质心不发生变化。 17 2.K-means聚类 初始化质心 K-means算法流程 首先,初始化称为簇质心的任意点。初始化 时,必须注意簇的质心必须小于训练数据点 旦这样做,k-均值算法被称为收敛。 设训练集为:{?(1), ?(2), ?(3), … , ?(?)},簇划分? = {?1, ?2, ⋯ , ??},用?1, ?2, . . . , ??来表示聚类中心 其中??(?)代表与?(?)最近的聚类中心点。 我们的的优化目标便是找出使得代价函数最小的 ?(1),?(2),...,?(?)和 ?1, ?2, . . . , ?? 。 K-均值的代价函数(又称畸变函数 Distortion . . , ?(?), ?1, . . . , ??) = 1 ?  ?=1 ? ? ? − ??(?) 2 21 的 2.K-means聚类 K-means优化过程 记?个簇中心为?1, ?2, . . . , ??,每个簇的样本数目为?1, ?2,..., ?? 使用平方误差作为目标函数: 对关于从?1, ?2, ⋯ ??的函数求偏导,这里的求偏 导是对第?个簇心?0 码力 | 48 页 | 2.59 MB | 1 年前3
 机器学习课程-温州大学-概率论回顾随机变量的数字特征 35 7.协方差 ???(?, ?) = ? (? − ?(?)(? − ?(?)) 8.相关系数 ??? = ???(?,?) ?(?) ?(?),?阶原点矩 ?(??); ?阶中心矩 ? [? − ?(?)]? 性质: (1) ???(?, ?) = ???(?, ?) , (2) ???(??, ??) = ?????(?, ?) (3) ???(?1 + ?2, ?) =1 ? ?? 样本方差:?2 = 1 ?−1 σ?=1 ? (?? − ?)2 样本矩:样本?阶原点矩:?? = 1 ? σ?=1 ? ?? ? , ? = 1,2, ⋯ 样本?阶中心矩:?? = 1 ? σ?=1 ? (?? − ?)? , ? = 1,2, ⋯ 5.数理统计的基本概念 41 2.分布 ?2分布:?2 = ?1 2 + ?2 2 + ⋯ + ??2~0 码力 | 45 页 | 862.61 KB | 1 年前3 机器学习课程-温州大学-概率论回顾随机变量的数字特征 35 7.协方差 ???(?, ?) = ? (? − ?(?)(? − ?(?)) 8.相关系数 ??? = ???(?,?) ?(?) ?(?),?阶原点矩 ?(??); ?阶中心矩 ? [? − ?(?)]? 性质: (1) ???(?, ?) = ???(?, ?) , (2) ???(??, ??) = ?????(?, ?) (3) ???(?1 + ?2, ?) =1 ? ?? 样本方差:?2 = 1 ?−1 σ?=1 ? (?? − ?)2 样本矩:样本?阶原点矩:?? = 1 ? σ?=1 ? ?? ? , ? = 1,2, ⋯ 样本?阶中心矩:?? = 1 ? σ?=1 ? (?? − ?)? , ? = 1,2, ⋯ 5.数理统计的基本概念 41 2.分布 ?2分布:?2 = ?1 2 + ?2 2 + ⋯ + ??2~0 码力 | 45 页 | 862.61 KB | 1 年前3
 机器学习课程-温州大学-02-数学基础回顾-0.机器学习的数学基础整理(国内教材)7.协方差 ???(?, ?) = ?[(? − ?(?)(? − ?(?))] 8.相关系数 ??? = ???(?,?) √?(?)√?(?),?阶原点矩 ?(??); ?阶中心矩 ?{[? − ?(?)]?} 性质: (1) ???(?, ?) = ???(?, ?) (2) ???(??, ??) = ?????(?, ?) (3) ???(?1 样本方差:?2 = 1 ?−1 ∑ (?? − ?)2 ? ?=1 样本矩:样本?阶原点矩:?? = 1 ? ∑ ?? ? ? ?=1 , ? = 1,2, ⋯ 样本?阶中心矩:?? = 1 ? ∑ (?? − ?)? ? ?=1 , ? = 1,2,⋯ 2.分布 ?2分布:?2 = ?1 2 + ?2 2 + ⋯ + ??2~?2(?),其中?1,0 码力 | 31 页 | 1.18 MB | 1 年前3 机器学习课程-温州大学-02-数学基础回顾-0.机器学习的数学基础整理(国内教材)7.协方差 ???(?, ?) = ?[(? − ?(?)(? − ?(?))] 8.相关系数 ??? = ???(?,?) √?(?)√?(?),?阶原点矩 ?(??); ?阶中心矩 ?{[? − ?(?)]?} 性质: (1) ???(?, ?) = ???(?, ?) (2) ???(??, ??) = ?????(?, ?) (3) ???(?1 样本方差:?2 = 1 ?−1 ∑ (?? − ?)2 ? ?=1 样本矩:样本?阶原点矩:?? = 1 ? ∑ ?? ? ? ?=1 , ? = 1,2, ⋯ 样本?阶中心矩:?? = 1 ? ∑ (?? − ?)? ? ?=1 , ? = 1,2,⋯ 2.分布 ?2分布:?2 = ?1 2 + ?2 2 + ⋯ + ??2~?2(?),其中?1,0 码力 | 31 页 | 1.18 MB | 1 年前3
 PyTorch OpenVINO 开发实战系列教程第一篇开发者的欢迎。其模型训练支持CPU与GPU、支持分布式训练、 云部署、针对深度学习特定领域有不同的丰富的扩展库。 1.1.1 Pytorch 历史 Pytorch 在 2016 年由 facebook 发布的开源机器学习(深度 学习)框架,Pytorch 最初的来源历史可以追溯到另外两个 机器学习框架,第一个是 torch 框架,第二个是 Chainer,实 现了 Eager 模式与自动微分,Pytoch Pytorch。由于 Pytorch 吸 取了之前一些深度学习框架优点,开发难度大大降低、很容易 构建各种深度学习模型并实现分布式的训练,因此一发布就引 发学术界的追捧热潮,成为深度学习研究者与爱好者的首选开 发工具。在 pytorch 发布之后两年的 2018 年 facebook 又把 caffe2 项目整合到 pytorch 框架中,这样 pytorch 就进一步 整合原来 caffe 语言到如今支持 Python/C++/Java 主流编程语言, 目前已经支持 Linux、Windows、MacOS 等主流的操作系统、 同时全面支持 Android 与 iOS 移动端部署。 在版本发布管理方面,Pytorch 分为三种不同的版本分别是稳 定版本 (Stable Release)、Beta 版本、原型版本(Prototype)。 其中稳定版本长期支持维护没有明显的性能问题与缺陷,理论0 码力 | 13 页 | 5.99 MB | 1 年前3 PyTorch OpenVINO 开发实战系列教程第一篇开发者的欢迎。其模型训练支持CPU与GPU、支持分布式训练、 云部署、针对深度学习特定领域有不同的丰富的扩展库。 1.1.1 Pytorch 历史 Pytorch 在 2016 年由 facebook 发布的开源机器学习(深度 学习)框架,Pytorch 最初的来源历史可以追溯到另外两个 机器学习框架,第一个是 torch 框架,第二个是 Chainer,实 现了 Eager 模式与自动微分,Pytoch Pytorch。由于 Pytorch 吸 取了之前一些深度学习框架优点,开发难度大大降低、很容易 构建各种深度学习模型并实现分布式的训练,因此一发布就引 发学术界的追捧热潮,成为深度学习研究者与爱好者的首选开 发工具。在 pytorch 发布之后两年的 2018 年 facebook 又把 caffe2 项目整合到 pytorch 框架中,这样 pytorch 就进一步 整合原来 caffe 语言到如今支持 Python/C++/Java 主流编程语言, 目前已经支持 Linux、Windows、MacOS 等主流的操作系统、 同时全面支持 Android 与 iOS 移动端部署。 在版本发布管理方面,Pytorch 分为三种不同的版本分别是稳 定版本 (Stable Release)、Beta 版本、原型版本(Prototype)。 其中稳定版本长期支持维护没有明显的性能问题与缺陷,理论0 码力 | 13 页 | 5.99 MB | 1 年前3
 《TensorFlow 2项目进阶实战》4-商品检测篇:使用RetinaNet瞄准你的货架商品Bounding Box Ground Truth ??? = ???????????? ????? = Bounding Box Ground Truth 目标检测评估:准确率与召回率(以GT为中心) 目标检测评估:mean Average Precision(mAP) 基础:深度学习在目标检测的应用 目标检测近20年发展 Ref: Zou, Z., Shi, Z., Guo, Y. and0 码力 | 67 页 | 21.59 MB | 1 年前3 《TensorFlow 2项目进阶实战》4-商品检测篇:使用RetinaNet瞄准你的货架商品Bounding Box Ground Truth ??? = ???????????? ????? = Bounding Box Ground Truth 目标检测评估:准确率与召回率(以GT为中心) 目标检测评估:mean Average Precision(mAP) 基础:深度学习在目标检测的应用 目标检测近20年发展 Ref: Zou, Z., Shi, Z., Guo, Y. and0 码力 | 67 页 | 21.59 MB | 1 年前3
共 23 条
- 1
- 2
- 3













