 动手学深度学习 v2.0. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224 6.2.3 图像中目标的边缘检测 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225 6.2.4 学习卷积核 . . . . . . . 是使用端到端训练。 也就是说,与其基于单独调整的组件组装系统,不如构建系统,然后联合调整它们的性能。例如,在计算机视 觉中,科学家们习惯于将特征工程的过程与建立机器学习模型的过程分开。Canny边缘检测器 (Canny, 1987) 和SIFT特征提取器 (Lowe, 2004) 作为将图像映射到特征向量的算法,在过去的十年里占据了至高无上的地 位。在过去的日子里,将机器学习应用于这些问题 Var[f(x)] = E � (f(x) − E[f(x)])2� . (2.6.12) 80 2. 预备知识 小结 • 我们可以从概率分布中采样。 • 我们可以使用联合分布、条件分布、Bayes定理、边缘化和独立性假设来分析多个随机变量。 • 期望和方差为概率分布的关键特征的概括提供了实用的度量形式。 练习 1. 进行m = 500组实验,每组抽取n = 10个样本。改变m和n,观察和分析实验结果。0 码力 | 797 页 | 29.45 MB | 1 年前3 动手学深度学习 v2.0. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224 6.2.3 图像中目标的边缘检测 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225 6.2.4 学习卷积核 . . . . . . . 是使用端到端训练。 也就是说,与其基于单独调整的组件组装系统,不如构建系统,然后联合调整它们的性能。例如,在计算机视 觉中,科学家们习惯于将特征工程的过程与建立机器学习模型的过程分开。Canny边缘检测器 (Canny, 1987) 和SIFT特征提取器 (Lowe, 2004) 作为将图像映射到特征向量的算法,在过去的十年里占据了至高无上的地 位。在过去的日子里,将机器学习应用于这些问题 Var[f(x)] = E � (f(x) − E[f(x)])2� . (2.6.12) 80 2. 预备知识 小结 • 我们可以从概率分布中采样。 • 我们可以使用联合分布、条件分布、Bayes定理、边缘化和独立性假设来分析多个随机变量。 • 期望和方差为概率分布的关键特征的概括提供了实用的度量形式。 练习 1. 进行m = 500组实验,每组抽取n = 10个样本。改变m和n,观察和分析实验结果。0 码力 | 797 页 | 29.45 MB | 1 年前3
 【PyTorch深度学习-龙龙老师】-测试版202112, ? , … , ? }。Frank Rosenblatt 随后基于“Mark 1 感知机”硬件实现感知 机模型,如图 1.6、图 1.7 所示,输入为 400 个单元的图像传感器,输出为 8 个节点端 子,它可以成功识别一些英文字母。一般认为 1943 年~1969 年为人工智能发展的第一次兴 盛期。 ? ? ? ? ? ? 误差 ? 图 拥有严格的理论基础,训练需要的样本数量较少,同时也具有良好的泛化能力,相比之 下,神经网络理论基础欠缺,可解释性差,很难训练深层网络,性能也相对一般。图 1.8 绘制了 1943 年~2006 年之间的重大时间节点。 ① 图片来自 https://slideplayer.com/slide/12771753/ ② 图片来自 https://www.glass-bead.org/article/m 平台,OpenAI 开发的 OpenAI Five 智能程序在受限游戏环境中打败了 TI8 冠军队伍 OG 队,展现出了大量专业级的高层智能操作。图 1.9 列出了 2006 年~2019 年之间重大的时间 节点。 预览版202112 1.3 深度学习特点 7 2006 DBN深度 置信网络 ImageNet 2009 2012 AlexNet 提出 GAN生成 对抗网络 20140 码力 | 439 页 | 29.91 MB | 1 年前3 【PyTorch深度学习-龙龙老师】-测试版202112, ? , … , ? }。Frank Rosenblatt 随后基于“Mark 1 感知机”硬件实现感知 机模型,如图 1.6、图 1.7 所示,输入为 400 个单元的图像传感器,输出为 8 个节点端 子,它可以成功识别一些英文字母。一般认为 1943 年~1969 年为人工智能发展的第一次兴 盛期。 ? ? ? ? ? ? 误差 ? 图 拥有严格的理论基础,训练需要的样本数量较少,同时也具有良好的泛化能力,相比之 下,神经网络理论基础欠缺,可解释性差,很难训练深层网络,性能也相对一般。图 1.8 绘制了 1943 年~2006 年之间的重大时间节点。 ① 图片来自 https://slideplayer.com/slide/12771753/ ② 图片来自 https://www.glass-bead.org/article/m 平台,OpenAI 开发的 OpenAI Five 智能程序在受限游戏环境中打败了 TI8 冠军队伍 OG 队,展现出了大量专业级的高层智能操作。图 1.9 列出了 2006 年~2019 年之间重大的时间 节点。 预览版202112 1.3 深度学习特点 7 2006 DBN深度 置信网络 ImageNet 2009 2012 AlexNet 提出 GAN生成 对抗网络 20140 码力 | 439 页 | 29.91 MB | 1 年前3
 机器学习课程-温州大学-02-数学基础回顾-2.CS229-Prob累积分布函数 2.2 概率质量函数 2.3 概率密度函数 2.4 期望 2.5 方差 2.6 一些常见的随机变量 3. 两个随机变量 3.1 联合分布和边缘分布 3.2 联合概率和边缘概率质量函数 3.3 联合概率和边缘概率密度函数 3.4 条件概率分布 3.5 贝叶斯定理 3.6 独立性 3.7 期望和协方差 4. 多个随机变量 4.1 基本性质 4.2 随机向量 我们可能有不止一 个感兴趣的量。例如,在一个我们掷硬币十次的实验中,我们可能既关心 出现的正面数量,也 关心 连续最长出现正面的长度。在本节中,我们考虑两个随机变量的设置。 3.1 联合分布和边缘分布 假设我们有两个随机变量,一个方法是分别考虑它们。如果我们这样做,我们只需要 和 。 但是如果我们想知道在随机实验的结果中, 和 同时假设的值,我们需要一个更复杂的结构,称为 和 的联合累积分布函数,定义如下: 这里我们称 和 为 的边缘累积概率分布函数。 性质: 3.2 联合概率和边缘概率质量函数 如果 和 是离散随机变量,那么联合概率质量函数 由下式定义: 这里, 对于任意 , , , 并且 两个变量上的联合PMF分别与每个变量的概率质量函数有什么关系?事实上: 对于 类似。在这种情况下,我们称 为 的边际概率质量函数。在统计学中,将一个变量相 加形成另一个变量的边缘分布的过程通常称为“边缘化”。0 码力 | 12 页 | 1.17 MB | 1 年前3 机器学习课程-温州大学-02-数学基础回顾-2.CS229-Prob累积分布函数 2.2 概率质量函数 2.3 概率密度函数 2.4 期望 2.5 方差 2.6 一些常见的随机变量 3. 两个随机变量 3.1 联合分布和边缘分布 3.2 联合概率和边缘概率质量函数 3.3 联合概率和边缘概率密度函数 3.4 条件概率分布 3.5 贝叶斯定理 3.6 独立性 3.7 期望和协方差 4. 多个随机变量 4.1 基本性质 4.2 随机向量 我们可能有不止一 个感兴趣的量。例如,在一个我们掷硬币十次的实验中,我们可能既关心 出现的正面数量,也 关心 连续最长出现正面的长度。在本节中,我们考虑两个随机变量的设置。 3.1 联合分布和边缘分布 假设我们有两个随机变量,一个方法是分别考虑它们。如果我们这样做,我们只需要 和 。 但是如果我们想知道在随机实验的结果中, 和 同时假设的值,我们需要一个更复杂的结构,称为 和 的联合累积分布函数,定义如下: 这里我们称 和 为 的边缘累积概率分布函数。 性质: 3.2 联合概率和边缘概率质量函数 如果 和 是离散随机变量,那么联合概率质量函数 由下式定义: 这里, 对于任意 , , , 并且 两个变量上的联合PMF分别与每个变量的概率质量函数有什么关系?事实上: 对于 类似。在这种情况下,我们称 为 的边际概率质量函数。在统计学中,将一个变量相 加形成另一个变量的边缘分布的过程通常称为“边缘化”。0 码力 | 12 页 | 1.17 MB | 1 年前3
 机器学习课程-温州大学-07深度学习-卷积神经网络度 预处理 对图像做一 种或一些预 处理,使图 像满足后继 处理的要 求 ,如:二次 取样保证图 像坐标的正 确,平滑、 去噪等 特征提取 从图像中提取 各种复杂度的 特征,如:线 ,边缘提取和 脊侦测,边角 检测、斑点检 测等局部化的 特征点检测 检测/分割 对图像进行分割 ,提取有价值的 内容,用于后继 处理, 如:筛 选特征点,分割 含有特定目标的 部分 高级处理 验证得到的 深层神经网络和卷积神经网络 15 卷积神经网络 深度学习=表示学习+浅层学习 16 多层卷积能抽取复杂特征 浅层学到的特征为简单的边缘、角 点、纹理、几何形状、表面等 深层学到的特征则更为复杂抽象,为狗 、人脸、键盘等等 17 边缘检测 神经网络的前几层是通常检测边缘 的,然后,后面的层有可能检测到 物体的部分区域,更靠后的一些层 可能检测到完整的物体 3 × 1 0 × 0 1 × −1 2 × 1 7 × 0 2 × −1 = 3 0 −1 1 0 −8 2 0 −2 3 + 1 + 2 + 0 + 0 + 0 + (−1) + (−8) + (−2) = −5 -5 边缘检测 18 01 计算机视觉概述 02 卷积神经网络概述 03 卷积神经网络计算 04 卷积神经网络案例 本章目录 19 S=1 S=2 卷积步长 s0 码力 | 29 页 | 3.14 MB | 1 年前3 机器学习课程-温州大学-07深度学习-卷积神经网络度 预处理 对图像做一 种或一些预 处理,使图 像满足后继 处理的要 求 ,如:二次 取样保证图 像坐标的正 确,平滑、 去噪等 特征提取 从图像中提取 各种复杂度的 特征,如:线 ,边缘提取和 脊侦测,边角 检测、斑点检 测等局部化的 特征点检测 检测/分割 对图像进行分割 ,提取有价值的 内容,用于后继 处理, 如:筛 选特征点,分割 含有特定目标的 部分 高级处理 验证得到的 深层神经网络和卷积神经网络 15 卷积神经网络 深度学习=表示学习+浅层学习 16 多层卷积能抽取复杂特征 浅层学到的特征为简单的边缘、角 点、纹理、几何形状、表面等 深层学到的特征则更为复杂抽象,为狗 、人脸、键盘等等 17 边缘检测 神经网络的前几层是通常检测边缘 的,然后,后面的层有可能检测到 物体的部分区域,更靠后的一些层 可能检测到完整的物体 3 × 1 0 × 0 1 × −1 2 × 1 7 × 0 2 × −1 = 3 0 −1 1 0 −8 2 0 −2 3 + 1 + 2 + 0 + 0 + 0 + (−1) + (−8) + (−2) = −5 -5 边缘检测 18 01 计算机视觉概述 02 卷积神经网络概述 03 卷积神经网络计算 04 卷积神经网络案例 本章目录 19 S=1 S=2 卷积步长 s0 码力 | 29 页 | 3.14 MB | 1 年前3
 机器学习课程-温州大学-概率论回顾联合分布为?(?, ?) = ?(? ≤ ?, ? ≤ ?) 2.二维离散型随机变量的分布 (1) 联合概率分布律 ?{? = ??, ? = ??} = ???; ?, ? = 1,2, ⋯ (2) 边缘分布律 ??⋅ = σ?=1 ∞ ??? , ? = 1,2, ⋯ ?⋅? = σ? ∞ ??? , ? = 1,2, ⋯ (3) 条件分布律 ?{? = ??|? = ??} = ??? 1) ?(?, ?) ≥ 0 2) −∞ +∞ −∞ +∞ ?(?, ?)???? = 1 (2) 分布函数:?(?, ?) = −∞ ? −∞ ? ?(?, ?)???? (3) 边缘概率密度: ?? ? = −∞ +∞ ? ?, ? ?? ??(?) = −∞ +∞ ?(?, ?)?? (4) 条件概率密度:??|? ? ? = ? ?,? ?? ? ??|?(?| ? 则: ?? ? = ? ? ?, ? ≤ ? = ?(?,?)≤? ?(?, ?)????,??(?) = ?′?(?) 3.多维随机变量及其分布 27 7.重要公式与结论 (1) 边缘密度公式: ??(?) = −∞ +∞ ?(?, ?)??, ??(?) = −∞ +∞ ?(?, ?)?? (2) ? ?, ? ∈ ? = ? ? ?, ? ???? 3.多维随机变量及其分布0 码力 | 45 页 | 862.61 KB | 1 年前3 机器学习课程-温州大学-概率论回顾联合分布为?(?, ?) = ?(? ≤ ?, ? ≤ ?) 2.二维离散型随机变量的分布 (1) 联合概率分布律 ?{? = ??, ? = ??} = ???; ?, ? = 1,2, ⋯ (2) 边缘分布律 ??⋅ = σ?=1 ∞ ??? , ? = 1,2, ⋯ ?⋅? = σ? ∞ ??? , ? = 1,2, ⋯ (3) 条件分布律 ?{? = ??|? = ??} = ??? 1) ?(?, ?) ≥ 0 2) −∞ +∞ −∞ +∞ ?(?, ?)???? = 1 (2) 分布函数:?(?, ?) = −∞ ? −∞ ? ?(?, ?)???? (3) 边缘概率密度: ?? ? = −∞ +∞ ? ?, ? ?? ??(?) = −∞ +∞ ?(?, ?)?? (4) 条件概率密度:??|? ? ? = ? ?,? ?? ? ??|?(?| ? 则: ?? ? = ? ? ?, ? ≤ ? = ?(?,?)≤? ?(?, ?)????,??(?) = ?′?(?) 3.多维随机变量及其分布 27 7.重要公式与结论 (1) 边缘密度公式: ??(?) = −∞ +∞ ?(?, ?)??, ??(?) = −∞ +∞ ?(?, ?)?? (2) ? ?, ? ∈ ? = ? ? ?, ? ???? 3.多维随机变量及其分布0 码力 | 45 页 | 862.61 KB | 1 年前3
 机器学习课程-温州大学-02-数学基础回顾-0.机器学习的数学基础整理(国内教材)) 机器学习的数学基础 24 2.二维离散型随机变量的分布 (1) 联合概率分布律 ?{? = ??, ? = ??} = ???; ?, ? = 1,2,⋯ (2) 边缘分布律 ??⋅ = ∑ ??? ∞ ?=1 , ? = 1,2,⋯ ?⋅? = ∑ ??? ∞ ? , ? = 1,2, ⋯ (3) 条件分布律 ?{? = ??|? = ??} = 0 2) ∫ ∫ ?(?, ?)???? +∞ −∞ +∞ −∞ = 1 (2) 分布函数:?(?, ?) = ∫ ∫ ?(?, ?)???? ? −∞ ? −∞ (3) 边缘概率密度: ??(?) = ∫ ?(?, ?)?? +∞ −∞ ??(?) = ∫ ?(?, ?)?? +∞ −∞ (4) 条件概率密度:??|?(?| ?(?, ?) 则: ??(?) = ?{?(?, ?) ≤ ?} = ∬ ?(?, ?)???? ?(?,?)≤? ,??(?) = ?′?(?) 7.重要公式与结论 (1) 边缘密度公式: ??(?) = ∫ ?(?, ?)??, +∞ −∞ ??(?) = ∫ ?(?, ?)?? +∞ −∞ (2) ?{(?, ?) ∈ ?} = ∬ ?(?, ?)????0 码力 | 31 页 | 1.18 MB | 1 年前3 机器学习课程-温州大学-02-数学基础回顾-0.机器学习的数学基础整理(国内教材)) 机器学习的数学基础 24 2.二维离散型随机变量的分布 (1) 联合概率分布律 ?{? = ??, ? = ??} = ???; ?, ? = 1,2,⋯ (2) 边缘分布律 ??⋅ = ∑ ??? ∞ ?=1 , ? = 1,2,⋯ ?⋅? = ∑ ??? ∞ ? , ? = 1,2, ⋯ (3) 条件分布律 ?{? = ??|? = ??} = 0 2) ∫ ∫ ?(?, ?)???? +∞ −∞ +∞ −∞ = 1 (2) 分布函数:?(?, ?) = ∫ ∫ ?(?, ?)???? ? −∞ ? −∞ (3) 边缘概率密度: ??(?) = ∫ ?(?, ?)?? +∞ −∞ ??(?) = ∫ ?(?, ?)?? +∞ −∞ (4) 条件概率密度:??|?(?| ?(?, ?) 则: ??(?) = ?{?(?, ?) ≤ ?} = ∬ ?(?, ?)???? ?(?,?)≤? ,??(?) = ?′?(?) 7.重要公式与结论 (1) 边缘密度公式: ??(?) = ∫ ?(?, ?)??, +∞ −∞ ??(?) = ∫ ?(?, ?)?? +∞ −∞ (2) ?{(?, ?) ∈ ?} = ∬ ?(?, ?)????0 码力 | 31 页 | 1.18 MB | 1 年前3
 《TensorFlow 2项目进阶实战》7-TensorFlow2进阶使用TensorFlow Lite 实现边缘智能 目录 使⽤ TensorFlow 2 实现图像数据增强 使⽤ TensorFlow 2 实现分布式训练 使⽤ TensorFlow Hub 迁移学习 7 8 9 11 12 13 使⽤ @tf.function 提升性能 使⽤ TensorFlow Serving 部署云端服务 使⽤ TensorFlow Lite 实现边缘智能 TensorFlow0 码力 | 28 页 | 5.84 MB | 1 年前3 《TensorFlow 2项目进阶实战》7-TensorFlow2进阶使用TensorFlow Lite 实现边缘智能 目录 使⽤ TensorFlow 2 实现图像数据增强 使⽤ TensorFlow 2 实现分布式训练 使⽤ TensorFlow Hub 迁移学习 7 8 9 11 12 13 使⽤ @tf.function 提升性能 使⽤ TensorFlow Serving 部署云端服务 使⽤ TensorFlow Lite 实现边缘智能 TensorFlow0 码力 | 28 页 | 5.84 MB | 1 年前3
 李东亮:云端图像技术的深度学习模型与应用到业务端 n 基于深度学习的准确的人脸检测、特征抽取 n 人脸检测占用95%计算资源 n 峰值时会达到1500 QPS SACC2017 检测-人脸检测/人形检测 场景多样、人脸小、位置边缘 本页图片均来自公开摄像头 SACC2017 检测-人脸检测/人形检测 手机 服务器 可缩小尺寸 240P 720P CPU ARM(千元机) E5-2630 时间 50ms 120ms0 码力 | 26 页 | 3.69 MB | 1 年前3 李东亮:云端图像技术的深度学习模型与应用到业务端 n 基于深度学习的准确的人脸检测、特征抽取 n 人脸检测占用95%计算资源 n 峰值时会达到1500 QPS SACC2017 检测-人脸检测/人形检测 场景多样、人脸小、位置边缘 本页图片均来自公开摄像头 SACC2017 检测-人脸检测/人形检测 手机 服务器 可缩小尺寸 240P 720P CPU ARM(千元机) E5-2630 时间 50ms 120ms0 码力 | 26 页 | 3.69 MB | 1 年前3
 机器学习课程-温州大学-10深度学习-人脸识别与风格迁移02 神经风格迁移 20 2.神经风格迁移 21 2.神经风格迁移 22 2.神经风格迁移 深度学习=表示学习+浅层学习 23 多层卷积能抽取复杂特征 浅层学到的特征为简单的边缘、角 点、纹理、几何形状、表面等 深层学到的特征则更为复杂抽象,为狗 、人脸、键盘等等 24 2.神经风格迁移 ?(?) = ??content(?, ?) + ??style(?, ?)0 码力 | 34 页 | 2.49 MB | 1 年前3 机器学习课程-温州大学-10深度学习-人脸识别与风格迁移02 神经风格迁移 20 2.神经风格迁移 21 2.神经风格迁移 22 2.神经风格迁移 深度学习=表示学习+浅层学习 23 多层卷积能抽取复杂特征 浅层学到的特征为简单的边缘、角 点、纹理、几何形状、表面等 深层学到的特征则更为复杂抽象,为狗 、人脸、键盘等等 24 2.神经风格迁移 ?(?) = ??content(?, ?) + ??style(?, ?)0 码力 | 34 页 | 2.49 MB | 1 年前3
 机器学习课程-温州大学-09机器学习-支持向量机量机。换个说法,硬间隔指的就是完全分类准确,不能存在分类错误的情 况。软间隔,就是允许一定量的样本分类错误。 软间隔 硬间隔 线性可分 线性不可分 6 支持向量 1.支持向量机概述 算法思想 找到集合边缘上的若干数据(称为 支持向量(Support Vector)) ,用这些点找出一个平面(称为决 策面),使得支持向量到该平面的 距离最大。 距离 7 1.支持向量机概述 背景知识0 码力 | 29 页 | 1.51 MB | 1 年前3 机器学习课程-温州大学-09机器学习-支持向量机量机。换个说法,硬间隔指的就是完全分类准确,不能存在分类错误的情 况。软间隔,就是允许一定量的样本分类错误。 软间隔 硬间隔 线性可分 线性不可分 6 支持向量 1.支持向量机概述 算法思想 找到集合边缘上的若干数据(称为 支持向量(Support Vector)) ,用这些点找出一个平面(称为决 策面),使得支持向量到该平面的 距离最大。 距离 7 1.支持向量机概述 背景知识0 码力 | 29 页 | 1.51 MB | 1 年前3
共 27 条
- 1
- 2
- 3













