 【PyTorch深度学习-龙龙老师】-测试版202112这其中最重要的 成果就是误差反向传播算法(Back Propagation,简称 BP 算法)的提出,它依旧是现代深度学 习的核心理论基础。实际上,反向传播的数学思想早在 1960 年代就已经被推导出了,但是 并没有应用在神经网络上。1974 年,美国科学家 Paul Werbos 在他的博士论文中第一次提 出可以将 BP 算法应用到神经网络上,遗憾的是,这一成果并没有获得足够重视。直至 1986 ,为了防止过拟合,需要的数据集的规 模通常也是巨大的。现代社交媒体的流行也让收集海量数据成为可能,如 2010 年发布的 ImageNet 数据集收录了共 14197122 张图片,整个数据集的压缩文件大小就有 154GB。图 1.10、图 1.11 列举了一些数据集的样本数和数据集大小随时间的变化趋势。 尽管深度学习对数据集需求较高,收集数据,尤其是收集带标签的数据,往往是代价 昂贵的。 https://www.python.org/网站下载最新版本(Python 3.7)的解释器, 像普通的应用软件一样安装完成后,就可以调用 python.exe 程序执行 Python 语言编写的源 代码文件(.py 格式)。 这里选择安装集成了 Python 解释器和虚拟环境等一系列辅助功能的 Anaconda 软件, 用户通过安装 Anaconda 软件,可以同时获得 Python 解释器、包管理和虚拟环境等一系列0 码力 | 439 页 | 29.91 MB | 1 年前3 【PyTorch深度学习-龙龙老师】-测试版202112这其中最重要的 成果就是误差反向传播算法(Back Propagation,简称 BP 算法)的提出,它依旧是现代深度学 习的核心理论基础。实际上,反向传播的数学思想早在 1960 年代就已经被推导出了,但是 并没有应用在神经网络上。1974 年,美国科学家 Paul Werbos 在他的博士论文中第一次提 出可以将 BP 算法应用到神经网络上,遗憾的是,这一成果并没有获得足够重视。直至 1986 ,为了防止过拟合,需要的数据集的规 模通常也是巨大的。现代社交媒体的流行也让收集海量数据成为可能,如 2010 年发布的 ImageNet 数据集收录了共 14197122 张图片,整个数据集的压缩文件大小就有 154GB。图 1.10、图 1.11 列举了一些数据集的样本数和数据集大小随时间的变化趋势。 尽管深度学习对数据集需求较高,收集数据,尤其是收集带标签的数据,往往是代价 昂贵的。 https://www.python.org/网站下载最新版本(Python 3.7)的解释器, 像普通的应用软件一样安装完成后,就可以调用 python.exe 程序执行 Python 语言编写的源 代码文件(.py 格式)。 这里选择安装集成了 Python 解释器和虚拟环境等一系列辅助功能的 Anaconda 软件, 用户通过安装 Anaconda 软件,可以同时获得 Python 解释器、包管理和虚拟环境等一系列0 码力 | 439 页 | 29.91 MB | 1 年前3
 PyTorch OpenVINO 开发实战系列教程第一篇pip 方式直接 安装。 1.1.2 Pytorch 的模块与功能 Pytorch 当前支持绝大数的深度学习常见的算子操作,基于相 关的功能模块可以快速整合数据、构建与设计模型、实现模型 训练、导出与部署等操作。这些功能的相关模块主要有如下: 1)torch.nn 包,里面主要包含构建卷积神经网络的各种算子 操作,主要包括卷积操作(Conv2d、Conv1d、Conv3d)激 活函数、序贯模型 点与性能相关的组件功能。重要的类有数据集类(Dataset), 数据加载类 (DataLoader)、自定义编程的可视化支持组件 tensorboard 相关类。 3)torch 开头的一些包与功能,主要包括支持模型导出功能 的 torch.onnx 模块、优化器 torch.optim 模块、支持 GPU 训 练 torch.cuda 模块,这些都是会经常用的。 4)此外本书当中还会重点关注的 torchvison Python3.6.5 安装包,地址为: https://www.python.org/ftp/python/3.6.5/python-3.6.5- amd64.exe 2. 下载之后,双击 exe 文件安装,显示的界面如下: 图 1-1(Python3.6.5 安装界面) 注意:图 1-1 中的矩形框,必须手动选择上“add Python3.6 to PATH”之后再点击【Install Now】默认安装完成即可。0 码力 | 13 页 | 5.99 MB | 1 年前3 PyTorch OpenVINO 开发实战系列教程第一篇pip 方式直接 安装。 1.1.2 Pytorch 的模块与功能 Pytorch 当前支持绝大数的深度学习常见的算子操作,基于相 关的功能模块可以快速整合数据、构建与设计模型、实现模型 训练、导出与部署等操作。这些功能的相关模块主要有如下: 1)torch.nn 包,里面主要包含构建卷积神经网络的各种算子 操作,主要包括卷积操作(Conv2d、Conv1d、Conv3d)激 活函数、序贯模型 点与性能相关的组件功能。重要的类有数据集类(Dataset), 数据加载类 (DataLoader)、自定义编程的可视化支持组件 tensorboard 相关类。 3)torch 开头的一些包与功能,主要包括支持模型导出功能 的 torch.onnx 模块、优化器 torch.optim 模块、支持 GPU 训 练 torch.cuda 模块,这些都是会经常用的。 4)此外本书当中还会重点关注的 torchvison Python3.6.5 安装包,地址为: https://www.python.org/ftp/python/3.6.5/python-3.6.5- amd64.exe 2. 下载之后,双击 exe 文件安装,显示的界面如下: 图 1-1(Python3.6.5 安装界面) 注意:图 1-1 中的矩形框,必须手动选择上“add Python3.6 to PATH”之后再点击【Install Now】默认安装完成即可。0 码力 | 13 页 | 5.99 MB | 1 年前3
 动手学深度学习 v2.02 带参数的层 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207 5.5 读写文件 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208 5.5 部分较早版本的MXNet实现分别改编为PyTorch和TensorFlow实现。感谢百度团队将较新的PyTorch实现改 编为PaddlePaddle实现。感谢张帅将更新的LaTeX样式集成进PDF文件的编译。 特别地,我们要感谢这份中文稿的每一位撰稿人,是他们的无私奉献让这本书变得更好。他们的GitHub ID或姓名是(没有特定顺序):alxnorden, avinashingit, bowen0701 bash脚 本,并执行以下操作: # 以Intel处理器为例,文件名可能会更改 sh Miniconda3-py39_4.12.0-MacOSX-x86_64.sh -b 如果我们使用Linux,假设Python版本是3.9(我们的测试版本),将下载名称包含字符串“Linux”的bash脚 本,并执行以下操作: # 文件名可能会更改 sh Miniconda3-py39_4.12.0-Linux-x86_640 码力 | 797 页 | 29.45 MB | 1 年前3 动手学深度学习 v2.02 带参数的层 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207 5.5 读写文件 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208 5.5 部分较早版本的MXNet实现分别改编为PyTorch和TensorFlow实现。感谢百度团队将较新的PyTorch实现改 编为PaddlePaddle实现。感谢张帅将更新的LaTeX样式集成进PDF文件的编译。 特别地,我们要感谢这份中文稿的每一位撰稿人,是他们的无私奉献让这本书变得更好。他们的GitHub ID或姓名是(没有特定顺序):alxnorden, avinashingit, bowen0701 bash脚 本,并执行以下操作: # 以Intel处理器为例,文件名可能会更改 sh Miniconda3-py39_4.12.0-MacOSX-x86_64.sh -b 如果我们使用Linux,假设Python版本是3.9(我们的测试版本),将下载名称包含字符串“Linux”的bash脚 本,并执行以下操作: # 文件名可能会更改 sh Miniconda3-py39_4.12.0-Linux-x86_640 码力 | 797 页 | 29.45 MB | 1 年前3
 机器学习课程-温州大学-02-数学基础回顾-2.CS229-Prob本文是斯坦福大学CS229机器学习课程的基础材料,原始文件下载 原文作者:Arian Maleki , Tom Do 翻译:石振宇 审核和修改制作:黄海广 备注:请关注github的更新。 CS229 机器学习课程复习材料-概率论 CS229 机器学习课程复习材料-概率论 概率论复习和参考 1. 概率的基本要素 1.1 条件概率和独立性 2. 随机变量 2.1 累积分布函数 (线性期望): 对于一个离散随机变量 , 2.5 方差 随机变量 的方差是随机变量 的分布围绕其平均值集中程度的度量。形式上,随机变量 的方差定义 为: 使用上一节中的性质,我们可以导出方差的替代表达式: 其中第二个等式来自期望的线性,以及 相对于外层期望实际上是常数的事实。 性质: 对于任意常数 , 对于任意常数 , 举例: 计算均匀随机变量 的平均值和方差,任意0 码力 | 12 页 | 1.17 MB | 1 年前3 机器学习课程-温州大学-02-数学基础回顾-2.CS229-Prob本文是斯坦福大学CS229机器学习课程的基础材料,原始文件下载 原文作者:Arian Maleki , Tom Do 翻译:石振宇 审核和修改制作:黄海广 备注:请关注github的更新。 CS229 机器学习课程复习材料-概率论 CS229 机器学习课程复习材料-概率论 概率论复习和参考 1. 概率的基本要素 1.1 条件概率和独立性 2. 随机变量 2.1 累积分布函数 (线性期望): 对于一个离散随机变量 , 2.5 方差 随机变量 的方差是随机变量 的分布围绕其平均值集中程度的度量。形式上,随机变量 的方差定义 为: 使用上一节中的性质,我们可以导出方差的替代表达式: 其中第二个等式来自期望的线性,以及 相对于外层期望实际上是常数的事实。 性质: 对于任意常数 , 对于任意常数 , 举例: 计算均匀随机变量 的平均值和方差,任意0 码力 | 12 页 | 1.17 MB | 1 年前3
 机器学习课程-温州大学-02-数学基础回顾-1.CS229-LinearAlgebra本文是斯坦福大学CS 229机器学习课程的基础材料,原始文件下载 原文作者:Zico Kolter,修改:Chuong Do, Tengyu Ma 翻译:黄海广 备注:请关注github的更新,线性代数和概率论已经更新完毕。 CS229 机器学习课程复习材料-线性代数 CS229 机器学习课程复习材料-线性代数 线性代数复习和参考 1. 基础概念和符号 1.1 基本符号 2 然后,再利用 和方程 ,我们得到: 我们可以看到,原始空间中的左乘矩阵 等于左乘对角矩阵 相对于新的基,即仅将每个坐标缩放相应 的特征值。 在新的基上,矩阵多次相乘也变得简单多了。例如,假设 。根据 的元素导出 的分析形式,使用原始的基可能是一场噩梦,但使用新的基就容易多了: “对角化”二次型。作为直接的推论,二次型 也可以在新的基上简化。 (回想一下,在旧的表示法中, 涉及一个 项的和,而不是上面等式中的0 码力 | 19 页 | 1.66 MB | 1 年前3 机器学习课程-温州大学-02-数学基础回顾-1.CS229-LinearAlgebra本文是斯坦福大学CS 229机器学习课程的基础材料,原始文件下载 原文作者:Zico Kolter,修改:Chuong Do, Tengyu Ma 翻译:黄海广 备注:请关注github的更新,线性代数和概率论已经更新完毕。 CS229 机器学习课程复习材料-线性代数 CS229 机器学习课程复习材料-线性代数 线性代数复习和参考 1. 基础概念和符号 1.1 基本符号 2 然后,再利用 和方程 ,我们得到: 我们可以看到,原始空间中的左乘矩阵 等于左乘对角矩阵 相对于新的基,即仅将每个坐标缩放相应 的特征值。 在新的基上,矩阵多次相乘也变得简单多了。例如,假设 。根据 的元素导出 的分析形式,使用原始的基可能是一场噩梦,但使用新的基就容易多了: “对角化”二次型。作为直接的推论,二次型 也可以在新的基上简化。 (回想一下,在旧的表示法中, 涉及一个 项的和,而不是上面等式中的0 码力 | 19 页 | 1.66 MB | 1 年前3
 Keras: 基于 Python 的深度学习库35 3.3.18 如何在 Keras 中使用 HDF5 输入? . . . . . . . . . . . . . . . . . . . . . . . 35 3.3.19 Keras 配置文件保存在哪里? . . . . . . . . . . . . . . . . . . . . . . . . . . 36 3.3.20 如何在 Keras 开发过程中获取可复现的结果? . . 易扩展性。新的模块是很容易添加的(作为新的类和函数),现有的模块已经提供了充足 的示例。由于能够轻松地创建可以提高表现力的新模块,Keras 更加适合高级研究。 • 基于 Python 实现。Keras 没有特定格式的单独配置文件。模型定义在 Python 代码中,这 些代码紧凑,易于调试,并且易于扩展。 1.3 快速开始:30 秒上手 Keras Keras 的核心数据结构是 model,一种组织网络层的方式。最简单的模型是 (stateful RNNs)? • 如何从 Sequential 模型中移除一个层? • 如何在 Keras 中使用预训练的模型? • 如何在 Keras 中使用 HDF5 输入? • Keras 配置文件保存在哪里? • 如何在 Keras 开发过程中获取可复现的结果? • 如何在 Keras 中安装 HDF5 或 h5py 来保存我的模型? 3.3.2 如何引用 Keras? 如果 Keras0 码力 | 257 页 | 1.19 MB | 1 年前3 Keras: 基于 Python 的深度学习库35 3.3.18 如何在 Keras 中使用 HDF5 输入? . . . . . . . . . . . . . . . . . . . . . . . 35 3.3.19 Keras 配置文件保存在哪里? . . . . . . . . . . . . . . . . . . . . . . . . . . 36 3.3.20 如何在 Keras 开发过程中获取可复现的结果? . . 易扩展性。新的模块是很容易添加的(作为新的类和函数),现有的模块已经提供了充足 的示例。由于能够轻松地创建可以提高表现力的新模块,Keras 更加适合高级研究。 • 基于 Python 实现。Keras 没有特定格式的单独配置文件。模型定义在 Python 代码中,这 些代码紧凑,易于调试,并且易于扩展。 1.3 快速开始:30 秒上手 Keras Keras 的核心数据结构是 model,一种组织网络层的方式。最简单的模型是 (stateful RNNs)? • 如何从 Sequential 模型中移除一个层? • 如何在 Keras 中使用预训练的模型? • 如何在 Keras 中使用 HDF5 输入? • Keras 配置文件保存在哪里? • 如何在 Keras 开发过程中获取可复现的结果? • 如何在 Keras 中安装 HDF5 或 h5py 来保存我的模型? 3.3.2 如何引用 Keras? 如果 Keras0 码力 | 257 页 | 1.19 MB | 1 年前3
 全连接神经网络实战. pytorch 版可以使用预加载的数据集(例如 mnist), 也可以使用自定义的数据集;而 DataLoader 是把样本进行访问和索引的工具,它实现了迭代器 功能,也就是说它可以依次将 batch_size 数量的样本导出。 注意,前面已经导入过的 python 包我们就不再重复导入了。 from torch . u t i l s . data import Dataset from torch . u t i datasets 是 torchvision 的对象,它返回的数据就是 pytorch 的 Dataset 类型的。 参数 transf orm 表示导出的数据应该怎么转换,我们还可以使用参数 target_transf orm 表 示导出的数据标签应该怎么转换。 注意显示时我们调用了 squeeze() 函数,这是因为原来的数据维度是 (1,28,28) 的三维数据, 使用.squeeze() optimizer ’ ] ) epoch = checkpoint [ ’ epoch ’ ] 15 16 3.2. 初始化网络权重-方法一 现在我们修改一下我们的程序。首先我们先训练模型并保存,然后再把导出的模型参数导入 到新模型中并测试正确率: epochs = 10 fo r t in range ( epochs ) : print ( f ”Epoch␣{ t+1}\n−−−−−−−−0 码力 | 29 页 | 1.40 MB | 1 年前3 全连接神经网络实战. pytorch 版可以使用预加载的数据集(例如 mnist), 也可以使用自定义的数据集;而 DataLoader 是把样本进行访问和索引的工具,它实现了迭代器 功能,也就是说它可以依次将 batch_size 数量的样本导出。 注意,前面已经导入过的 python 包我们就不再重复导入了。 from torch . u t i l s . data import Dataset from torch . u t i datasets 是 torchvision 的对象,它返回的数据就是 pytorch 的 Dataset 类型的。 参数 transf orm 表示导出的数据应该怎么转换,我们还可以使用参数 target_transf orm 表 示导出的数据标签应该怎么转换。 注意显示时我们调用了 squeeze() 函数,这是因为原来的数据维度是 (1,28,28) 的三维数据, 使用.squeeze() optimizer ’ ] ) epoch = checkpoint [ ’ epoch ’ ] 15 16 3.2. 初始化网络权重-方法一 现在我们修改一下我们的程序。首先我们先训练模型并保存,然后再把导出的模型参数导入 到新模型中并测试正确率: epochs = 10 fo r t in range ( epochs ) : print ( f ”Epoch␣{ t+1}\n−−−−−−−−0 码力 | 29 页 | 1.40 MB | 1 年前3
 机器学习课程-温州大学-03深度学习-PyTorch入门在训练一个神经网络时,梯度的计算是一个关键的步骤,它为神经 网络的优化提供了关键数据。 但是在面临复杂神经网络的时候导数的计算就成为一个难题,要求 人们解出复杂、高维的方程是不现实的。 这就是自动求导出现的原因,当前最流行的深度学习框架如PyTorch 、Tensorflow等都提供了自动微分的支持,让人们只需要很少的工作 就能神奇般地自动计算出复杂函数的梯度。 PyTorch之自动梯度 20 32 3. 神经网络 torch.Tensor-支持自动编程操作(如backward())的多维数组。同时保持梯度的张 量。 nn.Module-神经网络模块.封装参数,移动到GPU上运行,导出,加载等 nn.Parameter-一种张量,当把它赋值给一个Module时,被自动的注册为参数。 autograd.Function-实现一个自动求导操作的前向和反向定义, 每个张量操作都会0 码力 | 40 页 | 1.64 MB | 1 年前3 机器学习课程-温州大学-03深度学习-PyTorch入门在训练一个神经网络时,梯度的计算是一个关键的步骤,它为神经 网络的优化提供了关键数据。 但是在面临复杂神经网络的时候导数的计算就成为一个难题,要求 人们解出复杂、高维的方程是不现实的。 这就是自动求导出现的原因,当前最流行的深度学习框架如PyTorch 、Tensorflow等都提供了自动微分的支持,让人们只需要很少的工作 就能神奇般地自动计算出复杂函数的梯度。 PyTorch之自动梯度 20 32 3. 神经网络 torch.Tensor-支持自动编程操作(如backward())的多维数组。同时保持梯度的张 量。 nn.Module-神经网络模块.封装参数,移动到GPU上运行,导出,加载等 nn.Parameter-一种张量,当把它赋值给一个Module时,被自动的注册为参数。 autograd.Function-实现一个自动求导操作的前向和反向定义, 每个张量操作都会0 码力 | 40 页 | 1.64 MB | 1 年前3
 pytorch 入门笔记-03- 神经网络Tensor:一个用过自动调用backward() 实现支持自动梯度计算的多维数组 ,并且保存关于 个向量的梯度 w.r.t. ● nn.Module:神经网络模块。封装参数、移动到 GPU 上运行、导出、加载等。 ● nn.Parameter:一种变量,当把它赋值给一个Module 时,被自动 地注册为一个参数。 ● autograd.Function:实现一个自动求导操作的前向和反向定义,每个变量操作至少创建一个函数0 码力 | 7 页 | 370.53 KB | 1 年前3 pytorch 入门笔记-03- 神经网络Tensor:一个用过自动调用backward() 实现支持自动梯度计算的多维数组 ,并且保存关于 个向量的梯度 w.r.t. ● nn.Module:神经网络模块。封装参数、移动到 GPU 上运行、导出、加载等。 ● nn.Parameter:一种变量,当把它赋值给一个Module 时,被自动 地注册为一个参数。 ● autograd.Function:实现一个自动求导操作的前向和反向定义,每个变量操作至少创建一个函数0 码力 | 7 页 | 370.53 KB | 1 年前3
 Qcon北京2018-《文本智能处理的深度学习技术》-陈运文B-ORG I-ORG I-ORG E-ORG CRF 04 达观数据文本挖掘的实践经验 文 档 智 能 抽 取 功 能 l 财务报表账目信息抽取 l 商业票据关键信息识别 l 应标书信息自动导出 l 基金合同差异核对 l 投资报告项目信息自动提取 l 法律文书风控要素审核 l 新闻稿文字校对 l 政府补贴项目申请表内容核准 l …… l 更多场景可定制开发 文本挖掘的一些常见应用需求0 码力 | 46 页 | 25.61 MB | 1 年前3 Qcon北京2018-《文本智能处理的深度学习技术》-陈运文B-ORG I-ORG I-ORG E-ORG CRF 04 达观数据文本挖掘的实践经验 文 档 智 能 抽 取 功 能 l 财务报表账目信息抽取 l 商业票据关键信息识别 l 应标书信息自动导出 l 基金合同差异核对 l 投资报告项目信息自动提取 l 法律文书风控要素审核 l 新闻稿文字校对 l 政府补贴项目申请表内容核准 l …… l 更多场景可定制开发 文本挖掘的一些常见应用需求0 码力 | 46 页 | 25.61 MB | 1 年前3
共 22 条
- 1
- 2
- 3













