积分充值
 首页
前端开发
AngularDartElectronFlutterHTML/CSSJavaScriptReactSvelteTypeScriptVue.js构建工具
后端开发
.NetC#C++C语言DenoffmpegGoIdrisJavaJuliaKotlinLeanMakefilenimNode.jsPascalPHPPythonRISC-VRubyRustSwiftUML其它语言区块链开发测试微服务敏捷开发架构设计汇编语言
数据库
Apache DorisApache HBaseCassandraClickHouseFirebirdGreenplumMongoDBMySQLPieCloudDBPostgreSQLRedisSQLSQLiteTiDBVitess数据库中间件数据库工具数据库设计
系统运维
AndroidDevOpshttpdJenkinsLinuxPrometheusTraefikZabbix存储网络与安全
云计算&大数据
Apache APISIXApache FlinkApache KarafApache KyuubiApache OzonedaprDockerHadoopHarborIstioKubernetesOpenShiftPandasrancherRocketMQServerlessService MeshVirtualBoxVMWare云原生CNCF机器学习边缘计算
综合其他
BlenderGIMPKiCadKritaWeblate产品与服务人工智能亿图数据可视化版本控制笔试面试
文库资料
前端
AngularAnt DesignBabelBootstrapChart.jsCSS3EchartsElectronHighchartsHTML/CSSHTML5JavaScriptJerryScriptJestReactSassTypeScriptVue前端工具小程序
后端
.NETApacheC/C++C#CMakeCrystalDartDenoDjangoDubboErlangFastifyFlaskGinGoGoFrameGuzzleIrisJavaJuliaLispLLVMLuaMatplotlibMicronautnimNode.jsPerlPHPPythonQtRPCRubyRustR语言ScalaShellVlangwasmYewZephirZig算法
移动端
AndroidAPP工具FlutterFramework7HarmonyHippyIoniciOSkotlinNativeObject-CPWAReactSwiftuni-appWeex
数据库
ApacheArangoDBCassandraClickHouseCouchDBCrateDBDB2DocumentDBDorisDragonflyDBEdgeDBetcdFirebirdGaussDBGraphGreenPlumHStreamDBHugeGraphimmudbIndexedDBInfluxDBIoTDBKey-ValueKitDBLevelDBM3DBMatrixOneMilvusMongoDBMySQLNavicatNebulaNewSQLNoSQLOceanBaseOpenTSDBOracleOrientDBPostgreSQLPrestoDBQuestDBRedisRocksDBSequoiaDBServerSkytableSQLSQLiteTiDBTiKVTimescaleDBYugabyteDB关系型数据库数据库数据库ORM数据库中间件数据库工具时序数据库
云计算&大数据
ActiveMQAerakiAgentAlluxioAntreaApacheApache APISIXAPISIXBFEBitBookKeeperChaosChoerodonCiliumCloudStackConsulDaprDataEaseDC/OSDockerDrillDruidElasticJobElasticSearchEnvoyErdaFlinkFluentGrafanaHadoopHarborHelmHudiInLongKafkaKnativeKongKubeCubeKubeEdgeKubeflowKubeOperatorKubernetesKubeSphereKubeVelaKumaKylinLibcloudLinkerdLonghornMeiliSearchMeshNacosNATSOKDOpenOpenEBSOpenKruiseOpenPitrixOpenSearchOpenStackOpenTracingOzonePaddlePaddlePolicyPulsarPyTorchRainbondRancherRediSearchScikit-learnServerlessShardingSphereShenYuSparkStormSupersetXuperChainZadig云原生CNCF人工智能区块链数据挖掘机器学习深度学习算法工程边缘计算
UI&美工&设计
BlenderKritaSketchUI设计
网络&系统&运维
AnsibleApacheAWKCeleryCephCI/CDCurveDevOpsGoCDHAProxyIstioJenkinsJumpServerLinuxMacNginxOpenRestyPrometheusServertraefikTrafficUnixWindowsZabbixZipkin安全防护系统内核网络运维监控
综合其它
文章资讯
 上传文档  发布文章  登录账户
IT文库
  • 综合
  • 文档
  • 文章

无数据

分类

全部云计算&大数据(36)机器学习(36)

语言

全部中文(简体)(35)英语(1)

格式

全部PDF文档 PDF(36)
 
本次搜索耗时 0.125 秒,为您找到相关结果约 36 个.
  • 全部
  • 云计算&大数据
  • 机器学习
  • 全部
  • 中文(简体)
  • 英语
  • 全部
  • PDF文档 PDF
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 MLP网络层

    全军出击:全连接层 主讲人:龙良曲 I know nothing Be practical nn.Linear relu? concisely ▪ inherit from nn.Module ▪ init layer in __init__ ▪ implement forward() Step1. Step2. Step3. nn.ReLU v.s. F.relu()
    0 码力 | 13 页 | 992.88 KB | 1 年前
    3
  • pdf文档 动手学深度学习 v2.0

    网络架构 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 3.4.3 全连接层的参数开销 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 3.4.4 softmax运算 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 4.1.1 隐藏层 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 4.1.2 激活函数 提交Kaggle预测 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188 5 深度学习计算 191 5.1 层和块 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
    0 码力 | 797 页 | 29.45 MB | 1 年前
    3
  • pdf文档 QCon北京2018-《未来都市--智慧城市与基于深度学习的机器视觉》-陈宇恒

    • Kubernetes版本发布快,新特性更新频繁,对异构调度的支持不断加强;但配套设施落后(e.g. Spark on K8s, GitlabCI) • 容器系统调用栈深,需要仔细验证操作系统,内核及异构设备驱动的兼容性 • Kubernetes对NUMA、异构计算、存储设备的调度能力待加强 1.6 nvidia/gpu custom scheduler 1.8 local-volume
    0 码力 | 23 页 | 9.26 MB | 1 年前
    3
  • pdf文档 【PyTorch深度学习-龙龙老师】-测试版202112

    6.1 感知机 6.2 全连接层 6.3 神经网络 6.4 激活函数 6.5 输出层设计 6.6 误差计算 6.7 神经网络类型 6.8 油耗预测实战 6.9 参考文献 第 7 章 反向传播算法 7.1 导数与梯度 7.2 导数常见性质 7.3 激活函数导数 7.4 损失函数梯度 7.5 全连接层梯度 预览版202112 全连接网络的问题 10.2 卷积神经网络 10.3 卷积层实现 10.4 LeNet-5 实战 10.5 表示学习 10.6 梯度传播 10.7 池化层 10.8 BatchNorm 层 预览版202112 10.9 经典卷积网络 10.10 CIFAR10 与 VGG13 实战 10.11 卷积层变种 10.12 深度残差网络 10.13 DenseNet 循环神经网络 11.1 序列表示方法 11.2 循环神经网络 11.3 梯度传播 11.4 RNN 层使用方法 11.5 RNN 情感分类问题实战 11.6 梯度弥散和梯度爆炸 11.7 RNN 短时记忆 11.8 LSTM 原理 11.9 LSTM 层使用方法 11.10 GRU 简介 11.11 LSTM/GRU 情感分类问题再战 11.12 预训练的词向量
    0 码力 | 439 页 | 29.91 MB | 1 年前
    3
  • pdf文档 Keras: 基于 Python 的深度学习库

    . . 17 3.2.3 所有的模型都可调用,就像网络层一样 . . . . . . . . . . . . . . . . . . . . 17 3.2.4 多输入多输出模型 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 3.2.5 共享网络层 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 3.2.6 层「节点」的概念 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 目录 II 3.2.7 更多的例子 . . . . . . . . . . . . . . . . . . . . . . . . . . 22 3.2.7.1 Inception 模型 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 3.2.7.2 卷积层上的残差连接 . . . . . . . . . . . . . . . . . . . . . . . . . . 23 3.2.7.3 共享视觉模型 . . . . . . . . . . .
    0 码力 | 257 页 | 1.19 MB | 1 年前
    3
  • pdf文档 机器学习课程-温州大学-13机器学习-人工神经网络

    BP算法 4 1.人工神经网络发展历史 发展历史 1943年,心理学家McCulloch和逻辑学家Pitts建立神经网络的数学模型, MP模型 神经元数学模型 神经元生理结构 输入层 输出层 隐藏层 5 1.人工神经网络发展历史 1960年代,人工网络得到了进一步地发展 感知机和自适应线性元件等被提出。 M.Minsky仔细分析了以感知机为代表的神 经网络的局限性,指出了感知机不能解决 BP(Back Propagation)神经 网络的概念,是一种按照误差逆 向传播算法训练的多层前馈神经 网络,目前是应用最广泛的神经 网络。 BP神经网络模型 1h v 输入层 输出层 隐层 ,1 kx , k i x , k d x 1b 2b hb qb . . . . . . . . . . . . ,1 ˆky , ˆk j y , ˆk l y Machine, ELM),是由黄广斌提出的用于处理单隐层 神经网络的算法 优点: 1.学习精度有保证 2.学习速度快 随机初始化输入权重??和偏置 ,只求解输出权重值??。 1 nx 1 ? ? i  n 1  i L  1  L  ny 1个输出 层神经元 ?个隐藏 层神经元 ?个输入 层神经元 9 2.感知器算法 01 发展历史 02
    0 码力 | 29 页 | 1.60 MB | 1 年前
    3
  • pdf文档 《TensorFlow 快速入门与实战》5-实战TensorFlow手写体数字识别

    元的连接,上一层神经元的输出,作为下一层 神经元的输入。 线性不可分 激活函数(Activation Function) 为了实现神经网络的非线性建模能力,解决一些线性不可分的问题,我们通常使用激活函数 来引入非线性因素。激活函数都采用非线性函数,常用的有Sigmoid、tanh、ReLU等。 全连接层( fully connected layers,FC ) 全连接层是一种对输入数 全连接层是一种对输入数据直接做线性变换的线性计算层。它是神经网络中最常用的一种层, 用于学习输出数据和输入数据之间的变换关系。全连接层可作为特征提取层使用,在学习特 征的同时实现特征融合;也可作为最终的分类层使用,其输出神经元的值代表了每个输出类 别的概率。 前向传播 前向传播 简化形式: 后向传播( Back Propagation, BP) BP算法的基本思想是通过损失函数对模型参数进行求导, 并 并根据复合函数求导常用的“链式法则”将不同层的模型参 数的梯度联系起来,使得计算所有模型参数的梯度更简单。 BP算法的思想早在 1960s 就被提出来了。 直到1986年, David Rumelhart 和 Geoffrey Hinton 等人发表了一篇后来成 为经典的论文,清晰地描述了BP算法的框架,才使得BP算 法真正流行起来,并带来了神经网络在80年代的辉煌。 计算梯度 MNIST
    0 码力 | 38 页 | 1.82 MB | 1 年前
    3
  • pdf文档 机器学习课程-温州大学-13深度学习-Transformer

    的,但它们没有共享参数。每个 解码器都可以分解成两个子层。 18 2.Transformer的工作流程 从编码器输入的句子首先会经过一个自注意力(self-attention)层,这层帮助编码器在对每 个单词编码时关注输入句子的其他单词。 自注意力层的输出会传递到前馈(feed-forward)神经网络中。每个位置的单词对应的前馈 神经网络都完全一样(译注:另一种解读就是一层窗口为一个单词的一维卷积神经网络)。 )。 解码器中也有编码器的自注意力(self-attention)层和前馈(feed-forward)层。除此之外, 这两个层之间还有一个注意力层,用来关注输入句子的相关部分(和seq2seq模型的注意力 作用相似)。 19 2.Transformer的工作流程 各种向量或张量是怎样在模型的不同部分中,将输入转化为输出的。 像大部分NLP应用一样,我们首先将每个输入单词通过词嵌入算法转换为词向量。 编码器中 ,它就是下一层编码器的输出(也是一个向量列表)。 向量列表大小是我们可以设置的超参数:一般是我们训练集中最长句子的长度。 20 2.Transformer的工作流程 将输入序列进行词嵌入之后,每个单词都会流经编码器中的两个子层。 Transformer的一个核心特性,在这里 输入序列中每个位置的单词都有自己 独特的路径流入编码器。在自注意力 层中,这些路径之间存在依赖关系。
    0 码力 | 60 页 | 3.51 MB | 1 年前
    3
  • pdf文档 机器学习课程-温州大学-04深度学习-深层神经网络

    2023年03月 深度学习-深层神经网络 黄海广 副教授 2 神经网络的概念 3 神经网络的概念 ? 1 = ?1 1 ?2 1 ?3 1 4 神经网络的概念 我们不将输入层 看作一个标准的 层。 ? 1 = ?1 1 ?2 1 ?3 1 5 ?1 1 ?2 1 ?3 1 ?4 1 = . . . ?1 ሾ1]?. . . . . . ?2 ?(0.01?, ?) Leaky ReLu通常比Relu激活函数效果要好, 尽管在实际中Leaky ReLu使用的并不多。 10 3.激活函数的使用场景 Sigmoid激活函数:除了输出层是一个二分类问题 基本不会用它。 Tanh激活函数:tanh是非常优秀的,几乎适合所有 场合。 ReLu激活函数:最常用的默认函数,,如果不确定 用哪个激活函数,就使用ReLu或者Leaky ሾ1]) ?4 ሾ1] = ?4 ሾ1]?? + ?4 ሾ1], ?4 ሾ1] = ?(?4 ሾ1]) 14 4.反向传播算法 x[2] x[3] x[1] 输入层 隐藏层 输出层 前向传播: 计算?ሾ1],?ሾ1],再计算?ሾ2],?ሾ2]……,最后得到loss function。 15 4.反向传播算法 反向传播: 向后推算出??ሾ2],然后推算出??ሾ2],接着推算出
    0 码力 | 28 页 | 1.57 MB | 1 年前
    3
  • pdf文档 机器学习课程-温州大学-08深度学习-深度卷积神经网络

    02 深度残差网络 03 其它现代网络 04 卷积神经网络使用技巧 4 经典网络-LeNet-5 • LeNet 分为两个部分组成: • 卷积层块:由两个卷积层块组成; • 全连接层块:由三个全连接层组成。 5 ? = 5 ? = 1 6 filter CONV1 POOL1 ? = 2 ? = 2 ? = 5 ? = 1 16 filter ? = 2 究的现状。 AlexNet 使用了8层卷积神 经网络,并以很大的优势赢得了2012 年 ImageNet 图像识别挑战赛。 LeNet (左), AlexNet (右) 7 • 在 AlexNet 的第一层,卷积窗口的形状是 11×11 。由于大 多数 ImageNet 中图像的宽和高比 MNIST 图像的多10倍以 上,因此,需要一个更大的卷积窗口来捕获目标。 第二层 中的卷积窗形状被缩减为 5×5 5×5 ,然后是 3×3 。 此外,在 第一层、第二层和第五层之后,加入窗口形状为 3×3 、步 幅为 2 的最大池化层。 此外,AlexNet 的卷积通道是 LeNet 的10倍。 • 在最后一个卷积层后有两个全连接层,分别有4096个输出。 这两个巨大的全连接层拥有将近 1GB 的模型参数。 由于 早期 GPU 显存有限,原版的 AlexNet 采用了双数据流设计, 使得每个 GPU
    0 码力 | 32 页 | 2.42 MB | 1 年前
    3
共 36 条
  • 1
  • 2
  • 3
  • 4
前往
页
相关搜索词
深度学习PyTorch入门实战27MLP网络网络层动手v2QCon北京2018未来都市智慧城市基于机器视觉陈宇恒深度学习KerasPython课程温州大学13人工神经神经网人工神经网络TensorFlow快速手写手写体数字识别Transformer04深层神经网络08卷积
IT文库
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传或本站整理自互联网,不以营利为目的,供所有人免费下载和学习使用。如侵犯您的权益,请联系我们进行删除。
IT文库 ©1024 - 2025 | 站点地图
Powered By MOREDOC AI v3.3.0-beta.70
  • 关注我们的公众号【刻舟求荐】,给您不一样的精彩
    关注我们的公众号【刻舟求荐】,给您不一样的精彩