积分充值
 首页
前端开发
AngularDartElectronFlutterHTML/CSSJavaScriptReactSvelteTypeScriptVue.js构建工具
后端开发
.NetC#C++C语言DenoffmpegGoIdrisJavaJuliaKotlinLeanMakefilenimNode.jsPascalPHPPythonRISC-VRubyRustSwiftUML其它语言区块链开发测试微服务敏捷开发架构设计汇编语言
数据库
Apache DorisApache HBaseCassandraClickHouseFirebirdGreenplumMongoDBMySQLPieCloudDBPostgreSQLRedisSQLSQLiteTiDBVitess数据库中间件数据库工具数据库设计
系统运维
AndroidDevOpshttpdJenkinsLinuxPrometheusTraefikZabbix存储网络与安全
云计算&大数据
Apache APISIXApache FlinkApache KarafApache KyuubiApache OzonedaprDockerHadoopHarborIstioKubernetesOpenShiftPandasrancherRocketMQServerlessService MeshVirtualBoxVMWare云原生CNCF机器学习边缘计算
综合其他
BlenderGIMPKiCadKritaWeblate产品与服务人工智能亿图数据可视化版本控制笔试面试
文库资料
前端
AngularAnt DesignBabelBootstrapChart.jsCSS3EchartsElectronHighchartsHTML/CSSHTML5JavaScriptJerryScriptJestReactSassTypeScriptVue前端工具小程序
后端
.NETApacheC/C++C#CMakeCrystalDartDenoDjangoDubboErlangFastifyFlaskGinGoGoFrameGuzzleIrisJavaJuliaLispLLVMLuaMatplotlibMicronautnimNode.jsPerlPHPPythonQtRPCRubyRustR语言ScalaShellVlangwasmYewZephirZig算法
移动端
AndroidAPP工具FlutterFramework7HarmonyHippyIoniciOSkotlinNativeObject-CPWAReactSwiftuni-appWeex
数据库
ApacheArangoDBCassandraClickHouseCouchDBCrateDBDB2DocumentDBDorisDragonflyDBEdgeDBetcdFirebirdGaussDBGraphGreenPlumHStreamDBHugeGraphimmudbIndexedDBInfluxDBIoTDBKey-ValueKitDBLevelDBM3DBMatrixOneMilvusMongoDBMySQLNavicatNebulaNewSQLNoSQLOceanBaseOpenTSDBOracleOrientDBPostgreSQLPrestoDBQuestDBRedisRocksDBSequoiaDBServerSkytableSQLSQLiteTiDBTiKVTimescaleDBYugabyteDB关系型数据库数据库数据库ORM数据库中间件数据库工具时序数据库
云计算&大数据
ActiveMQAerakiAgentAlluxioAntreaApacheApache APISIXAPISIXBFEBitBookKeeperChaosChoerodonCiliumCloudStackConsulDaprDataEaseDC/OSDockerDrillDruidElasticJobElasticSearchEnvoyErdaFlinkFluentGrafanaHadoopHarborHelmHudiInLongKafkaKnativeKongKubeCubeKubeEdgeKubeflowKubeOperatorKubernetesKubeSphereKubeVelaKumaKylinLibcloudLinkerdLonghornMeiliSearchMeshNacosNATSOKDOpenOpenEBSOpenKruiseOpenPitrixOpenSearchOpenStackOpenTracingOzonePaddlePaddlePolicyPulsarPyTorchRainbondRancherRediSearchScikit-learnServerlessShardingSphereShenYuSparkStormSupersetXuperChainZadig云原生CNCF人工智能区块链数据挖掘机器学习深度学习算法工程边缘计算
UI&美工&设计
BlenderKritaSketchUI设计
网络&系统&运维
AnsibleApacheAWKCeleryCephCI/CDCurveDevOpsGoCDHAProxyIstioJenkinsJumpServerLinuxMacNginxOpenRestyPrometheusServertraefikTrafficUnixWindowsZabbixZipkin安全防护系统内核网络运维监控
综合其它
文章资讯
 上传文档  发布文章  登录账户
IT文库
  • 综合
  • 文档
  • 文章

无数据

分类

全部后端开发(899)综合其他(390)Java(322)云计算&大数据(281)Spring(268)Weblate(257)Python(190)数据库(185)VirtualBox(112)C++(101)

语言

全部英语(1531)中文(简体)(276)中文(繁体)(21)英语(13)日语(7)韩语(3)葡萄牙语(2)德语(1)西班牙语(1)

格式

全部PDF文档 PDF(1409)其他文档 其他(426)TXT文档 TXT(19)PPT文档 PPT(4)DOC文档 DOC(2)
 
本次搜索耗时 0.122 秒,为您找到相关结果约 1000 个.
  • 全部
  • 后端开发
  • 综合其他
  • Java
  • 云计算&大数据
  • Spring
  • Weblate
  • Python
  • 数据库
  • VirtualBox
  • C++
  • 全部
  • 英语
  • 中文(简体)
  • 中文(繁体)
  • 英语
  • 日语
  • 韩语
  • 葡萄牙语
  • 德语
  • 西班牙语
  • 全部
  • PDF文档 PDF
  • 其他文档 其他
  • TXT文档 TXT
  • PPT文档 PPT
  • DOC文档 DOC
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 LSTM-Layer使用

    vec] ▪ h/c: [num_layer, b, h] ▪ out: [seq, b, h] nn.LSTM nn.LSTMCell ▪ __init__ LSTMCell.forward() ▪ ht, ct = lstmcell(xt, [ht_1, ct_1]) ▪ xt: [b, vec] ▪ ht/ct: [b, h] Single layer Two Layers 下一课时
    0 码力 | 11 页 | 643.79 KB | 1 年前
    3
  • pdf文档 RNN-Layer使用

    RNN Layer使用 主讲人:龙良曲 Folded model feature ??@??ℎ + ℎ?@?ℎℎ [0,0,0 … ] x: ??? ???, ????ℎ, ??????? ??? ????ℎ, ??????? ??? @[ℎ????? ???, ??????? ???]?+ ????ℎ, ℎ????? ??? @ ℎ????? ???, ℎ????? ??? ? layers, b, h dim] ▪ out: [seq len, b, h dim] Single layer RNN feature ??@??ℎ 1 + ℎ? 1@?ℎℎ 1 [0,0,0 … ] ℎ? 1@??ℎ 2 + ℎ? 2@?ℎℎ 2 [0,0,0 … ] 2 layer RNN [T, b, h_dim], [layers, b, h_dim] nn.RNNCell
    0 码力 | 15 页 | 883.60 KB | 1 年前
    3
  • pdf文档 《Efficient Deep Learning Book》[EDL] Chapter 4 - Efficient Architectures

    saw earlier the points are linearly separable. We can train a model with a single fully connected layer followed by a softmax activation, since it is a binary classification task. An important caveat is fourth step, we train a model which trains the embedding table along with it. We use a single hidden layer network9 with a softmax classification head for this task. The size of the softmax classification apply in our case here. Step 1: Vocabulary Creation In this step, we will use a TextVectorization layer from Tensorflow to create a vocabulary of the most relevant words. It finds the top N words in a dataset
    0 码力 | 53 页 | 3.92 MB | 1 年前
    3
  • pdf文档 2020美团技术年货 算法篇

    考虑到后续内容出现的 Transformer Layer 就是 Transformer 的编码层,这里先对 它做简单的介绍。它主要由以下两部分组成: 算法 < 25 Multi-Head Attention Multi-Head Attention 实际上是 h 个 Self-Attention 的集成, h 代表头的个数。其 中 Self-Attention 的计算公式如下: 其中,Q 代表查询,K Feed-Forward Networks 该模块是为了提高模型的非线性能力提出来的,它就是全连接神经网络结构,计算公 式如下: 26 > 美团 2020 技术年货 Transformer Layer 就是通过这种自注意力机制层和普通非线性层来实现对输入信号 的编码,得到信号的表示。 美团搜索排序 Transformer 实践经验 Transformer 在美团搜索排序上的实践主要分以下三个部分:第一部分是特征工程, 在搜索排序系统中,特征工程的输入特征维度高但稀疏性很强,而准确的交叉特征对 模型的效果又至关重要。所以寻找一种高效的特征提取方式就变得十分重要,我们借 鉴 AutoInt[3] 的方法,采用 Transformer Layer 进行特征的高阶组合。 模型结构 我们的模型结构参考 AutoInt[3] 结构,但在实践中,根据美团搜索的数据特点,我们 对模型结构做了一些调整,如下图 2 所示: 图 2 Transformer&Deep
    0 码力 | 317 页 | 16.57 MB | 1 年前
    3
  • pdf文档 机器学习课程-温州大学-13深度学习-Transformer

    从编码器输入的句子首先会经过一个自注意力(self-attention)层,这层帮助编码器在对每 个单词编码时关注输入句子的其他单词。 自注意力层的输出会传递到前馈(feed-forward)神经网络中。每个位置的单词对应的前馈 神经网络都完全一样(译注:另一种解读就是一层窗口为一个单词的一维卷积神经网络)。 解码器中也有编码器的自注意力(self-attention)层和前馈(feed-forward)层。除此之外, Embedding,否则 Transformer 就是一个词袋模型了。 •Transformer 的重点是 Self-Attention 结构,其中用到的 Q, K, V矩阵通过输 出进行线性变换得到。 •Transformer 中 Multi-Head Attention 中有多个 Self-Attention,可以捕获单 词之间多种维度上的相关系数 attention 分数。 47 4.BERT
    0 码力 | 60 页 | 3.51 MB | 1 年前
    3
  • pdf文档 【PyTorch深度学习-龙龙老师】-测试版202112

    2164, -3.2164]]) 其中?和?张量均是矩阵,上述代码实现了一个线性变换的网络层,激活函数为空。一般 地,?(?@? + ?)网络层称为全连接层(Fully Connected Layer),在 PyTorch 中可以通过 Linear 类直接实现,特别地,当激活函数?为空时,全连接层也称为线性层。比如,通过 Linear 类创建输入 4 个节点,输出 3 个节点的网络层,并通过全连接层的 Processing,简称 NLP)中句子的表示,如评价句 子的是否为正面情绪的情感分类任务网络,如图 4.3 所示。为了能够方便字符串被神经网 络处理,一般将单词通过嵌入层(Embedding Layer)编码为固定长度的向量,比如“a”编码 为某个长度 3 的向量,那么 2 个等长(单词数量为 5)的句子序列可以表示为 shape 为[2,5,3] 的 3 维张量,其中 2 表示句子个数,5 表示单词数量,3 创建卷积神经网络 layer = nn.Conv2d(3, 16, kernel_size=3) out = layer(x) # 前向计算 out.shape # 输出大小 Out[48]: torch.Size([4, 16, 30, 30]) 其中卷积核张量?也是 4 维张量,可以通过 weight 成员变量访问: In [49]: layer.weight.shape
    0 码力 | 439 页 | 29.91 MB | 1 年前
    3
  • pdf文档 DeepSeek图解10页PDF

    模型,该架构相比传统的 RNN(递归神经网络)和 LSTM(长短时记忆网络)具有更高的训练效率和 更强的长距离依赖建模能力。Transformer 由多个关键组件组成:1. 自注意 力机制(Self-Attention):模型在处理文本时,会自动关注句子中的重要单 词,理解不同词语间的联系。2. 多头注意力(Multi-Head Attention):使用 多个注意力头同时分析不同的语义信息,使得模型的理解能力更强。3
    0 码力 | 11 页 | 2.64 MB | 8 月前
    3
  • pdf文档 2022年美团技术年货 合辑

    < 29 图 9 PTQ 与 QAT 子图区别 QAT INT8 计算图中 neck.reduce_layer1.conv 融合节点输出精度是 FP32,并 且跟了 2 个 quantize_scale_node 节点,而 PTQ INT8 图中的 neck.reduce_ layer1.conv 融合节点输出的是 INT8。很显然,QAT 图中 FP32 和 INT8 之间的转 换会带来额外的开销。我们又利用 QAT INT8 的 ONNX 图结构,找 到了 neck.reduce_layer1.conv 这个位置,图 10 给出该节点示意。 图 10 因 Scale 不同而产生了双分支 30 > 2022年美团技术年货 通过分析 ONNX 图结构,我们发现了 QAT INT8 引擎中 neck.reduce_layer1. conv 输出为 FP32,并且为两个分支保留了 quantize_scale_node 分支的输入量化 scale 为 0.083,而 neck.Rep_n3.conv1 分支的输入量化 scale 为 0.105,这两个节点输入尺度是不同 的,导致 neck.reduce_layer1.conv 无法直接输出为 INT8。 可以看出,对于同一个输出,输入到多路分支后为何 scale 不同的,原因是右边 的分支经过了 concat 操作,会导致输出的数据分布发生变化,再进行激活校准
    0 码力 | 1356 页 | 45.90 MB | 1 年前
    3
  • pdf文档 GNU Image Manipulation Program User Manual 2.4

    . . . . . . . . . . . . . 100 8.1.1 Layer Properties . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 8.2 Layer Modes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 321 14.5.6 Open as Layer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 321 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353 14.8.11 Show Layer Boundary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 354
    0 码力 | 653 页 | 19.93 MB | 1 年前
    3
  • pdf文档 GNU Image Manipulation Program User Manual 2.10

    . . . . . . . . . . . . . . . . . 101 8.1.1 Layer Properties . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 8.2 Layer Modes . . . . . . . . . . . . . . . . . . . . New Layers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 8.4 Layer Groups . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 9.1.2 Managing Text Layer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124 9.1.3 Text Toolbox .
    0 码力 | 1070 页 | 44.54 MB | 1 年前
    3
共 1000 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 100
前往
页
相关搜索词
深度学习PyTorch入门实战52LSTMLayer使用48RNNEfficientDeepLearningBookEDLChapterArchitectures2020美团技术年货算法机器课程温州大学13Transformer深度学习DeepSeek图解10PDF2022合辑GNUImageManipulationProgramUserManual2.42.10
IT文库
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传或本站整理自互联网,不以营利为目的,供所有人免费下载和学习使用。如侵犯您的权益,请联系我们进行删除。
IT文库 ©1024 - 2025 | 站点地图
Powered By MOREDOC AI v3.3.0-beta.70
  • 关注我们的公众号【刻舟求荐】,给您不一样的精彩
    关注我们的公众号【刻舟求荐】,给您不一样的精彩