积分充值
 首页
前端开发
AngularDartElectronFlutterHTML/CSSJavaScriptReactSvelteTypeScriptVue.js构建工具
后端开发
.NetC#C++C语言DenoffmpegGoIdrisJavaJuliaKotlinLeanMakefilenimNode.jsPascalPHPPythonRISC-VRubyRustSwiftUML其它语言区块链开发测试微服务敏捷开发架构设计汇编语言
数据库
Apache DorisApache HBaseCassandraClickHouseFirebirdGreenplumMongoDBMySQLPieCloudDBPostgreSQLRedisSQLSQLiteTiDBVitess数据库中间件数据库工具数据库设计
系统运维
AndroidDevOpshttpdJenkinsLinuxPrometheusTraefikZabbix存储网络与安全
云计算&大数据
Apache APISIXApache FlinkApache KarafApache KyuubiApache OzonedaprDockerHadoopHarborIstioKubernetesOpenShiftPandasrancherRocketMQServerlessService MeshVirtualBoxVMWare云原生CNCF机器学习边缘计算
综合其他
BlenderGIMPKiCadKritaWeblate产品与服务人工智能亿图数据可视化版本控制笔试面试
文库资料
前端
AngularAnt DesignBabelBootstrapChart.jsCSS3EchartsElectronHighchartsHTML/CSSHTML5JavaScriptJerryScriptJestReactSassTypeScriptVue前端工具小程序
后端
.NETApacheC/C++C#CMakeCrystalDartDenoDjangoDubboErlangFastifyFlaskGinGoGoFrameGuzzleIrisJavaJuliaLispLLVMLuaMatplotlibMicronautnimNode.jsPerlPHPPythonQtRPCRubyRustR语言ScalaShellVlangwasmYewZephirZig算法
移动端
AndroidAPP工具FlutterFramework7HarmonyHippyIoniciOSkotlinNativeObject-CPWAReactSwiftuni-appWeex
数据库
ApacheArangoDBCassandraClickHouseCouchDBCrateDBDB2DocumentDBDorisDragonflyDBEdgeDBetcdFirebirdGaussDBGraphGreenPlumHStreamDBHugeGraphimmudbIndexedDBInfluxDBIoTDBKey-ValueKitDBLevelDBM3DBMatrixOneMilvusMongoDBMySQLNavicatNebulaNewSQLNoSQLOceanBaseOpenTSDBOracleOrientDBPostgreSQLPrestoDBQuestDBRedisRocksDBSequoiaDBServerSkytableSQLSQLiteTiDBTiKVTimescaleDBYugabyteDB关系型数据库数据库数据库ORM数据库中间件数据库工具时序数据库
云计算&大数据
ActiveMQAerakiAgentAlluxioAntreaApacheApache APISIXAPISIXBFEBitBookKeeperChaosChoerodonCiliumCloudStackConsulDaprDataEaseDC/OSDockerDrillDruidElasticJobElasticSearchEnvoyErdaFlinkFluentGrafanaHadoopHarborHelmHudiInLongKafkaKnativeKongKubeCubeKubeEdgeKubeflowKubeOperatorKubernetesKubeSphereKubeVelaKumaKylinLibcloudLinkerdLonghornMeiliSearchMeshNacosNATSOKDOpenOpenEBSOpenKruiseOpenPitrixOpenSearchOpenStackOpenTracingOzonePaddlePaddlePolicyPulsarPyTorchRainbondRancherRediSearchScikit-learnServerlessShardingSphereShenYuSparkStormSupersetXuperChainZadig云原生CNCF人工智能区块链数据挖掘机器学习深度学习算法工程边缘计算
UI&美工&设计
BlenderKritaSketchUI设计
网络&系统&运维
AnsibleApacheAWKCeleryCephCI/CDCurveDevOpsGoCDHAProxyIstioJenkinsJumpServerLinuxMacNginxOpenRestyPrometheusServertraefikTrafficUnixWindowsZabbixZipkin安全防护系统内核网络运维监控
综合其它
文章资讯
 上传文档  发布文章  登录账户
IT文库
  • 综合
  • 文档
  • 文章

无数据

分类

全部综合其他(7)云计算&大数据(7)机器学习(7)后端开发(5)人工智能(4)产品与服务(3)Python(1)Idris(1)Rust(1)

语言

全部中文(简体)(19)

格式

全部PDF文档 PDF(18)PPT文档 PPT(1)
 
本次搜索耗时 0.111 秒,为您找到相关结果约 19 个.
  • 全部
  • 综合其他
  • 云计算&大数据
  • 机器学习
  • 后端开发
  • 人工智能
  • 产品与服务
  • Python
  • Idris
  • Rust
  • 全部
  • 中文(简体)
  • 全部
  • PDF文档 PDF
  • PPT文档 PPT
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 机器学习课程-温州大学-13深度学习-Transformer

    深度学习-Transformer 黄海广 副教授 2 03 Transformer的训练 本章目录 01 Transformer介绍 02 Transformer的工作流程 04 BERT 3 1.Transformer介绍 01 Transformer介绍 03 Transformer的训练 02 Transformer的工作流程 4 1.Transformer介绍 为什么需要用transformer 其实在之前我们使用的是RNN(或者是其的单向或者双向变种LSTM/GRU等) 来 作为编解码器。RNN模块每次只能够吃进一个输入token和前一次的隐藏状态,然 后得到输出。它的时序结构使得这个模型能够得到长距离的依赖关系,但是这也 使得它不能够并行计算,模型效率十分低。 在没有transformer的时候,我们 5 1.Transformer介绍 Seq2Seq任务 Seq2Seq 任务指的是输入和输出都是 序列的任务,输出的长度不确定时采 用的模型,这种情况一般是在机器翻 译的任务中出现,将一句中文翻译成 英文,那么这句英文的长度有可能会 比中文短,也有可能会比中文长,所 以输出的长度就不确定了。 上图,输入的中文长度为4,输出的英文长度为2 6 1.Transformer介绍 Encoder-Decoder模型
    0 码力 | 60 页 | 3.51 MB | 1 年前
    3
  • pdf文档 机器学习课程-温州大学-14深度学习-Vision Transformer (ViT)

    1 2023年06月 深度学习-Vision Transformer (ViT) 黄海广 副教授 2 03 模型训练策略 本章目录 01 背景知识 02 模型介绍 04 模型的缺点与改进 05 模型的代码实现 3 1.背景知识 03 模型训练策略 01 背景知识 02 模型介绍 04 模型的缺点与改进 05 all you need的文章,开创性地提出了 在序列转录领域,完全抛弃 CNN和RNN,只依赖Attention-注 意力结构的简单的网络架构, 名为Transformer;论文实现的 任务是机器翻译。 Transformer结构 Multi-Head Attention Add & Norm Input Embedding Output Embedding Feed Inputs Outputs (shifted right) Positional Encoding Positional Encoding 1.背景知识 6 为什么需要用transformer Transformer原本是用来做 NLP的工作的,所以ViT的 首要任务是将图转换成词 的结构,这里采取的方法 是如上图左下角所示,将 图片分割成小块,每个小 块就相当于句子里的一个 词。这里把每个小块称作
    0 码力 | 34 页 | 2.78 MB | 1 年前
    3
  • pdf文档 Moonshot AI 介绍

    cn/),发布时间2023年11⽉2⽇ • 欢迎关注公众号,了解更多动态 公司亮点 1.团队拥有世界级的⼈才密度: a. 创始⼈杨植麟是中国35岁以下NLP领域引⽤最⾼的研究者,Transformer-XL和XLNet两篇重要 论⽂的第⼀作者;两位联合创始⼈周昕宇和吴育昕都有10000+的GoogleScholar引⽤。 b. 团队成员囊括NLP,CV,RL(强化学习) LLaMa和GooglePALM等⼤多数 主流模型的重要组成部分;发明了groupnormalization,是StableDiffusion等AI模型成功 的关键组件;发明了Transformer-XL,是历史上第⼀个在词级别和字级别都全⾯超越RNN 的注意⼒语⾔模型,解决了语⾔建模上下⽂⻓度的关键问题,定义了语⾔建模的新标准;曾 与DeepMind和CMU合作研究,⾸次实现⼩样本性能逼近全监督学习的⾼效对⻬⽅法。 能拍板执⾏。⼀个具体的例⼦是,⽉之暗⾯希望⽐ OpenAI更关⼼⽤⼾,原因是杨植麟判断⽤⼾数据的scaleup的效果最终会超越basemodel⾃⾝。 杨植麟对于⽤transformer这个概率模型的思想基础⾛向AGI也很有信⼼,⽤他的话说“如果你有10 亿的contextlength,今天看到的问题都不是问题”。 AGI:AI本质就是⼀堆scalinglaw
    0 码力 | 74 页 | 1.64 MB | 1 年前
    3
  • pdf文档 机器学习课程-温州大学-12深度学习-自然语言处理和词嵌入

    预训练模型的发展 31 预训练模型的发展 32 Transformer 资料来源:《Attention Is All You Need》,Ashish Vaswani et.al 2017 ◼ Transformer摆脱了人工标注数据集的缺陷,模型在质量上更优、 更易于并行化,所需训练时间明显更少 ◼ Transformer通过成功地将其应用于具有大量和有限训练数据的分 析,可以很好地推广到其他任务 Need》 中提出了一种新的简单架构——Transformer,它完全基于注意力机制, 完全不用重复和卷积,因而这些模型在质量上更优,同时更易于并行化,并 且需要的训练时间明显更少。 ✓ Transformer出现以后,迅速取代了RNN系列变种,跻身主流模型架构基 础。(RNN缺陷正在于流水线式的顺序计算) 图:Transformer模型架构 33 首先通过词嵌入(Word Embedding)将字、词、 增强数据间的结构信息。其次通过Transformer等模式结合 上下文进行推导,生成最终文本。 ◼ Transformer架构可分为自回归系列(例如GPT-3,偏好生成性任务)、双向Transformer+Mask的自编码系列(例如BERT, 偏好自然语言理解)、Encoder-decoder架构(例如T5,使用双向/单向attention,偏好条件文本生成) 图:Transformer典型技术场景下的原理介绍如下所述
    0 码力 | 44 页 | 2.36 MB | 1 年前
    3
  • pdf文档 DeepSeek图解10页PDF

    . . . . . . . . . 5 2.1 LLM 基础概念 . . . . . . . . . . . . . . . . . . . . . . . . . . 5 2.2 Transformer 基础架构 . . . . . . . . . . . . . . . . . . . . . . 6 2.3 LLM 基本训练方法 . . . . . . . . . . . . . . billion,意思是十亿,7b 就是 70 亿,8b 就 是 80 亿,70 亿、80 亿是指大模型的神经元参数(权重参数 weight+bias)的 总量。目前大模型都是基于 Transformer 架构,并且是很多层的 Transformer 结构,最后还有全连接层等,所有参数加起来 70 亿,80 亿,还有的上千亿。 教程作者:郭震,工作 8 年目前美国 AI 博士在读,公众号:郭震 AI,欢迎关注获取更多原创教程。资 元化,模型最后就会越通用;即使包括噪声数据,模型仍能通过扩展规律提 取出通用的知识。而 Transformer 这种架构正好完美做到了 Scaling Laws, Transformer 就是自然语言处理领域实现扩展规律的最好的网络结构。 2.2 Transformer 基础架构 LLM 依赖于 2017 年 Google 提出的 Transformer 模型,该架构相比传统的 RNN(递归神经网络)和 LSTM(长短时记忆网络)具有更高的训练效率和
    0 码力 | 11 页 | 2.64 MB | 8 月前
    3
  • pdf文档 2024 中国开源开发者报告

    Maas(Model as a service)、Aaas(Agent as a service)这样的平台,如玩乐高一般搭建自己的 AI 云原生应用。 2. 算力层深挖定制化、低能耗的可能性,但固化 transformer 可能不是最优解 虽说智能体不需要太大的模型,但其运营成本(模型推理计算成本)仍然较高。在短时间内, 算力、能源仍然会是大模型领域令人头疼的高墙。 根据报告【1】,能源消耗将会是 2030 型底层技术的特性,产出针对性的芯片,尤其是加速运算和降低能耗。这是未来 AI 芯片领域的 最优竞争力。 那么,把 transformer“焊死”到板子上就是最佳方案吗?我知道你很急,但你先别急。大 模型底层框架还存在底层路线之争。 32 / 111 我们知道,Transformer 架构呈现了 O(n²)的理论计算复杂度,这里的 n 指的是大模型输入 序列的 token 数量,但其前任语言模型担当 最近,以 Mamba、RWKV 为代表的类 RNN 结构死灰复燃,公开挑战 transformer 地位。 更有最新研究【13】从理论上表明,RNN 对比 Transformer 的表达力,只差一个 in-context-retrieval。 在这个方向的持续投入下,我们很可能会迎接一个介于 RNN 和 Transformer 之间的“新王”。 因此,算力层短时间内的主题仍然是“半通用化”“高算力”“低能耗”。
    0 码力 | 111 页 | 11.44 MB | 8 月前
    3
  • pdf文档 动手学深度学习 v2.0

    位置编码 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 410 10.7 Transformer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413 10.7 多 层、残差连接、不同类型的正则化。然而,由于序列的长距离依赖性,训练长短期记忆网络和其他序列模型 (例如门控循环单元)的成本是相当高的。在后面的内容中,我们将讲述更高级的替代模型,如Transformer。 小结 • 长短期记忆网络有三种类型的门:输入门、遗忘门和输出门。 • 长短期记忆网络的隐藏层输出包括“隐状态”和“记忆元”。只有隐状态会传递到输出层,而记忆元完 全属于内部信息。 力是深度学习中的具有突破性价值的注意力模型,它 双向对齐并且可以微分。 最后将描述仅仅基于注意力机制的Transformer架构,该架构中使用了多头注意力(multi‐head attention)和 自注意力(self‐attention)。自2017年横空出世,Transformer一直都普遍存在于现代的深度学习应用中,例 如语言、视觉、语音和强化学习领域。 381 10.1 注意力提示
    0 码力 | 797 页 | 29.45 MB | 1 年前
    3
  • pdf文档 2022年美团技术年货 合辑

    weixin.qq.com/s/RwWuZBSaoVXVmZpnyg7FHg 128 > 2022年美团技术年货 [5] https://tech.meituan.com/2020/04/16/transformer-in-meituan.html. [6] https://tech.meituan.com/2021/07/08/multi-business-modeling.html. [7] Tang 度神经网络来捕获来自不同领域的特征之间的交互,以便工程师可以摆脱枯燥的特征 工程工作。最近,我们称之为用户兴趣模型的一系列工作,专注于从历史行为中学习 潜在用户兴趣的表示,使用不同的神经网络架构,如 CNN、RNN、Transformer 和 Capsule 等。DIN1 强调用户兴趣是多样的,并引入了注意力机制来捕捉用户对不同 目标商品的不同兴趣。DIEN2 指出,历史行为之间的时间关系对于建模用户的兴趣漂 移很重要,并设计了一个带有辅助损失的 定离线训练时长与在线 Latency 约束下,选择了 4Experts MMOE 版本作为新的基 线模型,并做详细的探索,进行较为细致的优化,包括: ● 引 入 残 差 连 接: 受 Switch Transformer12 启 发, 引 入 embedding layer 与 Experts 输 出 层 之 间 的 残 差 连 接, 用 来 缓 解 梯 度 消 失, 离 线 CXR GAUC+0.1pp。
    0 码力 | 1356 页 | 45.90 MB | 1 年前
    3
  • pdf文档 阿里云上深度学习建模实践-程孟力

    Normalization: bn, gn, ln?  激活函数: relu, leaky_relu, swish ?  Backbone: resnet, hrnet, mobilenet, transformer?  多任务模型: share-bottom, mmoe, ple?  特征选择/生成: Age, sex, comment, click… 解决方案: 超参搜索 效果提升 模型理解 Blade  推荐模型优化: 千亿特征 3. 工程优化 RingAllReduce + 层级级联 EasyVision 多机多卡性能对比 工程优化: 数据并行  M6模型  Transformer模型: RapidFormer  人脸分类模型: 超大softmax  3D卷积模型 M6模型 RapidFormer性能 工程优化: 模型并行(Whale)  FP16 / 智能标注系统iTags 智能抠图 智能抠图 智能贴合 智能预标注 + 人机协同 解决方案: 自监督学习 Moby: swin-transformer based moco. Image features 推荐模型特征 图像搜索 解决方案: 多模态预训练 Swin transformer based (Violet) VIT Video Fram es Bert Title OCR Cls
    0 码力 | 40 页 | 8.51 MB | 1 年前
    3
  • pdf文档 美团点评2018技术年货

    3. 时间解析,对于不同格式的的上报时间进行兼容统一。 Transformer Transformer Transformer是我们的转换模块,它是一种更加高级的处理过程,能够提供给业务进行灵活的行为属性扩 展: 1. 比如需要根据商户ID转换出商户的星级、品类等其他信息,我们可以在我们的明细扩展层配置一 个Transformer。 2. 或者业务有自己的转换规则,比如他需要把一些字段进行合并、拆分、转换,都可 合并、拆分、转换,都可 以通过一个Transformer模块,解决这个问题。 Sender Sender Sender是我们的发送模块,将处理好的数据,按照不同的业务数据流,进行转发,一般我们是发送到消 息队列中,Sender模块,可以指定发送的格式、字段名称等。 目前我们的实时处理,基本上已经做到可视化的配置,之前需要几人日才能做到的用户行为数据分发和处 理,现在从配置到验证上线只需要几分钟左右。 等,这些数据我们会按照一定的粒度拆分,存储在不同的搜 索集群中,并且有一定的过期机制。 UAS-点评侧用户行为检索系统 - 美团技术团队 搜索 上图是我们的处理方式: 1. 通过Transformer,业务方可以通过自己的服务,对数据的维度进行扩展,从而Sender发出的Message就是满足业务 需求的数据。 2. 然后在Kafka2Hive这一步,会去更新对应的Hive表结构,支
    0 码力 | 229 页 | 61.61 MB | 1 年前
    3
共 19 条
  • 1
  • 2
前往
页
相关搜索词
机器学习课程温州大学13深度Transformer14VisionViTMoonshotAI介绍12自然语言自然语言处理嵌入DeepSeek图解10PDF2024中国开源开发开发者报告动手v22022美团技术年货合辑阿里云上建模实践程孟力点评2018
IT文库
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传或本站整理自互联网,不以营利为目的,供所有人免费下载和学习使用。如侵犯您的权益,请联系我们进行删除。
IT文库 ©1024 - 2025 | 站点地图
Powered By MOREDOC AI v3.3.0-beta.70
  • 关注我们的公众号【刻舟求荐】,给您不一样的精彩
    关注我们的公众号【刻舟求荐】,给您不一样的精彩