积分充值
 首页
前端开发
AngularDartElectronFlutterHTML/CSSJavaScriptReactSvelteTypeScriptVue.js构建工具
后端开发
.NetC#C++C语言DenoffmpegGoIdrisJavaJuliaKotlinLeanMakefilenimNode.jsPascalPHPPythonRISC-VRubyRustSwiftUML其它语言区块链开发测试微服务敏捷开发架构设计汇编语言
数据库
Apache DorisApache HBaseCassandraClickHouseFirebirdGreenplumMongoDBMySQLPieCloudDBPostgreSQLRedisSQLSQLiteTiDBVitess数据库中间件数据库工具数据库设计
系统运维
AndroidDevOpshttpdJenkinsLinuxPrometheusTraefikZabbix存储网络与安全
云计算&大数据
Apache APISIXApache FlinkApache KarafApache KyuubiApache OzonedaprDockerHadoopHarborIstioKubernetesOpenShiftPandasrancherRocketMQServerlessService MeshVirtualBoxVMWare云原生CNCF机器学习边缘计算
综合其他
BlenderGIMPKiCadKritaWeblate产品与服务人工智能亿图数据可视化版本控制笔试面试
文库资料
前端
AngularAnt DesignBabelBootstrapChart.jsCSS3EchartsElectronHighchartsHTML/CSSHTML5JavaScriptJerryScriptJestReactSassTypeScriptVue前端工具小程序
后端
.NETApacheC/C++C#CMakeCrystalDartDenoDjangoDubboErlangFastifyFlaskGinGoGoFrameGuzzleIrisJavaJuliaLispLLVMLuaMatplotlibMicronautnimNode.jsPerlPHPPythonQtRPCRubyRustR语言ScalaShellVlangwasmYewZephirZig算法
移动端
AndroidAPP工具FlutterFramework7HarmonyHippyIoniciOSkotlinNativeObject-CPWAReactSwiftuni-appWeex
数据库
ApacheArangoDBCassandraClickHouseCouchDBCrateDBDB2DocumentDBDorisDragonflyDBEdgeDBetcdFirebirdGaussDBGraphGreenPlumHStreamDBHugeGraphimmudbIndexedDBInfluxDBIoTDBKey-ValueKitDBLevelDBM3DBMatrixOneMilvusMongoDBMySQLNavicatNebulaNewSQLNoSQLOceanBaseOpenTSDBOracleOrientDBPostgreSQLPrestoDBQuestDBRedisRocksDBSequoiaDBServerSkytableSQLSQLiteTiDBTiKVTimescaleDBYugabyteDB关系型数据库数据库数据库ORM数据库中间件数据库工具时序数据库
云计算&大数据
ActiveMQAerakiAgentAlluxioAntreaApacheApache APISIXAPISIXBFEBitBookKeeperChaosChoerodonCiliumCloudStackConsulDaprDataEaseDC/OSDockerDrillDruidElasticJobElasticSearchEnvoyErdaFlinkFluentGrafanaHadoopHarborHelmHudiInLongKafkaKnativeKongKubeCubeKubeEdgeKubeflowKubeOperatorKubernetesKubeSphereKubeVelaKumaKylinLibcloudLinkerdLonghornMeiliSearchMeshNacosNATSOKDOpenOpenEBSOpenKruiseOpenPitrixOpenSearchOpenStackOpenTracingOzonePaddlePaddlePolicyPulsarPyTorchRainbondRancherRediSearchScikit-learnServerlessShardingSphereShenYuSparkStormSupersetXuperChainZadig云原生CNCF人工智能区块链数据挖掘机器学习深度学习算法工程边缘计算
UI&美工&设计
BlenderKritaSketchUI设计
网络&系统&运维
AnsibleApacheAWKCeleryCephCI/CDCurveDevOpsGoCDHAProxyIstioJenkinsJumpServerLinuxMacNginxOpenRestyPrometheusServertraefikTrafficUnixWindowsZabbixZipkin安全防护系统内核网络运维监控
综合其它
文章资讯
 上传文档  发布文章  登录账户
IT文库
  • 综合
  • 文档
  • 文章

无数据

分类

全部云计算&大数据(28)机器学习(28)

语言

全部中文(简体)(27)英语(1)

格式

全部PDF文档 PDF(28)
 
本次搜索耗时 0.072 秒,为您找到相关结果约 28 个.
  • 全部
  • 云计算&大数据
  • 机器学习
  • 全部
  • 中文(简体)
  • 英语
  • 全部
  • PDF文档 PDF
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 动手学深度学习 v2.0

    目录 代码 本书的大部分章节都以可执行代码为特色,因为我们相信交互式学习体验在深度学习中的重要性。目前,某 些直觉只能通过试错、小幅调整代码并观察结果来发展。理想情况下,一个优雅的数学理论可能会精确地告 诉我们如何调整代码以达到期望的结果。不幸的是,这种优雅的理论目前还没有出现。尽管我们尽了最大努 力,但仍然缺乏对各种技术的正式解释,这既是因为描述这些模型的数学可能非常困难,也是因为对这些主 理、医疗保健和基因组学等不同领域的创新。 1.1 日常生活中的机器学习 机器学习应用在日常生活中的方方面面。现在,假设本书的作者们一起驱车去咖啡店。阿斯顿拿起一部iPhone, 对它说道:“Hey Siri!”手机的语音识别系统就被唤醒了。接着,李沐对Siri说道:“去星巴克咖啡店。”语音 识别系统就自动触发语音转文字功能,并启动地图应用程序,地图应用程序在启动后筛选了若干条路线,每 条路线都显示 称为模型(model)。通过操作参数而生成的所有不同程序(输入‐输出映射)的集合称为“模型族”。使用数 据集来选择参数的元程序被称为学习算法(learning algorithm)。 在开始用机器学习算法解决问题之前,我们必须精确地定义问题,确定输入(input)和输出(output)的性 质,并选择合适的模型族。在本例中,模型接收一段音频作为输入,然后在是或否中生成一个选择作为输出。 如果一切顺利,经过一番训练,模型对
    0 码力 | 797 页 | 29.45 MB | 1 年前
    3
  • pdf文档 【PyTorch深度学习-龙龙老师】-测试版202112

    在工业界拥有完备的解决方案和用户基础,但是 TensorFlow 2 和 TensorFlow 1.x 版本并不兼容,导致几乎所有基于 TensorFlow 1.x 开发的算法、框架等都需要修改甚至重 写,因此可以将 TensorFlow 2 视为一个全新的框架。PyTorch 得益于其精简灵活的接口设 计,可以快速搭建和调试网络模型,在学术界获得好评如潮。根据 RISELab 的统计数据 ⑤,2018 PyTorch 深度学习框架的三大核心功 能,从而帮助我们理解框架在算法设计中扮演的角色。 1) 加速计算 神经网络本质上由大量的矩阵相乘、矩阵相加等基本数学运算构成,TensorFlow 的重 要功能就是利用 GPU 方便地实现并行计算加速功能。为了演示 GPU 的加速效果,我们通 过完成多次矩阵?和矩阵?的矩阵相乘运算,并测量其平均运算时间来比对。其中矩阵?的 shape 为[1,?],矩阵 求出方程组的精确解, 这种通过严格的公式推导出的精确解也称为解析解(Closed-form Solution)。但是对于多个数 据点(? ≫ 2)的情况,这时有可能不存在解析解,或者无法直接求解解析解,因此只能借助 数值方法去优化(Optimize)出一个近似的数值解(Numerical Solution)。为什么叫作优化?这 是因为计算机的计算速度非常快,可以借助强大的计算能力去多次“搜索”和“试错”,从
    0 码力 | 439 页 | 29.91 MB | 1 年前
    3
  • pdf文档 机器学习课程-温州大学-05机器学习-机器学习实践

    Set ),用来做 模型选择(model selection),即做模型的最终优化及确定的, 用来辅助我们的模型的构建,即训练超参数,可选; 测试集(Test Set): 为了测试已经训练好的模型的精确度。 三者划分:训练集、验证集、测试集 机器学习:60%,20%,20%;70%,10%,20% 深度学习:98%,1%,1% (假设百万条数据) 1.数据集划分 数据集 训练集 验证集 测试集 错误否定(False Negative,FN):预测为假,实际为真 混淆矩阵(confusion_matrix) 评价指标 准确率 Accuracy = TP + TN TP + TN + FP + FN 精确率 Precision = TP TP + FP 召回率 Recall = TP TP + FN F1 score F1 = 2 × Precision × Recall Precision 而其它的轴则为0,所以??正则化能使得到的参数稀疏化。 ??正则化是 指在损失函 数中加入权 值向量w的绝 对值之和, ??的功能是 使权重稀疏 在损失函数 中加入权值 向量w的平 方和,??的 功能是使权 重平滑。 25 正则化 x[2] x[3] x[1] a[L] DropOut Dropout的功能类似于?2正则化,与?2正则化不同的是,被应用的方 式不同,dropout也会有所不同,甚至更适用于不同的输入范围
    0 码力 | 33 页 | 2.14 MB | 1 年前
    3
  • pdf文档 机器学习课程-温州大学-05深度学习-深度学习实践

    Set ),用来做 模型选择(model selection),即做模型的最终优化及确定的, 用来辅助我们的模型的构建,即训练超参数,可选; 测试集(Test Set): 为了测试已经训练好的模型的精确度。 三者划分:训练集、验证集、测试集 机器学习:60%,20%,20%;70%,10%,20% 深度学习:98%,1%,1% (假设百万条数据) 数据集划分 数据集 训练集 验证集 测试集 而其它的轴则为0,所以??正则化能使得到的参数稀疏化。 ??正则化是 指在损失函 数中加入权 值向量w的绝 对值之和, ??的功能是 使权重稀疏 在损失函数 中加入权值 向量w的平 方和,??的 功能是使权 重平滑。 ?(?) = 1 ? σ?=1 ? ? ̰? ? , ? ? + ? 2? σ?=1 ? | ??| ??正则化可以防止过拟合 ?(?) = 1 ? σ?=1 ? ? ̰?
    0 码力 | 19 页 | 1.09 MB | 1 年前
    3
  • pdf文档 机器学习课程-温州大学-10机器学习-聚类

    第三步:移动质心,因为上面步骤中形成的簇 没有优化,所以需要形成优化的簇。为此,我 们需要迭代地将质心移动到一个新位置。取一 个簇的数据点,计算它们的平均值,然后将该 簇的质心移动到这个新位置。对所有其他簇重 复相同的步骤。 迭代更新 20 2.K-means聚类 K-means算法流程 优化 上述两个步骤是迭代进行的,直到质心停止移动,即它们不再改变自己的位置,并且成为静态的。一 旦这样做,k-均值算法被称为收敛。 方 向 42 4. 聚类的评价指标 01 无监督学习概述 02 K-means聚类 03 密度聚类和层次聚类 04 聚类的评价指标 43 (1) 均一性:? 类似于精确率,一个簇中只包含一个类别的样本,则 满足均一性。其实也可以认为就是正确率(每个聚簇中正 确分类的样本数占该聚簇总样本数的比例和) (2) 完整性:? 类似于召回率,同类别样本被归类到相同簇中,则满
    0 码力 | 48 页 | 2.59 MB | 1 年前
    3
  • pdf文档 全连接神经网络实战. pytorch 版

    l = training_data [ 1 0 0 ] plt . t i t l e ( labels_map [ l a b e l ] ) #squeeze 函 数 把 为1 的 维 度 去 掉 plt . imshow ( img . squeeze () , cmap=” gray ” ) plt . show () datasets 是 torchvision 的对象,它返回的数据就是 gray ” ) plt . show () 程序得到显示结果: 数据有时候并不适合直接丢进网络进行训练,因此我们需要把数据进行转换。由于 pytorch 会自动完成一些工作,因此我们没有必要自己去转换,比如像这样: training_data = datasets . FashionMNIST( root=” data ” , train=True , #用 来 训 练 的 数 据 download=True 函数,首先使用 zeros 函数创建一个 10 维数组, 然后调用.scatter 函数为每个向量的第 label 个索引赋值为 1。 由于 pytorch 的网络训练会自动帮你进行转换,所以我们不需要自己去操作,因此并不需要 设置 target_transf orm。 前两节的源码参见 chapter1.py。 2. 构建神经网络 2.1 基本网络结构 11 2.2 使用 cuda 来训练网络
    0 码力 | 29 页 | 1.40 MB | 1 年前
    3
  • pdf文档 机器学习课程-温州大学-13深度学习-Transformer

    ? ? 25 2.Transformer的工作流程 通过矩阵运算实现自注意力机制 第一步是计算查询矩阵、键矩阵和值矩阵。为此,我们将 将输入句子的词嵌入装进矩阵X中,将其乘以我们训练的权 重矩阵(WQ,WK,WV)。 x矩阵中的每一行对应于输入句子中的一个单词。我 们再次看到词嵌入向量 (512,或图中的4个格子)和 q/k/v向量(64,或图中的3个格子)的大小差异。 最后,由于我们处理的是矩阵,我们可以用一个公式 这个编码函数的可视化结果: 36 2.Transformer的工作流程 在每个编码器中的每个子层(自注意力、前馈网络)的周围都有一个残差连 接,并且都跟随着一个“层-归一化”步骤。 如果我们去可视化这些向量以及这个和自注意力相 关联的层-归一化操作,那么看起来就像下面这张 图描述一样: 37 2.Transformer的工作流程 归一化: 连接:基本的残差 连接方式 38 2.Transformer的工作流程 Language Modeling) 当前词出现不只是单单依靠上文或者下文,其 实应该是同时依赖于上下文深层的双向RNN会 互相透露信息。 句子中有15%的词汇被随机mask掉 交给模型 去预测被mask的部分到底是什么 词语的可能性太多了,中文一般是字 如果BERT训练的向量好,那分类自然OK 4.BERT 54 如何训练BERT 方法2:预测两个句子是否应该连在一起 [
    0 码力 | 60 页 | 3.51 MB | 1 年前
    3
  • pdf文档 阿里云上深度学习建模实践-程孟力

    [VariationalDropout] 通信优化 [GRPC++] 实时训练 [增量更新] 混合精度 [bf16] 工程优化: 千亿特征优化 模型蒸馏 AVX/SSE优化 Graph优化 [User Graph去重] 内存Allocate优化 ParallelStringOp [split/type conversion] Sequence Feature [side info] Op Fusion
    0 码力 | 40 页 | 8.51 MB | 1 年前
    3
  • pdf文档 机器学习课程-温州大学-12深度学习-自然语言处理和词嵌入

    图:Transformer模型架构 33 首先通过词嵌入(Word Embedding)将字、词、 句进行区分,然后基于特征评分、序列标注、 分类模型等提取内容特征计算相关文本单元权 重其次洗择相应的文本单元子集组成摘要候洗 集,完成内容选择,最后针对字数要求等限定 条件,对候选集的内容进行整理形成最终摘要, 完成内容组织。其细分路径又包含生成式文本 摘 要(AATS),即形成抽象认知并创造新词灵活 习,但基于few-shot的效果,其稍逊于监督微调(fine-tuning)的方式。 ✓ 基于以上背景,OpenAI在GPT-3基础上根据人类反馈的强化学习方案RHLF,训练出奖励模型(reward model)去训练学习模型(即: 用AI训练AI的思路) ✓ InstructGPT的训练步骤为:对GPT-3监督微调——训练奖励模型(reward model)——增强学习优化SFT (第二、第三步可以迭代循
    0 码力 | 44 页 | 2.36 MB | 1 年前
    3
  • pdf文档 Keras: 基于 Python 的深度学习库

    fill_mode = "constant" 时。 • horizontal_flip: 布尔值。随机水平翻转。 • vertical_flip: 布尔值。随机垂直翻转。 • rescale: 重缩放因子。默认为 None。如果是 None 或 0,不进行缩放,否则将数据乘以所提 供的值(在应用任何其他转换之前)。 • preprocessing_function: 应用于每个输入的函数。这个函数会在任何其他改变之前运行。这 的日志,也可以选择性的包括 val_loss(如果在 fit 中 启用验证),和 val_acc(如果启用验证和监测精确值)。 • on_batch_begin: 包括 size 的日志,在当前批量内的样本数量。 • on_batch_end: 包括 loss 的日志,也可以选择性的包括 acc(如果启用监测精确值)。 11.1.2 BaseLogger [source] keras.callbacks.BaseLogger() val_loss,模式就需要是 min,等等。在 auto 模式中,方向会自动从被监测的数据的名 字中判断出来。 • save_weights_only: 如 果 True, 那 么 只 有 模 型 的 权 重 会 被 保 存 (model.save_weights(filepath)), 否 则 的 话, 整 个 模 型 会 被 保 存 (model.save(filepath))。 • period:
    0 码力 | 257 页 | 1.19 MB | 1 年前
    3
共 28 条
  • 1
  • 2
  • 3
前往
页
相关搜索词
动手深度学习v2PyTorch深度学习机器课程温州大学05实践10聚类连接神经网络神经网神经网络实战pytorch13Transformer阿里云上建模程孟力12自然语言自然语言处理嵌入Keras基于Python
IT文库
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传或本站整理自互联网,不以营利为目的,供所有人免费下载和学习使用。如侵犯您的权益,请联系我们进行删除。
IT文库 ©1024 - 2025 | 站点地图
Powered By MOREDOC AI v3.3.0-beta.70
  • 关注我们的公众号【刻舟求荐】,给您不一样的精彩
    关注我们的公众号【刻舟求荐】,给您不一样的精彩