积分充值
 首页
前端开发
AngularDartElectronFlutterHTML/CSSJavaScriptReactSvelteTypeScriptVue.js构建工具
后端开发
.NetC#C++C语言DenoffmpegGoIdrisJavaJuliaKotlinLeanMakefilenimNode.jsPascalPHPPythonRISC-VRubyRustSwiftUML其它语言区块链开发测试微服务敏捷开发架构设计汇编语言
数据库
Apache DorisApache HBaseCassandraClickHouseFirebirdGreenplumMongoDBMySQLPieCloudDBPostgreSQLRedisSQLSQLiteTiDBVitess数据库中间件数据库工具数据库设计
系统运维
AndroidDevOpshttpdJenkinsLinuxPrometheusTraefikZabbix存储网络与安全
云计算&大数据
Apache APISIXApache FlinkApache KarafApache KyuubiApache OzonedaprDockerHadoopHarborIstioKubernetesOpenShiftPandasrancherRocketMQServerlessService MeshVirtualBoxVMWare云原生CNCF机器学习边缘计算
综合其他
BlenderGIMPKiCadKritaWeblate产品与服务人工智能亿图数据可视化版本控制笔试面试
文库资料
前端
AngularAnt DesignBabelBootstrapChart.jsCSS3EchartsElectronHighchartsHTML/CSSHTML5JavaScriptJerryScriptJestReactSassTypeScriptVue前端工具小程序
后端
.NETApacheC/C++C#CMakeCrystalDartDenoDjangoDubboErlangFastifyFlaskGinGoGoFrameGuzzleIrisJavaJuliaLispLLVMLuaMatplotlibMicronautnimNode.jsPerlPHPPythonQtRPCRubyRustR语言ScalaShellVlangwasmYewZephirZig算法
移动端
AndroidAPP工具FlutterFramework7HarmonyHippyIoniciOSkotlinNativeObject-CPWAReactSwiftuni-appWeex
数据库
ApacheArangoDBCassandraClickHouseCouchDBCrateDBDB2DocumentDBDorisDragonflyDBEdgeDBetcdFirebirdGaussDBGraphGreenPlumHStreamDBHugeGraphimmudbIndexedDBInfluxDBIoTDBKey-ValueKitDBLevelDBM3DBMatrixOneMilvusMongoDBMySQLNavicatNebulaNewSQLNoSQLOceanBaseOpenTSDBOracleOrientDBPostgreSQLPrestoDBQuestDBRedisRocksDBSequoiaDBServerSkytableSQLSQLiteTiDBTiKVTimescaleDBYugabyteDB关系型数据库数据库数据库ORM数据库中间件数据库工具时序数据库
云计算&大数据
ActiveMQAerakiAgentAlluxioAntreaApacheApache APISIXAPISIXBFEBitBookKeeperChaosChoerodonCiliumCloudStackConsulDaprDataEaseDC/OSDockerDrillDruidElasticJobElasticSearchEnvoyErdaFlinkFluentGrafanaHadoopHarborHelmHudiInLongKafkaKnativeKongKubeCubeKubeEdgeKubeflowKubeOperatorKubernetesKubeSphereKubeVelaKumaKylinLibcloudLinkerdLonghornMeiliSearchMeshNacosNATSOKDOpenOpenEBSOpenKruiseOpenPitrixOpenSearchOpenStackOpenTracingOzonePaddlePaddlePolicyPulsarPyTorchRainbondRancherRediSearchScikit-learnServerlessShardingSphereShenYuSparkStormSupersetXuperChainZadig云原生CNCF人工智能区块链数据挖掘机器学习深度学习算法工程边缘计算
UI&美工&设计
BlenderKritaSketchUI设计
网络&系统&运维
AnsibleApacheAWKCeleryCephCI/CDCurveDevOpsGoCDHAProxyIstioJenkinsJumpServerLinuxMacNginxOpenRestyPrometheusServertraefikTrafficUnixWindowsZabbixZipkin安全防护系统内核网络运维监控
综合其它
文章资讯
 上传文档  发布文章  登录账户
IT文库
  • 综合
  • 文档
  • 文章

无数据

分类

全部云计算&大数据(26)机器学习(26)

语言

全部中文(简体)(25)英语(1)

格式

全部PDF文档 PDF(26)
 
本次搜索耗时 0.069 秒,为您找到相关结果约 26 个.
  • 全部
  • 云计算&大数据
  • 机器学习
  • 全部
  • 中文(简体)
  • 英语
  • 全部
  • PDF文档 PDF
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 Keras: 基于 Python 的深度学习库

    Input(shape=(100,), dtype='int32') encoded_video_question = question_encoder(video_question_input) # 这就是我们的视频问答模式: merged = keras.layers.concatenate([encoded_video, encoded_video_question]) output = Dense(1000, model_from_json(json_string, custom_objects={'AttentionLayer': AttentionLayer}) 3.3.7 为什么训练误差比测试误差高很多? Keras 模型有两种模式:训练和测试。正则化机制,如 Dropout 和 L1/L2 权重正则化,在测 试时是关闭的。 此外,训练误差是每批训练数据的平均误差。由于你的模型是随着时间而变化的,一个 epoch 中的第 input, K.learning_phase()], [model.layers[3].output]) 快速开始 32 # 测试模式 = 0 时的输出 layer_output = get_3rd_layer_output([x, 0])[0] # 测试模式 = 1 时的输出 layer_output = get_3rd_layer_output([x, 1])[0] 3.3.9 如何用
    0 码力 | 257 页 | 1.19 MB | 1 年前
    3
  • pdf文档 动手学深度学习 v2.0

    DeSantis、Adam Selipsky和Andrew Jassy对撰写本书的慷慨支持。如果没有可用的时间、资源、与同事的讨论和不断的鼓励,这本书就不会出版。 小结 • 深度学习已经彻底改变了模式识别,引入了一系列技术,包括计算机视觉、自然语言处理、自动语音识 别。 • 要成功地应用深度学习,必须知道如何抛出一个问题、建模的数学方法、将模型与数据拟合的算法,以 及实现所有这些的工程技术。 编写一个应用程序,向用户推荐他们可能喜欢,但在自然浏览过程中不太可能遇到的产品。 在这些情况下,即使是顶级程序员也无法提出完美的解决方案,原因可能各不相同。有时任务可能遵循一种 随着时间推移而变化的模式,我们需要程序来自动调整。有时任务内的关系可能太复杂(比如像素和抽象类 别之间的关系),需要数千或数百万次的计算。即使人类的眼睛能毫不费力地完成这些难以提出完美解决方 案的任务,这其中的计算也超 Siri!”手机的语音识别系统就被唤醒了。接着,李沐对Siri说道:“去星巴克咖啡店。”语音 识别系统就自动触发语音转文字功能,并启动地图应用程序,地图应用程序在启动后筛选了若干条路线,每 条路线都显示了预计的通行时间⋯⋯由此可见,机器学习渗透在生活中的方方面面,在短短几秒钟的时间里, 人们与智能手机的日常互动就可以涉及几种机器学习模型。 现在,假如需要我们编写程序来响应一个“唤醒词”(比如“Alexa”“小爱同学”和“Hey
    0 码力 | 797 页 | 29.45 MB | 1 年前
    3
  • pdf文档 PyTorch OpenVINO 开发实战系列教程第一篇

    facebook 发布的开源机器学习(深度 学习)框架,Pytorch 最初的来源历史可以追溯到另外两个 机器学习框架,第一个是 torch 框架,第二个是 Chainer,实 现了 Eager 模式与自动微分,Pytoch 集成了这两个框架的优 点, 把 Python 语言作为框架的首选编程语言,所以它的名字 是在 torch 的前面加上 Py 之后的 Pytorch。由于 Pytorch 文件安装,显示的界面如下: 图 1-1(Python3.6.5 安装界面) 注意:图 1-1 中的矩形框,必须手动选择上“add Python3.6 to PATH”之后再点击【Install Now】默认安装完成即可。 3. 安装好 Python 语言包支持以后可以通过命令行来验证测试 安装是否成功,首先通过 cmd 打开 Window 命令行窗口,然 后输入 Python,显示如下: Python,显示如下: 图 1-2(验证 Python 命令行模式) 如果显示图 1-2 所示的信息表示已经安装成功 Python 语言包 支持;如果输入 Python 之后显示信息为“'python' 不是内部 或外部命令,也不是可运行的程序”则说明第二步中没有勾选 上“add Python3.6 to PATH”,此时请手动把 python.exe 所 在路径添加到 Windows 系统的环境变量中去之后再次执行
    0 码力 | 13 页 | 5.99 MB | 1 年前
    3
  • pdf文档 【PyTorch深度学习-龙龙老师】-测试版202112

    接口设计频繁变动,功能设计重复冗余, 符号式编程开发和调试非常困难等问题,TensorFlow 1.x 版本一度被业界诟病。2019 年,Google 推出 TensorFlow 2 正式版本,将以动态图优先模式运行,从而能够避免 TensorFlow 1.x 版本的诸多缺陷。 ❑ PyTorch 是 Facebook 基于原 Torch 框架推出的采用 Python 作为主要开发语言的深度学 习框架。PyTorch 0的方式叫做命令式编 预览版202112 1.5 深度学习框架 15 程,也称为动态图模式。PyTorch 是采用动态图模式的深度学习框架,开发效率高,调试 方便,所见即所得。一般认为,动态图模式开发效率高,但是运行效率可能不如静态图模 式,更适合算法设计和开发;静态图模式运行效率高,更适合算法部署。然而并不全是如 此,在很多任务上,PyTorch 的速度都优于 TensorFlow,而且 [30, 30, 30], [31, 31, 31]],…) 可以看到,在普适性原则的指导下,Broadcasting 机制变得直观、好理解,它的设计是非常 符合人的思维模式。 来考虑一个不满足普适性原则的例子,如下图 4.9 所示。 ? ℎ ? 2 长度为2,不具备普适性 图 4.9 Broadcasting 失败案例 在?维度上,张量已经有
    0 码力 | 439 页 | 29.91 MB | 1 年前
    3
  • pdf文档 机器学习课程-温州大学-机器学习项目流程

    统计数据,以便探索我们的数据。 •目的是找到异常,模式,趋势或关系。 这些可能是有趣的(例如, 找到两个变量之间的相关性),或者它们可用于建模决策,例如使 用哪些特征。 •简而言之,EDA的目标是确定我们的数据可以告诉我们什么! 探索性数据分析(EDA) 11 探索性数据分析(EDA) 单变量图显示此变量的分布 plt.hist()可以显示单变量图,也叫 直方图 12 探索性数据分析(EDA) 探索性数据分析(EDA) boxplot :箱型图又称为盒须图、盒式图或箱线图,是一种用作显示一组数据分散情 况资料的统计图。它能显示出一组数据的最大值、最小值、中位数及上下四分位数。 13 探索性数据分析(EDA) IQR = Q3-Q1,即上四分位数与下四分位数之间的 差,也就是盒子的长度。 最小观测值为min = Q1 - 1.5*IQR,如果存在离群点 小于最小观测值,则下限为最小观测值,离群点单 上限为最大值。 14 探索性数据分析(EDA) 寻找关系 为了查看分类变量 - categorical variables对分数的影 响,我们可以通过分类变量的值来绘制密度图。 密度图 还显示单个变量的分布,可以认为是平滑的直方图。 如 果我们通过为分类变量密度曲线着色,这将向我们展示 分布如何基于类别变化的。 15 探索性数据分析(EDA) 这幅图我们可以看到建筑类型对 Energy
    0 码力 | 26 页 | 1.53 MB | 1 年前
    3
  • pdf文档 机器学习课程-温州大学-12深度学习-自然语言处理和词嵌入

    主流思路是分离文本属性及文本内容 迁移 隐式方法即使用某类无监督学习学习或强化学 习模式将文本属性及内容自动分离,常见的有 生成对抗方式,即通过GAN实现目标属性和 文本量性完全由不同的编码控制的状态。 对话式文本生成适用于智能客服等任务型和闲聊型机器人等 非任务型人机交互场景,可分类为管道模式及端对端模式。 结构性的文本生成,首先通过注意力机制、多层感知器等系 统进行语句内容预选,对数值、时间等类型数据进行推理。 统进行语句内容预选,对数值、时间等类型数据进行推理。 增强数据间的结构信息。其次通过Transformer等模式结合 上下文进行推导,生成最终文本。 ◼ Transformer架构可分为自回归系列(例如GPT-3,偏好生成性任务)、双向Transformer+Mask的自编码系列(例如BERT, 偏好自然语言理解)、Encoder-decoder架构(例如T5,使用双向/单向attention,偏好条件文本生成) 双向编码生成Transformer), GPT仅采用上文 预测单词(BERT采用了基于上下文双向的预测手段)。 注:ChatGPT的表现更贴近人类意图,部分因为一开始GPT是基于上文的预测,这更贴近人类的话语模式,因为人类言语无法基于将来的话来做分析。 图:GPT-1模型相比于Transformer模型有了显著简化 Transformer架构 GPT-1架构 GPT用于对不同任务进行微调的输入转换的示意图
    0 码力 | 44 页 | 2.36 MB | 1 年前
    3
  • pdf文档 全连接神经网络实战. pytorch 版

    表示导出的数据应该怎么转换,我们还可以使用参数 target_transf orm 表 示导出的数据标签应该怎么转换。 注意显示时我们调用了 squeeze() 函数,这是因为原来的数据维度是 (1,28,28) 的三维数据, 使用.squeeze() 函数可以把为 1 的维度去掉,即 shape 变为 (28,28)。程序得到显示结果: 随后我们再把数据导入到 DataLoader 里面: # batch_size : plt . t i t l e ( labels_map [ l a b e l ] ) plt . imshow (img , cmap=” gray ” ) plt . show () 程序得到显示结果: 数据有时候并不适合直接丢进网络进行训练,因此我们需要把数据进行转换。由于 pytorch 会自动完成一些工作,因此我们没有必要自己去转换,比如像这样: training_data = datasets c=label2 , zorder =2, linewidths =1, edgecolors=’k ’ ) plt . show () 得到可视化结果: 可以看到不同的类别显示都是正确的。下面我们把模型分类的结果显示一下: Chapter 4. 构建自己的数据集 25 label2_test = [ ] with torch . no_grad () : f o r X, y in zip
    0 码力 | 29 页 | 1.40 MB | 1 年前
    3
  • pdf文档 机器学习课程-温州大学-12机器学习-关联规则

    Growth )算法思想 FP-growth(频繁模式增长)算法是韩家炜老师在2000年提出的关联分析算法,它采 取如下分治策略:将提供频繁项集的数据库压缩到一棵频繁模式树(FP-Tree), 但仍保留项集关联信息。 该算法是对Apriori方法的改进。生成一个频繁模式而不需要生成候选模式。 FP-growth算法以树的形式表示数据库,称为频繁模式树或FP-tree。 此树结构将保持项集之间 此树结构将保持项集之间的关联。数据库使用一个频繁项进行分段。这个片段被称 为“模式片段”。分析了这些碎片模式的项集。因此,该方法相对减少了频繁项集 的搜索。 27 3.FP-Growth算法 FP-growth算法思想 FP-growth算法是基于Apriori原理的,通过将数据集存储在FP(Frequent Pattern)树上发现频繁项集,但不能发现数据之间的关联规则。 FP-growth算法只需 29 3.FP-Growth算法 FP-Tree ( Frequent Pattern Tree ) FP树(FP-Tree)是由数据库的初始项集组成的树状结构。 FP树的目的是挖掘最 频繁的模式。FP树的每个节点表示项集的一个项。 根节点表示null,而较低的节点表示项集。在形成树的同时,保持节点与较 低节点(即项集与其他项集)的关联。 30 3.FP-Growth算法 算法步骤
    0 码力 | 49 页 | 1.41 MB | 1 年前
    3
  • pdf文档 微博在线机器学习和深度学习实践-黄波

    兼容,自动模型参数转换 • 稳定性优化 • 模型快照:基于ps-scheduler的周期模型版本探测与保存,模型稀疏化分片存储 • 冷备容灾:基于checkpoint机制(Local模式&Remote模式),实现参数服务的高可用,支持基于模型的异构集群迁移,支持集 群扩缩容 • 性能优化 • 通信优化:数据请求(PULL&PUSH)聚合,同模型多矩阵并发,锁粒度优化,性能提升5-10倍 • 模型评估 • 模型上线部署前指标评估 • 周期使用验证样本进行点击率预估 • 待部署模型与线上模型进行指标对比,评估是否满足上线条件 • 一键部署 • 基于K8S的deployment模式,一键端口分配与模型服务部署 • 基于ZK的服务发现,一键进行流量灰度与发布 • 性能优化 • 通信优化:特征请求与模型计算单元化,在线样本格式压缩 • 计算优化:基于SSE/AVX 指令优化 资源 算法 BERT 配置 Tensorflow 4 深度学习-深度学习模型训练 • 通信优化 • PS:BSP/SSP/ASP多种通信模式支持 • MPI&RingAllreduce:Horovod,使用 MPI替换grpc,同步通信模式;带宽优化,增加延时; • PS&MPI:DistributionStrategy API,统一分布式语义,解耦分布式架构与模型训练框架 • 使
    0 码力 | 36 页 | 16.69 MB | 1 年前
    3
  • pdf文档 AI大模型千问 qwen 中文文档

    进行下载,只需将上述代码的第一行更改为以下内容: from modelscope import AutoModelForCausalLM, AutoTokenizer 借助 TextStreamer ,chat 的流式模式变得非常简单。下面我们将展示一个如何使用它的示例: ... # Reuse the code before `model.generate()` in the last code snippet from 1.3 使用 Transformers 实现 Chat Qwen1.5 最重要同时也最简单的用途是通过 transformers 库实现 Chat 功能。在本文档中,我们将展示如何在 流式模式或非流式模式下与 Qwen1.5-7B-Chat 进行对话。 1.3.1 基本用法 你只需借助 transformers 库编写几行代码,就能与 Qwen1.5-Chat 进行对话。实质上,我们通过 from_pretrained 示,我们将直接使 用 You are a helpful assistant. 作为系统提示。 1.3.2 流式输出 借助 TextStreamer ,您可以将与 Qwen 的对话切换到流式传输模式。下面是一个关于如何使用它的示例: # Repeat the code above before model.generate() # Starting here, we add streamer
    0 码力 | 56 页 | 835.78 KB | 1 年前
    3
共 26 条
  • 1
  • 2
  • 3
前往
页
相关搜索词
Keras基于Python深度学习动手v2PyTorchOpenVINO开发实战系列教程第一一篇第一篇深度学习机器课程温州大学项目流程12自然语言自然语言处理嵌入连接神经网络神经网神经网络pytorch关联规则微博在线实践黄波AI模型千问qwen中文文档
IT文库
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传或本站整理自互联网,不以营利为目的,供所有人免费下载和学习使用。如侵犯您的权益,请联系我们进行删除。
IT文库 ©1024 - 2025 | 站点地图
Powered By MOREDOC AI v3.3.0-beta.70
  • 关注我们的公众号【刻舟求荐】,给您不一样的精彩
    关注我们的公众号【刻舟求荐】,给您不一样的精彩