积分充值
 首页
前端开发
AngularDartElectronFlutterHTML/CSSJavaScriptReactSvelteTypeScriptVue.js构建工具
后端开发
.NetC#C++C语言DenoffmpegGoIdrisJavaJuliaKotlinLeanMakefilenimNode.jsPascalPHPPythonRISC-VRubyRustSwiftUML其它语言区块链开发测试微服务敏捷开发架构设计汇编语言
数据库
Apache DorisApache HBaseCassandraClickHouseFirebirdGreenplumMongoDBMySQLPieCloudDBPostgreSQLRedisSQLSQLiteTiDBVitess数据库中间件数据库工具数据库设计
系统运维
AndroidDevOpshttpdJenkinsLinuxPrometheusTraefikZabbix存储网络与安全
云计算&大数据
Apache APISIXApache FlinkApache KarafApache KyuubiApache OzonedaprDockerHadoopHarborIstioKubernetesOpenShiftPandasrancherRocketMQServerlessService MeshVirtualBoxVMWare云原生CNCF机器学习边缘计算
综合其他
BlenderGIMPKiCadKritaWeblate产品与服务人工智能亿图数据可视化版本控制笔试面试
文库资料
前端
AngularAnt DesignBabelBootstrapChart.jsCSS3EchartsElectronHighchartsHTML/CSSHTML5JavaScriptJerryScriptJestReactSassTypeScriptVue前端工具小程序
后端
.NETApacheC/C++C#CMakeCrystalDartDenoDjangoDubboErlangFastifyFlaskGinGoGoFrameGuzzleIrisJavaJuliaLispLLVMLuaMatplotlibMicronautnimNode.jsPerlPHPPythonQtRPCRubyRustR语言ScalaShellVlangwasmYewZephirZig算法
移动端
AndroidAPP工具FlutterFramework7HarmonyHippyIoniciOSkotlinNativeObject-CPWAReactSwiftuni-appWeex
数据库
ApacheArangoDBCassandraClickHouseCouchDBCrateDBDB2DocumentDBDorisDragonflyDBEdgeDBetcdFirebirdGaussDBGraphGreenPlumHStreamDBHugeGraphimmudbIndexedDBInfluxDBIoTDBKey-ValueKitDBLevelDBM3DBMatrixOneMilvusMongoDBMySQLNavicatNebulaNewSQLNoSQLOceanBaseOpenTSDBOracleOrientDBPostgreSQLPrestoDBQuestDBRedisRocksDBSequoiaDBServerSkytableSQLSQLiteTiDBTiKVTimescaleDBYugabyteDB关系型数据库数据库数据库ORM数据库中间件数据库工具时序数据库
云计算&大数据
ActiveMQAerakiAgentAlluxioAntreaApacheApache APISIXAPISIXBFEBitBookKeeperChaosChoerodonCiliumCloudStackConsulDaprDataEaseDC/OSDockerDrillDruidElasticJobElasticSearchEnvoyErdaFlinkFluentGrafanaHadoopHarborHelmHudiInLongKafkaKnativeKongKubeCubeKubeEdgeKubeflowKubeOperatorKubernetesKubeSphereKubeVelaKumaKylinLibcloudLinkerdLonghornMeiliSearchMeshNacosNATSOKDOpenOpenEBSOpenKruiseOpenPitrixOpenSearchOpenStackOpenTracingOzonePaddlePaddlePolicyPulsarPyTorchRainbondRancherRediSearchScikit-learnServerlessShardingSphereShenYuSparkStormSupersetXuperChainZadig云原生CNCF人工智能区块链数据挖掘机器学习深度学习算法工程边缘计算
UI&美工&设计
BlenderKritaSketchUI设计
网络&系统&运维
AnsibleApacheAWKCeleryCephCI/CDCurveDevOpsGoCDHAProxyIstioJenkinsJumpServerLinuxMacNginxOpenRestyPrometheusServertraefikTrafficUnixWindowsZabbixZipkin安全防护系统内核网络运维监控
综合其它
文章资讯
 上传文档  发布文章  登录账户
IT文库
  • 综合
  • 文档
  • 文章

无数据

分类

全部云计算&大数据(28)机器学习(28)

语言

全部中文(简体)(27)英语(1)

格式

全部PDF文档 PDF(28)
 
本次搜索耗时 0.078 秒,为您找到相关结果约 28 个.
  • 全部
  • 云计算&大数据
  • 机器学习
  • 全部
  • 中文(简体)
  • 英语
  • 全部
  • PDF文档 PDF
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 动手学深度学习 v2.0

    4 索引和切片 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 2.1.5 节省内存 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 2.1.6 转换为其他Python对象 计算机 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 517 12.4.2 内存 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 517 12.4.3 存储器 org/wiki/Alan_Turing 22 https://en.wikipedia.org/wiki/Donald_O._Hebb 1.5. 深度学习的发展 33 表1.5.1: 数据集vs计算机内存和计算能力 年代 数据规模 内存 每秒浮点运算 1970 100 (鸢尾花卉) 1 KB 100 KF (Intel 8080) 1980 1 K (波士顿房价) 100 KB 1 MF (Intel 80186)
    0 码力 | 797 页 | 29.45 MB | 1 年前
    3
  • pdf文档 Keras: 基于 Python 的深度学习库

    3.3.8 如何获取中间层的输出? . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 3.3.9 如何用 Keras 处理超过内存的数据集? . . . . . . . . . . . . . . . . . . . . 32 3.3.10 在验证集的误差不再下降时,如何中断训练? . . . . . . . . . . . “sample”, “batch”, “epoch” 分别是什么? • 如何保存 Keras 模型? • 为什么训练误差比测试误差高很多? • 如何获取中间层的输出? • 如何用 Keras 处理超过内存的数据集? • 在验证集的误差不再下降时,如何中断训练? • 验证集划分是如何计算的? • 在训练过程中数据是否会混洗? • 如何在每个 epoch 后记录训练集和验证集的误差和准确率? • get_3rd_layer_output([x, 0])[0] # 测试模式 = 1 时的输出 layer_output = get_3rd_layer_output([x, 1])[0] 3.3.9 如何用 Keras 处理超过内存的数据集? 你可以使用 model.train_on_batch(x,y) 和 model.test_on_batch(x,y) 进行批量训练 与测试。请参阅 模型文档。 或 者, 你 可 以
    0 码力 | 257 页 | 1.19 MB | 1 年前
    3
  • pdf文档 【PyTorch深度学习-龙龙老师】-测试版202112

    0],图片 2 的 One- hot 编码为[0,0,1, … ,0],图片 9 的 One-hot 编码为[0,0,0, … ,1]。One-hot 编码是非常稀疏 (Sparse)的,相对于数字编码来说,占用较多的存储空间,因此一般在存储时还是采用数字 编码方式,仅在计算时,根据需要把数字编码转换成 One-hot 编码,通过 one_hot 函数即可 实现。 In [1]: def one_hot(label 4.2 数值精度 对于数值类型的张量,可以保存为不同字节长度的精度,如浮点数 3.14 既可以保存为 16 位(Bit)长度,也可以保存为 32 位甚至 64 位的精度。位越长,精度越高,同时占用的内 预览版202112 第 4 章 PyTorch 基础 4 存空间也就越大。常用的精度类型有 torch.int16、torch.int32、torch.int64、torch 0.9067]]) 注意到这里 shape 为[4,2]的?和 shape 为[2]的?张量可以直接相加,读者可以思考下为什么 呢?原因将在 Broadcasting 一节为大家揭秘。 通过高层接口类 Linear()方式创建的网络层,张量?和?存储在类的内部,由类自动创 建并管理。可以通过全连接层的 bias 成员变量查看偏置变量?,例如创建输入节点数为 4, 输出节点数为 3 的线性层网络,那么它的偏置向量
    0 码力 | 439 页 | 29.91 MB | 1 年前
    3
  • pdf文档 经典算法与人工智能在外卖物流调度中的应用

    降维:PCA降维,减少内存消耗并一定程度上避免过拟合 模型 • DNN模型 - DNN深度神经网络学习;通过引入非线性映射,并包含多层感知器,海量的出餐时间训练数据,DNN 更好地学习自身有用的特征 - DNN对特征工程要求较低,自身可以学习有用的特征,PCA降维影响较小,但时间复杂度较高 • XGBoost模型 - 采用近似求解算法,找出可能的分裂点,避免选用贪心算法的过高时间复杂度 -
    0 码力 | 28 页 | 6.86 MB | 1 年前
    3
  • pdf文档 AI大模型千问 qwen 中文文档

    一个纯 C/C++ 实现,不依赖任何外部库,并且针对 x86 架构提供了 AVX、AVX2 和 AVX512 加速支持。此 外,它还提供了 2、3、4、5、6 以及 8 位量化功能,以加快推理速度并减少内存占用。对于大于总 VRAM 容量的大规模模型,该库还支持 CPU+GPU 混合推理模式进行部分加速。本质上,llama.cpp 的用途在于运行 GGUF(由 GPT 生成的统一格式)模型。欲了解更多详情,请参阅官方 即激活感知权重量化,是一种针对 LLM 的低比 特权重量化的硬件友好方法。而 AutoAWQ 是一个易于使用的工具包,专门用于 4 比特量化模型。相较于 FP16,AutoAWQ 能够将模型的运行速度提升 3 倍,并将内存需求降低至原来的 1/3。AutoAWQ 实现了激活 感知权重量化(AWQ)算法,可用于 LLM 的量化处理。在本文档中,我们将向您展示如何在 Transformers 框 架下使用量化模型,以及如何对您自己的模型进行量化。 、q6_k 和 q8_0 。欲了解更多信息,请访问 llama.cpp 。 1.10 vLLM 我们建议您在部署 Qwen 时尝试使用 vLLM 。它易于使用,且具有最先进的服务吞吐量、高效的注意力键值 内存管理(通过 PagedAttention 实现)、连续批处理输入请求、优化的 CUDA 内核等功能。要了解更多关于 vLLM 的信息,请参阅 论文 和 文档 。 1.10.1 安装 默认情况下,你可以通过
    0 码力 | 56 页 | 835.78 KB | 1 年前
    3
  • pdf文档 TensorFlow on Yarn:深度学习遇上大数据

    多⼈多服务器使用混乱,计算资源如何划分?� • 没有GPUs集群资源管理和调度(内存、CPU、GPU、 端⼝),集群资源负载不均� • 训练数据⼿动分发,训练模型⼿动保存� • 进程遗留问题,需要⼿动杀死� • 缺乏作业统⼀管理,不便对作业运⾏状态跟踪� • 日志查看不⽅便� � 总结:� TensorFlow使用现状及痛点 • 集群资源的管理(目前支持CPU、内存,需要扩展GPU 资源管理)� • 作业的统⼀管理、状态跟踪� --worker-memory 8192M \ #每个worker需要的内存� --worker-cores 1 \ #每个worker需要的CPU核数� --worker-gpus 2 \ #每个worker需要的GPU卡数� --ps-num 2 \ #ps数量� --ps-memory 1024M \ #每个ps需要的内存� --ps-cores 1 \ #每个ps需要的CPU核数� 每个NodeManager配置可用CPU核心 数量 每个NodeManager配置可用GPU卡数 量 ResourceManager统计计数并按数量 分配 ResourceManager统计计数并按数量 分配 作业必须占用CPU资源 作业可以不需要GPU资源 系统自动分配物理CPU核心 需要知道具体GPU卡号,代码分配 计算任务到指定GPU设备 设备亲和性影响较小 设备亲和性影响较大 TensorFlow
    0 码力 | 32 页 | 4.06 MB | 1 年前
    3
  • pdf文档 微博在线机器学习和深度学习实践-黄波

    曝光,互动,点击,真实阅读等多种数据流接入并多流拼接 • 如何解决日志延时问题 • 延迟等待机制,先到先走 • 定时轮寻,最长N分钟等待 • Kafka 堆积监控,实时报警 • 如何解决内存问题 • 调整内存参数 • 关闭多余的监控点 • 如何异常处理 • 自动化监控与修复系统 • Checkpoint 节点异常修复 3 在线机器学习-实时样本生成 • 在线机器学习模型训练:Flink/Blink+WeiPS ,锁粒度优化,性能提升5-10倍 • 缓存优化:使用堆外内存与LRU过期机制,解决GC引起的性能损耗,性能提升3-5倍 • 分区优化:支持多种分区策略(RANGE/HASH/MOD),解决数据倾斜导致的流量热点瓶颈问题,性能提升2-5倍 • 存储优化:自定义存储方式(ByRow&ByKey),基于row进行矩阵压缩存储,参数内存占用减少90% 3 在线机器学习-参数服务器 模型验证 离线训练
    0 码力 | 36 页 | 16.69 MB | 1 年前
    3
  • pdf文档 机器学习课程-温州大学-08机器学习-集成学习

    由微软提出,主要用于解决 GDBT 在海量数据中遇到的问 题,以便其可以更好更快地用于工业实践中,其相对 XGBoost 具有训 练速度快、内存占用低的特点。 LightGBM与XGBoost相比,主要有以下几个优势: 1)更快的训练速度 2)更低的内存消耗 3)更好的准确率 4)分布式支持,可快速处理海量数据 37 4.LightGBM LightGBM 的主要改进 Light
    0 码力 | 50 页 | 2.03 MB | 1 年前
    3
  • pdf文档 13. 杨赛赛-基于深度学习的多维时间序列预测在数据机房中的应用

    Recurrent- skip laye Fully Connected Layer Autoregresssive LSTNet 模型的训练 优化算法:Adam 同时具有动量更新和自适应调整学习速率,占用内存少。 损失函数:Logcosh Logcosh是预测误差的双曲余弦的对数。不会受到偶尔出 现的极端不正确预测的强烈影响,同时收敛速度快。 评价指标:RMSE和R^2 RMSE:预测值与真实值的误差平方根的均值
    0 码力 | 17 页 | 2.49 MB | 1 年前
    3
  • pdf文档 QCon北京2018-《深度学习在微博信息流排序的应用》-刘博

    Ø 网络复杂度 深度学习应用实践 —— wide & deep • Negative sampling:依据微博的 平均阅读时间进行划分,将用户曝 光但未阅读的微博作为负样本 • 网络复杂度过高易导致过拟合 • 网络深度达到一定数值AUC反而 小幅降低 深度学习应用实践 —— DeepFM User features Relation features Contextual
    0 码力 | 21 页 | 2.14 MB | 1 年前
    3
共 28 条
  • 1
  • 2
  • 3
前往
页
相关搜索词
动手深度学习v2Keras基于PythonPyTorch深度学习经典算法人工智能人工智能外卖物流调度应用AI模型千问qwen中文文档TensorFlowonYarn遇上数据微博在线机器实践黄波课程温州大学08集成13杨赛赛多维时间序列预测数据机房中QCon北京2018信息信息流排序刘博
IT文库
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传或本站整理自互联网,不以营利为目的,供所有人免费下载和学习使用。如侵犯您的权益,请联系我们进行删除。
IT文库 ©1024 - 2025 | 站点地图
Powered By MOREDOC AI v3.3.0-beta.70
  • 关注我们的公众号【刻舟求荐】,给您不一样的精彩
    关注我们的公众号【刻舟求荐】,给您不一样的精彩