积分充值
 首页
前端开发
AngularDartElectronFlutterHTML/CSSJavaScriptReactSvelteTypeScriptVue.js构建工具
后端开发
.NetC#C++C语言DenoffmpegGoIdrisJavaJuliaKotlinLeanMakefilenimNode.jsPascalPHPPythonRISC-VRubyRustSwiftUML其它语言区块链开发测试微服务敏捷开发架构设计汇编语言
数据库
Apache DorisApache HBaseCassandraClickHouseFirebirdGreenplumMongoDBMySQLPieCloudDBPostgreSQLRedisSQLSQLiteTiDBVitess数据库中间件数据库工具数据库设计
系统运维
AndroidDevOpshttpdJenkinsLinuxPrometheusTraefikZabbix存储网络与安全
云计算&大数据
Apache APISIXApache FlinkApache KarafApache KyuubiApache OzonedaprDockerHadoopHarborIstioKubernetesOpenShiftPandasrancherRocketMQServerlessService MeshVirtualBoxVMWare云原生CNCF机器学习边缘计算
综合其他
BlenderGIMPKiCadKritaWeblate产品与服务人工智能亿图数据可视化版本控制笔试面试
文库资料
前端
AngularAnt DesignBabelBootstrapChart.jsCSS3EchartsElectronHighchartsHTML/CSSHTML5JavaScriptJerryScriptJestReactSassTypeScriptVue前端工具小程序
后端
.NETApacheC/C++C#CMakeCrystalDartDenoDjangoDubboErlangFastifyFlaskGinGoGoFrameGuzzleIrisJavaJuliaLispLLVMLuaMatplotlibMicronautnimNode.jsPerlPHPPythonQtRPCRubyRustR语言ScalaShellVlangwasmYewZephirZig算法
移动端
AndroidAPP工具FlutterFramework7HarmonyHippyIoniciOSkotlinNativeObject-CPWAReactSwiftuni-appWeex
数据库
ApacheArangoDBCassandraClickHouseCouchDBCrateDBDB2DocumentDBDorisDragonflyDBEdgeDBetcdFirebirdGaussDBGraphGreenPlumHStreamDBHugeGraphimmudbIndexedDBInfluxDBIoTDBKey-ValueKitDBLevelDBM3DBMatrixOneMilvusMongoDBMySQLNavicatNebulaNewSQLNoSQLOceanBaseOpenTSDBOracleOrientDBPostgreSQLPrestoDBQuestDBRedisRocksDBSequoiaDBServerSkytableSQLSQLiteTiDBTiKVTimescaleDBYugabyteDB关系型数据库数据库数据库ORM数据库中间件数据库工具时序数据库
云计算&大数据
ActiveMQAerakiAgentAlluxioAntreaApacheApache APISIXAPISIXBFEBitBookKeeperChaosChoerodonCiliumCloudStackConsulDaprDataEaseDC/OSDockerDrillDruidElasticJobElasticSearchEnvoyErdaFlinkFluentGrafanaHadoopHarborHelmHudiInLongKafkaKnativeKongKubeCubeKubeEdgeKubeflowKubeOperatorKubernetesKubeSphereKubeVelaKumaKylinLibcloudLinkerdLonghornMeiliSearchMeshNacosNATSOKDOpenOpenEBSOpenKruiseOpenPitrixOpenSearchOpenStackOpenTracingOzonePaddlePaddlePolicyPulsarPyTorchRainbondRancherRediSearchScikit-learnServerlessShardingSphereShenYuSparkStormSupersetXuperChainZadig云原生CNCF人工智能区块链数据挖掘机器学习深度学习算法工程边缘计算
UI&美工&设计
BlenderKritaSketchUI设计
网络&系统&运维
AnsibleApacheAWKCeleryCephCI/CDCurveDevOpsGoCDHAProxyIstioJenkinsJumpServerLinuxMacNginxOpenRestyPrometheusServertraefikTrafficUnixWindowsZabbixZipkin安全防护系统内核网络运维监控
综合其它
文章资讯
 上传文档  发布文章  登录账户
IT文库
  • 综合
  • 文档
  • 文章

无数据

分类

全部云计算&大数据(18)机器学习(12)Hadoop(3)OpenShift(2)Kubernetes(1)

语言

全部中文(简体)(16)英语(1)西班牙语(1)

格式

全部PDF文档 PDF(18)
 
本次搜索耗时 0.037 秒,为您找到相关结果约 18 个.
  • 全部
  • 云计算&大数据
  • 机器学习
  • Hadoop
  • OpenShift
  • Kubernetes
  • 全部
  • 中文(简体)
  • 英语
  • 西班牙语
  • 全部
  • PDF文档 PDF
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 基本数据类型

    基本数据类型 主讲人:龙良曲 All is about Tensor python PyTorch Int IntTensor of size() float FloatTensor of size() Int array IntTensor of size [d1, d2 ,…] Float array FloatTensor of size [d1, d2, …] string
    0 码力 | 16 页 | 1.09 MB | 1 年前
    3
  • pdf文档 OpenShift Container Platform 4.7 日志记录

    161 第 15 章 MESSAGE 原始日志条目文本 UTF-8 编码。如果存在非空的 structured 字段,则此字段可能不存在或为空。请参见 关于结构 结构化 化的描述,了解更多。 数据类型 text 示例值 HAPPY OpenShift Container Platform 4.7 日志 日志记录 记录 162 第 16 章 结构化 原始日志条目作为结构化对象.如果转发器配置为解析结构化 日志条目是有效的结构化日志,此字段将包含等同的 JSON 结构。否则此字段为空或不存在,message 字段将包含原始日志消息。structured 字段可以包含日志消息中包含的任何子字段,此处没有定义任何限 制。 数据类型 group 示例值 map[message:starting fluentd worker pid=21631 ppid=21618 worker=0 pid:21631 ppid:21618 "@timestamp"。 数据类型 date 示例值 2015-01-24 14:06:05.071000000 Z OpenShift Container Platform 4.7 日志 日志记录 记录 164 第 18 章 HOSTNAME 此日志消息的来源主机的名称。在 Kubernetes 集群中,这与 kubernetes.host 相同。 数据类型 关键字 第 第 18 章
    0 码力 | 183 页 | 1.98 MB | 1 年前
    3
  • pdf文档 OpenShift Container Platform 4.8 日志记录

    201 第 15 章 MESSAGE 原始日志条目文本 UTF-8 编码。如果存在非空的 structured 字段,则此字段可能不存在或为空。请参见 关于结构 结构化 化的描述,了解更多。 数据类型 text 示例值 HAPPY OpenShift Container Platform 4.8 日志 日志记录 记录 202 第 16 章 结构化 原始日志条目作为结构化对象.如果转发器配置为解析结构化 日志条目是有效的结构化日志,此字段将包含等同的 JSON 结构。否则此字段为空或不存在,message 字段将包含原始日志消息。structured 字段可以包含日志消息中包含的任何子字段,此处没有定义任何限 制。 数据类型 group 示例值 map[message:starting fluentd worker pid=21631 ppid=21618 worker=0 pid:21631 ppid:21618 "@timestamp"。 数据类型 date 示例值 2015-01-24 14:06:05.071000000 Z OpenShift Container Platform 4.8 日志 日志记录 记录 204 第 18 章 主机名 此日志消息的来源主机的名称。在 Kubernetes 集群中,这与 kubernetes.host 相同。 数据类型 关键字 第 第 18 章 章
    0 码力 | 223 页 | 2.28 MB | 1 年前
    3
  • pdf文档 PyTorch OpenVINO 开发实战系列教程第一篇

    tensor([[2., 3.], [4., 5.]]) torch.float32 其中 torch.Tensor 是 torch.FloatTensor 的别名,所以默认的 数据类型是 flaot32,这点从 a.dtype 的打印结果上也得了印 证。此外 torch.Tensor 函数还支持从 Numpy 数组直接转换 为张量数据,这种定义声明张量数据的代码如下: b [3, 4], [5, 6], [7, 8]], dtype=torch.int32) 根据数据类型的自动识别,转换为 torch.int32 的数据类型。 除了直接声明常量数组的方式,Pytorch 框架还支持类似 Matlab 方式的数组初始化方式,可以定义数组的维度,然后 初始化为零,相关的演示代码如下: c [12.4000]]) 上面得代码中 x 是 a 加 b 的结果,y 是 a 加 b 之和与 c 的矩阵 乘法的最终输出结果。 ● 数据类型转换 在实际的开发过程中,我们经常需要在不同类型的数据张量中 切换,因此数据类型转换函数也是必修的,代码演示如下: m = torch.tensor([1.,2.,3.,4.,5.,6], dtype=torch.float32)
    0 码力 | 13 页 | 5.99 MB | 1 年前
    3
  • pdf文档 Hadoop 概述

    这得益于使用 Hadoop。由于 Hadoop 是分布式的(而非集中式的),因而不具备关系 型数据库管理系统(RDBMS)的特点。这使得你能够使用 Hadoop 所 提供的大型数据存储和多种数据类型。 第 1 章 Hadoop 概述 3 例如,让我们考虑类似 Google、Bing 或者 Twitter 这样的大型 数据存储。所有这些数据存储都会随着诸如查询和庞大用户基数等 Cloudera(CDH)为其数据平台创建了一个类似的生态系统。 Cloudera 为集成结构化和非结构化的数据创造了条件。通过使用平 台交付的统一服务,Cloudera 开启了处理和分析多种不同数据类型 的大门(见图 1-5)。 处理、分析和服务 安全 文件系统 (HDFS) 关系型 非结构化 批处理 流 搜索 统一服务 资源管理(YARN) 存储 结构化 集成 Hadoop 将数据推送到 数据库中。如图 1-9 所示。Oracle Loader for Hadoop 利用 Hadoop 计 算资源进行排序、分区并在加载之前将数据转换成适配于 Oracle 的 数据类型。当加载数据时,在 Hadoop 上进行的数据预处理降低了 数据库 CPU 的使用率。这样就减少了对数据库应用程序的影响,减 第 1 章 Hadoop 概述 15 轻了对资源的竞
    0 码力 | 17 页 | 583.90 KB | 1 年前
    3
  • pdf文档 Keras: 基于 Python 的深度学习库

    所 使 用 的 默 认 值 图 像 数 据 格 式 (channel_last 或 channels_first)。 • 用于防止在某些操作中被零除的 epsilon 模糊因子。 • 默认浮点数据类型。 • 默认后端。详见 backend 文档。 同 样, 缓 存 的 数 据 集 文 件 (如 使 用 get_file() 下 载 的 文 件) 默 认 存 储 在 $HOME/.keras/datasets/ 32) 表明任意批次大小的 32 维向量。 • name: 一个可选的层的名称的字符串。在一个模型中应该是唯一的(不可以重用一个名字 两次)。如未提供,将自动生成。 • dtype: 输入所期望的数据类型,字符串表示 (float32, float64, int32…) • sparse: 一个布尔值,指明需要创建的占位符是否是稀疏的。 • tensor: 可选的可封装到 Input 层的现有 dtype=None, name=None) 实例化一个全零变量并返回它。 参数 • shape: 整数元组,返回的 Keras 变量的尺寸。 • dtype: 字符串,返回的 Keras 变量的数据类型。 • name: 字符串,返回的 Keras 变量的名称。 返回 一个变量(包括 Keras 元数据),用 0.0 填充。请注意,如果 shape 是符号化的,我们不能 返回一个变量,而会返回一个动态尺寸的张量。
    0 码力 | 257 页 | 1.19 MB | 1 年前
    3
  • pdf文档 机器学习课程-温州大学-01机器学习-引言

    安装过程照着提示一步步操作就可以了。 注意:安装路径尽量不使用带有 中文或空格 的目录,这样在之后的使用过程 中减少一些莫名的错误。 Python 的环境的安装 54 Python 的主要数据类型 ⚫字符串 ⚫整数与浮点数 ⚫布尔值 ⚫日期时间 ⚫其它 55 Python 的数据结构 ⚫列表(list) 用来存储一连串元素的容器,列表用[ ]来表示,其中元素的类型可不相同。 ; 4、实用的线性代数、傅里叶变换和随机数生成函数。numpy和稀疏矩阵运算包scipy 配合使用更加方便。 NumPy(Numeric Python)提供了许多高级的数值编程工具,如:矩阵数据类型、 矢量处理,以及精密的运算库。专为进行严格的数字处理而产生。多为很多大型金融 公司使用,以及核心的科学计算组织如:Lawrence Livermore,NASA用其处理一些 本来使用C++ 析环境的重要因素之一。 63 Python模块-Pandas ⚫ 基本数据结构 Series 一维数据结构,包含行索 引和数据两个部分 DataFrame 二维数据结构,包含 带索引的多列数据, 各列的数据类型可能 不同 64 Python模块-Pandas ⚫ 数据索引 df[5:10] 通过切片方式选取多行 df[col_label] or df.col_label 选取列 df.loc[row_label
    0 码力 | 78 页 | 3.69 MB | 1 年前
    3
  • pdf文档 机器学习课程-温州大学-01深度学习-引言

    安装过程照着提示一步步操作就可以了。 注意:安装路径尽量不使用带有 中文或空格 的目录,这样在之后的使用过程 中减少一些莫名的错误。 Python 的环境的安装 55 Python 的主要数据类型 ⚫字符串 ⚫整数与浮点数 ⚫布尔值 ⚫日期时间 ⚫其它 56 Python 的数据结构 ⚫列表(list) 用来存储一连串元素的容器,列表用[ ]来表示,其中元素的类型可不相同。 ; 4、实用的线性代数、傅里叶变换和随机数生成函数。numpy和稀疏矩阵运算包scipy 配合使用更加方便。 NumPy(Numeric Python)提供了许多高级的数值编程工具,如:矩阵数据类型、 矢量处理,以及精密的运算库。专为进行严格的数字处理而产生。多为很多大型金融 公司使用,以及核心的科学计算组织如:Lawrence Livermore,NASA用其处理一些 本来使用C++ 析环境的重要因素之一。 64 Python模块-Pandas ⚫ 基本数据结构 Series 一维数据结构,包含行索 引和数据两个部分 DataFrame 二维数据结构,包含 带索引的多列数据, 各列的数据类型可能 不同 65 Python模块-Pandas ⚫ 数据索引 df[5:10] 通过切片方式选取多行 df[col_label] or df.col_label 选取列 df.loc[row_label
    0 码力 | 80 页 | 5.38 MB | 1 年前
    3
  • pdf文档 Hadoop 迁移到阿里云MaxCompute 技术方案

    compiler,语言功能开发更灵活,迭 代快,语法语义检查更加灵活高效 * 基于代价的优化器,更智能,更强大,更适合复杂的查 询 * 基于 LLVM 的代码生成,让执行过程更高效 * 支持复杂数据类型(array,map,struct) * 支持 Java、Python 语言的 UDF/UDAF/UDTF * 语法:Values、CTE、SEMIJOIN、FROM 倒装、 Subquery RISK)。高风险 意味着必须人工介入,例如出现了表名冲突, ODPS 完全不支持的类型等问题。中等风险意 味着迁移过程中可以自动处理,但是需要告知用户的潜在风险,例如 Hive 数据类型到 ODPS 数据类型会带来的精度损失等问题。以下是一个报告的例子: Alibaba Cloud MaxCompute 解决方案 29 【说明】:报告中对于 String 类型的 8M
    0 码力 | 59 页 | 4.33 MB | 1 年前
    3
  • pdf文档 MATLAB与Spark/Hadoop相集成:实现大数据的处理和价值挖

    Datastore ▪ ImageDatastore 6 tall arrays ▪ tall array – 一种新的数据类型,专门用于处理大数据. – 用于处理数据规模超过单个机器或群集的内存承载能力的数据集合 ▪ 使用方式等同于MATLAB 数组(array) – 支持数据类型包括数值型、字符串、时间类型、表等… – 支持众多基本的数学函数、统计函数、索引函数等. – 支持机器学习算法包括分类、聚类和回归
    0 码力 | 17 页 | 1.64 MB | 1 年前
    3
共 18 条
  • 1
  • 2
前往
页
相关搜索词
深度学习PyTorch入门实战06基本数据类型数据类型OpenShiftContainerPlatform4.7日志记录4.8OpenVINO开发系列教程第一一篇第一篇Hadoop概述Keras基于Python机器课程温州大学01引言迁移阿里MaxCompute技术方案MATLABSpark集成实现处理价值
IT文库
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传或本站整理自互联网,不以营利为目的,供所有人免费下载和学习使用。如侵犯您的权益,请联系我们进行删除。
IT文库 ©1024 - 2025 | 站点地图
Powered By MOREDOC AI v3.3.0-beta.70
  • 关注我们的公众号【刻舟求荐】,给您不一样的精彩
    关注我们的公众号【刻舟求荐】,给您不一样的精彩