积分充值
 首页
前端开发
AngularDartElectronFlutterHTML/CSSJavaScriptReactSvelteTypeScriptVue.js构建工具
后端开发
.NetC#C++C语言DenoffmpegGoIdrisJavaJuliaKotlinLeanMakefilenimNode.jsPascalPHPPythonRISC-VRubyRustSwiftUML其它语言区块链开发测试微服务敏捷开发架构设计汇编语言
数据库
Apache DorisApache HBaseCassandraClickHouseFirebirdGreenplumMongoDBMySQLPieCloudDBPostgreSQLRedisSQLSQLiteTiDBVitess数据库中间件数据库工具数据库设计
系统运维
AndroidDevOpshttpdJenkinsLinuxPrometheusTraefikZabbix存储网络与安全
云计算&大数据
Apache APISIXApache FlinkApache KarafApache KyuubiApache OzonedaprDockerHadoopHarborIstioKubernetesOpenShiftPandasrancherRocketMQServerlessService MeshVirtualBoxVMWare云原生CNCF机器学习边缘计算
综合其他
BlenderGIMPKiCadKritaWeblate产品与服务人工智能亿图数据可视化版本控制笔试面试
文库资料
前端
AngularAnt DesignBabelBootstrapChart.jsCSS3EchartsElectronHighchartsHTML/CSSHTML5JavaScriptJerryScriptJestReactSassTypeScriptVue前端工具小程序
后端
.NETApacheC/C++C#CMakeCrystalDartDenoDjangoDubboErlangFastifyFlaskGinGoGoFrameGuzzleIrisJavaJuliaLispLLVMLuaMatplotlibMicronautnimNode.jsPerlPHPPythonQtRPCRubyRustR语言ScalaShellVlangwasmYewZephirZig算法
移动端
AndroidAPP工具FlutterFramework7HarmonyHippyIoniciOSkotlinNativeObject-CPWAReactSwiftuni-appWeex
数据库
ApacheArangoDBCassandraClickHouseCouchDBCrateDBDB2DocumentDBDorisDragonflyDBEdgeDBetcdFirebirdGaussDBGraphGreenPlumHStreamDBHugeGraphimmudbIndexedDBInfluxDBIoTDBKey-ValueKitDBLevelDBM3DBMatrixOneMilvusMongoDBMySQLNavicatNebulaNewSQLNoSQLOceanBaseOpenTSDBOracleOrientDBPostgreSQLPrestoDBQuestDBRedisRocksDBSequoiaDBServerSkytableSQLSQLiteTiDBTiKVTimescaleDBYugabyteDB关系型数据库数据库数据库ORM数据库中间件数据库工具时序数据库
云计算&大数据
ActiveMQAerakiAgentAlluxioAntreaApacheApache APISIXAPISIXBFEBitBookKeeperChaosChoerodonCiliumCloudStackConsulDaprDataEaseDC/OSDockerDrillDruidElasticJobElasticSearchEnvoyErdaFlinkFluentGrafanaHadoopHarborHelmHudiInLongKafkaKnativeKongKubeCubeKubeEdgeKubeflowKubeOperatorKubernetesKubeSphereKubeVelaKumaKylinLibcloudLinkerdLonghornMeiliSearchMeshNacosNATSOKDOpenOpenEBSOpenKruiseOpenPitrixOpenSearchOpenStackOpenTracingOzonePaddlePaddlePolicyPulsarPyTorchRainbondRancherRediSearchScikit-learnServerlessShardingSphereShenYuSparkStormSupersetXuperChainZadig云原生CNCF人工智能区块链数据挖掘机器学习深度学习算法工程边缘计算
UI&美工&设计
BlenderKritaSketchUI设计
网络&系统&运维
AnsibleApacheAWKCeleryCephCI/CDCurveDevOpsGoCDHAProxyIstioJenkinsJumpServerLinuxMacNginxOpenRestyPrometheusServertraefikTrafficUnixWindowsZabbixZipkin安全防护系统内核网络运维监控
综合其它
文章资讯
 上传文档  发布文章  登录账户
IT文库
  • 综合
  • 文档
  • 文章

无数据

分类

全部数据库(33)TiDB(33)

语言

全部中文(简体)(17)英语(16)

格式

全部PDF文档 PDF(33)
 
本次搜索耗时 0.517 秒,为您找到相关结果约 33 个.
  • 全部
  • 数据库
  • TiDB
  • 全部
  • 中文(简体)
  • 英语
  • 全部
  • PDF文档 PDF
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 TiDB 开源分布式关系型数据库

    提供丰富的监控指标满足运维管理的需求,使用DataX 将 TiDB 的数据以 T+1 同步到 Hive 做数据备份。 基于TiDB 中通快递进行实时数仓宽表的建设,业务的 OLTP 数据通过 TiDB 实时写入,后续 OLAP 的业 务通过 TiSpark 做分钟级的分析。经过业务实测,TiSpark 同步 3 亿条数据到 Hive 大概需要 10 分钟, 为中通快递的实时数仓建设与离线 T+1 的整合提供保障 InnoDB Cluster 方案扩展性有限, 性能受损, 同时要修改业务端的代码, 复杂度 较高; *。 MongoDB 不能实时从 Binlog 同步数据, 不适合使用 SQL 语义; *。 ”Hive 不便于做增量更新; *。 Phoenix on HBase 的索引变更与维护比较困难, 聚合查询的效率不高; *。 CRDB 兼容 PostgreSQL 协议, 线上数据迁移需做协议的转化, 还有一部分线下日志相关的数据。 日志流数据是 在线上 App 采集数据, 流转到 Kafka, 挑选出有价值的信! 过 Flink 写入TiDB , 供给分析使用。 采用 Spark 连接HIVE和 EROSPIKE , 通过TiSpark 直接访问 TiDB, 实现跨多个数据源的计算和分析。 跨源异 构计算架构打破了不同数据库之问的壁垒, 实现数据价值的最大化, 为用户画像、精准营销等业务场景提
    0 码力 | 58 页 | 9.51 MB | 1 年前
    3
  • pdf文档 TiDB v5.1 Documentation

    have customized requirements for outputting data to other formats, for example, Elasticsearch and Hive, so this feature is introduced. 11.7.10.1 Configure Drainer Modify the configuration file of Drainer including SQuirreLSQL and hive-beeline. For example, to use it with beeline: ./beeline Beeline version 1.2.2 by Apache Hive beeline> !connect jdbc:hive2://localhost:10000 1: jdbc:hive2://localhost:10000> use together with Hive You can use TiSpark together with Hive. Before starting Spark, you need to set the HADOOP_CONF_DIR environment variable to your Hadoop configuration folder and copy hive-site.xml to
    0 码力 | 2745 页 | 47.65 MB | 1 年前
    3
  • pdf文档 使用 TiDB 进行实时数据分析-马晓宇

    ����� TiSpark ● TiSpark ���� TiDB ����� Apache Spark ��� ● �� Apache Spark �� ○ Apache Zeppelin��� Hive ��������R �� ● � TiDB ��������� ○ ����� Join ������� ● � TiDB �������������� ● ���������������WIP�
    0 码力 | 36 页 | 9.32 MB | 1 年前
    3
  • pdf文档 TiDB v5.2 Documentation

    have customized requirements for outputting data to other formats, for example, Elasticsearch and Hive, so this feature is introduced. 11.7.10.1 Configure Drainer Modify the configuration file of Drainer including SQuirreLSQL and hive-beeline. For example, to use it with beeline: ./beeline Beeline version 1.2.2 by Apache Hive beeline> !connect jdbc:hive2://localhost:10000 1: jdbc:hive2://localhost:10000> use together with Hive You can use TiSpark together with Hive. Before starting Spark, you need to set the HADOOP_CONF_DIR environment variable to your Hadoop configuration folder and copy hive-site.xml to
    0 码力 | 2848 页 | 47.90 MB | 1 年前
    3
  • pdf文档 TiDB v5.3 Documentation

    have customized requirements for outputting data to other formats, for example, Elasticsearch and Hive, so this feature is introduced. 11.7.10.1 Configure Drainer Modify the configuration file of Drainer jdbc:hive2://localhost:10000 If the following message is displayed, you have enabled beeline successfully. Beeline version 1.2.2 by Apache Hive Then, you can run the query command: 1: jdbc:hive2://localhost:10000> together with Hive You can use TiSpark together with Hive. Before starting Spark, you need to set the HADOOP_CONF_DIR environment variable to your Hadoop configuration folder and copy hive �→ -site.xml
    0 码力 | 2996 页 | 49.30 MB | 1 年前
    3
  • pdf文档 TiDB v5.2 中文手册

    Consumer Client 用户文档 目前 Drainer 提供了多种输出方式,包括 MySQL、TiDB、file 等。但是用户往往有一些自定义的需求,比如输出 到 Elasticsearch、Hive 等,这些需求 Drainer 现在还没有实现,因此 Drainer 增加了输出到 Kafka 的功能,将 binlog 数据解析后按一定的格式再输出到 Kafka 中,用户编写代码从 Kafka row(s) SQuirreLSQL 和 hive-beeline 可以使用 JDBC 连接 Thrift 服务器。例如,使用 beeline 连接: ./beeline Beeline version 1.2.2 by Apache Hive beeline> !connect jdbc:hive2://localhost:10000 1: jdbc:hive2://localhost:10000> +-----------+--+ 1 row selected (1.97 seconds) 11.14.2.6 和 Hive 一起使用 TiSpark TiSpark 可以和 Hive 混合使用。在启动 Spark 之前,需要添加 HADOOP_CONF_DIR 环境变量指向 Hadoop 配置目录并 且将 hive-site.xml 拷贝到 $SPARK_HOME/conf 目录下。 val tisparkDF
    0 码力 | 2259 页 | 48.16 MB | 1 年前
    3
  • pdf文档 TiDB v5.1 中文手册

    Consumer Client 用户文档 目前 Drainer 提供了多种输出方式,包括 MySQL、TiDB、file 等。但是用户往往有一些自定义的需求,比如输出 到 Elasticsearch、Hive 等,这些需求 Drainer 现在还没有实现,因此 Drainer 增加了输出到 Kafka 的功能,将 binlog 数据解析后按一定的格式再输出到 Kafka 中,用户编写代码从 Kafka row(s) SQuirreLSQL 和 hive-beeline 可以使用 JDBC 连接 Thrift 服务器。例如,使用 beeline 连接: ./beeline Beeline version 1.2.2 by Apache Hive beeline> !connect jdbc:hive2://localhost:10000 1: jdbc:hive2://localhost:10000> +-----------+--+ 1 row selected (1.97 seconds) 11.14.2.6 和 Hive 一起使用 TiSpark TiSpark 可以和 Hive 混合使用。在启动 Spark 之前,需要添加 HADOOP_CONF_DIR 环境变量指向 Hadoop 配置目录并 且将 hive-site.xml 拷贝到 $SPARK_HOME/conf 目录下。 val tisparkDF
    0 码力 | 2189 页 | 47.96 MB | 1 年前
    3
  • pdf文档 TiDB v5.4 Documentation

    have customized requirements for outputting data to other formats, for example, Elasticsearch and Hive, so this feature is introduced. 11.7.10.1 Configure Drainer Modify the configuration file of Drainer jdbc:hive2://localhost:10000 If the following message is displayed, you have enabled beeline successfully. Beeline version 1.2.2 by Apache Hive Then, you can run the query command: 1: jdbc:hive2://localhost:10000> together with Hive You can use TiSpark together with Hive. Before starting Spark, you need to set the HADOOP_CONF_DIR environment variable to your Hadoop configuration folder and copy hive �→ -site.xml
    0 码力 | 3650 页 | 52.72 MB | 1 年前
    3
  • pdf文档 TiDB v5.3 中文手册

    Consumer Client 用户文档 目前 Drainer 提供了多种输出方式,包括 MySQL、TiDB、file 等。但是用户往往有一些自定义的需求,比如输出 到 Elasticsearch、Hive 等,这些需求 Drainer 现在还没有实现,因此 Drainer 增加了输出到 Kafka 的功能,将 binlog 数据解析后按一定的格式再输出到 Kafka 中,用户编写代码从 Kafka 首先,通过如下命令启用 beeline: ./bin/beeline jdbc:hive2://localhost:10000 如果显示如下信息则表示 beeline 启用成功: Beeline version 1.2.2 by Apache Hive 然后,你可以运行如下查询命令: 1: jdbc:hive2://localhost:10000> use testdb; +---------+--+ +-----------+--+ 1 row selected (1.97 seconds) 11.14.1.6 和 Hive 一起使用 TiSpark TiSpark 可以和 Hive 混合使用。在启动 Spark 之前,需要添加 HADOOP_CONF_DIR 环境变量指向 Hadoop 配置目录并 且将 hive-site.xml 拷贝到 spark/conf 目录下。 val tisparkDF = spark
    0 码力 | 2374 页 | 49.52 MB | 1 年前
    3
  • pdf文档 TiDB v6.1 Documentation

    imported source file) | Files exported from Dumpling Parquet files exported by Amazon Aurora or Apache Hive CSV files Data from local disks or Amazon S3 | | Downstream | TiDB | | Advantages | Support quickly files of Dumpling • Other compatible CSV files • Parquet files exported from Amazon Aurora or Apache Hive • Supported TiDB versions: v2.1 and later versions • Kubernetes support: Yes. See Quickly restore have customized requirements for outputting data to other formats, for example, Elasticsearch and Hive, so this feature is introduced. 13.11.10.1 Configure Drainer Modify the configuration file of Drainer
    0 码力 | 4487 页 | 84.44 MB | 1 年前
    3
共 33 条
  • 1
  • 2
  • 3
  • 4
前往
页
相关搜索词
TiDB开源分布布式分布式关系数据据库数据库v5Documentation使用进行实时分析数据分析马晓宇中文手册v6
IT文库
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传或本站整理自互联网,不以营利为目的,供所有人免费下载和学习使用。如侵犯您的权益,请联系我们进行删除。
IT文库 ©1024 - 2025 | 站点地图
Powered By MOREDOC AI v3.3.0-beta.70
  • 关注我们的公众号【刻舟求荐】,给您不一样的精彩
    关注我们的公众号【刻舟求荐】,给您不一样的精彩