Things Happening in SG14std::flat_map and std::flat_set • [[likely]], [[unlikely]] • [[no_unique_address]] • Freestanding • std::hive • A new container with different tradeoffs that can be useful for the use-cases of low- latency-oriented std::flat_map and std::flat_set • [[likely]], [[unlikely]] • [[no_unique_address]] • Freestanding • std::hive • … and many, many others at various stages of progress 22What is P2966? How that paper came about0 码力 | 148 页 | 1009.97 KB | 6 月前3
Data Structures That Make Video Games Go Roundmetadata has some value other than 0, it increments the iterator with the skip count.P0447R - std::hive ● Colonies, performance and why you should care - Matthew Bentley ● How to: Colony - Matthew BentleyStart0 码力 | 196 页 | 3.03 MB | 6 月前3
TiDB v8.2 Documentationsource file): • Files exported from Dumpling • Parquet files exported by Amazon Aurora or Apache Hive • CSV files • Data from local disks or Amazon S3 706 • Downstream: TiDB • Advantages: • Support Data from Parquet Files to TiDB This document describes how to generate parquet files from Apache Hive and how to migrate data from parquet files to TiDB using TiDB Lightning. If you export parquet files parquet files This section describes how to export parquet files from Hive that can be read by TiDB Lightning. Each table in Hive can be exported to parquet files by annotating STORED AS PARQUET �→ LOCATION0 码力 | 6549 页 | 108.77 MB | 10 月前3
TiDB v8.3 Documentationsource file): • Files exported from Dumpling • Parquet files exported by Amazon Aurora or Apache Hive • CSV files • Data from local disks or Amazon S3 709 • Downstream: TiDB • Advantages: • Support Data from Parquet Files to TiDB This document describes how to generate parquet files from Apache Hive and how to migrate data from parquet files to TiDB using TiDB Lightning. If you export parquet files parquet files This section describes how to export parquet files from Hive that can be read by TiDB Lightning. Each table in Hive can be exported to parquet files by annotating STORED AS PARQUET �→ LOCATION0 码力 | 6606 页 | 109.48 MB | 10 月前3
TiDB v8.1 Documentationsource file): • Files exported from Dumpling • Parquet files exported by Amazon Aurora or Apache Hive • CSV files • Data from local disks or Amazon S3 704 • Downstream: TiDB • Advantages: • Support Data from Parquet Files to TiDB This document describes how to generate parquet files from Apache Hive and how to migrate data from parquet files to TiDB using TiDB Lightning. If you export parquet files parquet files This section describes how to export parquet files from Hive that can be read by TiDB Lightning. Each table in Hive can be exported to parquet files by annotating STORED AS PARQUET �→ LOCATION0 码力 | 6479 页 | 108.61 MB | 10 月前3
TiDB v8.5 Documentationsource file): 789 • Files exported from Dumpling • Parquet files exported by Amazon Aurora or Apache Hive • CSV files • Data from local disks or Amazon S3 • Downstream: TiDB • Advantages: • Support quickly Data from Parquet Files to TiDB This document describes how to generate parquet files from Apache Hive and how to migrate data from parquet files to TiDB using TiDB Lightning. If you export parquet files parquet files This section describes how to export parquet files from Hive that can be read by TiDB Lightning. Each table in Hive can be exported to parquet files by annotating STORED AS PARQUET �→ LOCATION0 码力 | 6730 页 | 111.36 MB | 10 月前3
TiDB v8.4 Documentationsource file): • Files exported from Dumpling • Parquet files exported by Amazon Aurora or Apache Hive • CSV files • Data from local disks or Amazon S3 784 • Downstream: TiDB • Advantages: • Support Data from Parquet Files to TiDB This document describes how to generate parquet files from Apache Hive and how to migrate data from parquet files to TiDB using TiDB Lightning. If you export parquet files parquet files This section describes how to export parquet files from Hive that can be read by TiDB Lightning. Each table in Hive can be exported to parquet files by annotating STORED AS PARQUET �→ LOCATION0 码力 | 6705 页 | 110.86 MB | 10 月前3
TiDB v8.2 中文手册2.2 TiDB Lightning 使用场景 用于将数据全量导入到 TiDB | 上游(输入源文件) | Dumpling 输出的文件 从 Amazon Aurora 或 Apache Hive 导出的 Parquet 文件 CSV 文件 从本地盘或 Amazon S3 云盘读取数据 | | 下游 | TiDB | | 主要优势 | 支持快速导入大量数据,实现快速初始化 TiDB 正常 退出,不代表任务完成。 如果导入过程中遇到问题,请参见TiDB Lightning 常见问题。 6.4.9 从 Parquet 文件迁移数据到 TiDB 本文介绍如何从 Apache Hive 中生成 Parquet 文件以及如何使用 TiDB Lightning 从 Parquet 文件迁移数据到 TiDB。 如果你从 Amazon Aurora 中导出 Parquet 文件,请参照从 Parquet 文件 本节描述如何从 Hive 中导出能被 TiDB Lightning 读取的 Parquet 文件。 Hive 中每个表都能通过标注 STORED AS PARQUET LOCATION '/path/in/hdfs' 的形式将表数据导出到 Parquet 文 件中。因此,如果你需要导出一张名叫 test 的表,请执行以下步骤: 1. 在 Hive 中执行如下 SQL 语句: CREATE0 码力 | 4987 页 | 102.91 MB | 10 月前3
TiDB v8.4 中文手册2.2 TiDB Lightning 使用场景 用于将数据全量导入到 TiDB | 上游(输入源文件) | Dumpling 输出的文件 从 Amazon Aurora 或 Apache Hive 导出的 Parquet 文件 CSV 文件 从本地盘或 Amazon S3 云盘读取数据 | | 下游 | TiDB | | 主要优势 | 支持快速导入大量数据,实现快速初始化 TiDB 正常 退出,不代表任务完成。 如果导入过程中遇到问题,请参见TiDB Lightning 常见问题。 6.4.9 从 Parquet 文件迁移数据到 TiDB 本文介绍如何从 Apache Hive 中生成 Parquet 文件以及如何使用 TiDB Lightning 从 Parquet 文件迁移数据到 TiDB。 如果你从 Amazon Aurora 中导出 Parquet 文件,请参照从 Parquet 文件 本节描述如何从 Hive 中导出能被 TiDB Lightning 读取的 Parquet 文件。 Hive 中每个表都能通过标注 STORED AS PARQUET LOCATION '/path/in/hdfs' 的形式将表数据导出到 Parquet 文 件中。因此,如果你需要导出一张名叫 test 的表,请执行以下步骤: 1. 在 Hive 中执行如下 SQL 语句: CREATE0 码力 | 5072 页 | 104.05 MB | 10 月前3
TiDB v8.5 中文手册2.2 TiDB Lightning 使用场景 用于将数据全量导入到 TiDB | 上游(输入源文件) | Dumpling 输出的文件 从 Amazon Aurora 或 Apache Hive 导出的 Parquet 文件 CSV 文件 从本地盘或 Amazon S3 云盘读取数据 | | 下游 | TiDB | | 主要优势 | 618 支持快速导入大量数据,实现快速初始化 正常 退出,不代表任务完成。 如果导入过程中遇到问题,请参见TiDB Lightning 常见问题。 6.4.10 从 Parquet 文件迁移数据到 TiDB 本文介绍如何从 Apache Hive 中生成 Parquet 文件以及如何使用 TiDB Lightning 从 Parquet 文件迁移数据到 TiDB。 如果你从 Amazon Aurora 中导出 Parquet 文件,请参照从 Parquet 文件 本节描述如何从 Hive 中导出能被 TiDB Lightning 读取的 Parquet 文件。 Hive 中每个表都能通过标注 STORED AS PARQUET LOCATION '/path/in/hdfs' 的形式将表数据导出到 Parquet 文 件中。因此,如果你需要导出一张名叫 test 的表,请执行以下步骤: 1. 在 Hive 中执行如下 SQL 语句: CREATE0 码力 | 5095 页 | 104.54 MB | 10 月前3
共 11 条
- 1
- 2













