 通过Oracle 并行处理集成 Hadoop 数据布式存储机制。本文中介绍了各种访问方法,还通过一个具体示例说明了其中一 种访问方法的实现。 2 Oracle 白皮书 — 通过 Oracle 并行处理集成 Hadoop 数据 外部 Hadoop 数据的访问方法 要从 Oracle 数据库里访问某个文件系统中的外部文件或外部数据,最简单的方法莫过于使用 外部表。请参阅这里了解外部表。 HDFS(Hadoop 文件系统)中存储的 数据。遗憾的是,常规的操作系统无法调用外部表驱动直接访问 HDFS 文件。FUSE(File System in Userspace)项目针对这种情况提供了解决方法。有多种 FUSE 驱动程序支持用户挂 载 HDFS 存储,并将其作为常规文件系统处理。通过使用一个此类驱动程序,并在数据库实 例上挂载 HDFS(如果是 RAC 数据库,则在其所有实例上挂载 HDFS),即可使用外部表基 Database 11g 中的并行执行框架足以满足针对外部表大多数的并行操作。 在有些情况下(例如,如果 FUSE 不可用),外部表方法可能不适用。Oracle 表函数提供了 从 Hadoop 中获取数据的替代方法。本文附带的示例展示了一种这样的方法。更深入地来 讲,我们用一个表函数来实现,这个表函数使用 DBMS_SCHEDULER 框架异步调用外部shell 脚本,然后由这个shell脚本提交一个Hadoop0 码力 | 21 页 | 1.03 MB | 1 年前3 通过Oracle 并行处理集成 Hadoop 数据布式存储机制。本文中介绍了各种访问方法,还通过一个具体示例说明了其中一 种访问方法的实现。 2 Oracle 白皮书 — 通过 Oracle 并行处理集成 Hadoop 数据 外部 Hadoop 数据的访问方法 要从 Oracle 数据库里访问某个文件系统中的外部文件或外部数据,最简单的方法莫过于使用 外部表。请参阅这里了解外部表。 HDFS(Hadoop 文件系统)中存储的 数据。遗憾的是,常规的操作系统无法调用外部表驱动直接访问 HDFS 文件。FUSE(File System in Userspace)项目针对这种情况提供了解决方法。有多种 FUSE 驱动程序支持用户挂 载 HDFS 存储,并将其作为常规文件系统处理。通过使用一个此类驱动程序,并在数据库实 例上挂载 HDFS(如果是 RAC 数据库,则在其所有实例上挂载 HDFS),即可使用外部表基 Database 11g 中的并行执行框架足以满足针对外部表大多数的并行操作。 在有些情况下(例如,如果 FUSE 不可用),外部表方法可能不适用。Oracle 表函数提供了 从 Hadoop 中获取数据的替代方法。本文附带的示例展示了一种这样的方法。更深入地来 讲,我们用一个表函数来实现,这个表函数使用 DBMS_SCHEDULER 框架异步调用外部shell 脚本,然后由这个shell脚本提交一个Hadoop0 码力 | 21 页 | 1.03 MB | 1 年前3
 尚硅谷大数据技术之Hadoop(生产调优手册)如何发现慢磁盘? 正常在 HDFS 上创建一个目录,只需要不到 1s 的时间。如果你发现创建目录超过 1 分 钟及以上,而且这个现象并不是每次都有。只是偶尔慢了一下,就很有可能存在慢磁盘。 可以采用如下方法找出是哪块磁盘慢: 1)通过心跳未联系时间。 一般出现慢磁盘现象,会影响到 DataNode 与 NameNode 之间的心跳。正常情况心跳时 间间隔是 3s。超过 3s 说明有异常。 操作优化 (1)数据倾斜 (2)Map 运行时间太长,导致 Reduce 等待过久 (3)小文件过多 8.2 MapReduce 常用调优参数 MapReduce优化(上) Map1方法 分区1 分区2 写入 尚硅谷大数据技术之Hadoop(生产调优手册)如何发现慢磁盘? 正常在 HDFS 上创建一个目录,只需要不到 1s 的时间。如果你发现创建目录超过 1 分 钟及以上,而且这个现象并不是每次都有。只是偶尔慢了一下,就很有可能存在慢磁盘。 可以采用如下方法找出是哪块磁盘慢: 1)通过心跳未联系时间。 一般出现慢磁盘现象,会影响到 DataNode 与 NameNode 之间的心跳。正常情况心跳时 间间隔是 3s。超过 3s 说明有异常。 操作优化 (1)数据倾斜 (2)Map 运行时间太长,导致 Reduce 等待过久 (3)小文件过多 8.2 MapReduce 常用调优参数 MapReduce优化(上) Map1方法 分区1 分区2 写入- 数据 第一次溢出 排序 第二次溢出 Combiner Combiner 归并排序 归并排序 合并 Combiner为可选流程 压缩 写磁盘 分区1 spill.index Spill.out 默认100M 80%,后反向 环形缓冲区 2)减少溢写的次数 mapreduce.task.io.sort.mb Shuffle的环形缓冲区大小,默认100m,可以提高到200m mapreduce.map.sort.spill.percent 环形缓冲区溢出的阈值,默认80% ,可以提高的90% 9)异常重试 mapreduce.map.maxattempts每个Map 0 码力 | 41 页 | 2.32 MB | 1 年前3
 大数据集成与Hadoop - IBM抽取、转换和加载大数据”1 有效的大数据集成解决方案可实现简便性、高速度、可扩展 性、功能和治理,从Hadoop沼泽中生成可使用的数据。没有 有效的集成,势必形成“垃圾进垃圾出”的情况-这不是出色 的受信任数据使用方法,更谈不上准确完整的洞察或转型 成果。 IBM软件 3 随着Hadoop市场的不断发展,顶级技术分析师一致认为, Hadoop 基础架构本身并非完整或有效的大数据集成解决方案 (请 供应商利用炒作、神 话、误导或矛盾信息来渗透市场。 为彻底切断这种误导,并开发适合您的Hadoop大数据项目的 采用计划,必须遵循最佳实践方法,充分考虑各种新兴技术、可 扩展性需求以及当前的资源和技能水平。面临的挑战:创建最佳 的大数据集成方法和架构,同时避免各种实施缺陷。 海量数据可扩展性:总体要求 如果您的大数据集成解决方案无法支持海量数据可扩展性, 那么很可能无法达到预期的效果。为发挥大数据措施的整体 Another Resource Negotiator(YARN) 纳入了MapReduce的资源管理功能,并将它们内置其 中,这样需要在Hadoop群集间动态执行的其他应用即可 使用它们。结果是,这种方法可将大规模可扩展数据集成 引擎作为本机 Hadoop应用程序来实现,而且不会影响 MapReduce的性能。希望在Hadoop上实现可扩展性和 有效性的所有企业技术都需要采用YARN,并将其作为0 码力 | 16 页 | 1.23 MB | 1 年前3 大数据集成与Hadoop - IBM抽取、转换和加载大数据”1 有效的大数据集成解决方案可实现简便性、高速度、可扩展 性、功能和治理,从Hadoop沼泽中生成可使用的数据。没有 有效的集成,势必形成“垃圾进垃圾出”的情况-这不是出色 的受信任数据使用方法,更谈不上准确完整的洞察或转型 成果。 IBM软件 3 随着Hadoop市场的不断发展,顶级技术分析师一致认为, Hadoop 基础架构本身并非完整或有效的大数据集成解决方案 (请 供应商利用炒作、神 话、误导或矛盾信息来渗透市场。 为彻底切断这种误导,并开发适合您的Hadoop大数据项目的 采用计划,必须遵循最佳实践方法,充分考虑各种新兴技术、可 扩展性需求以及当前的资源和技能水平。面临的挑战:创建最佳 的大数据集成方法和架构,同时避免各种实施缺陷。 海量数据可扩展性:总体要求 如果您的大数据集成解决方案无法支持海量数据可扩展性, 那么很可能无法达到预期的效果。为发挥大数据措施的整体 Another Resource Negotiator(YARN) 纳入了MapReduce的资源管理功能,并将它们内置其 中,这样需要在Hadoop群集间动态执行的其他应用即可 使用它们。结果是,这种方法可将大规模可扩展数据集成 引擎作为本机 Hadoop应用程序来实现,而且不会影响 MapReduce的性能。希望在Hadoop上实现可扩展性和 有效性的所有企业技术都需要采用YARN,并将其作为0 码力 | 16 页 | 1.23 MB | 1 年前3
 Hadoop 迁移到阿里云MaxCompute 技术方案Oozie、Azkaban、Airflow 等工具的工 作流及调度任务进行自动迁移转化,并自动创建为 Dataworks 工作流及调度作业。 5 迁移整体方案及流程 根据迁移工作的内容,我们提供了以下工作方法来保障迁移工作能够科学有序地开展 。 整个迁移工作包含以下几个阶段: Alibaba Cloud MaxCompute 解决方案 20 5.1 阶段 1:调研评估&迁移方案 network-measurement-tool 可以检查 Hadoop 集群与 MaxCompute 各个 Region 的网络连通质量,以及 download/upload 的性能。  工具使用方法  Example Alibaba Cloud MaxCompute 解决方案 27  输出结果 Output: 性能测试报告 [INFO ] Alibaba Cloud MaxCompute 解决方案 29 【说明】:报告中对于 String 类型的 8M 限制的警告:不会截断该字段,但整个 SQL(表或分 区)的写入都会失败,因为 sql-checker 就会报错,不会走到 commit。 6.3.3.2 从 Dataworks 获得评估报告:  查看节点列表:Dataworks 会将客户上传的0 码力 | 59 页 | 4.33 MB | 1 年前3 Hadoop 迁移到阿里云MaxCompute 技术方案Oozie、Azkaban、Airflow 等工具的工 作流及调度任务进行自动迁移转化,并自动创建为 Dataworks 工作流及调度作业。 5 迁移整体方案及流程 根据迁移工作的内容,我们提供了以下工作方法来保障迁移工作能够科学有序地开展 。 整个迁移工作包含以下几个阶段: Alibaba Cloud MaxCompute 解决方案 20 5.1 阶段 1:调研评估&迁移方案 network-measurement-tool 可以检查 Hadoop 集群与 MaxCompute 各个 Region 的网络连通质量,以及 download/upload 的性能。  工具使用方法  Example Alibaba Cloud MaxCompute 解决方案 27  输出结果 Output: 性能测试报告 [INFO ] Alibaba Cloud MaxCompute 解决方案 29 【说明】:报告中对于 String 类型的 8M 限制的警告:不会截断该字段,但整个 SQL(表或分 区)的写入都会失败,因为 sql-checker 就会报错,不会走到 commit。 6.3.3.2 从 Dataworks 获得评估报告:  查看节点列表:Dataworks 会将客户上传的0 码力 | 59 页 | 4.33 MB | 1 年前3
 Spark 简介以及与 Hadoop 的对比的分 区对应于一个子 RDD 的分区,也就是说一个父 RDD 的一个分区不可能对应一个子 RDD 的 多个分区。Wide Dependencies 是指子 RDD 的分区依赖于父 RDD 的多个分区或所有分区, 也就是说存在一个父 RDD 的一个分区对应一个子 RDD 的多个分区。对与 Wide Dependencies,这种计算的输入和输出在不同的节点上,lineage 方法对与输入节点完好, 方法对与输入节点完好, 而输出节点宕机时,通过重新计算,这种情况下,这种方法容错是有效的,否则无效,因为 无法重试,需要向上其祖先追溯看是否可以重试(这就是 lineage,血统的意思),Narrow Dependencies 对于数据的重算开销要远小于 Wide Dependencies 的数据重算开销。 1.2.4 容错 在 RDD 计算,通过 checkpint 进行容错,做 checkpoint0 码力 | 3 页 | 172.14 KB | 1 年前3 Spark 简介以及与 Hadoop 的对比的分 区对应于一个子 RDD 的分区,也就是说一个父 RDD 的一个分区不可能对应一个子 RDD 的 多个分区。Wide Dependencies 是指子 RDD 的分区依赖于父 RDD 的多个分区或所有分区, 也就是说存在一个父 RDD 的一个分区对应一个子 RDD 的多个分区。对与 Wide Dependencies,这种计算的输入和输出在不同的节点上,lineage 方法对与输入节点完好, 方法对与输入节点完好, 而输出节点宕机时,通过重新计算,这种情况下,这种方法容错是有效的,否则无效,因为 无法重试,需要向上其祖先追溯看是否可以重试(这就是 lineage,血统的意思),Narrow Dependencies 对于数据的重算开销要远小于 Wide Dependencies 的数据重算开销。 1.2.4 容错 在 RDD 计算,通过 checkpint 进行容错,做 checkpoint0 码力 | 3 页 | 172.14 KB | 1 年前3
 Hadoop 概述有着低廉的商业成本,因此很容易去探索 Hadoop 的特性,无论是 通过虚拟机,还是在现有环境建立混合生态系统。使用 Hadoop 解 决方案来审查当前的数据方法以及日渐增长的供应商阵营是一种非 Hadoop 大数据解决方案 10 常好的方法。借助这些服务和工具,Hadoop 生态系统将继续发展, 并清除分析处理和管理大数据湖中的一些障碍。通过使用本章中讨 论的一些工具和服务,Hadoop 是贵组织所选用的工具,那么你便有 一组工具套件可供选择。它们与 Hadoop 有合作关系,Oracle 网站 上有说明文档,并且允许下载前面所提到的所有连接器。此外,还 有配置它们以便与 Hadoop 生态系统协同工作的方法。 ORACLE R 客户端 将 MapReduce 用于 R 计算 图 1-10 1.5 小结 通过使用 Hadoop Stack,你利用 Hadoop 在企业中实现最优方0 码力 | 17 页 | 583.90 KB | 1 年前3 Hadoop 概述有着低廉的商业成本,因此很容易去探索 Hadoop 的特性,无论是 通过虚拟机,还是在现有环境建立混合生态系统。使用 Hadoop 解 决方案来审查当前的数据方法以及日渐增长的供应商阵营是一种非 Hadoop 大数据解决方案 10 常好的方法。借助这些服务和工具,Hadoop 生态系统将继续发展, 并清除分析处理和管理大数据湖中的一些障碍。通过使用本章中讨 论的一些工具和服务,Hadoop 是贵组织所选用的工具,那么你便有 一组工具套件可供选择。它们与 Hadoop 有合作关系,Oracle 网站 上有说明文档,并且允许下载前面所提到的所有连接器。此外,还 有配置它们以便与 Hadoop 生态系统协同工作的方法。 ORACLE R 客户端 将 MapReduce 用于 R 计算 图 1-10 1.5 小结 通过使用 Hadoop Stack,你利用 Hadoop 在企业中实现最优方0 码力 | 17 页 | 583.90 KB | 1 年前3
 MATLAB与Spark/Hadoop相集成:实现大数据的处理和价值挖
Velocity - 数据处理速度,数据处理速度需要快速 数据处理速度是决定大数据应用的关键 4 大数据带来的挑战 ▪ 传统的工具和方法不能有效工作 – 访问和处理数据变得困难; – 需要学习使用新的工具和新的编程方式; – 不得不重写算法以应对数据规模的增大; ▪ 现有处理或计算方法下的结果质量受到影响 – 被迫只能处理一部分数据(数据子集); – 采用新的工具或重写算法会对现有生产力产生影响; ▪ 数据处理与分析所需时间增长0 码力 | 17 页 | 1.64 MB | 1 年前3 MATLAB与Spark/Hadoop相集成:实现大数据的处理和价值挖
Velocity - 数据处理速度,数据处理速度需要快速 数据处理速度是决定大数据应用的关键 4 大数据带来的挑战 ▪ 传统的工具和方法不能有效工作 – 访问和处理数据变得困难; – 需要学习使用新的工具和新的编程方式; – 不得不重写算法以应对数据规模的增大; ▪ 现有处理或计算方法下的结果质量受到影响 – 被迫只能处理一部分数据(数据子集); – 采用新的工具或重写算法会对现有生产力产生影响; ▪ 数据处理与分析所需时间增长0 码力 | 17 页 | 1.64 MB | 1 年前3
 尚硅谷大数据技术之Hadoop(入门)3 SSH 无密登录配置 1)配置 ssh (1)基本语法 ssh 另一台电脑的 IP 地址 (2)ssh 连接时出现 Host key verification failed 的解决方法 [atguigu@hadoop102 ~]$ ssh hadoop103 ➢ 如果出现如下内容 Are you sure you want to continue connecting0 码力 | 35 页 | 1.70 MB | 1 年前3 尚硅谷大数据技术之Hadoop(入门)3 SSH 无密登录配置 1)配置 ssh (1)基本语法 ssh 另一台电脑的 IP 地址 (2)ssh 连接时出现 Host key verification failed 的解决方法 [atguigu@hadoop102 ~]$ ssh hadoop103 ➢ 如果出现如下内容 Are you sure you want to continue connecting0 码力 | 35 页 | 1.70 MB | 1 年前3
共 8 条
- 1













