最具影响力的数字化技术在线社区

168大数据

 找回密码
 立即注册

QQ登录

只需一步,快速开始

1 2 3 4 5
打印 上一主题 下一主题
开启左侧

[综合] hadoop面试题!这6个!经常问!

[复制链接]
跳转到指定楼层
楼主
发表于 2019-11-29 20:21:39 | 只看该作者 |只看大图 回帖奖励 |倒序浏览 |阅读模式

马上注册,结交更多数据大咖,获取更多知识干货,轻松玩转大数据

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
本帖最后由 168主编 于 2019-11-29 20:25 编辑

您是否很快准备接受面试并需要了解hadoop?不要惊慌!以下是您有可能会被问到的一些问题以及我为您提供的答案。 希望对你有帮助哦!



·  正  ·  文  ·  来  ·  啦  ·

问题一:什么是Hadoop?

Hadoop是一个开源软件框架,用于存储大量数据,并在具有多个廉价硬件节点(即低成本硬件)的集群上处理/查询这些数据。简而言之,Hadoop由以下部分组成:

HDFS(Hadoop分布式文件系统):HDFS允许您以分布式和冗余的方式存储大量数据。例如,1 GB(即1024 MB)文本文件可以拆分为16*128MB文件,并存储在Hadoop集群中的8个不同节点上。每个拆分可以复制3次以获得容错性,这样,如果1个节点关闭,您就可以访问备份。HDFS适用于顺序 一次写入和多次读取类型访问。


MapReduce:一个计算框架。它以分布式和并行的方式处理大量数据。当您为年龄大于18岁的所有用户查询上述1 GB文件时,将显示并行运行的“8 map”函数,在其128MB拆分文件中提取年龄大于18岁的用户,然后运行“reduce”函数,将所有单个输出合并为一个最终结果。

YARN(又一个资源管理器):作业调度和集群资源管理的框架。

Hadoop生态系统,拥有15多种框架和工具,如Sqoop, Flume, Kafka, Pig, Hive, Spark, Impala等,可将数据摄取到HDFS中,在HDFS中对数据进行处理(即转换,填充,聚合等),并从HDFS中查询数据以进行商业智能和分析。ig和Hive等工具是MapReduce之上的抽象层,而Spark和Impala等其他工具是MapReduce的改进架构/设计,可以大大改善延迟,以支持近实时(即NRT)和实时处理。


问题2:为什么商业公司要从传统的数据仓库工具转移到基于Hadoop生态系统的更智能的数据中心?

各组织正在进行努力,以增强他们的:

现有数据基础设施:

  • 主要使用存储在高端和昂贵存储中的“结构化数据”

  • 主要作为ETL批处理作业处理,用于将数据摄取到RDBMS和数据仓库系统中进行数据挖掘、分析和报告,以做出关键业务决策。

  • 主要处理千兆字节到兆兆字节的数据量



基于Hadoop的更智能的数据基础设施

  • 结构化(如RDBMS)、非结构化(如图像、PDF、文档)和半结构化(如日志、XML)数据可以以可扩展和容错的方式存储在更便宜的机器中。

  • 数据可以通过批处理作业和近实时(即NRT、200毫秒至2秒)流式处理(如Flume和Kafka)摄取。

  • 使用Spark和Impala等工具可以低延迟(即低于100毫秒)查询数据。

  • 可以存储兆兆字节到兆兆兆字节的更大数据量。



这使商业公司能够使用更智能和更大的数据做出更好的业务决策,并使用更强大的工具来摄取数据、处理存储的数据(例如聚合、充实、转换等),以及查询具有低延迟功能的已被征用数据,以进行报告和业务智能。

问题3:智能和大型数据中心架构与传统的数据仓库架构有何不同?

传统的企业数据仓库架构

基于Hadoop的数据中心架构

问题4:基于Hadoop的数据中心有哪些好处?

随着数据量和复杂性的增长,改进了整体SLA(即服务水平协议)。例如,“无共享”架构,并行处理,内存密集型处理框架(如Spark和Impala)以及YARN容量调度程序中的资源抢占。

扩展数据仓库可能很昂贵。添加额外的高端硬件容量和  数据仓库工具许可可能会花费更多。基于Hadoop的解决方案不仅可以通过商用硬件节点和  开源工具降低成本,还可以通过将数据转换卸载到Spark和Impala等Hadoop工具来补充数据仓库的解决方案,从而更有效地并行处理大数据。这也将释放数据仓库资源。

探索新的途径和线索。Hadoop可以为数据科学家提供探索性沙箱,以发现社交媒体,日志文件,电子邮件等中可能有价值的数据,这些数据通常在数据仓库中不可用。

灵活性更好。业务需求通常会发生变化,这需要更改架构和报告。基于Hadoop的解决方案不仅可以灵活地处理不断发展的模式,还可以处理来自不同来源的半结构化和非结构化数据,如社交媒体,应用程序日志文件,图像,PDF和文档文件。

问题5:大数据解决方案的关键步骤是什么?

接收数据、存储数据(即数据建模)和处理数据(即数据打包、数据转换和查询数据)。

摄取数据

从各种来源提取数据,如:

  • 关系数据库管理系统,如Oracle、MySQL等。

  • ERP企业资源规划(即ERP)系统,如SAP。

  • CRM客户关系管理系统,如Siebel、Salesforce等。

  • 社交媒体提要和日志文件。

  • 平面文件、文档和图像。



并将它们存储在基于“Hadoop分布式文件系统”的数据集群上,该文件缩写为HDFS。数据可以通过批处理作业(例如每15分钟运行一次,每晚一次等),近实时流(即100ms到2分钟)和实时流(即100ms以下)进行摄取。

Hadoop中使用的一个常用术语是“ Schema-On-Read ”。这意味着可以根据处理应用程序的要求,在处理时应用结构,将未处理(也称为原始)数据加载到HDFS中。这与“Schema-On-Write”不同,后者在RDBMS中使用,其中需要在加载数据之前定义模式。

存储数据

数据可以存储在HDFS或NoSQL数据库(如HBase)上。HDFS 针对顺序访问  和“一次写入和多次读取”的使用模式进行了优化。HDFS具有高读取和写入速率,因为它可以将I / O并行化为多个驱动器。HBase位于HDFS之上,以列的方式将数据存储为键/值对。HBase适用于随机读/写访问。在将数据存储在Hadoop之前,您需要考虑以下事项:

  • 数据存储格式:可以应用多种文件格式(例如CSV,JSON,序列,AVRO,Parquet等)和数据压缩算法(例如snappy,LZO,gzip,bzip2等)。每个都有特殊的优势。像LZO和bzip2这样的压缩算法是可拆分的。

  • 数据建模:尽管Hadoop具有无架构特性,但架构设计仍是一个重要的考虑因素。这包括存储在HBase,Hive和Impala中的对象的目录结构和模式。Hadoop通常充当整个组织的数据中心,并且数据旨在共享。因此,精心构建和组织存储数据非常重要。

  • 元数据管理:与存储数据相关的元数据。

  • 多租户:随着更智能的数据中心托管多个用户,组和应用程序。这通常会带来与治理,标准化和管理相关的挑战。



处理数据

Hadoop的处理框架使用HDFS。它使用“ 无共享 ”架构,在分布式系统中,每个节点完全独立于系统中的其他节点。没有像CPU、内存和磁盘存储这样的共享资源会成为瓶颈。Hadoop的处理框架(如Spark,Pig,Hive,Impala等)处理数据的不同子集,无需管理对共享数据的访问。“ 无共享 ”架构具有很高的可扩展性,因为可以添加更多节点而无需进一步争用和 容错 ,因为每个节点是独立的,并且没有单点故障,且系统可以从单个节点的故障中快速恢复。

问题6:您将如何选择存储和处理数据的不同文件格式?

关键设计决策之一是基于以下方面的文件格式:

  • 使用模式如访问50列中的5列,而不是访问大多数列。

  • 并行处理的可分割性。

  • 块压缩节省存储空间与读/写/传输性能

  • 用于添加字段,修改字段和重命名字段的模式演变。



CSV文件

CSV文件通常用于在Hadoop和外部系统之间交换数据。CSV可读且可分析。CSV对于从数据库批量加载到Hadoop或分析数据库非常方便。在Hadoop中使用CSV文件时,不要包含页眉或页脚行。文件的每一行都应该包含记录。CSV文件限制了对架构评估的支持,因为新字段只能附加到记录的末尾,而现有字段永远都不受限制。CSV文件不支持块压缩,因此压缩CSV文件会带来巨大的读取性能成本。

JSON文件

JSON记录不同于JSON文件;每一行都是它自己的JSON记录。由于JSON为每个记录同时存储模式和数据,因此它支持完整的模式演化和可分割性。此外,JSON文件不支持块级压缩。

序列文件

序列文件以二进制格式存储数据,其结构与CSV文件类似。与CSV文件不同,序列文件支持块压缩。序列文件也可拆分。序列文件可以用来解决“小文件问题”,通过组合较小的XML文件,将文件名存储为键,文件内容存储为值。由于读取序列文件的复杂性,它们更适合于飞行中(即中间)的数据存储。

注意:序列文件是以Java为中心的,不能跨平台使用。

Avro文件

这些适用长期存储。Avro文件存储带有数据的元数据,但也允许指定用于读取文件的独立模式。这样可以实现完整的模式演变支持,允许您通过定义新的独立模式来重命名、添加和删除字段以及更改字段的数据类型。Avro文件以JSON格式定义架构,数据将采用二进制JSON格式。Avro文件也是可拆分的,  并支持块压缩。更适合使用模式需要行级访问的地方。这意味着将查询该行中的所有列。当一行有50+列且使用模式只需要访问10列或更少列时不适用。Parquet文件格式更适合此列访问使用模式。

柱状格式,例如RCFile,ORC

RDBM以面向行的方式存储记录,因为这对于需要获取记录的许多列的情况很有效。如果在将记录写入磁盘时所有列值都是已知的,那么面向行的写入也是有效的。但是,如果只获取一行中10%的列,或者在写入时不知道所有列的值,那么这种方法就没有效率。这就是柱状文件更有意义的地方。所以柱状格式很好用。

  • 在不属于查询的列上跳过I / O和解压缩

  • 用于只访问一小部分列的查询。

  • 对于数据仓库类型的应用程序,用户希望在大量记录集合上聚合某些列。



RC&ORC格式是专门用Hive编写的,而不是作为Parquet的通用格式。

Parquet文件


Parquet文件是一个像RC和ORC的柱状文件。Parquet文件支持块压缩并针对查询性能进行了优化,因为可以从50多列记录中选择10个或更少的列。Parquet文件写入性能比非柱式文件格式慢。Parquet还支持有限的模式演变,允许在最后添加新列。可以使用Avro API和Avro架构读取和写入Parquet。

因此,总而言之,您应该优先考虑序列,Avro和Parquet文件格式; 用于原始和中间存储的序列文件,以及用于处理的Avro和Parquet文件。


楼主热帖
分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
收藏收藏 转播转播 分享分享 分享淘帖 赞 踩

168大数据 - 论坛版权1.本主题所有言论和图片纯属网友个人见解,与本站立场无关
2.本站所有主题由网友自行投稿发布。若为首发或独家,该帖子作者与168大数据享有帖子相关版权。
3.其他单位或个人使用、转载或引用本文时必须同时征得该帖子作者和168大数据的同意,并添加本文出处。
4.本站所收集的部分公开资料来源于网络,转载目的在于传递价值及用于交流学习,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。
5.任何通过此网页连接而得到的资讯、产品及服务,本站概不负责,亦不负任何法律责任。
6.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源,若标注有误或遗漏而侵犯到任何版权问题,请尽快告知,本站将及时删除。
7.168大数据管理员和版主有权不事先通知发贴者而删除本文。

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /1 下一条

关于我们|小黑屋|Archiver|168大数据 ( 京ICP备14035423号|申请友情链接

GMT+8, 2024-4-20 19:17

Powered by BI168大数据社区

© 2012-2014 168大数据

快速回复 返回顶部 返回列表