在学习Hadoop时,主要分为两个阶段:1、基础学习Linux;2、学习Hadoop生态圈技术框架。在学习Linux时,名列前茅步就是搭建整个机器的环境,安装centOS系统。Linux主要内容学习完毕之后,紧接着就是第二个阶段就是学习Hadoop。
一、基础学习Linux
在学习Linux时,名列前茅步就是搭建整个机器的环境,安装centOS系统,这个部分需要达到以下几点要求:
1)要熟练操作Linux常用命令以及网络配置;
2)熟悉用户以及权限管理操作;
3)熟悉软件包以及系统命令管理;
4)学习shell编程。
二、学习Hadoop生态圈技术框架
Hadoop阶段主要分为四个阶段:
1、能熟练搭建伪分布式集群以及完全分布式集群了解每个配置的含义。
通常来说,先搭建Hadoop环境然后再学习Hadoop这样效果更好。先让Hadoop环境搭建起来,能正常运行wordcount程序,慢慢分析整个Hadoop生态系统,对Hadoop有个整体上的认识。
2、基于名列前茅阶段的基础,学习Hadoop核心内容HDFS和Yarn。
首先明白什么是HDFS,然后再分析HDFS的优点,然后再了解HDFS的缺点有哪些,HDFS是如何存储数据的,采用什么样的架构,我们如何实现读取和写入HDFS中的文件,以及了解HDFS副本存放策略,同时熟练掌握HDFS的shell访问和java访问。Yarn首先我们要了解Yarn是什么,为什么使用Yarn,Yarn的构架,Yarn的原理。
3、学习MapReduce。
MapReduce作为Hadoop核心内容,要先易后难,首先了解Mapper、Reducer、Configuration、job等这些类,熟悉MapReduce流程图,然后写简单的单词统计代码,整体上对MapReduce认识,之后学习MapReduce运行机制,熟练掌握,MapReduce输入格式,MapReduce输出格式,以及MapReduce优化等。
4、Hadoop生态圈其他组件。
包括Hive数据仓库、HBase实时分布式数据库、Flume日志收集工具、sqoop数据库ETL工具、zookeeper分布式协作服务等。
延伸阅读
Hadoop是什么
Hadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。Hadoop实现了一个分布式文件系统( Distributed File System),其中一个组件是HDFS(Hadoop Distributed File System)。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算。
Hadoop的优点:
1.高可靠性。Hadoop按位存储和处理数据的能力值得人们信赖。
2.高扩展性。Hadoop是在可用的计算机集簇间分配数据并完成计算任务的,这些集簇可以方便地扩展到数以千计的节点中。
3.高效性。Hadoop能够在节点之间动态地移动数据,并保证各个节点的动态平衡,因此处理速度非常快。
4.高容错性。Hadoop能够自动保存数据的多个副本,并且能够自动将失败的任务重新分配。
5.低成本。与一体机、商用数据仓库以及QlikView、Yonghong Z-Suite等数据集市相比,hadoop是开源的,项目的软件成本因此会大大降低。
Hadoop带有用Java语言编写的框架,因此运行在 Linux 生产平台上是非常理想的。Hadoop 上的应用程序也可以使用其他语言编写,比如 C++。
文章标题:Hadoop的学习路径是怎样的,发布者:小编,转载请注明出处:https://worktile.com/kb/p/37526