符合中小企业对网站设计、功能常规化式的企业展示型网站建设
本套餐主要针对企业品牌型网站、中高端设计、前端互动体验...
商城网站建设因基本功能的需求不同费用上面也有很大的差别...
手机微信网站开发、微信官网、微信商城网站...
这篇文章主要介绍“Hadoop单服务下伪分布式集群如何搭建”,在日常操作中,相信很多人在Hadoop单服务下伪分布式集群如何搭建问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”Hadoop单服务下伪分布式集群如何搭建”的疑惑有所帮助!接下来,请跟着小编一起来学习吧!
创新互联专注为客户提供全方位的互联网综合服务,包含不限于成都做网站、网站建设、牧野网络推广、小程序制作、牧野网络营销、牧野企业策划、牧野品牌公关、搜索引擎seo、人物专访、企业宣传片、企业代运营等,从售前售中售后,我们都将竭诚为您服务,您的肯定,是我们最大的嘉奖;创新互联为所有大学生创业者提供牧野建站搭建服务,24小时服务热线:18980820575,官方网址:www.cdcxhl.com
环境:centos7 hadoop版本:2.7.2 jdk版本:1.8
bin目录:存放对Hadoop的HDFS,YARN服务进行操作的脚本
etc目录:Hadoop的相关配置文件目录
lib目录:存放Hadoop的本地库,提供数据压缩解压缩能力
sbin目录:存放启动或停止Hadoop相关服务的脚本
share目录:存放Hadoop的依赖jar包、文档、和相关案例
vim /etc/profile # 添加环境 export JAVA_HOME=/opt/jdk1.8 export PATH=$PATH:$JAVA_HOME/bin export HADOOP_HOME=/opt/hadoop2.7 export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin # 退出刷新配置 source /etc/profile
以下配置文件所在路径:/opt/hadoop2.7/etc/hadoop,这里是Linux环境,脚本配置sh格式。
root# vim hadoop-env.sh # 修改前 export JAVA_HOME= # 修改后 export JAVA_HOME=/opt/jdk1.8
文件结构概览
NameNode的地址
fs.defaultFS hdfs://127.0.0.1:9000
数据存放目录:Hadoop运行时产生文件的存储目录。
hadoop.tmp.dir /opt/hadoop2.7/data/tmp
文件结构和上述一样,配置hdfs副本个数,这里伪环境,配置1个即可。
dfs.replication 1
export JAVA_HOME=/opt/jdk1.8
指定YARN的ResourceManager的地址
yarn.resourcemanager.hostname 192.168.72.132
指定map产生的中间结果传递给reduce采用的机制是shuffle
yarn.nodemanager.aux-services mapreduce_shuffle
export JAVA_HOME=/opt/jdk1.8
将mapred-site.xml.template重新命名为mapred-site.xml。
指定MapReduce程序资源调在度集群上运行。如果不指定为yarn,那么MapReduce程序就只会在本地运行而非在整个集群中运行。
mapreduce.framework.name yarn
Hdfs相关
格式化NameNode
第一次启动时执行该操作。
[hadoop2.7]# bin/hdfs namenode -format
格式化NameNode,会产生新的clusterID,导致NameNode和DataNode的集群id不一致,集群找不到已往数据。所以,格式NameNode时,一定要停止相关进程,删除data数据和log日志,然后再格式化NameNode。clusterID在如下目录中的VERSION文件里,可自行查看对比。
/opt/hadoop2.7/data/tmp/dfs/name/current /opt/hadoop2.7/data/tmp/dfs/data/current
启动NameNode
[hadoop2.7]# sbin/hadoop-daemon.sh start namenode
启动DataNode
[hadoop2.7]# sbin/hadoop-daemon.sh start datanode
jps查看状态
[root@localhost hadoop2.7]# jps 2450 Jps 2276 NameNode 2379 DataNode
Web界面查看
需要Linux关闭防火墙和相关安全增强控制(这里很重要)。
IP地址:50070
Yarn相关
启动ResourceManager
[hadoop2.7]# sbin/yarn-daemon.sh start resourcemanager
启动NodeManager
[hadoop2.7]# sbin/yarn-daemon.sh start nodemanager
Web界面查看
IP地址:8088/cluster
MapReduce相关
文件操作测试
创建一个测试文件目录
[root@localhost inputfile]# pwd /opt/inputfile [root@localhost inputfile]# echo "hello word hadoop" > word.txt
HDFS文件系统上创建文件夹
[hadoop2.7] bin/hdfs dfs -mkdir -p /opt/upfile/input
上传文件
[hadoop2.7]# bin/hdfs dfs -put /opt/inputfile/word.txt /opt/upfile/input
查看文件
[hadoop2.7]# bin/hdfs dfs -ls /opt/upfile/input
执行文件分析
bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /opt/upfile/input /opt/upfile/output
查看分析结果
bin/hdfs dfs -cat /opt/upfile/output/*
结果:每个单词各自出现一次。
删除分析结果
bin/hdfs dfs -rm -r /opt/upfile/output
MapReduce的JobHistoryServer,这是一个独立的服务,可通过 web UI 展示历史作业日志。
mapreduce.jobhistory.address 192.168.72.132:10020 mapreduce.jobhistory.webapp.address 192.168.72.132:19888
[hadoop2.7]# sbin/mr-jobhistory-daemon.sh start historyserver
IP地址:19888
日志聚集概念:应用服务运行完成以后,将运行日志信息上传到HDFS系统上。方便的查看到程序运行详情,方便开发调试。
开启日志聚集功能之后,需要重新启动NodeManager 、ResourceManager和HistoryManager。
关闭上述服务
[hadoop2.7]# sbin/yarn-daemon.sh stop resourcemanager [hadoop2.7]# sbin/yarn-daemon.sh stop nodemanager [hadoop2.7]# sbin/mr-jobhistory-daemon.sh stop historyserver
修改yarn-site
yarn.log-aggregation-enable true yarn.log-aggregation.retain-seconds 604800
修改完之后再次启动上述服务器。再次执行文件分析任务。
查看Web端
到此,关于“Hadoop单服务下伪分布式集群如何搭建”的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注创新互联网站,小编会继续努力为大家带来更多实用的文章!