网创优客建站品牌官网
为成都网站建设公司企业提供高品质网站建设
热线:028-86922220
成都专业网站建设公司

定制建站费用3500元

符合中小企业对网站设计、功能常规化式的企业展示型网站建设

成都品牌网站建设

品牌网站建设费用6000元

本套餐主要针对企业品牌型网站、中高端设计、前端互动体验...

成都商城网站建设

商城网站建设费用8000元

商城网站建设因基本功能的需求不同费用上面也有很大的差别...

成都微信网站建设

手机微信网站建站3000元

手机微信网站开发、微信官网、微信商城网站...

建站知识

当前位置:首页 > 建站知识

hadoop2.7.3平台怎么搭建spark2.1.1-创新互联

这篇文章主要讲解了“hadoop2.7.3平台怎么搭建spark2.1.1”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“hadoop2.7.3平台怎么搭建spark2.1.1”吧!

创新互联是由多位在大型网络公司、广告设计公司的优秀设计人员和策划人员组成的一个具有丰富经验的团队,其中包括网站策划、网页美工、网站程序员、网页设计师、平面广告设计师、网络营销人员及形象策划。承接:成都做网站、成都网站制作、网站改版、网页设计制作、网站建设与维护、网络推广、数据库开发,以高性价比制作企业网站、行业门户平台等全方位的服务。

hadoop平台搭建spark 
三台机器
master
slave1
slave2

--安装配置scala  master 节点

tar -zxvf  scala-2.12.2.tgz

/etc/profile

export SCALA_HOME=/usr/scala-2.12.2

export PATH=$SCALA_HOME/bin:$PATH

scala -version

复制到slave 并配置环境变量

scp -r scala-2.12.2 root@slave1:/usr/

scp -r scala-2.12.2 root@slave2:/usr/

---安装spark  在master节点运行

tar -zxvf spark-2.1.1-bin-hadoop2.7.tgz

vi /etc/profile

export SPARK_HOME=/usr/spark-2.1.1-bin-hadoop2.7

export PATH=$SPARK_HOME/bin:$PATH

最终变量

export HADOOP_HOME=/usr/hadoop-2.7.3

export SCALA_HOME=/usr/scala-2.12.2

export SPARK_HOME=/usr/spark-2.1.1-bin-hadoop2.7

export PATH=$PATH:$HADOOP_HOME/bin:$SCALA_HOME/bin:$SPARK_HOME/bin

配置

 1.spark-env.sh

cp spark-env.sh.template spark-env.sh

修改此文件,在文件末尾添加

###jdk安装目录

export JAVA_HOME=/usr/java/jdk1.8.0_101

###scala安装目录

export SCALA_HOME=/usr/scala-2.12.2

###spark集群的master节点的ip

export SPARK_MASTER_IP=192.168.58.10

###指定的worker节点能够大分配给Excutors的内存大小

export SPARK_WORKER_MEMORY=1g

###hadoop集群的配置文件目录

export HADOOP_CONF_DIR=/usr/hadoop-2.7.3/etc/hadoop

2.slaves

cp slaves.template slaves

master

slave1

slave2

将spark文件和环境变量复制到slave节点

scp -r spark-2.1.1-bin-hadoop2.7 root@slave1:/usr/

scp -r spark-2.1.1-bin-hadoop2.7 root@slave2:/usr/

如果没有设置节点ip不用管下面的

在Slave1和Slave2修改$SPARK_HOME/conf/spark-env.sh,

将export SPARK_LOCAL_IP=114.55.246.88改成Slave1和Slave2对应节点的IP。

spark启动与关闭 保证hadoop已经运行

启动 进入到spark目录

./sbin/start-all.sh

关闭

./sbin/stop-all.sh

---验证

http://192.168.58.10:8080/

spark-shell

感谢各位的阅读,以上就是“hadoop2.7.3平台怎么搭建spark2.1.1”的内容了,经过本文的学习后,相信大家对hadoop2.7.3平台怎么搭建spark2.1.1这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是创新互联,小编将为大家推送更多相关知识点的文章,欢迎关注!


新闻名称:hadoop2.7.3平台怎么搭建spark2.1.1-创新互联
文章路径:http://bjjierui.cn/article/godej.html

其他资讯