网创优客建站品牌官网
为成都网站建设公司企业提供高品质网站建设
热线:028-86922220
成都专业网站建设公司

定制建站费用3500元

符合中小企业对网站设计、功能常规化式的企业展示型网站建设

成都品牌网站建设

品牌网站建设费用6000元

本套餐主要针对企业品牌型网站、中高端设计、前端互动体验...

成都商城网站建设

商城网站建设费用8000元

商城网站建设因基本功能的需求不同费用上面也有很大的差别...

成都微信网站建设

手机微信网站建站3000元

手机微信网站开发、微信官网、微信商城网站...

建站知识

当前位置:首页 > 建站知识

hadoop2.7.3平台怎么搭建spark2.1.1

这篇文章主要讲解了“hadoop2.7.3平台怎么搭建spark2.1.1”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“hadoop2.7.3平台怎么搭建spark2.1.1”吧!

创新互联公司成都企业网站建设服务,提供成都网站制作、做网站网站开发,网站定制,建网站,网站搭建,网站设计,响应式网站开发,网页设计师打造企业风格网站,提供周到的售前咨询和贴心的售后服务。欢迎咨询做网站需要多少钱:13518219792

hadoop平台搭建spark 
三台机器
master
slave1
slave2

--安装配置scala  master 节点

tar -zxvf  scala-2.12.2.tgz

/etc/profile

export SCALA_HOME=/usr/scala-2.12.2

export PATH=$SCALA_HOME/bin:$PATH

scala -version

复制到slave 并配置环境变量

scp -r scala-2.12.2 root@slave1:/usr/

scp -r scala-2.12.2 root@slave2:/usr/

---安装spark  在master节点运行

tar -zxvf spark-2.1.1-bin-hadoop2.7.tgz

vi /etc/profile

export SPARK_HOME=/usr/spark-2.1.1-bin-hadoop2.7

export PATH=$SPARK_HOME/bin:$PATH

最终变量

export HADOOP_HOME=/usr/hadoop-2.7.3

export SCALA_HOME=/usr/scala-2.12.2

export SPARK_HOME=/usr/spark-2.1.1-bin-hadoop2.7

export PATH=$PATH:$HADOOP_HOME/bin:$SCALA_HOME/bin:$SPARK_HOME/bin

配置

 1.spark-env.sh

cp spark-env.sh.template spark-env.sh

修改此文件,在文件末尾添加

###jdk安装目录

export JAVA_HOME=/usr/java/jdk1.8.0_101

###scala安装目录

export SCALA_HOME=/usr/scala-2.12.2

###spark集群的master节点的ip

export SPARK_MASTER_IP=192.168.58.10

###指定的worker节点能够最大分配给Excutors的内存大小

export SPARK_WORKER_MEMORY=1g

###hadoop集群的配置文件目录

export HADOOP_CONF_DIR=/usr/hadoop-2.7.3/etc/hadoop

2.slaves

cp slaves.template slaves

master

slave1

slave2

将spark文件和环境变量复制到slave节点

scp -r spark-2.1.1-bin-hadoop2.7 root@slave1:/usr/

scp -r spark-2.1.1-bin-hadoop2.7 root@slave2:/usr/

如果没有设置节点ip不用管下面的

在Slave1和Slave2修改$SPARK_HOME/conf/spark-env.sh,

将export SPARK_LOCAL_IP=114.55.246.88改成Slave1和Slave2对应节点的IP。

spark启动与关闭 保证hadoop已经运行

启动 进入到spark目录

./sbin/start-all.sh

关闭

./sbin/stop-all.sh

---验证

http://192.168.58.10:8080/

spark-shell

感谢各位的阅读,以上就是“hadoop2.7.3平台怎么搭建spark2.1.1”的内容了,经过本文的学习后,相信大家对hadoop2.7.3平台怎么搭建spark2.1.1这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是创新互联,小编将为大家推送更多相关知识点的文章,欢迎关注!


本文题目:hadoop2.7.3平台怎么搭建spark2.1.1
地址分享:http://bjjierui.cn/article/gedhgj.html

其他资讯