Spark的简单安装和介绍( Spark端口为8081)

Spark简介(2022-06-14A) Spark提供了一个分布式的、弹性的、数据集合(RDD)、我们在Scala当中学习的Seq、Set、Map集合的操作,

Spark简介(2022-06-14A)

Spark提供了一个分布式的、弹性的、数据集合(RDD)、我们在Scala当中学习的Seq、Set、Map集合的操作,可以直接应用在RDD(集合),进行Spark数据分析。

Spark集群构建:

Spark框架,没有太多的要求,只是一个计算框架。主从配置,比较方便

  1. N台机器构建都可以,并且可以很轻松配置出高可用集群。

安装配置(借助两台主机,完成一个Spark高可用的集群)

  1. 上传安装包、解压
    tar -zxvf spark-3.1.2-bin-hadoop2.7.tgz -C /usr/hadoop/

    2.配置文件

三个配置模板

 

 spark-defaults.conf

 spark-env.sh

 

export HADOOP_CONF_DIR=/usr/hadoop/hadoop-2.10.1/etc/hadoop
export YARN_CONF_DIR=/usr/hadoop/hadoop-2.10.1/etc/hadoopexport SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=192.168.42.111:2181,192.168.42.112:2181,192.168.42.112:2181 -Dspark.deploy.zookeeper.dir=/usr/hadoop/spark-3.1.2-bin-hadoop2.7/zkData"

Workers

Local host修改为一下主机IP

192.168.42.111
192.168.42.112
192.168.42.113
  1. 分发配置好的spark目录

scp -r spark-3.1.2-bin-hadoop2.7/ 192.168.42.112:/usr/hadoop/

     启动测试

Spark依赖与zookeeper,先将Hadoop启动后

 出现Mode类似即可

然后进入sbin目录启动Spark

./start-all.sh