搭建环境
启动 docker-compose up -d
访问地址 | 内容 |
---|---|
ip:8080 | spark集群界面 |
ip:8081 | |
ip:8082 | |
ip:18081 |
scs-spark-submit
调用 scs-spark-executer
修改参数 redis配置参数
userPrincipal=sparkuser
userKeytabPath=/opt/FIclient/user.keytab
krb5ConfPath=/opt/FIclient/KrbClient/kerberos/var/krb5kdc/krb5.conf
host=192.168.0.229
port=46379
password=hcloud&1234
db=9
修改参数
# 应用程序的mainClass
scsdm:spark-conf:minIdle: 1maxPoolSize: 80mainClass: cn.hancloud.scsdm.SparkExecuter# sparkHomesparkHome: /spark/# javahomejavaHome: /usr/lib/jvm/java-1.8-openjdk/# 应用程序jar包的存放位置,可以是本地或HDFSjarPath: /master1/scs-spark-executer-1.0-jar-with-dependencies.jar# 可以是Yarn或StandAlonemaster: spark://spark-master:7077# 可以是Cluster或ClientdeployMode: client# driver内存
# driverMemory:# executor内存
# executorMemory:# executor个数
# executorInstances:# executor核数
# executorCores:# 参数spark.default.parallelism的值
# defaultParallelism:# driver额外的JVM选项。如:GC设置或其他日志参数
# driverExtraJavaOptions:# 其它配置otherConf:- spark.driver.maxResultSize=4g- spark.executor.cores=3
docker exec -it spark-master /bin/sh
cd /master
java -jar spark-submit-1.0.0.jar
查看日志 类似下面
代码下载
博客地址
上一篇:相控阵天线方向图:栅瓣和波束斜视
下一篇:数据结构——树(一)