部署iobjects for spark时(Ubuntu14.04.5,jdk-1.7.0-80),根据文档已部署好hadoop(2.6.5),spark(2.1.0-bin-hadoop2.6),以及iobjects for spark之后,运行范例程序
报如下找不到类的错误:
hadoop已部署成功,访问如下图:
spark部署成功,如下图:
相关环境变量都做了配置,spark-env.sh中所做相关配置如下:
分下下还有可能是哪儿的问题?
你好,
1.集群那张图(8080端口),你的集群中并没有任何Spark节点,故提交到spark集群任务时失败。首先需要确保Spark集群搭建成功。
2.第一二张图,example实例并没有Calcuxxx程序.如下图的右边所示。