①查http://desktop:8088/cluster/scheduler

中的进度条有没有爆满,如果爆满了是上次提交的任务没清除占用空间了,先释放再说


cd $SPARK_HOME_HOME
grep -r spark.yarn.jars
conf/spark-defaults.conf:spark.yarn.jars hdfs://Desktop:9000/spark/jars/*.jar
hdfs dfs -mkdir hdfs://Desktop:9000/spark
hdfs dfs -mkdir hdfs://Desktop:9000/spark/jars
hdfs dfs -put $SPARK_HOME/jars/* /spark/jars

Logo

一站式 AI 云服务平台

更多推荐