spark合并hdfs小文件 启动sparkpyspark为什么要先启动hdfs?

启动sparkpyspark为什么要先启动hdfs?usr/spark/sbin/start-全部.sh启动spark失败。我怎么能试试火花-环境sh设置为:exportspark MASTER IP

启动sparkpyspark为什么要先启动hdfs?

usr/spark/sbin/start-全部.sh启动spark失败。我怎么能试试火花-环境sh设置为:exportspark MASTER IP=127.0.0.1 exportspark LOCAL IP=127.0.0.1