Spark 启动文件start-all.sh 报错:没有找到文件目录No such file or directory

Spark 启动文件start-all.sh 报错:没有找到文件目录No such file or directory

Spark 启动文件start-all.sh 报错:没有找到文件目录No such file or directory
首先,我通过ls 可以在下面发现确实有start-all.sh文件。

通过网上搜索说各种原因:
1、Hadoop下的配置文件里的java_home不对
我发现我是正确的
2、漏了spark/conf里那个env.sh的java_home
我正确
3、版本不兼容
我兼容
4、windows下把Spark进行了解压,里面的字符文件格式unix无法识别,造成找不到start-all.sh文件
我没有,我是把Spark压缩文件放到Ubuntu下解压
I’m OK

我最后找到了原因!
在用户主目录下的.bashrc配置文件,里面的SPARK_HOME写错了(丢人)

下面是我的.bashrc
Spark 启动文件start-all.sh 报错:没有找到文件目录No such file or directory