windows环境安装spark,无法导入pyspark模块

随便打开一个project,pycharm右上角“run”三角形的左边有一个edit configurition,打开它。

 设置configurition---Environment--- Environment variables ---点击“...”,出现框框,点击+,

输入两个name,

一个是SPARK_HOME  =  D:/spark-2.1.1-bin-hadoop2.7

一个是PYTHONPATH  =  D:/spark-2.1.1-bin-hadoop2.7/python设置好了保存。

windows环境安装spark,无法导入pyspark模块

setting中project structure中点击右边的“add  content root”,添加py4j-some-version.zip和pyspark.zip的路径(这两个文件都在Spark中的python文件夹下)

windows环境安装spark,无法导入pyspark模块

7 完成,from pyspark import SparkContext,红线消失,运行正常。