windows环境安装spark,无法导入pyspark模块
随便打开一个project,pycharm右上角“run”三角形的左边有一个edit configurition,打开它。
设置configurition---Environment--- Environment variables ---点击“...”,出现框框,点击+,
输入两个name,
一个是SPARK_HOME = D:/spark-2.1.1-bin-hadoop2.7
一个是PYTHONPATH = D:/spark-2.1.1-bin-hadoop2.7/python,设置好了保存。
setting中project structure中点击右边的“add content root”,添加py4j-some-version.zip和pyspark.zip的路径(这两个文件都在Spark中的python文件夹下)
7 完成,from pyspark import SparkContext,红线消失,运行正常。