如何在 anaconda 中导入 pyspark

How to import pyspark in anaconda(如何在 anaconda 中导入 pyspark)
本文介绍了如何在 anaconda 中导入 pyspark的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着跟版网的小编来一起学习吧!

问题描述

我正在尝试将 pyspark 与 anaconda 一起导入和使用.

I am trying to import and use pyspark with anaconda.

安装 spark 后,我尝试设置 $SPARK_HOME 变量:

After installing spark, and setting the $SPARK_HOME variable I tried:

$ pip install pyspark

(当然)这行不通,因为我发现我需要通过 tel python 在 $SPARK_HOME/python/ 下查找 pyspark.问题是要做到这一点,我需要设置 $PYTHONPATH 而 anaconda 不使用该环境变量.

This won't work (of course) because I discovered that I need to tel python to look for pyspark under $SPARK_HOME/python/. The problem is that to do that, I need to set the $PYTHONPATH while anaconda don't use that environment variable.

我试图将 $SPARK_HOME/python/ 的内容复制到 ANACONDA_HOME/lib/python2.7/site-packages/ 但它不起作用.

I tried to copy the content of $SPARK_HOME/python/ to ANACONDA_HOME/lib/python2.7/site-packages/ but it won't work.

有没有在anaconda中使用pyspark的解决方案?

Is there any solution to use pyspark in anaconda?

推荐答案

这可能只是最近才成为可能,但我使用了以下方法并且效果很好.在此之后,我可以将 pyspark 作为 ps 导入"并毫无问题地使用它.

This may have only become possible recently, but I used the following and it worked perfectly. After this, I am able to 'import pyspark as ps' and use it with no problems.

conda install -c conda-forge pyspark

这篇关于如何在 anaconda 中导入 pyspark的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持跟版网!

本站部分内容来源互联网,如果有图片或者内容侵犯您的权益请联系我们删除!

相关文档推荐

python arbitrarily incrementing an iterator inside a loop(python在循环内任意递增迭代器)
Joining a set of ordered-integer yielding Python iterators(加入一组产生 Python 迭代器的有序整数)
Iterating over dictionary items(), values(), keys() in Python 3(在 Python 3 中迭代字典 items()、values()、keys())
What is the Perl version of a Python iterator?(Python 迭代器的 Perl 版本是什么?)
How to create a generator/iterator with the Python C API?(如何使用 Python C API 创建生成器/迭代器?)
Python generator behaviour(Python 生成器行为)