Jestem nowy w Spark i próbuję zainstalować PySpark, odwołując się do poniższej strony.Kontekst Spark "sc" nie zdefiniowany
http://ramhiser.com/2015/02/01/configuring-ipython-notebook-support-for-pyspark/
Próbowałem zainstalować zarówno prekompilowany pakiet, a także budując pakiet Spark thru SBT.
Kiedy próbuję uruchomić kod Pythona w IPython Notebook pojawia się następujący błąd.
NameError Traceback (most recent call last)
<ipython-input-1-f7aa330f6984> in <module>()
1 # Check that Spark is working
----> 2 largeRange = sc.parallelize(xrange(100000))
3 reduceTest = largeRange.reduce(lambda a, b: a + b)
4 filterReduceTest = largeRange.filter(lambda x: x % 7 == 0).sum()
5
NameError: name 'sc' is not defined
W oknie poleceń widzę poniższy błąd.
<strong>Failed to find Spark assembly JAR.</strong>
<strong>You need to build Spark before running this program.</strong>
Zauważ, że mam wiersz scala kiedy wykonywane zapłonie powłokę poleceń
Aktualizacja:
Z pomocą przyjaciela jestem w stanie rozwiązać problemu związanego Spark JAR zespołu, poprawiając zawartość pliku .ipython/profile_pyspark/startup/00-pyspark-setup.py
Mam teraz tylko problem ze zmienną Spark Context. Zmiana tytułu w celu właściwego odzwierciedlenia mojego aktualnego problemu.
Czy ta zmiana to iskra 1.4? Być może właśnie dlatego 1.4 daje mi błąd podczas uruchamiania, ale 1.3.1 nie jest – venuktan
tak, ponieważ 1.4.x. Chciałbym dodać komentarze. W rzeczywistości '$ SPARK_HOME/bin/pyspark' ma oficjalny sposób na uruchomienie pamięci ipython lub ipython. Dla 1.4.x, –
Możesz uruchomić notatnik ipython lub ipython używając $ SPARK_HOME/bin/pyspark, sprawdź skrypt bash. PYSPARK_DRIVER_PYTHON = ipython $ SPARK_HOME/bin/pyspark PYSPARK_DRIVER_PYTHON = ipython PYSPARK_DRIVER_PYTHON_OPTS = 'notebook' $ SPARK_HOME/bin/pyspark –