Zbudowałem Spark 1.4 z mastera programistycznego GH i kompilacja przebiegła bez zarzutu. Ale kiedy robię bin/pyspark
otrzymuję wersję Python 2.7.9. Jak mogę to zmienić?Apache Spark: Jak używać pysparka z Pythonem 3
Odpowiedz
Zajrzyj do pliku. Linia shebang jest prawdopodobnie wskazywana przez plik binarny "env", który przeszukuje ścieżkę pierwszego zgodnego pliku wykonywalnego.
Możesz zmienić python na python3. Zmień env na bezpośrednie użycie hardcoded binarnego python3. Lub wykonaj binarnie bezpośrednio z python3 i pomiń linię shebang.
Tak, pomoc w pliku. Potrzebny do ustawienia zmiennej środowiskowej 'PYSPARK_PYTHON'. – tchakravarty
PYSPARK_PYTHON=python3 ./bin/pyspark
Jeśli chcesz uruchomić w w ipython Notebook, napisz:
PYSPARK_PYTHON=python3 PYSPARK_DRIVER_PYTHON=ipython PYSPARK_DRIVER_PYTHON_OPTS="notebook" ./bin/pyspark
Jeśli python3
nie jest dostępny, trzeba przejść do niego ścieżkę zamiast.
Należy pamiętać, że current documentation (as of 1.4.1) ma przestarzałe instrukcje. Na szczęście it has been patched.
Wydaje mi się, że twoja komenda dla Notatnika IPython jest niepoprawna. Powinny być takie: PYSPARK_PYTHON = python3 PYSPARK_DRIVER_PYTHON = ipython3 PYSPARK_DRIVER_PYTHON_OPTS = "notebook" ./bin/pyspark – SpiderRico
@ChrisNielsen W terminalu. –
@ChrisNielsen W systemie Linux lub OS X jest terminalem/konsolą. Nie mam pojęcia, jak to działa w systemie Windows (w Windows użyłem Sparka tylko na kontenerze Docker). –
Wystarczy ustawić zmienną środowiskową:
export PYSPARK_PYTHON=python3
w przypadku, gdy chcesz, że jest to trwała zmiana dodać tę linię do pyspark skrypt.
1, profil edit: vim ~/.profile
2, dodać kod do pliku: export PYSPARK_PYTHON=python3
3, wykonanie polecenia: source ~/.profile
4, ./bin/pyspark
- 1. jak używać związków z pythonem?
- 2. Jak używać niestandardowych klas z Apache Spark (pyspark)?
- 3. Apache Spark vs Apache Spark 2
- 4. Apache Spark vs. Apache Storm
- 5. Apache Spark vs Apache Ignite
- 6. jak używać Google Shortener API z Pythonem
- 7. Elasticsearch + wydajność Apache Spark
- 8. Apache Spark ALS Rekomendacja
- 9. Usuń tabel tymczasowych z Apache SQL Spark
- 10. Uboczny Argumenty Apache Spark
- 11. Apache Drill kontra Spark
- 12. Reading JSON z Apache Spark - `corrupt_record`
- 13. Apache Spark Dołącza do przykładu z Javą
- 14. Uruchom Firefoksa z Pythonem 3.x
- 15. Apache Spark GraphX podłączone komponenty
- 16. Korzystanie R w Apache Spark
- 17. Jak używać indeksów Spark ORC?
- 18. Mnożenie macierzy w Apache Spark
- 19. Jakie są różnice między Apache Spark i Apache Apex?
- 20. Równość DataFrame w Apache Spark
- 21. Konfiguracja portów sieciowych Apache Spark
- 22. Jak obliczyć odwrotność RowMatrix w Apache Spark?
- 23. Zalecenia Apache Spark ALS podejście
- 24. Apache Spark - MlLib - Filtrowanie grupowe
- 25. Błąd Apache Spark podczas startu
- 26. Apache Spark na EC2 "Zabity"
- 27. Apache Spark: Jak przekonwertować urządzenie Spark DataFrame na RDD z typem RDD [(Type1, Type2, ...)]?
- 28. Jak używać TestNG z Apache Ivy?
- 29. W Apache Spark SQL Jak zamknąć połączenie metastore z HiveContext
- 30. Czy istnieje dystrybucja Linuksa dostarczana z pythonem 3?
Dla każdego, kto szuka sposobu zrób to: 'PYSPARK_DRIVER_PYTHON = ipython3 PYSPARK_DRIVER_PYTHON_OPTS =" notebook "./bin/pyspark', w którym to przypadku działa notatnik IPython 3. – tchakravarty