Biorąc aplikacji SparkJakie czynniki decydują o liczbie executorów w trybie samodzielnym?
Jakie czynniki decydują liczbę wykonawców w trybie stand alone? W dokumentach Mesos and YARN zgodnie z dokumentami this możemy określić liczbę executorów/rdzeni i pamięci.
Po uruchomieniu kilku executorów. Czy Spark rozpoczyna zadania w sposób okrągły lub jest wystarczająco inteligentny, aby sprawdzić, czy niektóre z executorów są bezczynne/zajęte, a następnie odpowiednio zaplanować zadania.
Ponadto, w jaki sposób Spark decyduje o liczbie zadań? Zrobiłem write prosty program temperatury maksymalnej z małym zestawem danych i Spark zrodził dwa zadania w jednym executorze. Jest to tryb samodzielny Spark.
Położyłem plik 5 bloków i zobacz 5 zadań jest Spark. Wygląda na to, że jeden blok tworzy dwie partycje. Dla więcej niż jednego bloku tworzona jest ta sama liczba partycji. –