Jaką formułę wykorzystuje Spark do obliczenia liczby zadań redukujących?Liczba redukujących zadań Spark
Używam kilku zapytań sql-sql, a liczba zadań redukujących zawsze wynosi 200. Liczba zadań map dla tych zapytań wynosi 154. Jestem na Spark 1.4.1.
Jest to związane z spark.shuffle.sort.bypassMergeThreshold, który domyślnie 200