2014-06-25 8 views

Odpowiedz

10

Można tworzyć SparkContext w trybie lokalnym, wystarczy, aby zapewnić „local” jako głównego iskra URL do SparkConf

val sparkConf = new SparkConf(). 
    setMaster("local[2]"). 
    setAppName("MySparkApp") 

val sc = new SparkContext(sparkConf) 
3

Tak - można wykorzystać Spark w osadzonym sposób z „local” mistrz.

SparkConf sparkConf = new SparkConfig(); 
sparkConf.setMaster("local[8]"); // local, using 8 cores (you can vary the number) 
sparkConf.setAppName("MyApp"); 
SparkContext sc = new SparkContext(sparkConf); 

Spowoduje to uruchomienie Sparka wewnątrz maszyny JVM.

Powiązane problemy