Jeśli zacznę się pyspark a następnie uruchomić polecenie: import my_script; spark = my_script.Sparker(sc); spark.collapse('./data/')
Wszystko jest OK. Jeśli jednak staram się robić to samo za pomocą
Właśnie zbudowałem Spark na maszynie z Windows 7 (używając sbt) i przechodzę przez quick start. Praca Sparka zawodzi, dzwoniąc pod numer first(). Jestem nowicjuszem w Javie i nie mam jasnego pojęcia,
Mam proste wiersz: line = "Hello, world"
chciałbym, aby przekształcić go do RDD z tylko jednego elementu. Próbowałem sc.parallelize(line)
Ale to dostać: sc.parallelize(line).collect()
['H', 'e',