Zakładając Mam następujący dataframe:Spark: equivelant z zipwithindex w dataframe
dummy_data = [('a',1),('b',25),('c',3),('d',8),('e',1)]
df = sc.parallelize(dummy_data).toDF(['letter','number'])
i chcę utworzyć następujący dataframe:
[('a',0),('b',2),('c',1),('d',3),('e',0)]
Co mogę zrobić, to przekształcić go rdd
i używać zipWithIndex
funkcję i po dołączyć wyniki:
convertDF = (df.select('number')
.distinct()
.rdd
.zipWithIndex()
.map(lambda x:(x[0].number,x[1]))
.toDF(['old','new']))
finalDF = (df
.join(convertDF,df.number == convertDF.old)
.select(df.letter,convertDF.new))
Czy istnieje funkcja podobna do zipWIthIndex
w ramkach danych? Czy istnieje inny skuteczniejszy sposób wykonania tego zadania?
http://stackoverflow.com/q/32760888/1560062 – zero323