2016-08-09 23 views
5

Jaka jest składnia korzystania z groupby-have w Spark bez sql/hiveContext? Wiem, że mogę zrobićSpark - Group by HAVING ze składnią danych?

DataFrame df = some_df 
df.registreTempTable("df");  
df1 = sqlContext.sql("SELECT * FROM df GROUP BY col1 HAVING some stuff") 

ale jak mam to zrobić za pomocą składni jak

df = df.select(df.col("*")).groupBy(df.col("col1")).having("some stuff")? Ten .having() wydaje się nie istnieć.

Odpowiedz

5

Tak, to nie istnieje. Wyrażasz tę samą logikę, używając agg, a następnie where:

df.groupBy(someExpr).agg(somAgg).where(somePredicate)