Mam ramkę danych z kolumną unix timestamp (np. 1435655706000), i chcę przekonwertować go do danych o formacie "yyyy-MM-DD", mam próbowałem nscala-time, ale to nie działa.Jak przekonwertować datownik unix na bieżąco w Spark
val time_col = sqlc.sql("select ts from mr").map(_(0).toString.toDateTime)
time_col.collect().foreach(println)
i mam błąd: java.lang.IllegalArgumentException: Nieprawidłowy format: "1435655706000" jest niepoprawny w "6000"
http://stackoverflow.com/questions/18680398/convert-seconds-since-epoch-to-joda-datetime-in-scala – ipoteka
Rozwiązany, import org.joda.time._, sqlc.sql ("select ts from mr") map (line => new DateTime (line (0)). ToString ("rrrr-MM-dd")) – youngchampion