Utworzyłem Hive stolik poprzez interaktywną sesję Elastic MapReduce i zaludnionych go z pliku CSV tak:eksportowanie Hive Tabela do wiadra S3
CREATE TABLE csvimport(id BIGINT, time STRING, log STRING)
ROW FORMAT DELIMITED
FIELDS TERMINATED BY '\t';
LOAD DATA LOCAL INPATH '/home/hadoop/file.csv' OVERWRITE INTO TABLE csvimport;
Teraz chcę, aby zapisać tabelę Hive w sposób S3 bucket, więc tabela zostanie zachowana po zakończeniu instancji MapReduce.
Czy ktoś wie, jak to zrobić?
To nie kopiuje nagłówka. czy istnieje również sposób na skopiowanie nagłówka? –