W Ubuntu, gdy używam Hadoop przykład:Błąd: przestrzeń sterty Java
$bin/hadoop jar hadoop-examples-1.0.4.jar grep input output 'dfs[a-z.]+'
$echo $HADOOP_HEAPSIZE
2000
W dzienniku, otrzymuję błąd jako:
INFO mapred.JobClient: Task Id : attempt_201303251213_0012_m_000000_2, Status : FAILED Error: Java heap space 13/03/25 15:03:43 INFO mapred.JobClient: Task Id :attempt_201303251213_0012_m_000001_2, Status : FAILED Error: Java heap space13/03/25 15:04:28 INFO mapred.JobClient: Job Failed: # of failed Map Tasks exceeded allowed limit. FailedCount: 1. LastFailedTask: task_201303251213_0012_m_000000 java.io.IOException: Job failed! at org.apache.hadoop.mapred.JobClient.runJob(JobClient.java:1265) at org.apache.hadoop.examples.Grep.run(Grep.java:69) at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:65) at org.apache.hadoop.examples.Grep.main(Grep.java:93)
Daj nam znać, co jest problemem .
wielkie dzięki, to uratowało mi dzień. Najwyraźniej powinno to być oznaczone jako odpowiedź na pytanie! –
Być może dobrym pomysłem byłoby ustawienie finału na true w pliku mapred-site.xml również dla tego ustawienia (ponieważ w przeciwnym razie może on zostać nadpisany przez konfigurację w hadoop-env.sh, jeśli tak się stanie)? – sufinawaz
Po prostu aktualizacja, dla hadoop 2+, zamiast tego zmień mapreduce.map.java.opts. – Shiyu