Dzisiaj, podczas wykonywania skryptów wieprzowych mam ten sam błąd, o którym mowa w pytaniu:
starting namenode, logging to /usr/local/hadoop/libexec/../logs/hadoop-training-namenode-localhost.localdomain.out
localhost: /home/training/.bashrc: line 10: /jdk1.7.0_10/bin: No such file or directory
localhost: Warning: $HADOOP_HOME is deprecated.
localhost:
localhost: starting datanode, logging to /usr/local/hadoop/libexec/../logs/hadoop-training-datanode-localhost.localdomain.out
localhost: /home/training/.bashrc: line 10: /jdk1.7.0_10/bin: No such file or directory
localhost: Warning: $HADOOP_HOME is deprecated.
localhost:
localhost: starting secondarynamenode, logging to /usr/local/hadoop/libexec/../logs/hadoop-training-secondarynamenode-localhost.localdomain.out
starting jobtracker, logging to /usr/local/hadoop/libexec/../logs/hadoop-training-jobtracker-localhost.localdomain.out
localhost: /home/training/.bashrc: line 10: /jdk1.7.0_10/bin: No such file or directory
localhost: Warning: $HADOOP_HOME is deprecated.
localhost:
localhost: starting tasktracker, logging to /usr/local/hadoop/libexec/../logs/hadoop-training-tasktracker-localhost.localdomain.out
Tak, odpowiedź brzmi:
[[email protected] bin]$ stop-all.sh
a następnie wpisz:
[[email protected] bin]$ start-all.sh
Problem zostanie rozwiązany. Teraz możesz uruchomić skrypt świni z mapreduce!
Czy sprawdziłeś dziennik Namenode (domyślnie w '$ HADOOP_HOME/logs', jak sądzę)? Przez większość czasu informacje tam są dość jasne. – Pieterjan
Czy możesz udostępniać swoje pliki dziennika? – Tariq
zamiast używać jps (który pokazuje tylko procesy dla bieżącego użytkownika), możesz uruchomić 'ps axww | grep hadoop' na obu węzłach klastra (dellnode1 i dellnode2) i wklej te dane wyjściowe z powrotem do oryginalnego pytania –