2013-01-11 23 views
9

Kiedy próbuję uruchomić hadoop na węzeł nadrzędny otrzymuję następujące output.and namenode nie jest uruchamiany.Błąd w NodeNode start

[[email protected] ~]$ start-dfs.sh 
starting namenode, logging to /usr/local/hadoop/bin/../logs/hadoop-hduser-namenode-dellnode1.library.out 
dellnode1.library: datanode running as process 5123. Stop it first. 
dellnode3.library: datanode running as process 4072. Stop it first. 
dellnode2.library: datanode running as process 4670. Stop it first. 
dellnode1.library: secondarynamenode running as process 5234. Stop it first. 
[[email protected] ~]$ jps 
5696 Jps 
5123 DataNode 
5234 SecondaryNameNode 
+0

Czy sprawdziłeś dziennik Namenode (domyślnie w '$ HADOOP_HOME/logs', jak sądzę)? Przez większość czasu informacje tam są dość jasne. – Pieterjan

+0

Czy możesz udostępniać swoje pliki dziennika? – Tariq

+0

zamiast używać jps (który pokazuje tylko procesy dla bieżącego użytkownika), możesz uruchomić 'ps axww | grep hadoop' na obu węzłach klastra (dellnode1 i dellnode2) i wklej te dane wyjściowe z powrotem do oryginalnego pytania –

Odpowiedz

15

"Zatrzymaj pierwszy".

  • najpierw wywołać stop-all.sh

  • Rodzaj JPS

  • połączeń start-all.sh (lub start-dfs.sh i start-mapred.sh)

  • Wpisz j/s (jeśli nie podano nazwy węzła "hasoop namenode" i błąd sprawdzania)

+0

Jak powinno wyglądać typowe wyjście? Dostaję tylko "15845 Jps". http://unix.stackexchange.com/questions/257279/validate-start-dfs-sh – gsamaras

+0

Ta metoda jest nieaktualna. więc wykorzystanie stop-dfs.sh, stop-yarn.sh, start-dfs.sh, start-yarn.sh jest korzystne –

4

Zgodnie z uruchomieniem "stop-all.sh" na nowszych wersjach hardoopa, jest to przestarzałe. Należy zamiast tego użyć:

stop-dfs.sh

i

stop-yarn.sh

+0

Dzięki, to pracował dla mnie –

1

Dzisiaj, podczas wykonywania skryptów wieprzowych mam ten sam błąd, o którym mowa w pytaniu:

starting namenode, logging to /usr/local/hadoop/libexec/../logs/hadoop-training-namenode-localhost.localdomain.out 
localhost: /home/training/.bashrc: line 10: /jdk1.7.0_10/bin: No such file or directory 
localhost: Warning: $HADOOP_HOME is deprecated. 
localhost: 
localhost: starting datanode, logging to /usr/local/hadoop/libexec/../logs/hadoop-training-datanode-localhost.localdomain.out 
localhost: /home/training/.bashrc: line 10: /jdk1.7.0_10/bin: No such file or directory 
localhost: Warning: $HADOOP_HOME is deprecated. 
localhost: 
localhost: starting secondarynamenode, logging to /usr/local/hadoop/libexec/../logs/hadoop-training-secondarynamenode-localhost.localdomain.out 
starting jobtracker, logging to /usr/local/hadoop/libexec/../logs/hadoop-training-jobtracker-localhost.localdomain.out 
localhost: /home/training/.bashrc: line 10: /jdk1.7.0_10/bin: No such file or directory 
localhost: Warning: $HADOOP_HOME is deprecated. 
localhost: 
localhost: starting tasktracker, logging to /usr/local/hadoop/libexec/../logs/hadoop-training-tasktracker-localhost.localdomain.out 

Tak, odpowiedź brzmi:

[[email protected] bin]$ stop-all.sh 

a następnie wpisz:

[[email protected] bin]$ start-all.sh 

Problem zostanie rozwiązany. Teraz możesz uruchomić skrypt świni z mapreduce!