2012-10-26 22 views
5

Podążałem za tutorialem, aby zainstalować hadoop: http://www.michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-single-node-cluster/ Teraz utknąłem w kroku "Kopiuj dane lokalne do HDFS".Błąd połączenia ręcznego z put/copyFromLocal

Błąd połączenia uzyskać:

<12/10/26 17:29:16 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 0 time(s). 
12/10/26 17:29:17 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 1 time(s). 
12/10/26 17:29:18 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 2 time(s). 
12/10/26 17:29:19 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 3 time(s). 
12/10/26 17:29:20 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 4 time(s). 
12/10/26 17:29:21 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 5 time(s). 
12/10/26 17:29:22 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 6 time(s). 
12/10/26 17:29:23 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 7 time(s). 
12/10/26 17:29:24 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 8 time(s). 
12/10/26 17:29:25 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 9 time(s). 
Bad connection to FS. command aborted. exception: Call to localhost/127.0.0.1:54310 failed on connection exception: java.net.ConnectException: Connection refused 

który jest praktycznie taka sama na to pytanie już: Errors while running hadoop

chodzi teraz o to, że nie wyłączył ivp6, jak opisano tam iw powyżej samouczka, ale to nie pomaga. Czy jest coś, czego mi brakowało? Dzięki za pomoc!

Edycja:

I powtórzono poradnik von drugie urządzenie świeżo zainstalowane unbuntu i porównano krok po kroku. Okazało się, że był jakiś błąd w konfiguracji bashrc w hakserze. Potem zadziałało dobrze ...

Odpowiedz

4

Otrzymuję dokładny komunikat o błędzie, gdy próbuję wykonać Hadoop fs <anything>, gdy DataNode/NameNode nie są uruchomione, więc przypuszczam, że to samo dzieje się dla ciebie.

Wpisz jps w terminalu. Jeśli wszystko działa, powinno to wyglądać następująco:

16022 DataNode 
16524 Jps 
15434 TaskTracker 
15223 JobTracker 
15810 NameNode 
16229 SecondaryNameNode 

Założę się, że jesteś DataNode lub NameNode nie jest uruchomiony. Jeśli czegokolwiek brakuje w wydruku jps, uruchom go ponownie.

+0

Węzły został uruchomiony, tak aby nie był problem. Ale i tak znalazłem problem, dzięki za wszelką pomoc! – kumoyadori

+0

jaki był problem? – parisa

0

po całej konfiguracji tej komendy

Hadoop namenode -formate

i początkiem wszystkich usług przez tego polecenia

start-all.sh

to rozwiąże problem

0
  1. przejdź do pliku etc/hadoop/core-site.xml. sprawdź wartość dla fs.default.name Powinna być taka, jak pokazano poniżej. { fs.default.name HDFS: // localhost: 54310 }
  2. po całej konfiguracji tej komendy

hadoop namenode -format

  1. uruchomienie wszystkich usług za pomocą tego polecenia:

start-all.sh

to rozwiąże twój problem.

Twój namenode może być w trybie awaryjnym, uruchom bin/HDFS dfsadmin -safemode zostawić lub bin/Hadoop dsfadmin -safemode zostawić następnie wykonaj krok - krok 2 i -3