Od Hadoop page,
start-all.sh
To zaowocują Namenode, Datanode, Jobtracker i Tasktracker na komputerze.
start-dfs.sh
Spowoduje to wyświetlenie HDFS z Namenode uruchomionym na komputerze, na którym uruchomiono komendę. Na takiej maszyny będzie trzeba start-mapred.sh
osobno rozpocząć trackera przydzielonego stanowiska
start-all.sh/stop-all.sh
musi być uruchomiony na węźle głównego
byłoby użyć start-all.sh
na pojedynczego węzła klastra (czyli gdzie miałaby wszystkie usługi w tym samym węźle. Nodeen jest także datanodem i jest węzłem głównym).
W wielowęzłowych konfiguracji,
Będziesz korzystać start-all.sh
na węźle głównym i ruszy, co jest niezbędne na niewolników, jak również.
Alternatywnie
Zastosowanie start-dfs.sh
na węźle chcesz Namenode biec dalej. Spowoduje to wywołanie HDFS z Namenode uruchomionym na komputerze, na którym uruchomiono komendę i Datanodes na komputerach wymienionych w pliku podrzędnym.
Użyj start-mapred.sh
na komputerze, na którym chcesz uruchomić Jobtracker. Spowoduje to wyświetlenie klastra Map/Reduce z Jobtrackerem uruchomionym na komputerze, na którym uruchomiono komendę, i Tasktrackers działającym na komputerach wymienionych w pliku niewolników.
hadoop-daemon.sh
zgodnie z Tariq jest stosowany w każdym węźle. Węzeł główny nie uruchomi usług na urządzeniach slave. W konfiguracji pojedynczego węzła będzie działać tak samo, jak start-all.sh
. W konfiguracji wielowęzłowej będziesz musiał uzyskać dostęp do każdego węzła (master, a także slaves) i wykonać na każdym z nich .
Wystarczy popatrzeć na thisstart-all.sh
to nazwać config następnie DFS i mapred
Zobacz też (this) (http://www.cloudera.com/content/cloudera-content/cloudera-docs/CDH4/latest/CDH4-Installation-Guide/cdh4ig_topic_3.html) także dla CDH4 "* Bieżące usługi: przy uruchamianiu, zatrzymywaniu i ponownym uruchamianiu komponentów CDH, zawsze używaj polecenia service (8) zamiast uruchamiać skrypty bezpośrednio w /etc/init.d Jest to ważne, ponieważ usługa ustawia bieżący katalog roboczy na/i usuwa większość zmiennych środowiskowych (tylko przekazywanie LANG i TERM), aby stworzyć przewidywalne środowisko do administrowania usługą * " –
FYI Jako początkujący, na CDH5 i CentOS nie mogę nawet znaleźć skryptów start */stop * .sh. Zamiast tego, polecenie service, poprzez /etc/init.d/ (np. "Hadoop-hdfs-datanode"), wywołuje hadoop-daemon.sh start/stop (znajduje się w/usr/lib/hadoop/sbin/na moim komputerze). Wygląda na to, że zdeprecjonowane skrypty zostały całkowicie usunięte? –
Obserwując (czemu nie mogę edytować?), Ze źródła widzę skrypty start */stop * .sh, które ostatecznie wywołują hadoop-daemons.sh. start-all.sh po prostu wywołuje start-dfs.sh i start-yarn.sh. HTH inni początkujący. –