2013-03-04 12 views
8

Zainstalowałem Hadoop i SSH na moim laptopie. "ssh localhost" działa dobrze. Po sformatowaniu HDFS próbowałem uruchomić hadoop.Hadoop: wymaga hasła root po wpisaniu "start-all.sh"

[email protected]:~$ sudo /usr/sbin/start-all.sh 
starting namenode, logging to /var/log/hadoop/root/hadoop-root-namenode-GrindPad.out 
[email protected]'s password: 
[email protected]'s password: localhost: Permission denied, please try again. 

localhost: Permission denied (publickey,password). 

Wymaga hasła. Moją rolą jest "munichong". Ale hasło munichonga nie działa tutaj. Tutaj moja rola zmieniła się na "root". Nie wiem, czy coś tu przeoczyłem.

Czy ktoś może mi pomóc?

Dzięki!

+0

jeśli wykonanie go z 'sudo', to oczywiście byłoby oczekiwać, aby być' root' i chcesz hasło roota, a nie twoje! Czy mogę tu przegapić coś strasznego! – Amar

Odpowiedz

0

Tworzenie i konfiguracja SSH Certyfikaty Hadoop wymaga dostępu SSH zarządzać jego węzłów, tj zdalnych maszyn plus naszą lokalną maszynę. Aby skonfigurować Hadoop w jednym węźle, musimy skonfigurować dostęp SSH do hosta lokalnego.

Musimy więc uruchomić na naszym komputerze SSH i skonfigurować go tak, aby umożliwić uwierzytelnianie klucza publicznego SSH.

Hadoop używa SSH (aby uzyskać dostęp do swoich węzłów), który normalnie wymagałby od użytkownika wprowadzenia hasła. Jednak wymaganie to można wyeliminować, tworząc i konfigurując certyfikaty SSH, korzystając z następujących poleceń. Jeśli pojawi się pytanie o nazwę pliku, pozostaw to pole puste i naciśnij klawisz Enter, aby kontynuować.

check this site

5

Podobnie jak w powyższym przypadku munichong jest użytkownikiem (munichong @ GrindPad)

  1. W moim przypadku: Zaloguj jako hduser

  2. Po pierwsze, usunąć katalog sudo rm -rf ~/.ssh

  3. Służy do ponownego generowania katalogu /.ssh z ustawieniem domyślnym:

    [[email protected] ~]$ ssh-keygen 
    
  4. Tu mamy kopiować i wklejać treść id_rsa.pub do authorised_keys pliku utworzonego za pomocą powyższego polecenia)

    [[email protected] ~]$ sudo cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys 
    
  5. [hduser @ localhost ~] $ chmod -R 750 ~/.ssh/authorized_keys

  6. [hduser @ localhost ~] $ ssh localhost

    Autentyczność hosta "lokalny host (127.0.0.1) "nie może zostać ustanowiony. Kluczowy odcisk palca RSA to 04: e8: 80: 64: dc: 71: b5: 2f: c0: d9: 28: 86: 1f: 61: 60: 8a. Czy na pewno chcesz kontynuować połączenie (tak/nie)?tak

    Ostrzeżenie: trwale dodano "localhost" (RSA) do listy znanych hostów. Ostatnie logowanie: Pon 04 stycznia 2016 14:31:05 od localhost.localdomain

  7. [hduser @ localhost ~] $ jps
    18531 Jps

  8. [hduser @ localhost ~] $ start-all.sh

  9. Wszystkie demony zaczynają

Uwaga: Czasami z powodu plików dzienników pojawia się inny problem, w takim przypadku usuń tylko pliki z kropkami (.out) z/usr/local/hadoop/logs /.

+0

chmod -R 750 ~/.ssh/authorized_keys robi sztuczkę – MysticForce

9

Rozwiązanie:

1) Generowanie klucza ssh bez hasła

$ ssh-keygen -t rsa -P "" 

2) Kopiowanie id_rsa.pub upoważnionym-kluczy

$ cat $HOME/.ssh/id_rsa.pub >> $HOME/.ssh/authorized_keys 

3) start ssh localhost

$ ssh localhost 

4) nie W przejdź do katalogu Hadoop sbin i rozpocząć Hadoop

$./start-all.sh 
./start-all.sh 
This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh 
Starting namenodes on [localhost] 
localhost: starting namenode, logging to /home/amtex/Documents/installed/hadoop/logs/hadoop-amtex-namenode-amtex-desktop.out 
localhost: starting datanode, logging to /home/amtex/Documents/installed/hadoop/logs/hadoop-amtex-datanode-amtex-desktop.out 
Starting secondary namenodes [0.0.0.0] 
0.0.0.0: starting secondarynamenode, logging to /home/amtex/Documents/installed/hadoop/logs/hadoop-amtex-secondarynamenode-amtex-desktop.out 
starting yarn daemons 
starting resourcemanager, logging to /home/amtex/Documents/installed/hadoop/logs/yarn-amtex-resourcemanager-amtex-desktop.out 
localhost: starting nodemanager, logging to /home/amtex/Documents/installed/hadoop/logs/yarn-amtex-nodemanager-amtex-desktop.out 

5) hasło nie pytając

$ jps 
12373 Jps 
11823 SecondaryNameNode 
11643 DataNode 
12278 NodeManager 
11974 ResourceManager 
11499 NameNode 
+0

Zostałem poproszony o podanie hasła dla ssh localhost, ale nie mam tego hasła, hasło do konta użytkownika nie jest w porządku. – Pythoner

+0

podczas generowania ssh, pole hasła jest puste, więc podczas uruchamiania usług hadoop jego automatyczne uruchamianie następuje jeden po drugim bez zadawania hasła. @ PythonNewHand –

-1

dziennik w super user lub korzenia

:~ su 

Password: 

pozwolenie dać użytkownikowi

:~ sudo chown -R <log in user> /usr/local/hadoop/ 

na twój przykład zalogować użytkownika: munichong

HADOOP_HOME = /usr/local/hadoop/

Powiązane problemy