Jak mogę wymazać DFS w Hadoop?Wymazanie DFS w Hadoop
Odpowiedz
hdfs dfs -rm -r "/*"
(stary odpowiedź została zaniechana)
bin/hadoop namenode -format
Uwaga: istniejące stare datanody nie będą działać z tym nowo sformatowanym plikiem dfs. Zobacz http://issues.apache.org/jira/browse/HDFS-107 – Leonidas
trzeba zrobić dwie rzeczy:
Usuń głównego katalogu pamięci Hadoop z każdego węzła. Ten katalog jest zdefiniowany przez właściwość hadoop.tmp.dir w pliku hdfs-site.xml.
sformatować namenode:
hadoop namenode -format
Jeśli tylko ty (2), będzie usunąć tylko metadane przechowywane przez namenode, ale nie będzie pozbyć się wszystkich czasowego składowania i bloki datanodu.
usunięcie głównego katalogu magazynu hadoop z każdego pojedynczego węzła jest niewykonalne! – Mehraban
Wykonanie polecenia namenode-format spowoduje usunięcie wszystkich metadanych, a także uniemożliwi korzystanie z klastra. To nie jest wskazana opcja. –
Również, jeśli format namenode wygeneruje nowy identyfikator klastra dla nazwy identyfikatora, a wszystkie inne deamony nie będą mogły komunikować się z nazwą namenodu. Zaktualizuj swoją odpowiedź, aby uniknąć błędnych wskazówek. Dzięki –
Tak właśnie musiałem zrobić w przeszłości.
1. Przejdź do swojego katalogu hadoop w swoim NameNode, a następnie zatrzymaj wszystkie procesy miauczenia. Uruchomienie domyślnego skryptu stop-all. Spowoduje to również zatrzymanie DFS. na przykład
cd myhadoopdirectory
bin/stop-all.sh
2. Teraz na każdym komputerze w klastrze (Namenodes, JobTrackers, datanodes itp) usunąć wszystkie pliki na głównej kopalni przechowywania Hadoop jest ustawiona do folderu temp w folderze głównym. Twój można znaleźć w pliku conf hdfs-site.xml w ramach właściwości hadoop.tmp.dir, np.
cd /temp/
rm -r *
3. W końcu wrócić do swojego węzła nazwę i format, przechodząc do katalogu Hadoop i działa „bin/Hadoop namenode -format” np
cd myhadoopdirectory
bin/hadoop namenode -format
4. Uruchom ponownie klaster, wykonując następujące polecenie. Uruchomi także ponownie DFS.
bin/start-all.sh
5. I powinno działać.
może wydać
hadoop fs -rmr/
byłoby to usunięcie wszystkich katalogów i podkatalogów pod DFS.
Inną opcją jest zatrzymanie klastra i wydaj:
hadoop namenode -format
byłoby to wymazanie całej zawartości na DFS, a następnie ponownie uruchomić klaster.
- Musisz zadzwonić pod numer
bin/stop-all.sh
, aby zatrzymać dfs i mapreduce. - Usuń katalog danych skonfigurowany w conf/hdfs-site.xml i conf/mapred-site.xml.
- Upewnij się, że zostały usunięte niektóre pliki tymczasowe istniejące w katalogu/tmp.
Po wykonaniu wszystkich powyższych kroków można zadzwonić pod numer bin/hadoop namenode -format
, aby zregenerować plik dfs.
Zatrzymaj klastrowania
${HADOOP_HOME}/bin/stop-mapred.sh
${HADOOP_HOME}/bin/stop-dfs.sh
lub jeśli jego pseudo rozprowadzane po prostu kwestia:
${HADOOP_HOME}/bin/stop-all.sh
sformatować HDFS
hadoop namenode -format
- 1. Co dokładnie oznacza Non DFS Used?
- 2. Zobacz zawartość pliku w hdfs hadoop
- 3. Najkrótsza ścieżka: DFS, BFS lub obie?
- 4. Jaki jest cel BFS i DFS?
- 5. Hadoop 0.20.2 Wtyczka Eclipse nie w pełni działa - nie można "uruchomić na Hadoop"
- 6. Czy istnieje jakiś rozproszony system plików działający w systemie Windows z wyjątkiem Hadoop?
- 7. Praca RecordReadera w Hadoop
- 8. Dane transmisyjne i Hadoop? (nie Hadoop Streaming)
- 9. Jak można programowo uzyskać aktywną ścieżkę UNC w systemie DFS
- 10. hadoop java.io.IOException: podczas działania polecenia namenode -format
- 11. Hadoop Bezpieczeństwo
- 12. Ponad 120 liczników w hadoop
- 13. Hadoop w zmianie nazwy plików
- 14. Jak usunąć katalog z klastra Hadoop, który ma przecinek (,) w nazwie?
- 15. Niewłaściwy słoik podczas uruchamiania zadania Hadoop
- 16. Jak zabezpieczyć pracę hadoop z wdziękiem/przechwycić `hadoop job -kill`
- 17. Przesyłanie strumieniowe Hadoop do Pythona przy użyciu mongo-hadoop
- 18. Błąd konfiguracji Hadoop
- 19. Wykonanie zadań spekulacyjnych Hadoop
- 20. Hadoop HADOOP_CLASSPATH issues
- 21. Jak uruchomić program Hadoop?
- 22. Dokumentacja Hadoop dla Eclipse
- 23. Zapisywanie danych do Hadoop
- 24. Hadoop i Stata
- 25. Hadoop Hive powolne zapytania
- 26. $ HADOOP_HOME jest przestarzałe, Hadoop
- 27. Hadoop pliki podrzędne konfiguracji
- 28. Hbase/Hadoop Query Help
- 29. Zapisywanie do pliku w HDFS w Hadoop
- 30. Przekazywanie argumentów programistom Hadoop
dostaję usuwania uszkodzonego błąd, gdy próbuję to mogę usunąć podkatalogi, ale nie korzeń –
'HDFS DFS -rmr' jest teraz przestarzała i również nie będzie działać na'/'. Zamiast tego powinieneś wypróbować 'hdfs dfs -rm -r"/* "'. – Mehraban