2013-06-20 7 views
6
Failed to set permissions of path: \tmp\hadoop-MayPayne\mapred\staging\MayPayne2016979439\.staging to 0700 

Otrzymuję ten błąd podczas wykonywania zadania MapReduce, używałem hadoop 1.0.4, wtedy dowiedziałem się, że jest to znany problem i próbowałem tego z 1.2.0, ale problem nadal istnieje. Czy mogę znać wersję MOSoop, w której rozwiązano ten problem?Nie można ustawić uprawnień ścieżki: tmp

Dziękuję wszystkim z góry

+0

Czy jesteś pewien, że to kwestia związana z Hadoop wersja, której używasz ?. jakiego identyfikatora używasz do przesyłania zadania MapReduce? kto jest właścicielem dla '\ tmp'? – Singleton

+0

Tak, użytkownik uruchamiający zadanie MapReduce musi być właścicielem wspomnianego katalogu. –

+0

Gdzie jest znany problem śledzony w trackerze Hadoop? –

Odpowiedz

-4

udało mi się rozwiązać ten problem poprzez zmianę Hadoop-core pliku jar trochę. Zmieniono metodę powodującą błąd w FileUtil.java w pliku hadoop-core.jar i zrekompilowano ją i uwzględniono w moim projekcie zaćmienia. Teraz błąd zniknął. Proponuję każdemu z was to zrobić.

11

I był już ten sam wyjątek podczas runiczny nutch-1.7 na Windows 7.

bin/nutch crawl urls -dir crawl11 -depth 1 -topN 5 

następujące kroki pracował dla mnie

  1. Pobierz gotowych JAR, patch-hadoop_7682-1.0 .x-win.jar, z sekcji Download. Możesz uzyskać kroki dla hadoop.
  2. Kopia patch-hadoop_7682-1.0.x-win.jar do $ {NUTCH_HOME}/lib
  3. Modyfikuj $ {NUTCH_HOME} /conf/nutch-site.xml umożliwienie nadpisane realizacji, jak pokazano poniżej:

    <?xml version="1.0"?> 
    <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> 
    <!-- Put site-specific property overrides in this file. --> 
    <configuration> 
        <property> 
         <name>fs.file.impl</name> 
         <value>com.conga.services.hadoop.patch.HADOOP_7682.WinLocalFileSystem</value> 
         <description>Enables patch for issue HADOOP-7682 on Windows</description> 
        </property> 
    </configuration> 
    
  4. Uruchom swoją pracę jak zwykle (przy użyciu Cygwin).

5

Pobieranie hadoop-core-0.20.2.jar i umieszczenie go w katalogu lib nutcher za rozwiązany problem dla mnie

(W przypadku Windows) Jeśli nadal nie rozwiązany dla Ciebie, spróbuj użyć tego hadoop's patch

+0

hadoop-core-0.20.2.jar naprawiono dla mnie. Dzięki – TheUknown

+0

pracowała dla mnie łatka człowieka – chandresh

Powiązane problemy