2013-04-09 18 views
5

Próbuję uzyskać funkcję zmniejszania map za pomocą pythona, używając mongo-hadoop. Hadoop działa, strumienie hadoop działają z pythonem i działa adapter mongo-hadoop. Jednak przykłady strumieniowania mongo-hadoop z pythonem nie działają. Gdy próbuje uruchomić przykład w streamingu/przykłady/skarbca pojawia się następujący błąd:Przesyłanie strumieniowe Hadoop do Pythona przy użyciu mongo-hadoop

[email protected]: ~/git/mongo-hadoop/streaming$ hadoop jar target/mongo-hadoop-streaming-assembly-1.0.1.jar -mapper examples/treasury/mapper.py -reducer examples/treasury/reducer.py -inputformat com.mongodb.hadoop.mapred.MongoInputFormat -outputformat com.mongodb.hadoop.mapred.MongoOutputFormat -inputURI mongodb://127.0.0.1/mongo_hadoop.yield_historical.in -outputURI mongodb://127.0.0.1/mongo_hadoop.yield_historical.streaming.out

13/04/09 11:54:34 INFO streaming.MongoStreamJob: Running 

13/04/09 11:54:34 INFO streaming.MongoStreamJob: Init 

13/04/09 11:54:34 INFO streaming.MongoStreamJob: Process Args 

13/04/09 11:54:34 INFO streaming.StreamJobPatch: Setup Options' 

13/04/09 11:54:34 INFO streaming.StreamJobPatch: PreProcess Args 

13/04/09 11:54:34 INFO streaming.StreamJobPatch: Parse Options 

13/04/09 11:54:34 INFO streaming.StreamJobPatch: Arg: '-mapper' 

13/04/09 11:54:34 INFO streaming.StreamJobPatch: Arg: 'examples/treasury/mapper.py' 

13/04/09 11:54:34 INFO streaming.StreamJobPatch: Arg: '-reducer' 

13/04/09 11:54:34 INFO streaming.StreamJobPatch: Arg: 'examples/treasury/reducer.py' 

13/04/09 11:54:34 INFO streaming.StreamJobPatch: Arg: '-inputformat' 

13/04/09 11:54:34 INFO streaming.StreamJobPatch: Arg: 'com.mongodb.hadoop.mapred.MongoInputFormat' 

13/04/09 11:54:34 INFO streaming.StreamJobPatch: Arg: '-outputformat' 

13/04/09 11:54:34 INFO streaming.StreamJobPatch: Arg: 'com.mongodb.hadoop.mapred.MongoOutputFormat' 

13/04/09 11:54:34 INFO streaming.StreamJobPatch: Arg: '-inputURI' 

13/04/09 11:54:34 INFO streaming.StreamJobPatch: Arg: 'mongodb://127.0.0.1/mongo_hadoop.yield_historical.in' 

13/04/09 11:54:34 INFO streaming.StreamJobPatch: Arg: '-outputURI' 

13/04/09 11:54:34 INFO streaming.StreamJobPatch: Arg: 'mongodb://127.0.0.1/mongo_hadoop.yield_historical.streaming.out' 

13/04/09 11:54:34 INFO streaming.StreamJobPatch: Add InputSpecs 

13/04/09 11:54:34 INFO streaming.StreamJobPatch: Setup output_ 

13/04/09 11:54:34 INFO streaming.StreamJobPatch: Post Process Args 

13/04/09 11:54:34 INFO streaming.MongoStreamJob: Args processed. 

13/04/09 11:54:36 INFO io.MongoIdentifierResolver: Resolving: bson 

13/04/09 11:54:36 INFO io.MongoIdentifierResolver: Resolving: bson 

13/04/09 11:54:36 INFO io.MongoIdentifierResolver: Resolving: bson 

13/04/09 11:54:36 INFO io.MongoIdentifierResolver: Resolving: bson 

**Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop/mapreduce/filecache/DistributedCache** 
    at org.apache.hadoop.streaming.StreamJob.setJobConf(StreamJob.java:959) 
    at com.mongodb.hadoop.streaming.MongoStreamJob.run(MongoStreamJob.java:36) 
    at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:70) 
    at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:84) 
    at com.mongodb.hadoop.streaming.MongoStreamJob.main(MongoStreamJob.java:63) 
    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 
    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39) 
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25) 
    at java.lang.reflect.Method.invoke(Method.java:597) 
    at org.apache.hadoop.util.RunJar.main(RunJar.java:208) 
Caused by: java.lang.ClassNotFoundException: org.apache.hadoop.mapreduce.filecache.DistributedCache 
    at java.net.URLClassLoader$1.run(URLClassLoader.java:202) 
    at java.security.AccessController.doPrivileged(Native Method) 
    at java.net.URLClassLoader.findClass(URLClassLoader.java:190) 
    at java.lang.ClassLoader.loadClass(ClassLoader.java:306) 
    at java.lang.ClassLoader.loadClass(ClassLoader.java:247) 
    ... 10 more 

Jeśli ktoś mógłby rzucić trochę światła byłoby bardzo pomocne.

Pełna informacja:

O ile mogę powiedzieć, że muszę dostać się następujące cztery rzeczy do pracy:

  1. zainstalować i przetestować Hadoop
  2. zainstalować i przetestować Hadoop Streaming z pytona
  3. Zainstaluj i przetestuj mongo-hadoop
  4. Zainstaluj i przetestuj streaming mongo-hadoop z pytonem

Krótko mówiąc, wszystko działam aż do czwartego kroku. Stosując (https://github.com/danielpoe/cloudera) Mam Cloudera 4 zainstalowane

  1. Korzystanie kucharz przepis Cloudera 4 został zainstalowany i jest uruchomiony i przetestowany
  2. Korzystanie Michael nolls tutoriale na blogu, testowane Hadoop Streaming z pytona powodzeniem
  3. Korzystanie z dokumentacji na mongodb.org było w stanie uruchomić zarówno skarbiec jak i przykłady ufo (build cdh4 w build.sbt)
  4. Pobrałem 1,5 godziny wartości danych Twittera za pomocą readme na przykład twittera w streamingu/przykładach, a także wypróbowałem przykład skarbu.
+0

rozwiązany: Aby to działa, co potrzebne do zainstalowania Cloudera 4. Następnie zainstalować adapter Mongo-Hadoop używając wersji cdh4 Następnie należy utworzyć dysk Mongo-Hadoop strumieniowanie używając wersji cdh3 W tym momencie, zamiast postępować zgodnie z instrukcje i zainstaluj pymongo-hadoop z repozytorium, najlepsze rozwiązanie 'sudo pip install pymongo_hadoop' – Conor

Odpowiedz

0

Czy masz zainstalowane najnowsze złącze pymongo_hadoop? Jakie wersje innego oprogramowania używasz?

+0

Cześć Ross, dziękuję za odpowiedź. Problem stanowiło złącze pymongo_hadoop. Rozwiązaliśmy go trochę, zanim podałeś nam podpowiedź. – Conor

Powiązane problemy