Próbuję uzyskać funkcję zmniejszania map za pomocą pythona, używając mongo-hadoop. Hadoop działa, strumienie hadoop działają z pythonem i działa adapter mongo-hadoop. Jednak przykłady strumieniowania mongo-hadoop z pythonem nie działają. Gdy próbuje uruchomić przykład w streamingu/przykłady/skarbca pojawia się następujący błąd:Przesyłanie strumieniowe Hadoop do Pythona przy użyciu mongo-hadoop
[email protected]: ~/git/mongo-hadoop/streaming$ hadoop jar target/mongo-hadoop-streaming-assembly-1.0.1.jar -mapper examples/treasury/mapper.py -reducer examples/treasury/reducer.py -inputformat com.mongodb.hadoop.mapred.MongoInputFormat -outputformat com.mongodb.hadoop.mapred.MongoOutputFormat -inputURI mongodb://127.0.0.1/mongo_hadoop.yield_historical.in -outputURI mongodb://127.0.0.1/mongo_hadoop.yield_historical.streaming.out
13/04/09 11:54:34 INFO streaming.MongoStreamJob: Running
13/04/09 11:54:34 INFO streaming.MongoStreamJob: Init
13/04/09 11:54:34 INFO streaming.MongoStreamJob: Process Args
13/04/09 11:54:34 INFO streaming.StreamJobPatch: Setup Options'
13/04/09 11:54:34 INFO streaming.StreamJobPatch: PreProcess Args
13/04/09 11:54:34 INFO streaming.StreamJobPatch: Parse Options
13/04/09 11:54:34 INFO streaming.StreamJobPatch: Arg: '-mapper'
13/04/09 11:54:34 INFO streaming.StreamJobPatch: Arg: 'examples/treasury/mapper.py'
13/04/09 11:54:34 INFO streaming.StreamJobPatch: Arg: '-reducer'
13/04/09 11:54:34 INFO streaming.StreamJobPatch: Arg: 'examples/treasury/reducer.py'
13/04/09 11:54:34 INFO streaming.StreamJobPatch: Arg: '-inputformat'
13/04/09 11:54:34 INFO streaming.StreamJobPatch: Arg: 'com.mongodb.hadoop.mapred.MongoInputFormat'
13/04/09 11:54:34 INFO streaming.StreamJobPatch: Arg: '-outputformat'
13/04/09 11:54:34 INFO streaming.StreamJobPatch: Arg: 'com.mongodb.hadoop.mapred.MongoOutputFormat'
13/04/09 11:54:34 INFO streaming.StreamJobPatch: Arg: '-inputURI'
13/04/09 11:54:34 INFO streaming.StreamJobPatch: Arg: 'mongodb://127.0.0.1/mongo_hadoop.yield_historical.in'
13/04/09 11:54:34 INFO streaming.StreamJobPatch: Arg: '-outputURI'
13/04/09 11:54:34 INFO streaming.StreamJobPatch: Arg: 'mongodb://127.0.0.1/mongo_hadoop.yield_historical.streaming.out'
13/04/09 11:54:34 INFO streaming.StreamJobPatch: Add InputSpecs
13/04/09 11:54:34 INFO streaming.StreamJobPatch: Setup output_
13/04/09 11:54:34 INFO streaming.StreamJobPatch: Post Process Args
13/04/09 11:54:34 INFO streaming.MongoStreamJob: Args processed.
13/04/09 11:54:36 INFO io.MongoIdentifierResolver: Resolving: bson
13/04/09 11:54:36 INFO io.MongoIdentifierResolver: Resolving: bson
13/04/09 11:54:36 INFO io.MongoIdentifierResolver: Resolving: bson
13/04/09 11:54:36 INFO io.MongoIdentifierResolver: Resolving: bson
**Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop/mapreduce/filecache/DistributedCache**
at org.apache.hadoop.streaming.StreamJob.setJobConf(StreamJob.java:959)
at com.mongodb.hadoop.streaming.MongoStreamJob.run(MongoStreamJob.java:36)
at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:70)
at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:84)
at com.mongodb.hadoop.streaming.MongoStreamJob.main(MongoStreamJob.java:63)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
at java.lang.reflect.Method.invoke(Method.java:597)
at org.apache.hadoop.util.RunJar.main(RunJar.java:208)
Caused by: java.lang.ClassNotFoundException: org.apache.hadoop.mapreduce.filecache.DistributedCache
at java.net.URLClassLoader$1.run(URLClassLoader.java:202)
at java.security.AccessController.doPrivileged(Native Method)
at java.net.URLClassLoader.findClass(URLClassLoader.java:190)
at java.lang.ClassLoader.loadClass(ClassLoader.java:306)
at java.lang.ClassLoader.loadClass(ClassLoader.java:247)
... 10 more
Jeśli ktoś mógłby rzucić trochę światła byłoby bardzo pomocne.
Pełna informacja:
O ile mogę powiedzieć, że muszę dostać się następujące cztery rzeczy do pracy:
- zainstalować i przetestować Hadoop
- zainstalować i przetestować Hadoop Streaming z pytona
- Zainstaluj i przetestuj mongo-hadoop
- Zainstaluj i przetestuj streaming mongo-hadoop z pytonem
Krótko mówiąc, wszystko działam aż do czwartego kroku. Stosując (https://github.com/danielpoe/cloudera) Mam Cloudera 4 zainstalowane
- Korzystanie kucharz przepis Cloudera 4 został zainstalowany i jest uruchomiony i przetestowany
- Korzystanie Michael nolls tutoriale na blogu, testowane Hadoop Streaming z pytona powodzeniem
- Korzystanie z dokumentacji na mongodb.org było w stanie uruchomić zarówno skarbiec jak i przykłady ufo (build cdh4 w build.sbt)
- Pobrałem 1,5 godziny wartości danych Twittera za pomocą readme na przykład twittera w streamingu/przykładach, a także wypróbowałem przykład skarbu.
rozwiązany: Aby to działa, co potrzebne do zainstalowania Cloudera 4. Następnie zainstalować adapter Mongo-Hadoop używając wersji cdh4 Następnie należy utworzyć dysk Mongo-Hadoop strumieniowanie używając wersji cdh3 W tym momencie, zamiast postępować zgodnie z instrukcje i zainstaluj pymongo-hadoop z repozytorium, najlepsze rozwiązanie 'sudo pip install pymongo_hadoop' – Conor