2015-05-06 15 views
10

Chcę włączyć pojedyncze skupienie w Apache Spark, zainstalowałem java i scala. Ściągnąłem iskrę dla Apache Hadoop 2.6 i rozpakowałem. Próbuję włączyć iskrzące powłoki, ale wyrzucę mi błąd, a ponadto nie mam dostępu do sc w powłoce. Skompilowałem ze źródła, ale ten sam błąd. Co ja robię źle?Błąd Apache Spark podczas startu

Welcome to 
 
     ____    __ 
 
    /__/__ ___ _____/ /__ 
 
    _\ \/ _ \/ _ `/ __/ '_/ 
 
    /___/ .__/\_,_/_/ /_/\_\ version 1.3.1 
 
     /_/ 
 

 
Using Scala version 2.10.4 (Java HotSpot(TM) 64-Bit Server VM, Java 1.7.0_79) 
 
Type in expressions to have them evaluated. 
 
Type :help for more information. 
 
java.net.BindException: Failed to bind to: ADMINISTRATOR.home/192.168.1.5:0: Service 'sparkDriver' failed after 16 retries! 
 
\t at org.jboss.netty.bootstrap.ServerBootstrap.bind(ServerBootstrap.java:272) 
 
\t at akka.remote.transport.netty.NettyTransport$$anonfun$listen$1.apply(NettyTransport.scala:393) 
 
\t at akka.remote.transport.netty.NettyTransport$$anonfun$listen$1.apply(NettyTransport.scala:389) 
 
\t at scala.util.Success$$anonfun$map$1.apply(Try.scala:206) 
 
\t at scala.util.Try$.apply(Try.scala:161) 
 
\t at scala.util.Success.map(Try.scala:206) 
 
\t at scala.concurrent.Future$$anonfun$map$1.apply(Future.scala:235) 
 
\t at scala.concurrent.Future$$anonfun$map$1.apply(Future.scala:235) 
 
\t at scala.concurrent.impl.CallbackRunnable.run(Promise.scala:32) 
 
\t at akka.dispatch.BatchingExecutor$Batch$$anonfun$run$1.processBatch$1(BatchingExecutor.scala:67) 
 
\t at akka.dispatch.BatchingExecutor$Batch$$anonfun$run$1.apply$mcV$sp(BatchingExecutor.scala:82) 
 
\t at akka.dispatch.BatchingExecutor$Batch$$anonfun$run$1.apply(BatchingExecutor.scala:59) 
 
\t at akka.dispatch.BatchingExecutor$Batch$$anonfun$run$1.apply(BatchingExecutor.scala:59) 
 
\t at scala.concurrent.BlockContext$.withBlockContext(BlockContext.scala:72) 
 
\t at akka.dispatch.BatchingExecutor$Batch.run(BatchingExecutor.scala:58) 
 
\t at akka.dispatch.TaskInvocation.run(AbstractDispatcher.scala:41) 
 
\t at akka.dispatch.ForkJoinExecutorConfigurator$AkkaForkJoinTask.exec(AbstractDispatcher.scala:393) 
 
\t at scala.concurrent.forkjoin.ForkJoinTask.doExec(ForkJoinTask.java:260) 
 
\t at scala.concurrent.forkjoin.ForkJoinPool$WorkQueue.runTask(ForkJoinPool.java:1339) 
 
\t at scala.concurrent.forkjoin.ForkJoinPool.runWorker(ForkJoinPool.java:1979) 
 
\t at scala.concurrent.forkjoin.ForkJoinWorkerThread.run(ForkJoinWorkerThread.java:107) 
 

 
java.lang.NullPointerException 
 
\t at org.apache.spark.sql.SQLContext.<init>(SQLContext.scala:145) 
 
\t at org.apache.spark.sql.hive.HiveContext.<init>(HiveContext.scala:49) 
 
\t at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method) 
 
\t at sun.reflect.NativeConstructorAccessorImpl.newInstance(Unknown Source) 
 
\t at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(Unknown Source) 
 
\t at java.lang.reflect.Constructor.newInstance(Unknown Source) 
 
\t at org.apache.spark.repl.SparkILoop.createSQLContext(SparkILoop.scala:1027) 
 
\t at $iwC$$iwC.<init>(<console>:9) 
 
\t at $iwC.<init>(<console>:18) 
 
\t at <init>(<console>:20) 
 
\t at .<init>(<console>:24) 
 
\t at .<clinit>(<console>) 
 
\t at .<init>(<console>:7) 
 
\t at .<clinit>(<console>) 
 
\t at $print(<console>) 
 
\t at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 
 
\t at sun.reflect.NativeMethodAccessorImpl.invoke(Unknown Source) 
 
\t at sun.reflect.DelegatingMethodAccessorImpl.invoke(Unknown Source) 
 
\t at java.lang.reflect.Method.invoke(Unknown Source) 
 
\t at org.apache.spark.repl.SparkIMain$ReadEvalPrint.call(SparkIMain.scala:1065) 
 
\t at org.apache.spark.repl.SparkIMain$Request.loadAndRun(SparkIMain.scala:1338) 
 
\t at org.apache.spark.repl.SparkIMain.loadAndRunReq$1(SparkIMain.scala:840) 
 
\t at org.apache.spark.repl.SparkIMain.interpret(SparkIMain.scala:871) 
 
\t at org.apache.spark.repl.SparkIMain.interpret(SparkIMain.scala:819) 
 
\t at org.apache.spark.repl.SparkILoop.reallyInterpret$1(SparkILoop.scala:856) 
 
\t at org.apache.spark.repl.SparkILoop.interpretStartingWith(SparkILoop.scala:901) 
 
\t at org.apache.spark.repl.SparkILoop.command(SparkILoop.scala:813) 
 
\t at org.apache.spark.repl.SparkILoopInit$$anonfun$initializeSpark$1.apply(SparkILoopInit.scala:130) 
 
\t at org.apache.spark.repl.SparkILoopInit$$anonfun$initializeSpark$1.apply(SparkILoopInit.scala:122) 
 
\t at org.apache.spark.repl.SparkIMain.beQuietDuring(SparkIMain.scala:324) 
 
\t at org.apache.spark.repl.SparkILoopInit$class.initializeSpark(SparkILoopInit.scala:122) 
 
\t at org.apache.spark.repl.SparkILoop.initializeSpark(SparkILoop.scala:64) 
 
\t at org.apache.spark.repl.SparkILoop$$anonfun$org$apache$spark$repl$SparkILoop$$process$1$$anonfun$apply$mcZ$sp$5.apply$mcV$sp(SparkILoop.scala:973) 
 
\t at org.apache.spark.repl.SparkILoopInit$class.runThunks(SparkILoopInit.scala:157) 
 
\t at org.apache.spark.repl.SparkILoop.runThunks(SparkILoop.scala:64) 
 
\t at org.apache.spark.repl.SparkILoopInit$class.postInitialization(SparkILoopInit.scala:106) 
 
\t at org.apache.spark.repl.SparkILoop.postInitialization(SparkILoop.scala:64) 
 
\t at org.apache.spark.repl.SparkILoop$$anonfun$org$apache$spark$repl$SparkILoop$$process$1.apply$mcZ$sp(SparkILoop.scala:990) 
 
\t at org.apache.spark.repl.SparkILoop$$anonfun$org$apache$spark$repl$SparkILoop$$process$1.apply(SparkILoop.scala:944) 
 
\t at org.apache.spark.repl.SparkILoop$$anonfun$org$apache$spark$repl$SparkILoop$$process$1.apply(SparkILoop.scala:944) 
 
\t at scala.tools.nsc.util.ScalaClassLoader$.savingContextLoader(ScalaClassLoader.scala:135) 
 
\t at org.apache.spark.repl.SparkILoop.org$apache$spark$repl$SparkILoop$$process(SparkILoop.scala:944) 
 
\t at org.apache.spark.repl.SparkILoop.process(SparkILoop.scala:1058) 
 
\t at org.apache.spark.repl.Main$.main(Main.scala:31) 
 
\t at org.apache.spark.repl.Main.main(Main.scala) 
 
\t at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 
 
\t at sun.reflect.NativeMethodAccessorImpl.invoke(Unknown Source) 
 
\t at sun.reflect.DelegatingMethodAccessorImpl.invoke(Unknown Source) 
 
\t at java.lang.reflect.Method.invoke(Unknown Source) 
 
\t at org.apache.spark.deploy.SparkSubmit$.org$apache$spark$deploy$SparkSubmit$$runMain(SparkSubmit.scala:569) 
 
\t at org.apache.spark.deploy.SparkSubmit$.doRunMain$1(SparkSubmit.scala:166) 
 
\t at org.apache.spark.deploy.SparkSubmit$.submit(SparkSubmit.scala:189) 
 
\t at org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:110) 
 
\t at org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala) 
 

 
<console>:10: error: not found: value sqlContext 
 
     import sqlContext.implicits._ 
 
      ^
 
<console>:10: error: not found: value sqlContext 
 
     import sqlContext.sql 
 
      ^
 

 
scala>

+0

Czy należy dodać formę tekstową wyjątku? Jakie są argumenty polecenia 'spark-shell.bat'? Czy próbowałeś 'spark-shell.bat --master local [*]' lub czego? –

+0

z -Master próbował, ale nic: Próbowałem z parametem -master ale nie idzie – Mateusz

+0

Powinieneś edytować pytanie z dodatkowymi informacjami o problemie i wyjątku. –

Odpowiedz

27

Właśnie zaczęły się uczyć Spark i mam nadzieję uruchomić Spark w trybie lokalnym. Spotkałem problem podobny do twojego. Problem:

java.net.BindException: Nie można powiązać z: /124.232.132.94:0: Usługa "sparkDriver" nie powiodła się po 16 próbach!

Ponieważ po prostu chciałem uruchomić Spark w trybie lokalnym, znalazłem rozwiązanie, aby rozwiązać ten problem. Rozwiązanie: edytować plik spark-env.sh (można go znaleźć w $SPARK_HOME/conf/) i dodać do pliku:

export SPARK_MASTER_IP=127.0.0.1 
export SPARK_LOCAL_IP=127.0.0.1 

Po że mój Spark działa poprawnie w trybie lokalnym. Mam nadzieję, że to może ci pomóc! :)

+0

Naprawiono to dla mnie. To był najdziwniejszy problem, ponieważ zadziałało dobrze minutę, niż wyrzucił ten błąd w następnym, nie modyfikując żadnej części mojego kodu. Może ten adres był używany przez inny proces? – Christophe

+0

dziękuję, że posortowałem ten sam problem jaki miałem dla Sparka na Ubuntu – martino

0

To może być kwestia własności, jak również

hadoop fs -chown -R deepdive:root /user/deepdive/