2012-05-18 7 views
8

Tengo problemas para ejecutar CONSULTAS CONDICIONALES EN HiveQL. La instrucción básica select * from tablename funciona bien. El error es:Error de ejecución, código de retorno 1 de org.apache.hadoop.hive.ql.exec.MapRedTask

Total MapReduce jobs = 1 
Launching Job 1 out of 1 
Number of reduce tasks determined at compile time: 1 
In order to change the average load for a reducer (in bytes): 
    set hive.exec.reducers.bytes.per.reducer=<number> 
In order to limit the maximum number of reducers: 
    set hive.exec.reducers.max=<number> 
In order to set a constant number of reducers: 
    set mapred.reduce.tasks=<number> 
java.net.ConnectException: Call to /0.0.0.0:8021 failed on connection exception: java.net.ConnectException: Connection refused 
     at org.apache.hadoop.ipc.Client.wrapException(Client.java:1134) 
     at org.apache.hadoop.ipc.Client.call(Client.java:1110) 
     at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:226) 
     at org.apache.hadoop.mapred.$Proxy5.getProtocolVersion(Unknown Source) 
     at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:398) 
     at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:384) 
     at org.apache.hadoop.mapred.JobClient.createRPCProxy(JobClient.java:501) 
     at org.apache.hadoop.mapred.JobClient.init(JobClient.java:486) 
     at org.apache.hadoop.mapred.JobClient.<init>(JobClient.java:469) 
     at org.apache.hadoop.hive.ql.exec.ExecDriver.execute(ExecDriver.java:655) 
     at org.apache.hadoop.hive.ql.exec.MapRedTask.execute(MapRedTask.java:123) 
     at org.apache.hadoop.hive.ql.exec.Task.executeTask(Task.java:130) 
     at org.apache.hadoop.hive.ql.exec.TaskRunner.runSequential(TaskRunner.java:57) 
     at org.apache.hadoop.hive.ql.Driver.launchTask(Driver.java:1063) 
     at org.apache.hadoop.hive.ql.Driver.execute(Driver.java:900) 
     at org.apache.hadoop.hive.ql.Driver.run(Driver.java:748) 
     at org.apache.hadoop.hive.cli.CliDriver.processCmd(CliDriver.java:209) 
     at org.apache.hadoop.hive.cli.CliDriver.processLine(CliDriver.java:286) 
     at org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:516) 
     at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 
     at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39) 
     at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25) 
     at java.lang.reflect.Method.invoke(Method.java:597) 
     at org.apache.hadoop.util.RunJar.main(RunJar.java:186) 
Caused by: java.net.ConnectException: Connection refused 
     at sun.nio.ch.SocketChannelImpl.checkConnect(Native Method) 
     at sun.nio.ch.SocketChannelImpl.finishConnect(SocketChannelImpl.java:574) 
     at org.apache.hadoop.net.SocketIOWithTimeout.connect(
.... 
Job Submission failed with exception 'java.net.ConnectException(Call to /0.0.0.0:8021 failed on connection exception: java.net.ConnectException: Connection refused)' 
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.MapRedTask 

He tratado tanto desde Eclipse IDE y Colmena shell .La salida es la misma. ¡Por favor ayuda!

+2

¿Tiene la solución ahora? Yo también enfrento el mismo problema. – learninghuman

+0

Puede encontrar esta aplicación web útil. http://sql.treasuredata.com –

Respuesta

3

En la mayoría de los casos, este error es causado por un problema de permisos, donde el usuario Colmena de ejecutar el comando no tiene derechos de acceso a/usuario/colmena

Usted querrá comprobar la configuración de la Hadoop Hive clúster

1

He notado que con Hive2 necesita cambiar la forma en que especifica el número de reductores mientras usa HiveQL. En Hive1 he utilizado:

SET mapred.reduce.tasks=1 

Sin embargo, en Hive2 me he dado cuenta que necesito utilizar:

SET mapreduce.job.reduces=1 

que tenían el mismo mensaje de error y cambiar esta resuelto el problema para mí.

6

Esto debería resolver su problema ya que esta propiedad se establecerá en true de forma predeterminada.

set hive.auto.convert.join.noconditionaltask=false 

hive.auto.convert.join.noconditionaltask - Ya sea que permiten la optimización de la colmena sobre la conversión común se unen en mapjoin basado en el tamaño del archivo de entrada .

Si este parámetro de está encendido, y la suma de tamaño para n-1 de los tablas/particiones para una n-forma se unen es menor que el tamaño especificado, la unión se convierte directamente en un mapjoin (hay sin tarea condicional ).

0

Tengo una imagen de inicio rápido cloudera montada usando VirtualBox. Tuve que hacer lo siguiente para solucionar el problema

sudo vi /etc/hive/conf/hive-site.xml y establecer la propiedad hive.auto.convert.join en falso (debe enrutar para editar y por lo tanto el sudo).

No tenía la propiedad hive.auto.convert.join.noconditionaltask en hive-site.xml.xml.

Cuestiones relacionadas