Me di cuenta de que hay dos conjuntos de parámetros de configuración de Hadoop: uno con mapred. * Y el otro con mapreduce. . Supongo que pueden deberse a una antigua API frente a una nueva API, pero si no me equivoco, parece que coexisten en la nueva API. ¿Estoy en lo correcto? Si es así, ¿hay una declaración generalizada de lo que se usa para mapred? y lo que es para mapreduce. *?Configuración de Hadoop: mapred. * Vs mapreduce. *
Respuesta
Examinando la fuente de 0.20.2, hay solo unas pocas propiedades mapreduce.*
, y giran en torno a la configuración del formato de entrada/salida de trabajo, mapper/combinador/reductor y clases de particionador (también señalan al cliente de trabajo que el nueva API está siendo utilizado por el usuario - mirar a través de la fuente para o.a.h.mapreduce.Job
, setUseNewAPI()
método)
mapreduce.inputformat.class
mapreduce.outputformat.class
mapreduce.partitioner.class
mapreduce.map.class
mapreduce.combine.class
mapreduce.reduce.class
Hay algunas propiedades más pero son configuración secundaria
la entrada y salida formatos, ya sea versiones nuevas o antiguas API, típicamente utilizar mapred.*
propiedades
Por ejemplo, la señal de su mapa reduce las rutas de entrada que usa mapred.input.dir
(ya sea que esté usi ng la API nueva o antigua). Lo mismo para la propiedad de salida mapred.output.dir
lo tanto, el largo y el corto de si es, si no hay un método de utilidad para configurar la propiedad (FileInputFormat.setInputPaths(Job, String)
), entonces usted tendrá que comprobar la fuente
hadoop.mapred
ha quedado obsoleto.
Versiones anteriores a 0.20.1
utilizadas mapred
. Versiones después de ese uso mapreduce
.
No creo que coexistan.
Sí mapred la biblioteca ha sido desaprobada. La biblioteca de mapreduce es nueva en hadoop 0.20.1 ..
Sin embargo, todavía puede utilizar algunas de las características que ofrece mapred, por lo que aún la encuentra en el directorio.
favor, eche un vistazo a este enlace para saber qué características que todavía se puede utilizar: http://hadoop.apache.org/common/docs/r0.20.0/api/org/apache/hadoop/mapred/package-summary.html
- 1. ¿Es mejor usar el paquete mapred o mapreduce para crear un trabajo de Hadoop?
- 2. Comenzando con MapReduce/Hadoop
- 3. Error en Hadoop MapReduce
- 4. Salida intermedia de Hadoop MapReduce
- 5. ¿Cómo se usa MapReduce/Hadoop?
- 6. reutilizar JVM en trabajos mapreduce de Hadoop
- 7. Idea de proyecto con Hadoop MapReduce
- 8. Recuento de palabras ordenadas usando Hadoop MapReduce
- 9. ejecutando múltiples trabajos de MapReduce en hadoop
- 10. Hadoop o Hadoop Streaming para MapReduce en AWS
- 11. Hadoop mapreduce la transmisión desde HBase
- 12. Ordenando datos grandes usando MapReduce/Hadoop
- 13. Hadoop: ¿Cómo funciona OutputCollector durante MapReduce?
- 14. Encontrar componentes conectados usando Hadoop/MapReduce
- 15. Hadoop MapReduce: Driver para encadenar creadores de mapas dentro de un trabajo MapReduce
- 16. Encadenando múltiples tareas de mapreduce en la transmisión de Hadoop
- 17. Hadoop MapReduce: Tamaño de archivo de entrada apropiado?
- 18. Lectura programática del resultado del programa Mapreduce de Hadoop
- 19. Hadoop MapReduce - un archivo de salida para cada entrada
- 20. Unir dos conjuntos de datos en Mapreduce/Hadoop
- 21. Algoritmo del coeficiente de agrupamiento local distribuido (MapReduce/Hadoop)
- 22. cómo implementar el cálculo de valores propios con MapReduce/Hadoop?
- 23. Hadoop MapReduce: ¿es posible definir dos mapeadores y reductores en una clase de trabajo de hadoop?
- 24. Configuración de los parámetros de hadoop con boto?
- 25. ¿Dónde hadoop mapreduce framework envía mis sentencias System.out.print()? (stdout)
- 26. Hadoop MapReduce proporcionar directorios anidados como entrada para el trabajo
- 27. (Hadoop) MapReduce - Trabajos en cadena - JobControl no se detiene
- 28. Alternativas de MapReduce
- 29. Java vs Python en Hadoop
- 30. Hadoop: Error en la configuración de objeto
Creo que mi pregunta era bastante ambigua. No estaba preguntando sobre las bibliotecas. Estoy preguntando sobre dos nombres de parámetro de configuración de hadoop diferentes. – kee