Tengo más de 10 millones de fotos guardadas en el sistema de archivos local. Ahora quiero revisar cada uno de ellos para analizar el binario de la foto y ver si es un perro. Básicamente, quiero hacer el análisis en un entorno de hadoop agrupado. El problema es ¿cómo debo diseñar la entrada para el método de mapa? digamos, en el método de mapa, new FaceDetection(photoInputStream).isDog()
es toda la lógica subyacente para el análisis.Hadoop: cómo acceder (muchas) imágenes de fotos para ser procesadas por mapa/reducir?
Específicamente, ¿Debo cargar todas las fotos a HDFS
? Asumir sí,
¿Cómo puedo utilizar en el método
map
?¿Está bien hacer que la entrada (a la
map
) como un archivo de texto que contiene la totalidad de la ruta foto (enHDFS
) con cada una línea, y en el método de mapa, cargar el binario como:photoInputStream = getImageFromHDFS(photopath);
(En realidad , lo que es el método correcto para cargar el archivo de HDFS durante la ejecución del método mapa?)
parece echo de menos algunos conocimientos sobre el principio básico para hadoop
, map/reduce
y hdfs
, pero puede usted por favor señalarme en términos de la pregunta anterior, ¡Gracias!
¿Pudo lograr esto? En realidad estoy tratando de hacer algo similar, pero no tengo mucha idea sobre cómo proceder – user3527975