¿Cómo elimino el DFS en Hadoop?Eliminando DFS en Hadoop
Respuesta
hdfs dfs -rm -r "/*"
(la respuesta de edad está desfasada)
bin/hadoop namenode -format
Watchout: los viejos datanodes existentes no funcionarán con este dfs recién formateado. Ver http://issues.apache.org/jira/browse/HDFS-107 – Leonidas
que tiene que hacer dos cosas:
eliminar el directorio principal de almacenamiento hadoop desde cada nodo. Este directorio está definido por la propiedad hadoop.tmp.dir en su hdfs-site.xml.
a formatear el NameNode:
hadoop namenode -format
Si vas a hacer (2), que sólo eliminará los metadatos almacenados por el NameNode, pero no deshacerse de todo el almacenamiento temporal y bloques de nodos de datos
¡no es posible eliminar el directorio principal de almacenamiento de hadoop de cada nodo! – Mehraban
realizando el formato namenode eliminará todos los metadatos y también hará que el clúster no se pueda usar. Esta no es una opción recomendable. –
También si un formato namenode generará una nueva identificación de clúster para el namenode y todos los demás deamons no podrán comunicarse con el namenode. Por favor, actualice su respuesta para evitar equivocaciones. Gracias –
Así que esto es lo que he tenido que hacer en el pasado.
1. Navegue hasta su directorio hadoop en su NameNode, luego detenga todos los procesos de hadoop. Ejecutando el script stop-all predeterminado. Esto también detendrá DFS. p.ej.
cd myhadoopdirectory
bin/stop-all.sh
2. Ahora en cada máquina del clúster (Namenodes, JobTrackers, DataNodes etc.) eliminar todos los archivos en su principal mina de almacenamiento Hadoop se establece en la carpeta temporal en la carpeta raíz. El suyo se puede encontrar en el archivo conf hdfs-site.xml en la propiedad hadoop.tmp.dir, p.
cd /temp/
rm -r *
3. Por último volver a su nodo de nombre, y darle formato al ir a su directorio hadoop y funcionando 'NameNode bin/hadoop -format', por ejemplo,
cd myhadoopdirectory
bin/hadoop namenode -format
4. Inicie nuevamente el clúster ejecutando el siguiente comando. También iniciará DFS nuevamente.
bin/start-all.sh
5. Y debería funcionar.
Es posible emitir
hadoop fs -rmr/
Esto sería eliminar todos los directorios y subdirectorios bajo DFS.
Otra opción es dejar el clúster y ejecuta:
hadoop namenode -format
Esto sería borrar todo el contenido de DFS, y luego iniciar el clúster nuevo.
- Debe llamar al
bin/stop-all.sh
para detener dfs y mapreduce. - Eliminar el directorio de datos que está configurado en conf/hdfs-site.xml y conf/mapred-site.xml.
- Asegúrese de haber eliminado algunos archivos temporales existentes en/tmp dir.
Después de todos los pasos anteriores, puede llamar al bin/hadoop namenode -format
para regenerar un dfs.
parada agrupe
${HADOOP_HOME}/bin/stop-mapred.sh
${HADOOP_HOME}/bin/stop-dfs.sh
o si su seudo distribuida, simplemente cuestión:
${HADOOP_HOME}/bin/stop-all.sh
Formato sus hdfs
hadoop namenode -format
- 1. Diferencia entre `hadoop dfs` y` hadoop fs`
- 2. hadoop dfs -ls se queja
- 3. Hadoop dfs -ls devuelve la lista de archivos en mi directorio/directorio
- 4. iterativo DFS vs Recursive DFS y diferentes elementos de pedido
- 5. "-format hadoop NameNode" devuelve un java.net.UnknownHostException hadoop
- 6. ¿Hay algún sistema de archivos distribuidos que se ejecute en Windows, excepto Hadoop?
- 7. Explicar BFS y DFS en términos de dar marcha atrás
- 8. ¿Cómo puedo obtener una ruta UNC activa en DFS programáticamente?
- 9. Hadoop: «ERROR: JAVA_HOME no está configurado»
- 10. replicación de datos en Hadoop
- 11. Hadoop 0.20.2 El complemento Eclipse no funciona por completo. No se puede ejecutar en Hadoop
- 12. MultipleOutputFormat en hadoop
- 13. Variables globales en hadoop
- 14. Error en Hadoop MapReduce
- 15. Hadoop o Hadoop Streaming para MapReduce en AWS
- 16. hadoop java.io.IOException: mientras se ejecuta namenode -format
- 17. Eliminando código duplicado en python
- 18. Eliminando signos diacríticos en polaco
- 19. Desencadenar llamadas en cascada eliminando
- 20. Profundidad no recursiva-Primera búsqueda (DFS) Uso de una pila
- 21. ¿Puede Hadoop ejecutar en Nginx?
- 22. Hadoop: comprimir archivo en HDFS?
- 23. Problema con -libjars en hadoop
- 24. Java vs Python en Hadoop
- 25. Secuencia de archivos en Hadoop
- 26. Multiplicación de matriz en hadoop
- 27. Transmisión de datos y Hadoop? (no Hadoop Streaming)
- 28. La diferencia entre hadoop fs -put y hadoop fs -copyFromLocal
- 29. Eliminando restricciones sin nombre
- 30. ManyToMany no está eliminando
me sale un error de borrado fallido cuando intento esto, puedo eliminar subdirectorios, pero no la raíz DFS –
'hdfs -rmr' ya no se utiliza y no funcionará para'/'. Deberías probar 'hdfs dfs -rm -r"/* "' en su lugar. – Mehraban