En un principio tienes que formatear el sistema de archivos HDFS namenode, abierto (HDFS server), y ejecute el siguiente comando.
$ hadoop namenode -format
Después de formatear la HDFS, iniciar el sistema de archivos distribuido. El siguiente comando inicia el namenode, así como los nodos de datos en cluster.
$ start-dfs.sh
Después de cargar la información en el servidor, podemos encontrar la lista de los archivos de un directorio, el estado de un archivo, utilizando "ls". A continuación se muestra la sintaxis de ls que se puede pasar a un directorio o un nombre de archivo como argumento.
$ $HADOOP_HOME/bin/hadoop fs -ls <args>
Supongamos que tenemos los datos en el archivo llamado archivo.txt en el sistema local que debe guardarse en el sistema de archivos hdfs. Siga los pasos que se indican a continuación para insertar el archivo requerido en el Hadoop sistema de archivos.
Tiene que crear un directorio de entrada.
$ $HADOOP_HOME/bin/hadoop fs -mkdir /user/input
Transferir y almacenar un archivo de datos de sistemas locales a la Hadoop sistema de archivos utilizando el comando put.
$ $HADOOP_HOME/bin/hadoop fs -put /home/file.txt /user/input
Puede comprobar el archivo mediante comando ls.
$ $HADOOP_HOME/bin/hadoop fs -ls /user/input
Supongamos que tenemos un archivo llamado into outfile en HDFS. A continuación se ofrece una demostración sencilla para recuperar el archivo necesario de la Hadoop sistema de archivos.
En un primer momento, ver los datos de los HDFS con comando cat.
$ $HADOOP_HOME/bin/hadoop fs -cat /user/output/outfile
Obtener el archivo de HDFS al sistema de archivos local mediante get.
$ $HADOOP_HOME/bin/hadoop fs -get /user/output/ /home/hadoop_tp/
Puede apagar el HDFS, utilizando el siguiente comando.
$ stop-dfs.sh