Inicialmente você terá que formatar o sistema de arquivos configurados HDFS, abrir namenode (HDFS server), e executar o comando a seguir.
$ hadoop namenode -format
Após a formatação o HDFS, iniciar o sistema de arquivos distribuídos. O seguinte comando irá iniciar o namenode, bem como os nós de dados em cluster.
$ start-dfs.sh
Depois de colocar a informação no servidor, podemos encontrar a lista de arquivos em um diretório, o estado de um arquivo, utilizando a opção ‘ls’. Abaixo está a sintaxe de ls que você pode passar para um diretório ou um arquivo como um argumento.
$ $HADOOP_HOME/bin/hadoop fs -ls <args>
Imagine que tenhamos os dados no arquivo chamado .txt no sistema local que é deveria ser guardado no hdfs file system. Siga as etapas abaixo para inserir o arquivo necessário no Hadoop file system.
Você tem que criar um directório de entrada.
$ $HADOOP_HOME/bin/hadoop fs -mkdir /user/input
Transferir e armazenar um arquivo de dados de sistemas locais para o Hadoop sistema de arquivos usando o comando put.
$ $HADOOP_HOME/bin/hadoop fs -put /home/file.txt /user/input
Você pode verificar o arquivo usando ls comando.
$ $HADOOP_HOME/bin/hadoop fs -ls /user/input
Suponhamos que temos um arquivo de HDFS chamado outfile. Dada abaixo é uma demonstração simples para recuperar os arquivos necessários do Hadoop file system.
Inicialmente, exibir os dados da HDFS usando cat comando.
$ $HADOOP_HOME/bin/hadoop fs -cat /user/output/outfile
Obter o arquivo do HDFS no sistema de arquivos local usando comando get.
$ $HADOOP_HOME/bin/hadoop fs -get /user/output/ /home/hadoop_tp/
Você pode encerrar o HDFS, usando o seguinte comando.
$ stop-dfs.sh