Anfänglich müssen Sie die konfiguriert HDFS-Dateisystem, offene Namen Knoten (HDFS-Server) zu formatieren, und führen Sie den folgenden Befehl ein.
$ hadoop namenode -format
Nach der Formatierung der HDFS starten Sie das verteilte Dateisystem. Der folgende Befehl wird starten den Namen Knoten ebenso gut wie die Daten Knoten als Cluster.
$ start-dfs.sh
Nach dem Laden der Daten in dem Server, können wir die Liste der Dateien in einem Verzeichnis zu finden, Status einer Datei verwendung 'ls'. Da unten ist die Syntax des ls, dass Sie kann zu ein Verzeichnis oder einen Dateinamen als Argument übergeben.
$ $HADOOP_HOME/bin/hadoop fs -ls <args>
Übernehmen wir haben Daten in der Datei mit dem Namen file.txt im lokalen System, die es haben sollte im HDFS-Dateisystem gespeichert werden. Befolgen Sie die unten angegebenen Schritte, um die einfügen erforderlichen Datei in der Hadoop-Dateisystem ein.
Sie haben einen Eingang Verzeichnis zu erstellen.
$ $HADOOP_HOME/bin/hadoop fs -mkdir /user/input
Übertragen und Speichern einer daten Datei von der lokalen Systeme an die Hadoop-Dateisystem verwendung dem Befehl setzen.
$ $HADOOP_HOME/bin/hadoop fs -put /home/file.txt /user/input
Sie können die Datei verwendung ls Befehl verifizieren.
$ $HADOOP_HOME/bin/hadoop fs -ls /user/input
Angenommen, wir haben eine Datei in HDFS namens outfile. Da unten ist eine einfache Demonstration zum Abrufen die gewünschte Datei aus der Hadoop-Dateisystem.
Anfänglich sehen Sie die Daten aus HDFS verwendung cat Befehl.
$ $HADOOP_HOME/bin/hadoop fs -cat /user/output/outfile
Holen Sie sich die Datei von HDFS in das lokale Dateisystem verwendung get Befehl.
$ $HADOOP_HOME/bin/hadoop fs -get /user/output/ /home/hadoop_tp/
Sie können Herunterfahren des HDFS, indem Sie den folgenden Befehl aus.
$ stop-dfs.sh