Hadoop ist ein Open-Source-Framework, die ermöglicht zu speichern und verarbeiten groß Datenmengen in einer verteilten Umgebung über Clustern von Computern verwendung einfachen Programmiermodelle. Es wurde entwickelt, um von einzel Servern zu skalieren herauf bis zu Tausenden von Maschinen,jeder Opfergabe lokale Berechnung und Speicherung.
Diese kurze Tutorial bietet einen schnellen Einstieg in groß Daten, Kartereduzieren-Algorithmus und Hadoop verteilt Dateisystem.
Dieses Tutorial hat sein vorbereitet für Profis streben, die Grundlagen der groß-Data-Analytik verwendung Hadoop Rahmen lernen und sich zu einem geworden Hadoop Entwickler. Software Professionals, Professionals Analytics und ETL-Entwickler sind die wichtigsten Nutznießer dieses Kurses.
Bevor Sie anfangen Verfahrens mit diesem Lernprogramm, gehen wir davon aus, dass Sie Stand der Exposition gegenüber Kern Java, Datenbankkonzepte zu haben, und jeder andere der Linux-Betriebssystem Aromen.