Einführung in Hadoop, MapReduce und das Hadoop Ecosystem mit praktischen Übungen.
-
Dauer
3 Tage -
Ziel
- Erlernen und Kennenlernen der Architektur von Apache Hadoop
- Kernkomponenten von Hadoop und dem Hadoop Ökosystem
- Funktionsweise von HDFS und MapReduce
- Grundkenntnisse, um MapReduce und einfache BigData Anwendungen zu entwickeln
- Erlernen der Mittel für die Definition von Datenworkflows
- Kennenlernen der Grenzen von Hadoop und MapReduce
-
Zielgruppe
System-Architekten, Entwickler, Big Data Interessierte.
-
Inhalt
- Warum und wozu Hadoop verwendet wird
- Eigenschaften der Hadoop Architektur
- Kernkonzepte von Hadoop
- Funktionalität von MapReduce
- Die wichtigsten Komponenten des Hadoop Ökosystem: HDFS, MapReduce, Pig, Hive, HBase, Zookeeper, Flume, Cascading, usw.
- Entwicklung von MapReduce Anwendungen
- Daten-Import und –Export
- Automatisierung von Datenworkflows
- Daten-Serialisierung /De-Seralisierung mit Avro
- Hadoop APIs
- Best Practices und Patterns
-
Methods
Vortrag mit praktischen Übungen.
-
Requirements
Grundkenntnisse IT.
Kontakt zu unserem Service Center
+49 (0) 711 90363245
+41 (0) 584 595795
+43 (01) 33 2353160
+41 (0) 584 595454