Einführung in Hadoop, MapReduce und das Hadoop Ecosystem mit praktischen Übungen.
-
Dauer
3 Tage -
Ziel
- Erlernen und Kennenlernen der Architektur von Apache Hadoop
- Kernkomponenten von Hadoop und dem Hadoop Ökosystem
- Funktionsweise von HDFS und MapReduce
- Grundkenntnisse, um MapReduce und einfache BigData Anwendungen zu entwickeln
- Erlernen der Mittel für die Definition von Datenworkflows
- Kennenlernen der Grenzen von Hadoop und MapReduce
-
Zielgruppe
System-Architekten, Entwickler, Big Data Interessierte.
-
Inhalt
- Warum und wozu Hadoop verwendet wird
- Eigenschaften der Hadoop Architektur
- Kernkonzepte von Hadoop
- Funktionalität von MapReduce
- Die wichtigsten Komponenten des Hadoop Ökosystem: HDFS, MapReduce, Pig, Hive, HBase, Zookeeper, Flume, Cascading, usw.
- Entwicklung von MapReduce Anwendungen
- Daten-Import und –Export
- Automatisierung von Datenworkflows
- Daten-Serialisierung /De-Seralisierung mit Avro
- Hadoop APIs
- Best Practices und Patterns
-
Methods
Vortrag mit praktischen Übungen.
-
Requirements
Grundkenntnisse IT.
Kontakt zu unserem Service Center
+49 (0) 711 90363245
+41 (0) 584 595795
+43 (01) 33 2353160
+41 (0) 584 595454
Ort | Datum | Sprache | Preis | |
---|---|---|---|---|
Inhouse-Schulungen auf Anfrage | Anfrage |
- Garantierte Durchführung
- Mit deiner Buchung findet der Kurs garantiert statt
- Dieser Kurs ist ausgebucht. Mit deiner Buchung wirst du auf die Warteliste gesetzt
- Der Kurspreis wird in der Währung EUR ausgewiesen. Für Bestellungen aus der Schweiz rechnen wir den Preis in CHF um und berücksichtigen den entsprechenden Mehrwertsteuersatz. Gerne stehen wir dir bei der Bestellung auch telefonisch zur Verfügung: CH +41 58 459 57 95 oder DE +49 711 903 632 45.