
Die Nachfrage nach Analyse von Big Data macht zentralisierte proprietäre Tools für einige Anforderungen ungeeignet.
Über Cloudera
Cloudera bietet eine Hadoop-Distribution für die Verarbeitung von großen Datenmengen im Big-Data-Umfeld.
Cloudera kombiniert effektiv Cluster von Hunderten von Computern zu einer einzigen Datenprogrammierumgebung, die als “Rechenzentrum-Betriebssystem” fungiert. Zu den Komponenten der Cloudera Hadoop-Distribution gehören HDFS – verteilter Datenspeicher, YARN – Ressourcen Vermittler, Spark – ein In Memory Data-Programming-Framework, Spark Streaming – Streaming Datenanalyse, Impala – ein verteiltes relationales Data Warehouse und schließlich der Cloudera Manager – eine grafische Konsole zum Cluster Management.
Speziell für Firmen mit komplexer IT-Landschaft sehen wir in Cloudera eine hervorragende Cloud-Lösung für Big Data-Anwendungen.