
HDFS macht immer noch eine Sache wirklich gut: große Dateien über mehrere Maschinen hinweg mit solider Fehlertoleranz speichern. Es ist großartig für Batch-Workloads und funktioniert hervorragend in Kombination mit Spark, Hive oder traditionellen Hadoop-Jobs. Sobald es richtig eingerichtet ist, ist es stabil und erledigt seine Arbeit leise im Hintergrund. Für altmodische, lokale Big-Data-Pipelines ist es ein zuverlässiges Arbeitstier. Bewertung gesammelt von und auf G2.com gehostet.
Seien wir ehrlich, HDFS hält nicht mit der Zeit Schritt. In der heutigen Welt von cloud-nativen, serverlosen, automatisch skalierenden Speicherlösungen fühlt sich HDFS an wie ein Nokia in einer iPhone-Welt. Skalierung bedeutet mehr Hardware, mehr Kopfschmerzen. Die Verwaltung von NameNode/SecondaryNameNode ist wie Babysitting – ein falscher Schritt und Ihr Cluster wirft einen Wutanfall.
Es verarbeitet große Dateien gut, aber füttern Sie es mit zu vielen kleinen Dateien und es erstickt. Es fehlt auch an Flexibilität und Kosteneffizienz von Cloud-Speicher, kein Gefühl eines verwalteten Dienstes, und fragen Sie nicht einmal nach Objektzugriff auf Ebene.
Sicherheit, Upgrades und Wartung? Ein ganzer Job für sich. Sie werden ein dediziertes Team benötigen, nur um alles reibungslos zu halten. Bewertung gesammelt von und auf G2.com gehostet.




