Start Nachrichten Daten-Eisberg verursacht hohe Kosten

Daten-Eisberg verursacht hohe Kosten

Unstrukturierte Daten aus einer Vielzahl von Anwendungen und auch neue Richtlinien für die Daten-Vorhaltung, Stichwort DSGVO, vergrößern den Datenberg der Unternehmen immer mehr. Einen Großteil der vorhandenen Daten speichern Unternehmen oft noch immer auf der teuersten Speicherebene, obwohl diese „kalten“ Daten nur selten benötigt werden. Neue Speicherkonzepte senken die Kosten des Daten-Eisbergs.

BEIM VIEL beschriebenen Datenberg handelt es sich doch eher um einen Daten-Eisberg. Denn der Großteil der Daten sind kalte Daten, die ungenutzt im Verborgenen liegen. 

Der aufgeblähte Speicher erhöht zudem die Komplexität des Rechenzentrums und mach dessen Management zu einer echten Herausforderung für IT-Verantwortliche. Bedenkt man die hohen Kosten, die beispielsweise Primärspeicher verursachen, muss man die genutzten Speicherkonzepte, die eine solche Situation erzeugen, infrage stellen. Neue Speichertechnologien, aufbauend auf Objektspeicher und modernen Datenmanagement, können helfen, das Problem hoher Speicherkosten für eigentlich ungenutzte Daten zu lösen.

Speicher-Tiering ermöglicht Daten-Aufteilung

Der Hauptgrund für das enorme Daten-Wachstum sind unstrukturierte Daten aus einer Vielzahl von Anwendungen. Auch neue Richtlinien für die Vorhaltung von Daten tragen zu einer größeren Datenmenge bei – und zu einem noch höheren Prozentsatz kalter, ungenutzter Daten. Und obwohl es seit langem Lösungen gibt, Daten mittels Storage-Tierings in passende Speicher aufzuteilen, landet ein Großteil der vorhandenen Daten oft noch immer auf der teuersten Speicherebene: dem Primärspeicher.

Backup und Replikation lassen die Datenmenge exponentiell wachsen

Ein Grund für den hohen Anteil ungenutzter Daten auf dem Primärspeicher sind beispielsweise die Prozesse für Backup und Replikation. Diese Daten etwa auf NAS zu speichern, ist speicherintensiv und teuer. Sobald eine Datei erstmals erstellt wird, werden die Daten zum Snapshot-Zeitplan hinzugefügt. Aktive Dateien haben eine tägliche Änderungsrate von etwa 20 Prozent, so dass eine 1 MB große Datei innerhalb von nur einer Woche zu 2 MB Snapshots anwächst. Zu den Snapshots kommen noch Backups hinzu: Tägliche und wöchentliche Backups werden monatlich und monatliche Backups jahrelang aufbewahrt. Das Endergebnis ist, dass Unternehmen über die gesamte Lebensdauer einer Datei ein Vielfaches der ursprünglichen Dateigröße speichern müssen. Und das Problem vergrößert sich exponentiell – je mehr Daten erzeugt und behalten werden, desto größer wird die Belastung über Backup- und Replikation.

Neue Speicherkonzepte versprechen Abhilfe

Angesichts dieser riesigen Menge inaktiver, kalter Daten auf teurem Primärspeicher drängt sich die Frage auf, ob es denn nicht möglich wäre, das Konzept des Daten-Tierings so anzuwenden, dass es dem Grundgedanken gerecht wird, nicht genutzte Daten auf einem möglichst günstigen Speicher vorzuhalten und nicht auf dem teuren Premium-Primärspeicher? Neueste Software zur Speicherverwaltung verspricht genau dies. Gleichzeitig ist es natürlich sinnvoll, Speicherkonzepte zu erstellen, die die Nachteile der gängigen Speicherkonzepte generell vermeiden und damit deutlich günstigeren Speicherplatz ermöglichen. Beide Lösungen zusammen sollten es erlauben, Speicherplatz auf dem teuersten Speichermedium einzusparen und die Kosten für die Storage-Systeme darunter deutlich zu verringern.

Objektspeicher lassen sich in kleinen Schritte skalieren

Der erste Teil der Lösung ist kosteneffektiver Objektspeicher für Unternehmen – seit langem ein wichtiger Bestandteil von Cloud-Plattformen wie Amazon oder Google und Grundlage für Angebote wie Youtube, Facebook und Netflix. Waren diese Lösungen bisher den Schwergewichten der IT-Branche vorbehalten, bringen neue Speichertechnologien sie in die Rechenzentren in aller Welt. Dort zeichnen sie sich durch die gleichen Merkmale aus, die sie von vornherein für diese Anwendungen prädestinierten: eine sehr hohe Kosteneffizienz und eine unbegrenzte Skalierbarkeit. Diese Faktoren machen Objektspeicher zu einem perfekten Tier-2-Speicherziel für viele Anwendungen unterhalb des teuren Primärspeichers.

Insbesondere die Bereitstellung und Skalierung von Speicher ist seit jeher ein Problem, das jeder Storage-Manager kennt: NAS- und Backup-Systeme müssen oft viel größer bereitgestellt werden als sie anfangs überhaupt benötigt werden und stehen deshalb oft jahrelang im Leerlauf herum. Objektspeicher hingegen zeichnet sich dadurch aus, dass er verglichen mit monolithischen Speichersystemen in sehr vielen kleineren Schritten skaliert werden kann. Man kann also klein beginnen und nach Bedarf hochskalieren. Das spart immense Kosten, die je nach Größe bei nur 0,5 bis 1 Cent pro Gigabyte liegen. Ein Objektspeicher ist auch sehr einfach aufgebaut und vermeidet Komplexität im Rechenzentrum, indem er mehr Informationen in einem einzigen Storage-Pool konsolidieren kann.

Dateimanagement der neuesten Generation

Der zweite Teil der Lösung ist eine Dateiverwaltungssoftware der nächsten Generation, die den Prozess des Tierings von Daten automatisiert. Diese Lösungen identifizieren Daten anhand benutzerdefinierter Attribute wie beispielsweise Dateialter, Zugriffshäufigkeit, Eigentümer oder Dateityp und verschieben die Daten dann automatisch entweder in den teuren Primärspeicher oder den günstigen Objektspeicher. Wenn der Benutzer die Daten anfordert, werden sie transparent aus der Objektspeicherung abgerufen. Ändert der Benutzer die Datei, wird sie in den Originalordner zurückgeschickt. Der gesamte Prozess ist für den Benutzer unsichtbar und der Datenzugriff ändert sich nicht. Jon Toor/hei


Der Autor

Jon Toor ist CMO beim Anbieter von Speicher-Technologie Cloudian.

 

 


Anzeige

Data Quality Center: unsere Kompetenz im Datenmanagement

data-quality-center

  • Stammdaten-Assessment
  • Softwareauswahl zur Verbesserung der Datenqualität
  • Datenmigration und -implementierung
Zum Datenmanagement-Center