Ratgeber

3 Erfolgstipps vermeiden Multi-Cloud-Pannen

Multi-Cloud-Infrastrukturen erlauben es dem Nutzer, Public-Cloud- und Private-Cloud-Services so miteinander zu verbinden, wie es nötig ist. So bleiben Unternehmen flexibel und unabhängig. NetApp erläutert, wie sich die Stolpersteine umgehen lassen.

multi cloud

1. Datentransfer reduzieren

Eine Herausforderung, die in einem anlaufenden Multi-Cloud-Projekt oftmals unnötig Kosten provoziert, ist der Datentransfer. Bei der Migration – ob von einer On-Premises-Infrastruktur in die Cloud oder von einem Public-Cloud-Anbieter zu einem anderen – stoßen IT-Verantwortliche oft auf unvermutete Bandbreiten- oder Netzwerkprobleme. Häufig übersehen sie in ihrer Planung die Aufwände für die Integration der Daten und die Kosten für Backups. Woran außerdem kaum einer denkt: Wer Daten von einem Provider zu einem anderen umziehen möchte, muss sie zunächst aus der Cloud extrahieren. Auch dieser Datentransfer kostet Geld.

Die Lösung: Die Verantwortlichen eines Multi-Cloud-Projekts sollten versuchen, den Datentransfer so effizient wie möglich zu gestalten. Beispielsweise, indem sie redundante Daten löschen und damit die Größe des Datensatzes reduzieren. Dadurch benötigen sie weniger Storage und verursachen weniger Netzwerkverkehr. Auch das Backup wird billiger.

2. Storage und Rechenleistung bemessen

Ein anderer Fehler, den Unternehmen häufig machen, ist die Über- oder Unterprovisionierung. Wer mehr Storage oder Rechenleistung bucht, als er eigentlich braucht, gibt unnötig Geld aus. Sind die Ressourcen dagegen zu knapp bemessen, beeinträchtigt das die Performance von Applikationen und behindert Geschäftsprozesse. Die Skalierung sollte sich daher in der Multi Cloud den Erfordernissen anpassen und nicht umgekehrt.

Die Lösung: Administratoren müssen stets den Überblick darüber behalten, welche Server gerade in Betrieb sind. Helfen können dabei externe Berater. Sie ermitteln gemeinsam mit dem Kunden, wie die aktuelle Ausgangssituation ist, welcher Speicherbedarf besteht und wie er sich am besten decken lässt.

3. Skalierbarkeit sicherstellen

Auch wenn die Verantwortlichen Datentransfer und Provisionierung sichergestellt haben, können sich in konkreten Anwendungsszenarien weitere Hindernisse aus der Datennutzung ergeben. Zum Beispiel bei Big-Data-Analysen, die typischerweise in der Cloud laufen. Die Herausforderung besteht hier darin, riesige Datenmengen möglichst schnell und kostengünstig zu analysieren. Dabei wächst das Datenvolumen exponentiell und erfordert eine hohe Skalierbarkeit des Speichers. Mit einer On-Premises-Infrastruktur ist dies schlicht zu teuer. Zudem müssen Nutzer an verschiedenen Standorten auf dieselben Datensätze zugreifen können.

Die Lösung: Ein gut passendes Datenmanagement. Über Datenmanagement-Lösungen lässt sich eine funktionale Multi-Cloud-Umgebung garantieren. So ermöglichen es Tools und Services beispielsweise, dass mehrere Nutzer gleichzeitig auf denselben Datensatz zugreifen können, wobei integrierte Verschlüsselung für Sicherheit sorgt, während die Daten automatisch synchron gehalten werden.


Anzeige

data-quality-center

Data Quality Center

  • Stammdaten-Assessment
  • Softwareauswahl zur Verbesserung der Datenqualität
  • Datenmigration und -implementierung

Auch die Skalierbarkeit lässt sich mit den passenden Services nach Bedarf variieren. Mit Cloud Volumes Service ist es zudem möglich, über die Snapshot-Funktion Datenbankzustände zu klonen. Solche Klone sind ideal, um Neuerungen oder Datenanreicherung zu testen, ohne das aktive File System zu beeinträchtigen.

Eine Million Genome parallel entschlüsselt

Ein Erfolgsbeispiel dafür, was eine Multi-Cloud-Umgebung in Sachen Big-Data-Analyse leisten kann, ist WuXi NextCODE. Das Unternehmen betreibt die weltweit führende Plattform für genomische Daten. Dafür sammelt die Firma wertvolle genetische Informationen, die Medizinern und Wissenschaftlern Erkenntnisse über Krankheiten liefern. Um die Daten zu speichern sowie Analysefunktionen und medizinische Applikationen bereitzustellen, nutzt das Unternehmen eine integrierte Multi-Cloud-Umgebung in Kombination mit verschiedenen Datenmanagement-Lösungen.

Das stellt permanent hohe Anforderungen an die Performance und das Datenmanagement. Die adäquate IT-Architektur erlaubt es dem Unternehmen, diesen Anforderungen gerecht zu werden und ermöglicht Flexibilität, Skalierbarkeit und eine Integration mit bestehenden Systemen.

WuXi NextCODE kann bis zu eine Million Genome parallel entschlüsseln. Weiterhin ist das Unternehmen in der Lage, eine komplexe, fortgeschrittene Datenabfrage in nur 45 Minuten durchzuführen. Andere Plattformen konnten das bisher nicht bewerkstelligen. „Der Umzug in eine Multi-Cloud-Umgebung bringt Unternehmen in verschiedensten Branchen voran“, berichtet Peter Wüst, Director Cloud Infrastructure bei NetApp. „Ein solcher Erfolg stellt sich jedoch nur dann ein, wenn die Migration gut geplant und umgesetzt wird.“ Jürgen Frisch

Next article Hängen SAP und Microsoft Anwender ab?
Previous article Robotic Process Automation im Praxischeck
Scroll Up