Datenmengen steigen exponentiell an – und mit Ihnen die Cyberangriffe à la WannaCry und Petya. Folglich werden Unternehmen einerseits immer abhängiger von Daten, andererseits steigt der Bedarf an Datenzugriff und -sicherheit. Lesen Sie hier 4 Tipps wie Sie Ihre Daten fit für das Digital Business halten.
Die Backup-Anwendungen, die heute das Mainstream-Angebot prägen und vielfach im Einsatz sind, wurden in den späten 1980er Jahren entwickelt. Vielleicht erinnern Sie sich noch: Das waren mal Festplattengrößen in dreistelligen Megabyte-Zahlen gemessen. Mircosoft hatte damals erst Windows 2.11 auf den Markt gebracht.
Anforderungen ändern sich aber bekanntlichermaßen mit der Zeit. Passend hierzu gibt es auch ein aktuelles Statment von Actifio Sales Director Thorsten Eckert:
„Da sich die Welt weiterentwickelt hat, haben die damaligen Backup-Anwendungen neue Features verpasst bekommen, um die zunächst nur steigenden und später regelrecht explodierenden Datenmengen bewältigen zu können. Die nach wie vor zugrundeliegenden ursprünglichen Altarchitekturen wurden jedoch nicht für die Herausforderungen konzipiert, die heute gegeben sind.“
Weiter gedacht könnte man also sagen: Anbieter von Backup-Lösungen sollten dringend Ihre Software hinterfragen. Und nachdem Sie in Ihrem Unternehmen wahrscheinlich keine Zeit haben hierauf zu warten, fassen wir Ihnen vier kompakte Präventivmaßnahmen für optimale Backups zusammen.
4 Facts, die eine Neuerung herkömmlicher Backups fordern
1.) Windows sichern
Die traditionelle Backup-Software basiert auf einem Ansatz, der inkrementelle und vollständige Backups kombiniert.
Eine inkrementelle Sicherung kopiert erst einmal die Änderungen der letzten Sicherung, so dass die übertragene Datenmenge in der Regel eher klein ist, was sehr schnelle Sicherungen ermöglicht.
Eine vollständige Sicherung hingegen ist eine vollständige Kopie der Produktionsdaten. Diese ist in der Regel sehr groß und kann unhandlich werden, wenn das Datenvolumen weiterwächst.
Um die Backup-Fenster zu minimieren, verlassen sich Unternehmen meist eher auf inkrementelle Backups. Dies hat jedoch deutliche Auswirkungen auf die Wiederherstellungszeiten. Vollständige Backups dauern viel länger, bis sie abgeschlossen sind.
2.) Wiederherstellungszeiten
Bisher stand bei vielen IT-Entscheidern wohl die Minimierung der Backup-Fenster im Vordergrund, aber heute zählt die zuverlässige – und im Idealfall auch schnelle – Wiederherstellbarkeit. Was bringt es, wenn Daten täglich gesichert werden, sich aber im Ernstfall nicht schnell wiederherstellen lassen?
Die Herausforderung bei der Wiederherstellung geht zurück auf das Modell der inkrementellen und vollständigen Sicherung.
Inkrementelle Backups sind überschaubar, aber das zuständige IT-Team muss zuerst die vorherige vollständige Sicherung und dann jede nachfolgende inkrementelle Sicherung wiederherstellen. Dieser Vorgang kann zeitaufwändig sein und birgt ein Risiko, da ein Fehler bei jeder inkrementellen Sicherung zu einer fehlerhaften vollständigen Wiederherstellung führen kann. Die Wiederherstellung aus einer vollständigen Sicherung heraus ist viel einfacher, da sich das gesamte Image von einem Backup wiederherstellen lässt.
Die Unternehmens-IT sieht sich hier oftmals gezwungen, sich zwischen zwei Kompromissen zu entscheiden: schnelle Backup-Zeiten und langsame Wiederherstellungen mit inkrementellen Backups oder langsame Backups und schnellere Wiederherstellungen mit vollständigen Backups. Diese zwei alternativen „Notlösungen“ sind in der heutigen datenorientierten Welt nicht mehr zeitgemäß. Vorteilhafter wäre eine Lösung, die eine schnelle Sicherung und ebenso schnelle Wiederherstellung ermöglicht.
3.) Komplexe Disaster-Recovery-Prozesse
Die IT ist für den Geschäftsbetrieb immer relevanter geworden. Eine zuverlässige Wiederherstellung im Notfall (Disaster Recovery) wird demnach wichtiger denn je. Ein einziger Ausfall kann bereits zu erheblichen Einnahmenverlusten und negativen Auswirkungen für die Reputation führen. Veeam rechnet hier etwa mit einem weltweiten Verlust von jährlich 21,8 Millionen US-Dollar, der durch Systemausfälle entsteht.
Deshalb sollten Unternehmen auf Ausfälle aller Art vorbereitet sein – einschließlich Katastrophenszenarien.
Die Herausforderung beim herkömmlichen Backup ist, dass groß angelegte Wiederherstellungen Tage oder sogar Wochen dauern können. Die vollständige Wiederherstellung nach einer Katastrophe kann extrem problematisch sein. Der Einsatz von Festplatten als Sicherungsziel sorgt inkrementell für Verbesserungen der Wiederherstellungszeiten, das Kernproblem langwieriger Wiederherstellungen bleibt aber bestehen. Aus diesem Grund sind viele Unternehmen nicht in der Lage, ihre Disaster-Recovery-Pläne zu testen, weil der Zeit- und Arbeitsaufwand größer ist als entsprechende Ressourcen zur Verfügung stehen. Dies ist eine beängstigende Situation, denn ohne einen realitätsnahen Test, ist nicht sicher, ob ein DR-Plan im Notfall tatsächlich funktionieren wird.
Erforderlich wären daher schnellere Methoden, die eine sofortige Datenwiederherstellung (Instant Data Recovery) lokal und in der Cloud ermöglichen, ohne langwierigen Wiederherstellungsprozess.
4.) Gesicherte Daten nutzbar machen
IT-Infrastrukturen entwickeln sich ständig weiter. Um die Zuverlässigkeit und Konsistenz zu gewährleisten, müssen Unternehmen sämtliche Änderungen und Upgrades sorgfältig testen, bevor sie in der Produktionsumgebung ausgerollt werden.
In der Praxis erfordert dies große Testumgebungen, in denen Unternehmen Kopien von Produktionsdaten erstellen, speichern, „mounten“ und darauf zugreifen. Diese Investition kommt hinzu neben den bestehenden Investitionen für die Produktionsumgebung und die Datensicherung.
Ideal erscheint hier eine Lösung, die eine unmittelbare Wiederherstellung von lese-/schreibfähigen Daten zu Testzwecken ermöglicht. Gesicherte Daten werden somit besser nutzbar. Durch das sofortige „Mounten“ einer Kopie der Produktionsdaten können die Anforderungen für die Speicherung von Testdaten deutlich reduziert werden. Für Tests können immer die aktuellsten Produktionskopien herangezogen werden.
Die Testumgebung kann somit schlanker sein und die Testqualität verbessert sich, da mit vollständigen Produktionsdatensätzen getestet wird, statt behelfsmäßig mit abgespeckten Testdatensätzen.
Zeit für neue Ansätze
IT-Abteilungen haben sich in den letzten drei Jahrzehnten erheblich weiterentwickelt – vielleicht auch schon Ihre eigene. Die Methodik der Datensicherung ist allerdings aber nicht vorangekommen.
Laut Thorsten Eckert sollte die Datensicherung per se überdacht werden. „Lösungen für Enterprise-Data-as-a-Service, basierend auf Copy-Data-Virtualisierung, haben sich in der Praxis bereits vielfach bewährt“, sagt Thorsten Eckert. Demnach sollten hier vermehrt zeitgemäße Ansätzen in Betracht gezogen werden, Eckert nennt etwa virtualisiertes Datenmanagement. Dieses kann zu einer modernen Backup-Strategie beitragen und gleichzeitig den aktuellen Geschäftsanforderungen gerecht werden.
Dieser Beitrag basiert in Teilen auf die Pressemitteilung von Actifio
Quelle Titelbild: iStock /dourleak