„Firmen haben meist keine Ahnung, wo ihre Daten sind“
Dieser Artikel ist älter als ein Jahr!
Um die Datenmengen zu verstehen, die heute über Netzwerke wandern, muss man mittlerweile in Sekunden rechnen. Betrug der gesamte globale Internet-Traffic im Jahr 1992 noch 100 GB pro Tag fielen 2014 laut Cisco 16,1 Terabyte pro Sekunde an. In den kommenden fünf Jahren werden sich die anfallenden Datenmengen auf über 50 Terabyte pro Sekunde erneut mehr als verdreifachen. Die existierenden und gespeicherten Daten werden laut IDC bis 2020 gar auf unvorstellbare 44 Zettabyte (44 Billionen Gigabyte) anwachsen.
UltraHD-Videos als Wachstumstreiber
„In unseren kühnsten Schätzungen sind wir davon ausgegangen, dass sich die Datenmenge um den Faktor eine Million erhöhen wird. Wie man nun sieht, war selbst das zu gering angesetzt“, erklärt Alan Bunte, Chief Operating Officer (COO) der Backup- und Recovery-Firma Commvault im futurezone-Gespräch. Der Datenberg werde durch die Vernetzung von Objekten und Maschinen sowie vor allem durch das Übertragen und Speichern von visuellen Daten wie Fotos und UltraHD-Videos in den kommenden Jahren weiter ungebremst anwachsen.
Das Backup solcher Datenmengen, die mittlerweile längst den verfügbaren Speicherplatz übersteigen, fordert einen radikal anderen Ansatz, ist Bunte überzeugt: „Früher war es üblich 15, 17, ja 20 Kopien der Originaldatei anzufertigen und diese in Archiven und anderen Speicherorten abzulegen. Das ist heute angesichts der Datenmengen natürlich undenkbar.“ Die Virtualisierung, also das Abstrahieren der physischen Seite, sowie der Trend in Richtung Cloud habe einiges zum Besseren verändert. Noch heute würden aber Nacht für Nacht im Zuge von Backup-Prozessen Petabyte von Daten unnötig von Server zu Server verschoben, ist Bunte überzeugt.
Indexierung in Echtzeit
Als Schlüssel für erfolgreiches Datenmanagement sieht Commvault die Indexierung in Echtzeit. „Um zu entscheiden, welche Daten längerfristig behalten werden müssen, was unternehmenskritisch ist, welche Informationen mit Big-Data-Tools analysiert werden soll, muss man zunächst einmal wissen, um welche Art von Daten es sich überhaupt handelt. Dazu kommt, dass die Firmen meist keine Ahnung haben, wo ihre Daten gespeichert sind. Das erleben wir in Notfällen, etwa bei der Disaster Recovery immer wieder, gerade wenn es um Daten geht, die bereits in irgendwelchen Archiven abgelegt wurden.“
Ziel der softwarebasierten Lösung von Commvault ist es, dass Firmen in Zukunft – ähnlich einer Google-Drive-Lösung – nur eine Originaldatei haben. Werden Veränderungen an der Datei vorgenommen, werden nur die gesichert, nicht die komplette Datei erneut kopiert. Um die durchgehende Sicherheit der Datenübertragung – gerade auch aus der und in die Cloud - zu gewährleisten, setzt Commvault laut Bunte auf komplexe Authentifizierungs- und Verschlüsselungsprotokolle inklusive Compliance-Monitoring- und Reporting-Tools. „Wenn viele User sich in der gleichen Infrastruktur befinden, braucht es klar definierte, rollen-basierte Zugriffsrechte“, sagt Bunte.
Commvault ist laut Gartner hinter Symantec, EMC und IBM der viertgrößte Anbieter von Backup- und Recovery-Software weltweit. Mit der ab Dezember 2015 verfügbaren 11. Version seiner Software-Plattform will der Konzern nicht nur neue Kunden, sondern auch Dritt-Entwickler ansprechen, indem neue offene Schnittstellen geschaffen wurden.
Kommentare