Die Problematik, der sich Cohesity annimmt, ist nicht nur das klassische Backup- und Recovery-Szenario. Das Unternehmen setzt hier deutlich tiefer an aufgrund der Erkenntnis, dass es sich bei Daten um eine strategische Ressource handelt, die in den meisten Unternehmen nicht adäquat verwaltet wird. Besonderes Augenmerk widmet Cohesity dabei den Informationen, die nicht als besonders zeitkritisch klassifiziert sind und keine High-Latency-Anforderungen erfüllen müssen – im Gegensatz zu Primärdaten, die typischerweise auf schnellen SAN- oder NAS-Systemen im Rechenzentrum liegen. Bei den von Cohesity adressierten nicht-kritischen Daten handelt es sich um Dateien in Windows- und Unix-Dateifreigaben sowie Objektspeichern, Archivdaten, Files und virtuelle Platten für Entwicklungs- und Testsysteme und eben auch Backupdaten.
Schätzungen zufolge sind nur 20 Prozent der im Unternehmen vorhandenen Daten Primärdaten, der Löwenanteil entfällt auf die nicht zeitkritischen Files. Problematisch dabei ist, dass diese in den meisten Unternehmen hochgradig fragmentiert in vielen verschiedenen Systemen liegen: auf Backupservern und deren angeschlossenen Plattensystemen, auf spezialisierten Deduplikations-Appliances, in klassischen Windows- und Unix-Fileservern. Selten sind diese massenhaft fragmentierten Daten unter zentraler Kontrolle. Der übliche Fall ist eher, dass sie in mehreren redundanten Kopien über Systeme hinweg vorliegen. Mit dem Aufkommen von Cloud-Computing gestaltet sich die Situation noch komplexer: Zwar ist es hier einfacher, hochskalierbare Dateidienste aufzusetzen, allerdings benötigen diese nun herstellerspezifische APIs für den Zugriff auf Objektspeicher wie AWS S3 oder Microsofts REST-API für Azure Blob.
Das Herzstück der Cohesity-Plattform ist ein eigen entwickeltes Dateisystem namens SpanFS – die DataPlatform. Primäres Designziel bei der
...Der komplette Artikel ist nur für Abonnenten des ADMIN Archiv-Abos verfügbar.