Der Siegeszug der Virtualisierung rollt unaufhörlich. Server machten den Anfang, dann folgten andere Komponenten, in den 2010er Jahren auch Netzwerke. Das Prinzip ist immer gleich: Physische Hardware und Software werden getrennt, bisher in Hardware gegossene Funktionen durch Software realisiert. Mehr Flexibilität und eine Aufweichung von festen Herstellerbindungen sind auch beim Software-defined Networking (SDN) der Lohn.
Und Flexibilität brauchen Provider und Unternehmen, um Technologien wie Remote, Mobile, Cloud und IoT, Edge-Computing, Virtuelle Realität, Container, Microservices und Service-Meshes optimal gestalten und nutzen zu können. Verbindungen sollen nicht mehr in Monaten, sondern in Minuten bereitgestellt oder in ihrer Qualität verändert werden. Zusätzliche Funktionen, etwa erhöhte Sicherheit, wollen Anwender bei Bedarf und lediglich für bestimmte Datenströme, Zeitabschnitte oder Strecken benutzen, nicht mehr pauschal buchen und bezahlen.
Das alles erfordert den Abschied vom hardwarebasierten Denken. Netzwerkvirtualisierung bedeutet dabei neben der Trennung von Soft- und Hardware vor allem die Trennung von Daten- und Kontrollpfad. Im Netz werden mehrere übergeordnete Ebenen implementiert, von denen aus sich die darunterliegenden Switches und Router (Ebene 2 und 3 nach dem Netzwerkmodell) sowie die Verbindungen zwischen ihnen und deren Qualitäten steuern lassen. Ziel dabei ist, möglichst allen Daten und Streams, die durchs Netz wandern, optimale Bedingungen zu bieten und unerwünschte Eindringlinge wirksam von den transportierten Datenpaketen fernzuhalten.
Über einer Kontrollschicht liegen in SDN-Infrastrukturen die Anwendungen im Rahmen der Network Function Virtualization (NFV). Der Basisstandard der offenen SDN-Vernetzung, OpenFlow, erlaubte nur die Definition einer Datenpipeline, also des Weges, über den ein bestimmtes
...Der komplette Artikel ist nur für Abonnenten des ADMIN Archiv-Abos verfügbar.