Wer in gar nicht so weit zurückliegender Vergangenheit, also vor zehn bis 15 Jahren, einschlägige Konferenzen rund um Terminalserver und Virtual Desktop Infrastructure (VDI) besuchte, fand Vorträge zum Thema Grafikbeschleunigung nur am Rande. Typische Szenarien, die seinerzeit als Referenz dienten, waren High-End-Anwendungen, wie etwa CAD im Flugzeugbau. Solche Beispiele zeigten zwar damals schon eindrucksvoll das technisch Machbare, waren aber für typische Nutzungsprofile im Office-Sektor weder zwingend nötig noch erschwinglich.
Dass sich dies heutzutage gewandelt hat, liegt zum einen daran, dass sich die Art und Weise, wie Windows seine Oberfläche darstellt, verändert hat und der Aufbau eines typischen Desktops mit seinen Anwendungen komplexer geworden ist. Zum anderen haben sich damit einhergehend das Angebot an verfügbarer Grafikhardware sowie deren Unterstützung durch Hypervisoren vom Exoten zum Mainstream entwickelt.
Im Folgenden beschäftigen wir uns mit der Frage, ob und wie der Einsatz von Grafikkarten, auch als Graphics Processing Units (GPU) bezeichnet, das Benutzererlebnis in virtuellen Desktops und entfernten Windows-Sitzungen verbessern kann. Wenn ein Hypervisor übrigens eine physische GPU partitioniert und mehreren virtuellen Maschinen arbeitsteilig zur Verfügung stellt, ist die Rede von virtuellen GPUs (vGPU).
Um deren Einfluss auf die Leistungsfähigkeit entfernter Desktops einzuschätzen, hilf ein Blick unter die Haube. Hier tummeln sich vor allem die Hersteller AMD, Intel und NVIDIA. Letzterer hat seine entsprechende Technologie schlicht "NVIDIA virtual GPU" (vGPU) getauft [1]. Derweil gab AMD dem Kind den Namen "MxGPU" [2] und Intel spricht von seiner "Graphics Virtualization Technology" (GVT-g) [3]. Wenngleich die Technik im Detail variiert, verfolgen alle dasselbe Ziel, nämlich Grafikkerne
...Der komplette Artikel ist nur für Abonnenten des ADMIN Archiv-Abos verfügbar.