VMware View Hardwarebeschleunigung aktivieren

Vorarbeiten

Auf der Treiberseite von NVidia die passenden Treiber herunterladen

Entpacken der heruntergeladenen Datei. Die beiden darin befindlichen Dateien

  • NVIDIA-vGPU-kepler-VMware_ESXi_6.5_Host_Driver_367.134-1OEM.650.0.0.4598673.vib
  • NVIDIA-vGPU-kepler-VMware_ESXi_6.5_Host_Driver_367.134-1OEM.650.0.0.4598673-offline_bundle.zip

müssen nun auf einen Datenspeicher Ihres VMware Storages hochgeladen werden.

Anpassung des ESXi Hosts, in dem die GRID Karte eingebaut ist

Host in den Maintenance Mode versetzen

esxcli system maintenanceMode set --enable true

Treiber und VIB installieren

esxcli software vib install -d /<Speicherort Ihrer Dateien>/NVIDIA-vGPU-kepler-VMware_ESXi_6.5_Host_Driver_367.134-1OEM.650.0.0.4598673-offline_bundle.zip
esxcli software vib install -v /<Speicherort Ihrer Dateien>/NVIDIA-vGPU-kepler-VMware_ESXi_6.5_Host_Driver_367.134-1OEM.650.0.0.4598673.vib

Maintenance Mode beenden, Host neu starten

Funktionsprüfung via vCenter

Funktionsprüfung via SSH

Vorbereiten der Vorlage

Hinzufügen eines gemeinsam genutzten PCI-e Gerätes in die Vorlagenmaschine

Starten der Vorlage und Installation der NVidia Treiber in der Vorlage

Das Ergebnis, nach einem Neustart:

Nun die VM herunterfahren und einen Snapshot der VM erstellen, die nun die korrekten Treiber enthält.

Erstellung eines neuen VMware View Pools

Auf Basis dieses Snapshots kann nun ein Pool erstellt werden. Hier die wichtigste Änderung: 3D-Renderer: NVIDIA GRID VGPU wird ausgewählt.

Einige Probleme, die wir gefunden haben

Problem: Bestehender VMware View Pool lässt sich nicht auf Hardwarebeschleunigung umstellen

Das ist vom Hersteller so gewollt.

Abhilfe: Bestehenden Pool entfernen und einen neuen Anlegen

Übrigens: Auch dabei gibt es anscheinend Probleme, wenn man den HTML5 View-Admin benutzt!
Die Fehlermeldung hat nichts mit der Lizenz zu tun. Bitte einfach den Adobe Flash basierten View Admin Bereich benutzen.!

Problem: Nach der Installation der NVidia Treiber bleibt die VMRC oder der Webclient schwarz

Das ist vom Hersteller so gewollt.

Abhilfe: Man soll sich nur noch per RDP zu seiner Maschine verbinden

Problem: Das GPU Profil ist leer

Info: Die NVIDIA GRID K2 Karten werden zwar in ESXi 6.7 angezeigt, werden aber gemäß VMware HCL nicht mehr unterstützt!

Info: Die Karte wird gemäß VMware HCL nur bis einschließlich VMware View 7.11 unterstützt

Abhilfe – Grafikoptionen in einem Dell Server anpassen

NVML Fehler „Failed to initialize NVML: Unknown Error“, wenn der Host über mehr als 512GB RAM verfügt.

Es ist eine Anpassung der Grafikeinstellungen im BIOS notwendig:

Hat der Server weniger als 512GB RAM, dann Memory Mapped I/O Base auf 512GB setzen

Hat der Server mehr oder gleich 512GB RAM, dann Memory Mapped I/O Base auf 12TB setzen

Siehe: https://www.dell.com/support/article/de-de/sln308065/dell-poweredge-14g-esxi-gibt-failed-to-initialize-nvml-unknown-error-bei-nvidia-gpu-zur%C3%BCck?lang=de

Wieder ein Hinweis eines leidgeplagten Admin: Beinhaltet der Server >512GB RAM und man setzt „Memory Mapped I/O Base“ auf 512GB, dann bleibt der Server beim nächsten Start beim Memorycheck stehen. Da hilft dann nur: RAM ausbauen bis 512GB und / oder ein Clear NVRAM (BIOS reset)

Abhilfe – Falscher Treiber

Es wird kein GPU-Profil angeboten, weil der ESXi Host den falschen Treiber verwendet!

Host in den Maintenance Mode wechseln

esxcli system maintenanceMode set --enable true

Xorg stoppen

/etc/init.d/xorg stop

Den falschen Treiber anzeigen lassen

esxcli software vib list | grep nvidia

Den falschen Treiber deinstallieren

vmkload_mod -u nvidia
esxcli software vib remove -n <Anzeigename des Treibers>

Nun bitte den korrekten Treiber installieren und den Host neu starten

Abhilfe – vGPU ist nicht im korrekten Modus eingebunden

Ändern auf „Direkt freigegeben“

Auch hier muss der Host neu gestartet werden

VMware ESXi Update via SSH

Voraussetzungen:

  • Es sollten sich keine VMs mehr auf dem ESXi Server befinden, da dieser im Anschluss neu gestartet werden muss
  • Wir gehen einmal davon aus, dass SSH auf dem ESXi Server freigeschaltet ist und der Login erfolgreich war

HTTP Verkehr auf dem ESXi Server erlauben

esxcli network firewall ruleset set -e true -r httpClient

Bei VMware nachschauen, welcher der letzte aktuelle Patchstand war

esxcli software sources profile list -d https://hostupdate.vmware.com/software/VUM/PRODUCTION/main/vmw-depot-index.xml | grep ESXi-6.5

Das letzte Update herunterladen

esxcli software profile update -d https://hostupdate.vmware.com/software/VUM/PRODUCTION/main/vmw-depot-index.xml -p ESXi-6.5.0-20170404001-standard

Den ESXi Server neu starten

reboot

Nachdem der ESXi Server erneut hochgefahren wurde und wir wieder via SSH eingeloggt sind, sollte die Firewall wieder geschlossen werden

esxcli network firewall ruleset set -e false -r httpClient

Probleme?

Nicht genügend Speicherplatz vorhanden

Es kommt vor, dass das Update abbricht, weil icht genügend Platz verfügbar ist.
Ein df -h zeigt aber, das nich genügend Platz vorhanden ist

Abhilfe:

Das entsprechende Paket händisch herunterladen

cd /tmp
wget http://hostupdate.vmware.com/software/VUM/PRODUCTION/main/esx/vmw/vib20/tools-light/VMware_locker_tools-light_6.5.0-1.33.7273056.vib

dann installieren

esxcli software vib install -f -v /tmp/VMware_locker_tools-light_6.5.0-1.33.7273056.vib

und letztendlich das ursprüngliche Paket installieren

esxcli software profile update -d https://hostupdate.vmware.com/software/VUM/PRODUCTION/main/vmw-depot-index.xml -p ESXi-6.5.0-20171204001-standard

Abhängigkeiten können nicht aufgelöst werden

Als Beispiel für unseren Dell R620 Server, laden wir das Offlinebundle herunter, in dem schon alle notwendigen Treiber integriert sind.

Das Offlinebundle erhält man beim Hersteller: https://www.dell.com/support/home/de/de/debsdt1/drivers/driversdetails?driverId=CD9H6

Auf dem ESXi Server wechseln wir nun in ein Verzeichnis, in dem ausreichend Speicherplatz zur Verfügung steht, beispielsweise

cd /vmfs/volumes/Ihr_Datenpfad

Für den Download nutzen wir wget diret auf dem ESXi Server

wget http://downloads.dell.com/FOLDER05025596M/1/VMware-VMvisor-Installer-6.5.0.update01-7967591.x86_64-DellEMC_Customized-A11.zip

Das Offlinebunde hat einen Anzeigenamen, den wir mittels dem nachfolgenden Befehl auslesen können

esxcli software sources profile list -d /vmfs/volumes/DD087E89-LUN0/VMware-VMvisor-Installer-6.5.0.update01-7967591.x86_64-DellEMC_Customized-A11.zip

Die Installation bzw. das Update erfolgt dann nicht wie oben angegeben, direkt mit den Quellen von VMware, sondern nun gegen das Customized Offline Bundle

esxcli software profile update -d /vmfs/volumes/cDD087E89-LUN0/VMware-VMvisor-Installer-6.5.0.update01-7967591.x86_64-DellEMC_Customized-A11.zip -p DellEMC-ESXi-6.5U1-7967591-A11

Die Fehlermeldung, dass die Abhängigkeiten nicht aufgelöst werden können, erscheint trotzdem.
Da wir uns aber mit dem Offline-Bundle sicher sind, alle Treiber für das Gerät erhalten zu haben, erzwingen wir die Installation!

esxcli software profile update -d /vmfs/volumes/cDD087E89-LUN0/VMware-VMvisor-Installer-6.5.0.update01-7967591.x86_64-DellEMC_Customized-A11.zip -p DellEMC-ESXi-6.5U1-7967591-A11 -f

Nun erfolgt der übliche Reboot

Automatische Anpassung der Bildschirmgröße in der VM verhindern

Bei manchen virtuellen Maschinen sollte sich die Bildschirmgröße / Auflösung nicht automatisch an der VMRC anpassen.

Diese Eigenschaft lässt sich derzeit nicht in der VM oder über das vCenter einstellen, daher bleibt nur der Umweg über die Anpassung innerhalb der VM.
Die Datei resolutionset.dll muss umbenannt und die VMware Tools müssen neu gestartet werden.

Hier die notwendigen Befehle:

ren „c:\program files\VMware\VMware Tools\plugins\vmsvc\resolutionset.dll“ „c:\program files\VMware\VMware Tools\plugins\vmsvc\_resolutionset.dll“
net stop VMTools
net start VMTools

Nachdem die VMware Tools aktualisiert oder neu installiert wurden, muss die ANpassung erneut vorgenommen werden.

VMware Workstation OVF Import funktioniert nicht

Aus einer VMware Workstation VM wurde eine OVF erzeugt, um sie woanders einspielen zu können.

Beim Festplattenlayout handelt es sich natürlich um eine erweiterbare VMDK (thin), die in einer Datei abgespeichert wird (also NICHT 2G split-disk)

hdd-fuer-ovf

Der Import der OVF funktioniert auf VMware ESXi Servern problemlos, auf einer anderen VMware Workstation jedoch nicht.

Beim Import der OVF erhält man die total aussagekräftige Fehlermeldung und der Import wird abgebrochen.

ovftool-exe-formatstlstring

Der übliche Vorgang:

  • Man erstellt eine neue VM mit den gleichen Spezifikationen
  • Die dabei erstellte virtuelle Festplatte wird aus der VM entfernt
  • Die mit der OVF gelieferte virtuelle Festplatte wird eingebunden
    add-existing-vmdk
  • Die VM wird gestartet
  • Nun erhält man die folgenden Fehler beim Einschalten der VM:
    you-do-not-have-writeaccess-to-a-partition

    write-protect01

Ursache:

Das Format der mitgelieferten VMDK ist falsch und führt dann beim Import der VM via OVF zur Fehlermeldung

Abhilfe:

  • Die derzeit in der VM vorhandene VMDK muss aus der VM wieder entfernt werden
  • Die VMDK muss mit den Werkzeugen von VMware Workstation umgewandelt werden
    (Bitte ein CMD mit administrativen Privilegien öffnen)
    vdiskmanager
    C:\Program Files (x86)\VMware\VMware Workstation\vmware-vdiskmanager.exe -r D:\vmfs\omdsat\omdsat-disk1.vmdk -t 0 D:\vmfs\omdsat\omdsat-disk2.vmdk
  • Anschliessend kann die neue VMDK in die VM eingebunden werden.

 

 

Windows 3.11 als VM

Leider gibt es die VMware Tools nicht für Windows 3.11 bzw. DOS, daher benötigt man einige Zeit, um entsprechedne Treiber zu finden und Windows 3.x für den tatsächlichen Gebrauch vorzubereiten.

Die Installation von MS-DOS und Windows 3.x wird hier ebenso wenig beschrieben, wie der Vorgang, Floppy-images in eine virtuelle Maschine einzubinden.

Ablauf

  1. Vortäuschen eines 16-Bit Prozessors
  2. Einbinden eines CD-ROM Treibers
  3. Installation der Soundkarte
  4. Installation der Netzwerkkarte
  5. Installation des TCP/IP Netzwerkprotokolls

1. Vortäuschen eines 16-Bit Prozessors

  • Die vorbereitete Floppy cd-dosidle-netz.img muss in die virtuelle Maschine eingebunden werden
  • Unter MS-DOS muss nun die dosidle.exe auf c: kopiert werden
    a:
    copy a:dosidledosidle.exe c:
    c:
    edit autoexec.bat
  • Die autoexec.bat muss nun an der letzten Zeile um den Befehl
    c:dosidle.exe
    erweitert werden.

2. Einbinden eines CD-ROM Treibers

  • Die vorbereitete Floppy cd-dosidle-netz.img muss in die virtuelle Maschine eingebunden werden
  • Unter MS-DOS muss nun die dosidle.exe auf c: kopiert werden
    a:
    copy a:aoatapiaoatapi.sys c:
    c:
    edit config.sys
  • Die config.sys muss nun an der letzten Zeile um den Befehl
    device = c:aoatapi.sys /d:idecd000
    erweitert werden.

3. Installation der Soundkarte

  • Beenden Sie das virtuelle Windows 3.x
  • Schalten Sie die virtuelle Maschien aus
  • Wechseln Sie auf Ihrem PC in den Ordner der virtuellen Windows 3.x Maschine
  • löschen Sie die Zeilen, die mit
    sound.
    beginnen und fügen am Ende der konfigurationsdateidie folgenden Zeilen ein
    sound.VirtualDev = „SB16“
    sound.baseAddr = „0x220“
    sound.dma16 = „7“
    sound.dma8 = „1“
    sound.irq = „5“
    sound.mpu401baseAddr = „0x330“
    sound.Opl3BaseAddr = „0x388“
    sound.present = „TRUE“
  • Die vorbereitete Floppy soundblaster.img muss in die virtuelle Maschine eingebunden werden
    • Starten Sie die virtuelle Maschine
    • Unter MS-DOS muss nun die Soundblaster installation angestossen werden
      a:
      install
  • Folgen Sie den Anweisungen und starten die virtuelle Maschine neu

4. Installation der Netzwerkkarte

  • Die vorbereitete Floppy cd-dosidle-netz.img muss in die virtuelle Maschine eingebunden werden
  • Windows 3.x kann aus Dos heraus gestartet werden
    win.com
  • Wechsel in die Gruppe Netzwerk
  • Doppelklick auf Netzwerk-Setup
  • Klick auf Netzwerke…
  • Microsoft Windows Network installieren
  • Klick auf Treiber
  • Vorhandene Netzwerktreiber oder Adapter bitte löschen
  • Klick auf Adapter hinzufügen
  • Nicht aufgeführter oder aktualisierter Netzwerkadapter – OK
  • Durchsuchen – a: – winnet – OK
  • es sollte nun“Advanced Micro Device PCNET family“ angezeigt werden
  • Die vorbereitete Floppy tcpip.img muss in die virtuelle Maschine eingebunden werden
  • Klick auf Protokoll hinzufügen…
  • Nicht aufgeführtes oder aktualisiertes Protokoll – OK
  • Durchsuchen – a: – OK
  • Jetzt sollte die Liste vervollständigt sein und kann über die Schliessen Schaltfläche verlassen werden.
  • Neben den beiden vorbereitetetn Floppy images benötigt man nu auch die WFW Disks 7 bis 9 und kann nun fleissig DJ spielen und die unterschiedlichen Disks nacheinander mounten.
  • Es werden noch Angaben benötigt
    • Compuername
    • Arbeitsgruppe
    • Standard-Anmeldename
  • Nach dem unbedingten Neustart der virtuellen Maschine, wird ein Anmeldebildschirm angezeigt, der nach eine Kennwort verlangt. Da wir aber bisher noch keins eingegeben haben, kann dies durch drücken der Enter-Taste übergangen werden, so dass er nach einer Kennwortliste fragt. Letztere müssen wir nicht zwangsweise anlegen, werden bei der Ablehnung aber bei jedem Neustart daran erinnert.

NFS für ESXi

NFS Share mit Windows Server 2008 R2 für VMware ESX(i)

Um einen NFS Server unter Windows zu betreiben, war es in der Vergangenheit nötig, die Useraccounts der Linux/Unix Welt mit den Useraccounts der Windowswelt zu verknüpfen.
Seit MS Server 2008 ist die Benutzerkontenzuordnung nicht mehr Bestandteil des Betriebssystems. Es kann jedoch ein solcher Dienst im Netzwerk abgefragt werden.

Die Neuerung beim NFS Server unter MS Server 2008 R2 ist nun, daß man diese Kontenzuordnung nicht mehr zwingend benötigt. Somit läßt sich bspw. ein ESX(i) Server spielend mit einem NFS Share verbinden.

Die Kurzreihenfolge:

  • Für die Rolle „Dateidienste“ den Rollendienst „Dienste für NFS (Network File System)“ installieren.
  • Lokale Sicherheitsrichtlinie ->Sicherheitsoptionen -> „Netzwerkzugriff: Die Verwendung von ‚Jeder‘-Berechtigungen für anonyme Benutzer ermöglichen“ aktivieren.
  • Freizugebenden Ordner anlegen/auswählen ->Rechtsklick Eigenschaften -> Karteireiter ‚NFS-Freigabe‘ -> Button ‚NFS-Freigabe verwalten…‘
  • Kerberos kann man beide deaktivieren, ‚Keine Serverauth…‘ aktivieren
  • ‚Zugriff durch nicht zugeordneten Benutzer ermöglichen‘ aktivieren
  • ‚Unix-Zugriff durch nicht zugeordneten Benutzer zulassen …‘ auswählen
  • Button ‚Berechtigungen‘
  • Zugriffsart – Schreibzugriff
  • Codierung – ANSI (Voreinstellung)
  • Haken setzen bei ‚Stammzugriff zulassen‘
  • Alles mit ‚Ok‘ abschließen
  • Am ESX(i) auf Hostebene auf den Karteireiter ‚Konfiguration‘ wechseln
  • links im Menü ‚Speicher‘ auswählen
  • rechts oben ‚Speicher hinzufügen…‘
  • Assistent folgen (NFS ->Server IP + Share Name + Name für DataStore ->Abschliessen)

Das wars schon!

Adaptec RAIDController unter ESXi

Adaptec RAID Controller überwachen und managen

  1. Prüfen, um welchen RAID Controller es sich handelt
    1. Passendes Modell wählen (http://www.adaptec.com/en-us/support/raid/)
    2. Treiber herunterladen (VMware ESX Server) (z.B. aacraid_vmware_esx_esxi_drivers_1.1.7-28000.tgz)
    3. CIM Provider herunterladen (Storage Manager Downloads) (z.B. cim_vmware_v7_00_18781.zip)
  2. Virtuelle Maschinen herunterfahren, Host in Maintenance versetzen
  3. SSH freischalten
  4. Die unter 1 heruntergeladene Datei *.zip in /tmp des ESXi Servers kopieren (z.B. über WinSCP)
  5. Entpacken der *.tgz Datei. Der ESXi Server verfügt NICHT über eine unpacker, so dass die Datei z.B. mit 7-Zip oder tar -xvf (auf Linux) entpackt werden muss
    1. In der entpackten tgz Datei befindet sich eine Datei mit der Endung vib
    2. Diese Datei wird in den /tmp Ordner des ESXi Servers kopiert (z.B. mit WinSCP)
  6. Einspielen der Patches auf dem ESXi Server (*.zip und *.vib Datei)
    1. esxupdate –bundle=/tmp/arcconf-18781.zip –nodeps –nosigcheck –maintenancemode update
    2. esxupdate -b /tmp/vmware-esxi-drivers-scsi-aacraid-400.4.1.7.28000-1.0.4.260247.x86_64.vib –nodeps –maintenancemode –nosigcheck update
  7. Reboot des ESXi Servers
  8. Prüfen, ob die Patches eingespielt wurden
    1. esxupdate query –vib-view | grep -i aacraid
    2. Es müssen zwei Einträge vorhanden sein

Arbeiten am Raidcontroller

  1. Installation von Arcconf auf dem Betriebssystem
    1. In der entpackten tgz Datei befindet sich eine setup_remote_arcconf_x32.exe oder remote-arcconf-7.00-18781.i386.bin (für Linux) die auf dem Verwaltungsrechner installiert werden muss
    2. IP, Benutzername und Kennwort des ESXi Servers werden abgefragt und auf dem System gespeichert
  2. Informationen des Raid Controllers ermitteln
    1. ARCCONF GETCONFIG <Controller#> PD
    2. ARCCONF GETCONFIG 1 PD
  3. Defekte Festplatte über Arcconf entfernen, falls das System das nicht gemacht hat
    1. ARCCONF SETSTATE <Controller#> <Channel#> <Device#> <State>
    2. ARCCONF SETSTATE 1 DEVICE 0 2 DDD
  4. Defekte Festplatte physikalisch aus dem System entfernen
  5. Neue Festplatte physikalisch in das System einbauen
  6. Neue Festplatte als Hotspare definieren
    1. ARCCONF SETSTATE <Controller#> DEVICE <Channel#> <ID#> HSP LOGICALDRIVE <LD#>
    2. ARCCONF SETSTATE 1 DEVICE 1 0 HSP LOGICALDRIVE 1 2
  7. Es wird automatisch ein Rebuild ausgeführt

Abschliessende arbeiten

  1. SSH auf dem ESXi Host wieder deaktivieren
  2. Den Maintenance Mode verlassen
  3. Die VM(’s) wieder anstarten