Frage ESXi / proxmox / Virtualisierung

HerrRossi

Urgestein
Mitglied seit
Jul 25, 2018
Beiträge
6.771
Bewertungspunkte
2.236
Punkte
113
Ich habe jetzt ein bisschen mit ESXi rumgespielt, das ist leicht zu installieren und zu benutzen, zumindest bei einem ersten oberflächlichen Test.

Die erste VM (Linux MInt 19) war flott installiert, der Start der VM geht ruckzuck (virt. "Festplatte" auf SSD) und es lief auch halbwegs flüssig. Nur wird angezeigt, dass der Software Rendering Modus aktiv sei, obwohl der Treiber für die VMware "Grafikkarte" geladen war, auch die VMware Tools hatte ich installiert.

Verstehe ich das richtig, man zwingend einen zweiten PC braucht, um eine VM ausführen zu können? Direkt auf dem Host ist das nicht möglich?

Falls dem so ist, dann ist EXSi glaube ich nicht das, was ich suche. Oder ist die Verzögerung über das Netzwerk zu vernachlässigen? Außerdem hätte ich dann hier drei PCs laufen: NAS, EXSi-Host und der PC um die VM anzuzeigen, das erscheint mir dann doch overkill.
 
Das Problem könnte sein, dass bei den "kleinen" Chipsätzen mit nur 16 Lanes sich zwei Slots diese ja quasi "teilen" wenn beide belegt sind und sich da irgendwas eben auch so auswirkt, dass sich die nicht separat ansprechenlassen.
Laut Bios teilen sich die Karten jeweils 8 Lanes und es hat ja auch funktioniert, nur dann nicht mehr, als ich die zweite VM mit passthrough gemacht habe, das ist ja das Paradoxe daran. Und jetzt geht gar nix mehr, weder in ESXi noch in Linux. Der nächste Test ist gleich mit Unraid.
 
Ich werd bekloppt, es lag am Bios vom Mainboard, ich hab eine alte Version geflasht, und siehe da, zumindest mit Unraid funktioniert es jetzt wieder.
ESXi wird dann auch noch eine Chance bekommen.
 
Autsch. Solche Fehler sind besonders fies. :(

Ich installier gerade ein paar Games in der VM. :D
 
Ich kann jetzt mit Unraid auch zwei VM mit der gleichen Grafikkarte nacheinander starten, keine Hänger, keine Fehler, keine Abstürze. Mal sehen, was ESXi jetzt sagt.
 
Toitoitoi!
 
Bestimmt. Irgendwie. Dirty aus dem Kopf:

1. VM runterfahren.
2. VM „unregistern“
3. Ordner kopieren (da ist normalerweise alles drin) bzw. alles aus dem Ordner in neuen Unterordner
4. Alte VM wieder registrieren
5. Kopie VM registrieren (ggf. neuen Namen geben) - bei Nachfrage entspr. „ich hab die VM kopiert“ anclicken.
6. Pfade zu virtuellen HDDs im Clone checken & ggf. anpassen, ggf. andere MAC-Adresse geben, falls du beide parallel betreiben willst

Hier auf die Schnelle ein Video noch zum alten Client, funzt aber mit dem Web UI genauso denke ich:

Falls du nur ein Backup haben willst, bieten sich noch snapshots an.
 
Danke, ich habs irgendwie hingefrickelt ;)

Jetzt habe ich zwei VM mit der gleichen GPU, VM2 macht gerade den Heaven-Benchmark. In der VM1 lief der ohne Probleme.

Tjaaaa, es gibt - natürlich - ein Problem. Wenn ich eine VM ausschalte und sie dann wieder einschalte, ist die Auflösung auf 1024x768 :(
 
Zuletzt bearbeitet :
Das Problem mit der Auflösung habe ich leider immer noch, ich weiß nicht, ob ich damit so glücklich bin. Das macht die VM zwar nicht unbenutzbar, aber ist schon irgendwie nervig.
 
Ein paar Fragen dazu:

ESXi oder Unraid? Oder beide?

Zu Unraid kann ich nichts sagen. ;)

Zu ESXi:

Ich hatte das mit ESXi nur 1x (glaub nach Reboot nach Installation des Grafiktreibers), danach hat er sich die Auflösung in der VM gemerkt.

Mit welcher GPU hast Du das Problem? Der NVIDIA oder AMD oder beiden?

Wie sind die Settings rund um die Grafikadapter zu den Monitoren unter Windows in der VM?
Ich hab Bildschirm 2 (den an der dedizierten GPU) als primären Bildschirm (Anzeige wird nicht erweitert, dupliziert o.ä.).

Tritt das Problem nur auf, wenn die GPU zwischendurch in der „anderen“ VM lief oder auch wenn nur in derselben VM? Nur bei shutdown+Boot oder auch beim Reboot der VM?

Ggf. mal den VMware SVGA Adapter deaktivieren (entweder im Gerätemanager oder über die erweiterten Einstellungen svga.present = FALSE).

Ggf. Treiber noch einmal neu installieren (vorher mit DDU o.ä. sauber machen).

Wie sieht deine passthru.map aus?
 
ESXi. Es wird nur die 980ti an die VM durchgereicht.

Wenn ich "svga.present = FALSE" einstelle, bekomme ich mit der 980 ti kein Bild, mit TRUE aber sehr wohl. In Windows werden mir dann zwei Monitore angezeigt, die Einstellung der Auflösung für Monitor 2 (980ti) wird übernommen und überlebt auch einen Reboot, runterfahren und neustarten setzt dann die Auflösung wieder zurück.

passthru.map
# NVIDIA
10de ffff bridge false
 
Hm, ich habe jetzt den ESXi-Grafikadapter als 3D-Karte konfiguriert, jetzt übersteht die Auflösungseinstellung auch ein runterfahren und neu starten, auch wenn ich zwischendurch eine andere VM starte.
svga.present = FALSE funzte nicht, dann blieb auch der Monitor an der 980 ti schwarz.
Jetzt ist es noch ein bisschen nervig, dass in Windows zwei Monitore angezeigt werden, da weiß ich noch nicht, ob und wie sich das auf Games auswirkt.
 
Setz mal in der Passthru.map „link“ statt „bridge“.

Wenn das nicht geht, mal d3d0 probieren.

Und wenn Du ganz mutig bist, einfach mal die ganze Zeile auskommentieren. :)
 
Okay, probiere ich aus.

Edit: auch dann kann ich svga.present = FALSE nicht nutzen, der Bildschirm an der 980 ti bleibt schwarz.
 
Zuletzt bearbeitet :
Hmmm. Muss ich auch nochmal ausprobieren. Funzt den der Shutdown/Reboot bei dann korrekter Auflösung?
 
Ja, das mit der Auflösung klappt mittlerweile, auch wenn ich nicht so genau weiß, warum.
 
:LOL:

Frag nich', freu' Dich. :D

Ich hab übrigens gestern mehrere Stunden problemlos TC Rainbow Six: Siege in meiner VM gedaddelt. Ersteindruck: Kein Absturz, Keine Sound-Probleme, keine offensichtlichen Performance-Einbußen. Parallel lief noch Teamspeak.

Insgesamt hängen in der VM aktuell mehrere "Gerätschaften":

1. CPU: 20Kerne (20 Kerne, 1 Sockel)
2. GPU: 2080Ti (PCIe-Passthrough)
3. RAM: 16GB
4. USB3-Controller (PCIe-Passthrough), daran als USB-Devices:
4.1 Aqua Computer Vision (Wakü-Display)
4.2 Razor Orbweaver (Keypad)
4.3 Rokkat Vulcan 100 (Keyboard)
4.4 Logitech g9x (Maus)
4.5 Chord Mojo (DAC/Vertärker)
4.6 Rode NTUSB (Micro)
4.7 Thrustmaster Joystick
5. USB-Gerät (nicht PCIe-passthrough): Aquacomputer Aquaero 6
6. USB-Gerät (nicht PCIe-passthrough): Aquacomputer High Flow Durchflusssensor

Note: 5. und 6. konnte ich nicht per Passthrough regeln, da die Geräte am onboard USB 2.0 Controller hängen, der nicht eigenständig als Device auftaucht. Funzt aber auch so.

Ich möchte sagen, man kann einen vollwertigen Daddel-PC auch als virtuelle Maschine betreiben. :D

Ob man das WILL oder SOLLTE, ist allerdings natürlich eine andere Frage... ;)
 
Ich will das :cool: Allerdings hatte ich mal wieder eine neue Idee. Mit proxmox kann man ja mehrere PCs im Netzwerk in einem "Data Center" zusammenfassen, das will ich auch noch ausprobieren, ehe ich mich dann endgültig entscheide, wie ich das umsetze, was ich gerne hätte.
Der Vorteil an proxmox wäre, dass man das auch in einem laufenden Debian installieren könnte, bedeutet, ich habe immer einen Rechner mit GUI verfügbar, auf dem ich arbieten kann und von dem ich dann die VM starte und zusätzlich könnte ich damit auch den anderen Rechner im Netz fernsteuern (auf dem dann proxmox direkt - also ohne Debian - läuft), ich bräuchte also kein Notebook oder Tablet, um eine VM zu starten.

Ich bin gespannt, ob das so funktioniert, wie ich mir das vorstelle :ROFLMAO: Das könnte ich auch zuerst mal in einer Virtualbox ausprobieren.
 
Hihi... einerseits jammern, dass man einen PC bzw. Tablet zum Starten einer VM benötigt und dann andererseits von mehreren Rechnern im Netzwerk oder gar Data Center faseln, die man mit einer GUI fernsteuern will. :D

Keine Ahnung was du damit genau meinst, geschweige denn, was Du damit machen willst bzw. Dir vorstellst. ;)

Ich hab mal eine Zeit einen Cluster inkl. Failover und sonstige VM live Migration betrieben, in dem man dann fröhlich VM von einer Node zur nächsten schubsen konnte. War allerdings Hyper-V.

Sinn machte das eher wenig:

1. Wenn die Nodes nicht alle die gleiche CPU-Architektur haben, verliert man ggf. ordentlich Performance (die high availability VMs müssen dann in einem Kompatibilitätsmodus als kleinstem gemeinsamen Nenner laufen).

2. VMs mit PCIE-Passthrough Devices lassen sich eh nicht verschieben (wie auch - müsste ja die gleiche durchgereichte Hardware auch in allen anderen Nodes vorhanden sein).

3. Stromverbrauch geht (noch weiter) durch die Decke, denn damit ein Host die VMs auf einem anderen Host übernehmen kann, wenn einer ausfällt, muss er natürlich auch laufen...

4. wenn man nur mal ab und an bei konkretem Bedarf mal den anderen Host braucht, braucht man keinen Cluster, sondern kann den auch eben manuell eben starten

5. ist ein einzelner vernünftiger standalone Server mit vernünftiger Enterprise Hardware / Software mit einer gescheiten USV zuverlässiger als ein hingefrickelter Cluster (mein Mainserver hatte bisher in ca. 2 Jahren im 24/7 Betrieb ZWEI ungeplante downtimes - beide Male wegen Stromausfall - da hätte auch ein Cluster nichts gebracht).

Ansonsten würde ich halt zur Not die VM auf ESXi so einrichten, dass sie mit dem Host automatisch startet. Dann hast Du Deine GUI auch direkt. ;) Aber warum Host und/oder VM überhaupt runterfahren - entweder isses ein Server oder nicht. :D Meine „always on“ Win10 VM auf dem Mainserver hat aktuell auch eine Uptime von 18 Tagen und 20h... ;)

Ja, ich gebe zu, vielleicht bin ich ein wenig ESXi Fanboi... :p Und danach kommt bei mir Hyper-V (bzw. eigentlich sogar ein bisserl davor, weil man damit sogar kostenlose Cluster bauen kann, was mit ESXi nicht geht). Naja, eigentlich hab ich jetzt auch ein Problem, denn mit der freien ESXi-Lizenz kann man maximal 8 Kerne einer VM zuweisen und in meinem Threadripper-Thread habe ich ja feststellen müssen, dass eigentlich 20 Kerne in meiner Daddel-VM schon nett wären...

Aber ich hoffe trotzdem stark, du baust da mal was Spannendes mit Proxmox und berichtest! :)
 
Oben Unten