Beide Seiten der vorigen RevisionVorhergehende ÜberarbeitungNächste Überarbeitung | Vorhergehende Überarbeitung |
client:qemu [2024/04/04 11:51 CEST] – chr | client:qemu [2024/04/22 11:00 CEST] (aktuell) – [Start der VM] chr |
---|
====== qemu ====== | ====== qemu ====== |
| |
QEMU im Verbund mit libvirt bietet eine leistungsfähige, nicgt mit Lizenzproblematiken behaftete open Source-Virtualisierungsumgebung, die auch in Hinblick auf spätere Clouddienste eine Vielzahl an Vorteilen bietet. | QEMU im Verbund mit libvirt bietet eine leistungsfähige, nicht mit Lizenzproblematiken behaftete open Source-Virtualisierungsumgebung, die auch in Hinblick auf spätere Clouddienste eine Vielzahl an Vorteilen bietet. |
| |
===== Software ===== | ===== Software ===== |
</code> | </code> |
| |
Prüfen Sie ggf. nach Abschluß der Installation, ob der libvirtd-Daemon läuft ('systemctl status libvirt-daemon'). Falls nicht automatisch geschehen, sorgt ein 'systemctl enable libvirt-daemon' sorgt für den Start beim Booten; ein 'systemctl start libvirt-daemon' startet ihn manuell. | Prüfen Sie ggf. nach Abschluß der Installation, ob der libvirtd-Daemon läuft ('systemctl status libvirtd')((Anmerkung: Der libvirt-Dienst kann je nach Distribution anders heißen; libvirtd dürfte am gebräuchlichsten sein.)). Falls nicht automatisch geschehen, sorgt ein 'systemctl enable libvirtd' für den Start beim Booten; ein 'systemctl start libvirtd' startet ihn manuell. |
| |
<note tip>Der lokal zum Umgang mit qemu/libvirt verwendende User sollte Mitglied der Gruppe libvirt sein. Fügen Sie ihn ggf. dieser Gruppe hinzu.</note> | <note tip>Der lokal zum Umgang mit qemu/libvirt verwendende User sollte Mitglied der Gruppe libvirt sein. Fügen Sie ihn ggf. dieser Gruppe hinzu.</note> |
| |
Operationen als normaler User ohne weitere connect-Angaben (-c, --connect) und ohne gesetzte %%LIBVIRT_DEFAULT_URI%%-Umgebungsvariable werden im Kontext %%qemu:///session%% interpretiert. Der session-Kontext trägt geringere Berechtigungen, z.B. beim Umgang mit Netzwerken. Bei Mitgliedschaft des Users in der Gruppe libvirt sollte daher besser -c %%qemu:///system%% benutzt werden. | Operationen als normaler User ohne weitere connect-Angaben (-c, --connect) und ohne gesetzte %%LIBVIRT_DEFAULT_URI%%-Umgebungsvariable werden im Kontext %%qemu:///session%% interpretiert. Der session-Kontext arbeitet mit geringeren Berechtigungen, z.B. beim Umgang mit Netzwerken. Bei Mitgliedschaft des Users in der Gruppe libvirt sollte daher besser -c %%qemu:///system%% benutzt werden. |
| |
| |
==== Download und Import ==== | ==== Download und Import ==== |
| |
Nach dem Download der VM erfolgt ein Import der Konfiguration in libvirt mit einem der beiden folgenden Konsolenaufrufen. | Nach dem Download der VM erfolgt ein Import der Konfiguration in libvirt mit dem folgenden Konsolenaufruf: |
| <code>virsh -c qemu:///system define [xml-Datei.xml]</code> |
| Dies führt statische Überprüfungen (Validierung des XML) aus und trägt diese ein. |
| |
| Für dem Fall, daß eine VM nur einmalig gestartet werden soll, steht der „create“-Befehl zur Verfügung. Da diese wird jedoch nicht dauerhaft eingetragen wird, ist dieser Weg nur in Spezialfällen empfehlenswert: |
<code>virsh -c qemu:///system create [xml-Datei.xml]</code> | <code>virsh -c qemu:///system create [xml-Datei.xml]</code> |
<code>virsh -c qemu:///system define [xml-Datei.xml]</code> | |
| |
* „create“: Startet VM einmalig ausgehend von XML-Datei, trägt diese jedoch nicht dauerhaft ein. | |
* **„define“: Führt statische Überprüfungen (Validierung des XML) aus und trägt diese ein.** | |
| |
==== Bearbeitung der VM ==== | ==== Bearbeitung der VM ==== |
| |
Das Gastsystem kann nun gestartet und natürlich bearbeitet werden. Beim ersten Start einer VM allgemein können gewisse Probleme auftreten; mehr dazu unter [[#startprobleme|Startprobleme]] | Das Gastsystem kann nun gestartet und natürlich bearbeitet werden. Beim ersten Start einer VM allgemein können gewisse Probleme auftreten; mehr dazu unter [[#startprobleme|Startprobleme]] |
| |
Bei Problemen beim Boot à la Bluescreens usw. sollte geprüft werden, welche Busart zum Ansprechen des Massenspeichers im auf dem Image befindlichen Gastbetriebssystem verwendet wurde (scsi, sata, ata). Bei Linuxgastsystemen („a start job is running… for dev/disk…“ 1:30) ggf. Hibernation kontrollieren (systemd-hibernate-resume), wenn vorhanden „resume“ aus KCL entfernen. | Bei Problemen beim Boot à la Bluescreens usw. sollte geprüft werden, welche Busart zum Ansprechen des Massenspeichers im auf dem Image befindlichen Gastbetriebssystem verwendet wurde (scsi, sata, ata). Bei Linuxgastsystemen („a start job is running… for dev/disk…“ 1:30) ggf. Hibernation kontrollieren (systemd-hibernate-resume), wenn vorhanden „resume“ aus KCL entfernen. Bei der Meldung „a start job is running… for dev/fd1“ kann ggf. der Timeout erniedrigt werden((Das kommt mitunter vor, wenn die Pseudofloppy fd1 eingehängt werden soll)). |
| |
| |
* Schließlich kann in der libvirtd-Konfigurationsdatei /etc/libvirt/qemu.conf der Standarduser qemu in der Zeile „user = qemu“ (wenn „#user = qemu“ als Platzhalter „#“ entfernen) durch einen geeigneteren Usernamen ersetzt werden - dies bietet sich evtl. an, wenn der Rechner nur von einer Person benutzt wird. | * Schließlich kann in der libvirtd-Konfigurationsdatei /etc/libvirt/qemu.conf der Standarduser qemu in der Zeile „user = qemu“ (wenn „#user = qemu“ als Platzhalter „#“ entfernen) durch einen geeigneteren Usernamen ersetzt werden - dies bietet sich evtl. an, wenn der Rechner nur von einer Person benutzt wird. |
| |
„“ | |
| |
===== Export in Cloudsysteme ===== | ===== Export in Cloudsysteme ===== |
| |
<note>Hier getroffene Angaben müssen noch optimiert werden, daher bitte nur als Möglichkeit werten.</note> | <note>Die hier getroffene Angaben sind veraltet und müssen aktualisiert und verifiziert werden. Bitte daher bitte nur als Möglichkeit ansehen.</note> |
| |
Zum Export von Windows-VMs in Cloud-Infrastrukturen wie bwClouds/OpenStack ist folgender Ablauf empfehlenswert: | Zum Export von Windows-VMs in Cloud-Infrastrukturen wie bwClouds/OpenStack ist folgender Ablauf empfehlenswert: |