Migration vers KVM avec WebVirtMgr

Une migration tournée vers l’open-source

Afin d’assurer la pérennité et la stabilité dans mon infrastructure j’ai choisi KVM : standard ouvert, inter-opérable, aux fonctionnalitées immenses. Plus précisément, ce nouveau projet s’inscrit dans ma volonté d’être au plus proche de mon système Linux. KVM est présent dans les plus grands projets de cloud computing : openstack, opennebula, ovirt ainsi que bien d’autres.

En plus de KVM, il existe aussi ce fabuleux système de conteneur appelé docker, qui se base lui aussi intégralement sur Linux. Ils représentent à tous les deux de merveilleuses possibilités d’apprentissage pour comprendre le cloud. La gestion de KVM se fera en grande partie avec une interface en HTML5. Pour docker il existe Shipyard que je n’évoquerai pas dans l’article.

L’ensemble de mon article se base principalement sur le wiki de KVM, de WebVirtMgr ainsi que de libvirt.

La solution SaaS : WebVirtMgr

WebVirtMgr se présente sous la forme d’une interface web développée en bootstrap. Elle utilise l’API libvirt pour la gestion du ou des hyperviseurs, des réseaux, des interfaces, des stockages et des VM. L’accès à la VM se fera quant à elle via une console en VNC (novnc) ou html5 « spice ». 
Plus d’informations sur : webvirtmgr.

Voici une illustration de mon infrastructure :

WebVirtMgr et l’hyperviseur KVM/QEMU

KVM (Kernel Virtual Machine) est un module du noyau Linux qui permet à un programme de l’espace utilisateur d’utiliser les fonctionnalités de virtualisation matérielle de différents processeurs. Aujourd’hui, il prend en charge les processeurs Intel récents et processeurs AMD (x86 et x86_64), PPC 440, PPC 970, S / 390, ARM (Cortex A15), et MIPS32 (emulation processeur).

QEMU peut faire usage de KVM lors de l’exécution d’une architecture cible qui est la même que l’architecture de l’hôte. Par exemple, lors de l’exécution qemu-system-x86 sur un processeur compatible x86, vous pouvez profiter de l’accélération de KVM – donnant vous bénéficiez pour votre accueil et votre système invité (émulation de machine virtuelle).

Source : http://wiki.qemu.org/KVM

Pré-requis avant l’installation

egrep '^flags.*(vmx|svm)' /proc/cpuinfo

Si un résultat apparaît alors votre processeur est opérationnel. Sinon c’est que votre processeur ne supporte pas la virtualisation.
Pas de panique ! Il existe webvirtmgr avec lxc et docker bien-entendu : découvrez-le !

apt-get install kvm libvirt-bin bridge-utils sasl2-bin
wget http://retspen.github.io/libvirt-bootstrap.sh 
sh libvirt-bootstrap.sh

Pour information, à la fin du script vous deviez avoir les services suivants en fonctionnement :

Installation de WebVirtMgr

WebVirtMgr a besoin des paquets suivants pour fonctionner :

apt-get install git python-pip python-libvirt python-libxml2 novnc supervisor

Durant (la longue) installation, différentes questions feront leurs apparitions :

faut-il installer une base de données pour NOVA : oui
faut-il configurer la base de données de nova-common avec dbconfig-common : oui
type de serveur de base de données à utiliser avec nova-common ! sqlite3

La prochaine étape consiste à configurer python et l’environnement « django » :

mkdir /var/www

Déplacer vous dans le répertoire www :

cd /var/www

Télécharger le git de WebVirtMgr :

git clone git://github.com/retspen/webvirtmgr.git

Rendez-vous dans le répertoire suivant :

cd webvirtmgr

L’outil pip est utilisé car il installera rapidement et téléchargera automatiquement les dépendances nécessaires :

sudo pip install -r requirements.txt

Downloading/unpacking django==1.5.5 (from -r requirements.txt (line 1))
  Downloading Django-1.5.5.tar.gz (8.1MB): 8.1MB downloaded
  Running setup.py (path:/tmp/pip_build_root/django/setup.py) egg_info for package django

    warning: no previously-included files matching '__pycache__' found under directory '*'
    warning: no previously-included files matching '*.py[co]' found under directory '*'
Downloading/unpacking gunicorn==18.0 (from -r requirements.txt (line 2))
  Downloading gunicorn-18.0.tar.gz (366kB): 366kB downloaded
  Running setup.py (path:/tmp/pip_build_root/gunicorn/setup.py) egg_info for package gunicorn

    warning: no previously-included files matching '*.pyc' found under directory 'docs'
    warning: no previously-included files matching '*.pyo' found under directory 'docs'
    warning: no previously-included files matching '*.pyc' found under directory 'tests'
    warning: no previously-included files matching '*.pyo' found under directory 'tests'
    warning: no previously-included files matching '*.pyc' found under directory 'examples'
    warning: no previously-included files matching '*.pyo' found under directory 'examples'
Downloading/unpacking lockfile>=0.9 (from -r requirements.txt (line 5))
  Downloading lockfile-0.10.2-py2-none-any.whl
Installing collected packages: django, gunicorn, lockfile
  Running setup.py install for django
    changing mode of build/scripts-2.7/django-admin.py from 644 to 755

    warning: no previously-included files matching '__pycache__' found under directory '*'
    warning: no previously-included files matching '*.py[co]' found under directory '*'
    changing mode of /usr/local/bin/django-admin.py to 755
  Running setup.py install for gunicorn

    warning: no previously-included files matching '*.pyc' found under directory 'docs'
    warning: no previously-included files matching '*.pyo' found under directory 'docs'
    warning: no previously-included files matching '*.pyc' found under directory 'tests'
    warning: no previously-included files matching '*.pyo' found under directory 'tests'
    warning: no previously-included files matching '*.pyc' found under directory 'examples'
    warning: no previously-included files matching '*.pyo' found under directory 'examples'
    Installing gunicorn_paster script to /usr/local/bin
    Installing gunicorn script to /usr/local/bin
    Installing gunicorn_django script to /usr/local/bin
  Found existing installation: lockfile 0.8
    Uninstalling lockfile:
      Successfully uninstalled lockfile
Successfully installed django gunicorn lockfile
Cleaning up...

Lancer la création de la base de données via django :

./manage.py syncdb
WARNING:root:No local_settings file found.
Creating tables ...
Creating table auth_permission
Creating table auth_group_permissions
Creating table auth_group
Creating table auth_user_groups
Creating table auth_user_user_permissions
Creating table auth_user
Creating table django_content_type
Creating table django_session
Creating table django_site
Creating table servers_compute
Creating table instance_instance
Creating table create_flavor

You just installed Django's auth system, which means you don't have any superusers defined.
Would you like to create one now? (yes/no): yes
Please enter either "yes" or "no": yes
Please enter either "yes" or "no": yes
Username (leave blank to use 'root'): kassianoff
Email address: [email protected]
Password:
Password (again):
Superuser created successfully.
Installing custom SQL ...
Installing indexes ...
Installed 6 object(s) from 1 fixture(s)

On recommence avec cette fois-ci collectstatic :

./manage.py collectstatic

Type 'yes' to continue, or 'no' to cancel: yes
75 static files copied

Donner les droits au serveur web dans le répertoire de WebVirtMgr :

chown -R www-data:www-data /var/www/webvirtmgr/

Modification du script et du lancement de VNC :

sudo service novnc stop
[ ok ] Stopping OpenStack NoVNC proxy: nova-novncproxy.

Suppression du script au lancement de notre distribution debian :

update-rc.d -f novnc remove
update-rc.d: using dependency based boot sequencing

Suppression du script dans init.d :

rm /etc/init.d/novnc

Renseigner des paramètres de lancement dans le fichier webvirtmgr.conf :

nano /etc/supervisor/conf.d/webvirtmgr.conf
[program:webvirtmgr]
command=/usr/bin/python /var/www/webvirtmgr/manage.py run_gunicorn -c /var/www/webvirtmgr/conf/gunicorn.conf.py
directory=/var/www/webvirtmgr
autostart=true
autorestart=true
stdout_logfile=/var/log/supervisor/webvirtmgr.log
redirect_stderr=true
user=www-data

[program:webvirtmgr-console]

command=/usr/bin/python /var/www/webvirtmgr/console/webvirtmgr-console directory=/var/www/webvirtmgr autostart=true autorestart=true stdout_logfile=/var/log/supervisor/webvirtmgr-console.log redirect_stderr=true user=www-data

On arrête le service supervisor et on le démarre :

service supervisor stop
service supervisor start

L’installation est terminée et nous pouvons désormais accéder à l’interface WebVirtMgr via le port 8000 de notre machine.

Le tunneling SSH sous linux

La méthode du tunnelling SSH permet la redirection des ports 8000 et 6080 (novnc) vers notre poste client (sécurisé) :

ssh [email protected]:port -L localhost:8000:localhost:8000 -L localhost:6080:localhost:6080

Rendez-vous sur l’url : localhost:8000 et rentrer vos identifiants de connexion configurés lors du ./manage.py syncdb :

Connexion entre WebVirtMgr et KVM/QEMU

Plusieurs étapes seront nécessaire avant de pouvoir configurer l’infrastructure.

saslpasswd2 -a libvirt kassianoff.fr
Password: 
Again (for verification): 
virsh -c qemu+tcp://localhost/system nodeinfo
Please enter your authentication name: kassianoff.fr
Please enter your password:
CPU model:           x86_64
CPU(s):              8
CPU frequency:       1632 MHz
CPU socket(s):       1
Core(s) per socket:  4
Thread(s) per core:  2
NUMA cell(s):        1
Memory size:         32917020 KiB

Désormais ajoutons notre connexion TCP en cliquant sur le bouton : « Add connection »

Le résultat est le suivant :

Prise en main de la solution WebVirtMgr

Il me semble important de comprendre les différentes rubriques qui composent WebirtMgr :

J’ai utilisé toutes les rubriques (excepté Secrets), commencez par suivre les étapes ci-dessous pouvoir créer une instance.

Création des pools de stockage

Avant de démarrer la création d’une machine, nous aurons besoin de pools de stockage, cliquez sur Storages puis sur New storages la configuration est la suivante :

Création d’un repertoire DIR avec le chemin /var/lib/libvirt/images.

Création du répertoire ISO avec le chemin /var/www/webvirtmgr/images :

Sur un OVH dédié, utilisez NFS-common, et créez un répertoire nfs pour le connecter au NFS backup storage

apt-get install nfs-common
mkdir /var/lib/libvirt/nfs/
mount -t nfs ftpback-rbxX-XXX.ovh.net:/export/ftpbackup/nsXXXXXXX.ovh.net /var/lib/libvirt/nfs/

Dans la création du poo » il existe le mode NETFS compatible avec NFS, cependant le format n’est pas pris en compte.
La solution consiste à utiliser le mode dir en spécifiant le répertoire nfs précédemment monté :

Vérifiez vos différents pools de storage dit : nfs, iso, images :

Je ne vais pas évoquer la création d’une machine dans le menu images ni même l’ajout d’un fichier ISO via WebVirtMgr.
La raison est simple, j’utilise le terminal pour ces tâches là. Concentrons-nous sur les réseaux avant de créer notre VM.

La rubriques networks dans WebVirtMgr

L’ajout de réseaux se fait via l’onglet networks. Ajoutez deux réseaux bridge lbr0 et lbr1 :

Reproduisez la manipulation ci-dessus pour créer la seconde interface bridge, ce qui donnera :

Interfaces et réseaux bridgés sous linux

La rubrique interfaces affiche le fichier de configuration /etc/networks/interface on y retrouvera lo,br0, lbr0, lbr1.
Mais avant de configuer nos interfaces bridge, voyons la configuration actuelle :

ifconfig
eth0      Link encap:Ethernet  HWaddr 08:60:6e:e5:bd:47
          inet adr:XX.XXX.XXX.XXXX  Bcast:XX.XXX.XXX.XXX  Masque:255.255.255.0
          adr inet6: XXXX:XXXX:X:XXXX::/xx Scope:Global
          adr inet6: XXXX::XXX:XXXX:XXXX:XXXX/xx Scope:Lien
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
          Packets reçus:2243 erreurs:0 :0 overruns:0 frame:0
          TX packets:1618 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 lg file transmission:1000
          Octets reçus:490019 (490.0 KB) Octets transmis:243883 (243.8 KB)

lo        Link encap:Boucle locale
          inet adr:127.0.0.1  Masque:255.0.0.0
          adr inet6: ::1/128 Scope:Hôte
          UP LOOPBACK RUNNING  MTU:65536  Metric:1
          Packets reçus:140 erreurs:0 :0 overruns:0 frame:0
          TX packets:140 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 lg file transmission:0
          Octets reçus:22966 (22.9 KB) Octets transmis:22966 (22.9 KB)

virbr0    Link encap:Ethernet  HWaddr 22:e2:0b:e7:c2:d1
          inet adr:192.168.122.1  Bcast:192.168.122.255  Masque:255.255.255.0
          UP BROADCAST MULTICAST  MTU:1500  Metric:1
          Packets reçus:0 erreurs:0 :0 overruns:0 frame:0
          TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 lg file transmission:0
          Octets reçus:0 (0.0 B) Octets transmis:0 (0.0 B)

On remarque la configuration suivante :  l’interface eth0 qui représente l’adresse IP publique du serveur, l’interface loopback (logique) ainsi que l’interface virbr0 qui est créée automatiquement en mode NAT.

Dans la mise en place de mon infrastructure, le réseau à une place importante. J’ai donc créé trois interfaces :

Mon routeur/pare-feu manage mes différentes interfaces br0, lbr1, lbr2. Voici un schéma d’illustration :

Commençons par configurer l’interface br0 : (Wiki de debian)

auto lo
iface lo inet loopback

auto eth0
iface eth0 inet manual

auto br0
iface br0 inet static
        address XX.XXX.XXX.XXX
        netmask 255.255.255.0
        network XX.XXX.XXX.0
        broadcast XX.XXX.XXX.255
        gateway XX.XXX.XXX.254
        bridge_ports eth0
        bridge_stp off
        bridge_fd 0
        bridge_maxwait 0

iface eth0 inet6 static
        address XXXX:XXXX:X:XXXX::
        netmask 64
        post-up /sbin/ip -family inet6 route add XXXX:XXXX:X:XXXX:XX:XX:XX:XX dev eth0
        post-up /sbin/ip -family inet6 route add default via XXXX:XXXX:X:XXXX:XX:XX:XX:XX
        pre-down /sbin/ip -family inet6 route del default via XXXX:XXXX:X:XXXX:XX:XX:XX:XX
        pre-down /sbin/ip -family inet6 route del XXXX:XXXX:X:XXXX:XX:XX:XX:XX dev eth0

Redémarrer l’interface (la connexion en SSH avec votre serveur ne devrait pas être interrompue)  :

/etc/init.d/network restart

Vérifier la configuration de l’interface bridge sur l’hôte :

ifconfig br0
br0       Link encap:Ethernet  HWaddr 08:60:6e:e5:bd:47
          inet adr:XX.XXX.XXX.XXX  Bcast:XX.XXX.XXX.255  Masque:255.255.255.0
          adr inet6: XXXX::XXX:XXXX:XXXX:XXXX/xx Scope:Lien
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
          RX packets:2344432 errors:0 dropped:0 overruns:0 frame:0
          TX packets:1599970 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 lg file transmission:0
          RX bytes:9383508945 (8.7 GiB)  TX bytes:312106046 (297.6 MiB)

La commande pour visualiser l’interface bridgée :

btctl show
br0             8000.08606ee5bd47       no              eth0

Le paquet bridge nous offre la possibilité de créer directement nos interfaces telles que :

brctl addbr lbr0
brctl addbr lbr1

Ensuite, il nous faut démarrer les interfaces bridgées lbr0 et lbr1 :

ip link set dev lbr0 up
ip link set dev lbr1 up

Cependant, la méthode de libvirt ne rend pas permanente nos interfaces ! Ajoutez les deux interfaces de façon définitive :

nano /etc/network/interface
auto lbr0
iface lbr0 inet manual
	bridge_ports none
	bridge_stp off

auto lbr1
iface lbr1 inet manual
    bridge_ports none
    bridge_stp off
/etc/init.d/network restart
brctl show

br0             8000.08606ee5bd47       no              eth0
lbr0            8000.fe5400047801       no              
lbr1            8000.fe54000a522b       no              
virbr0          8000.000000000000       yes

Le serveur hôte peut redémarrer sans crainte de perdre sa configuration désormais. Voici les différentes interfaces bridgées :

Vous avez la possibilité de désactiver l’interface au démarrage :

virsh net-autostart --disable default

Ou encore de supprimer définitivement l’interface default :

virsh net-destroy default

Création d’une instance dans WebVirtMgr

Dans la rubrique instances, cliquez sur le bouton New Instance et plusieurs possibilités s’offre à vous.

Ci-dessous on retrouve aussi des templates pré-définis et numérotés de 1 à 6 qui permettent de créer une image.

Dans ce cas précis, je vais utiliser une instance personnalisée. Mais avant il faudra créer un disque pour la VM.
Comme expliqué précédemment je préfère utiliser le mode cli pour créer le disque de ma future machine :

qemu-img create -f qcow2 vdisk 10G

Pour ceux qui souhaite convertir une machine VMware vers KVM :

qemu-img convert vm1-flat.vmdk -O qcow2 vm1

Afficher des informations concernant notre machine :

qemu-img info vdisk

file format: qcow2
virtual size: 10G (10737418240 bytes)
disk size: 136K
cluster_size: 65536

Utiliser maintenant le HDD vdisk pour créer une VM vdisk :

Lancer la création en cliquant sur le bouton create : la gestion de la machine « vdisk » apparaît avec ses options :

A ce moment précis, libre à vous de découvrir les rubriques ci-dessus mais n’oubliez pas :

  1. « Access » pour sélectionner votre type de console, puis modifié la disposition du clavier (si mode : novnc).
  2. « Settings » pour l’ajout d’un Media ISO à la machine virtuelle.
  3. Dans « Settings » éditer la configuration du xml de la machine vdisk. Uniquement si vous souhaitez attribuer une Failover OVH à votre VM. La partie interfaces de la machine doit contenir (exemple sur mon routeur/pare-feu) :
     

     

    <interface type='bridge'>
    <mac address='xx:xx:xx:xx:xx:xx'/>
    <source bridge='br0'/>
    <target dev='vnet0'/>
    <alias name='net0'/>
    <address type='pci' domain='0x0000' bus='0x00' slot='0x03' function='0x0'/>
    </interface>
  4. Lancement de la machine : Power puis Start, l’accès à la console ce fera via Accès/Console
  5. Une pop-up s’ouvre avec novnc et l’accès à la VM :

C’est terminé, vous êtes désormais prêt à utiliser les ressources de votre infrastructure et votre VM !
Mais avant sauvegardez à chaud votre VM.

Sauvegarder vos machines KVM à chaud

La sauvegarde peut se faire par clone via l’interface webvirtmgr ou encore via un simple cp : (vers NFS)

cp /var/lib/libvirt/images/vdisk /var/lib/libvirt/nfs/vdisk.02.03.2015

Vue d’ensemble de l’infrastructure

La charge d’utilisation de l’infrastructure est disponible dans la rubrique overview ce qui permet d’obtenir une vue d’ensemble en temps réel. Voici l’utilisation de mon infrastructure webvirt-kassianoff une fois en place :

Mise à jour de WebVirtMgr

Les mise à jours technologiques et de sécurité sont bien entendu très importantes, pour cela rien de plus simple :
Rendez-vous dans le répertoire de WebVirtMgr :

cd /var/www/webvirtmgr

Puis lancez les commandes suivantes :

 remote: Counting objects: 27, done.
remote: Compressing objects: 100% (14/14), done.
remote: Total 27 (delta 7), reused 6 (delta 6), pack-reused 7
Unpacking objects: 100% (27/27), done.
From git://github.com/retspen/webvirtmgr
   ed176e4..c875e0d  master     -> origin/master
Updating ed176e4..c875e0d
Fast-forward
 console/views.py         |    3 ++-
 create/views.py          |    7 ++++---
 hostdetail/views.py      |    5 +++--
 instance/views.py        |   15 ++++++++-------
 interfaces/views.py      |    7 ++++---
 networks/views.py        |    9 +++++----
 secrets/views.py         |    3 ++-
 servers/views.py         |    9 +++++----
 storages/views.py        |    9 +++++----
 templates/base.html      |    2 +-
 templates/base_auth.html |    2 +-
 templates/login.html     |    2 +-
 12 files changed, 41 insertions(+), 32 deletions(-)
./manage.py collectstatic
WARNING:root:No local_settings file found.

You have requested to collect static files at the destination
location as specified in your settings.

This will overwrite existing files!
Are you sure you want to do this?

Type 'yes' to continue, or 'no' to cancel: yes

0 static files copied, 75 unmodified.
service supervisor stop

Je termine ma migration et j’espère que votre nouvelle infrastructure vous plaît !