Diferencia entre revisiones de «Virtualización en GNU/Linux con KVM»

De Manuais Informática - IES San Clemente.
Ir a la navegación Ir a la búsqueda
 
(Sin diferencias)

Revisión actual del 15:25 2 abr 2018

Introducción

KVM (Kernel-based Virtual Machine) es una tecnología de hipervisor integrada en el kernel de Linux. Con esta tecnología podemos crear y gestionar máquinas virtuales bajo el paradigma de la “full virtualization”. Aunque hablemos de KVM realmente deberíamos hablar de Qemu/KVM. Qemu es una plataforma de simulación de hardware virtual, funcionando de modo que, intercepta las instrucciones para la CPU virtual y utiliza el sistema operativo anfitrión para ejecutar esas instrucciones en la CPU real. Qemu es el encargado de proporcionar recursos, del nodo o host, a los domains, MVs o guests. KVM cumple una función similar, sin embargo ambos operan juntos por una cuestión de eficiencia y compatibilidad. Qemu es compatible con muchas arquitecturas y permite acceder a múltiple hardware; mientras que KVM ofrece el rendimiento necesario para ello, mejorando las características de velocidad del primero.

Más específicamente KVM es el módulo del kernel de Linux que permite acelerar la ejecución de una máquina virtual. Sin esta aceleración la ejecución de las instrucciones de la MV en la CPU virtual tienen que ser traducidas por el hipervisor a la CPU física. KVM permite utilizar las características de algunas CPU modernas de mapear partes de la CPU físicas directamente a la máquina virtual. De este modo las instrucciones ejecutadas por la CPU virtual pasan sin la sobrecarga de traducción del hipervisor a la CPU física. Esta característica tiene como consecuencia que, para poder obtener todo el rendimiento de aceleración de KVM, la CPU virtual y la CPU física deben de tener la misma arquitectura. De no ser el caso, solo podríamos utilizar Qemu sin KVM, con la consiguiente pérdida de rendimiento asociada. La combinación de Qemu y KVM permite implementar un hipervisor de tipo 1, debido a las características de aceleración y mapeo directo de las instrucciones virtuales/físicas que este último proporciona.

También conviene hablar de libvirt. Se trata de un API o librería de acceso a características de virtualización compatible con múltiples tecnologías de hipervisor, incluyendo por supuesto Qemu/KVM. A través de esta librería, y de su interfaz cliente virsh, podremos gestionar los recursos virtualizados y la creación y gestión de MVs. Podemos interpretar Qemu/KVM como una tecnología de base para implementar un hipervisor de tipo 1 sobre el kernel de Linux. De este modo dispondremos de características que proporcionarán un rendimiento elevado, próximo al del entorno de ejecución “bare metal”.

Con Qemu/KVM vamos a poder ejecutar cualquier tipo de sistema operativo, Windows, Linux, compatible con la arquitectura de la CPU.

Para ejecutar Qemu/KVM necesitamos que el procesador soporte extensiones de virtualización en su juego de instrucciones, podemos comprobarlo ejecutando el comando

egrep 'svm|vmx' /proc/cpuinfo --color

El resultado debería mostrar varias líneas con el texto buscado resaltado en color. Si este es el caso entonces nuestro procesador soporta KVM. Los procesadores Intel mostrarán el texto vmx resaltado y los procesadores AMD mostrarán el texto svm resaltado.

NOTA: Es importante comprobar que en la BIOS están activados las instrucciones virtuales VT/x, de lo contrario KVM no funcionará

También deberíamos de comprobar si los módulos correspondientes están cargados

lsmod | grep kvm

Debería mostrar una salida no vacía

Por último el comando

virsh capabilities

Mostraría un listado de las capacidades de virtualización de nuestro sistema

Plataformas

Usaremos como base para la realización de las pruebas y los comandos explicados

  • Debian 9 (Stretch) versión desktop: Podremos utilizar todos los comandos por consola, por tanto no es estrictamente necesario que sea una versión desktop, sin embargo, si queremos utilizar la interfaz gráfica de gestión virt-manager, sí sería necesario este requisito

Ejecución KVM nested

Con esta característica se permite la ejecución de instrucciones KVM dentro de máquinas virtuales KVM, lo cual abre un abanico de posibilidades interesantes a la ejecución de máquinas virtuales dentro de máquinas virtuales, pudiendo resultar útil para pruebas y formación. Un ejemplo típico de lo anterior sería la posibilidad de ejecutar la plataforma Proxmox en una máquina virtual, de modo que podremos crear máquinas virtuales con KVM desde esa plataforma, no siendo necesario hacer una instalación “bare metal” de Proxmox.

Veamos el procedimiento

Activar KVM nested en el anfitrión

Comprobamos la salida del comando

cat /sys/module/kvm_intel/parameters/nested

Si es “N”, entonces activamos el soporte para que el procesador pueda ejecutar las instrucciones necesarias para KVM en la máquina virtual KVM. Ejecutamos como root:

echo 'options kvm_intel nested=1' >> /etc/modprobe.d/qemu-system-x86.conf

Reiniciamos la máquina

Para poder utilizar en una máquina virtual KVM la anterior característica debemos elegir la opción Copy host CPU Configuration a la hora de definir la CPU virtual de la máquina.

Virt-manager

Virt-manager es una herramienta gráfica de gestión de máquinas virtuales. Es compatible con tecnología de tipo full virtualization KVM y Xen, pero también permite la gestión de containers basados en tecnología LXC y OpenVZ.

El siguiente comando instala virt-manager

apt update
apt install virt-manager

Tras su instalación podemos lanzarla, como root

virt-manager &

NOTA

Si queremos ejecutar virt-manager con un usuario no root debemos incluir al usuario en los grupos: libvirt, libvirt-qemu y kvm. Podemos usar el siguiente comando

usermod -a -G libvirt,libvirt-qemu,kvm usuario

Muchos de los procedimientos ilustrados a continuación podrán ser realizados desde esta herramienta en modo gráfico

Creación de MV

Existen varios modos para crear máquinas virtuales KVM, desde hacerlo con la interfaz gráfica proporcionada por la herramienta virt-manager, hasta, como veremos a continuación, utilizar algún comando específico

Creación de MV con virt-install

virt-install --name guest1-deb9 --memory 2048 --vcpus 2 --disk size=20 \ 
--cdrom /path/to/debian9.iso --network network=default --os-variant debian9

Las opciones son autoexplicativas

  • name: nombre de la máquina virtual
  • memory: cantidad de memoria asignada
  • vcpus: número de CPUs virtuales
  • disk: establece opciones de disco duro virtual
  • cdrom: indica los medios de instalación
  • network: indica a que red virtual se va a conectar la máquina. Por defecto usará la network default de tipo NAT. También se puede indicar que se cree el guest sin red, indicando --network none
  • os-variant: identifica el tipo de sistema operativo de la MV

Existen otras muchas opciones y posibilidades a la hora de crear una máquina virtual con el comando virt-install. Desde importación de otra maquina, instalación a través de la red, uso de PXE, instalación desatendida, etc.

Creación de MV a partir de archivo xml existente

A veces nos interesa crear MV similares, o con características muy parecidas, las cuales pueden ser tomadas a partir de una MV ya existente. De este modo, duplicamos el xml original, hacemos las modificiones pertinentes en el nuevo archivo y ya podemos crear una nueva MV a partir de él. Veamos como hacerlo. En primer lugar, una aclaración. Cada MV en KVM tiene asociado un número único, UUID, de tipo hexadecimal. Este número debe de ser generado para poder ser utilizado en nuevas MV. Para ello utilizamos la herramienta uuid, sino la tenemos instalada procedemos a su instalación con

apt install uuid

Tras lo cual podremos generar uuid nuevos con el comando

uuid

Ahora vamos a volcar el contenido del archivo de configuración xml de alguna de las MV existentes en un nuevo archivo que será modificado apropiadamente, para luego servir como base para la creación de una nueva MV. Usaremos la herramienta virsh dumpxl

virsh dumpxml W10-CLIENTE > W10-CLIENTE-2.xml

Ahora podremos editar el archivo W10-CLIENTE-2.xml con algún editor de texto. Es importante modificar al menos los 3 primeros campos del archivo

<name>W10-CLIENTE-2</name>
<uuid>d3212b52-bff8-11e7-84d9-63cfc2c59a3b</uuid>
<title>W10-CLIENTE-2</title>

y también el campo, dentro de la sección disk, el cual hace referencia al volumen asociado

<source file='/var/lib/libvirt/images/win10_2.qcow2'/>

El valor uuid del campo <uuid> deberá ser generado previamente con la herramienta uuid y copiado en ese campo.

NOTA: Veremos más adelante como crear volúmenes nuevos a partir de otros

Una vez modificado los elementos del archivo necesarios creamos la nueva MV

virsh create W10-CLIENTE-2.xml

El comando anterior creará la MV a partir del archivo modificado

virsh

virsh es una potente herramienta de línea de comandos que nos permite gestionar múltiples aspectos de la gestión de máquinas virtuales KVM. Dentro de la terminología de KVM hacemos referencia al anfitrión o host mediante el término node (nodo). Para la gestión con virsh se utiliza ampliamente el concepto de domain (dominio), un domain no es más que una máquina virtual. Veamos un ejemplo

virsh start guest1-win10

El comando anterior inicia el domain (dominio o máquina virtual guest1-win10) Existen multitud de comandos virsh, los cuales pueden listarse con la opción --help

virsh --help

Otra opción es entrar en el modo consola de virsh, desde donde pueden invocarse todos los comandos con posibilidad de autocomplección. Para entrar en la consola virsh:

virsh

Con virsh podemos gestionar:

  • domains
  • host e hypervisor
  • interfaces
  • redes
  • dispositivos
  • almacenamiento (pools y volúmenes)
  • snapshots
  • secretos (passwords)

Comandos virsh básicos de gestión de MV

Listado de MV

virsh list --all

Mostrará todas las MV, estén activas o no, sino se incluye la opción --all entonces solo mostrará las iniciadas

Ver el estado de una MV

Como se ha mencionado anteriormente el concepto domain hace referencia a las MV. Para ver el estado de un domain ejecutamos el comando dominfo de virsh

virsh dominfo guest01-win10

Arranque y parada de MV

virsh start guest01-w10

Arrancaría el domain, MV, de nombre guest01-w10

virsh shutdown guest01-w10

Detendría, de forma ordenada, el domain indicado

Para ejecutar un apagado forzado

virsh destroy guest01-win10

Para ver más comandos en relación a la gestión de domains con virsh

virsh help domain

Algo de información sobre los dispositivos virtuales

Existen múltiples comandos virsh para esto, veamos algunos ejemplos

virsh domiflist guest01-w10

el comando anterior mostraría las interfaces de red usadas por el domain

virsh domblklist guest01-win10

mostraría los dispositivos de bloques asociados al domain

virsh domblkinfo guest01-win10 hdb

muestra la información del dispositivo hdb asociado al domain guest01-w10

NOTA: La denominación de un dispositivo depende del tipo de interfaz de conexión, por ejemplo los volúmenes conectados a través del emulador IDE tienen nombres de tipo hdX. Los volúmenes conectados por SATA tienen nombres tipos sdX

Para ver más información relativa a monitorización de un domain podemos ejecutar virsh help monitor

Editar la configuración de una MV

La definición de los domains KVM se realiza mediante archivos XML en donde se declara los recursos de hardware virtual, en este caso simulados mediante qemu (por ese motivo se habla por lo general de virtualización KVM/qemu), usados por la MV.

Para poder editar el archivo correspondiente usamos también el comando virsh

virsh edit guest01-w10

Abriría, con nuestro editor de texto favorito, el archivo de configuración correspondiente sobre el que podremos realizar los cambios oportunos. Una vez realizados los cambios podemos reiniciar la MV con

virsh reboot guest01-w10

Establecer autoarranque de MV

Es posible configurar un domain (MV) para que se inicie cuando arranque el sistema. Esto resulta muy útil en entornos de producción cuando se inicia un servidor. Para ello es suficiente con ejecutar el comando

virsh autostart guest01-w10

Al reiniciar la máquina veremos como inicia también el domain indicado. Para deshabilitarlo

virsh autostart --disable guest01-w10

Eliminación de una MV

En el lenguaje de virsh una máquina virtual es un domain. Para eliminar un domain podemos utilizar el comando

virsh undefine guest01-win7

Este comando elimina el domain guest01-win7

Sin embargo, antes de eliminar la MV es recomendable eliminar el disco virtual, para ello usaremos el comando

virsh vol-delete /var/lib/libvirt/images/guest01-w7.qcow2 --pool default

Acceso Remoto a MV

Podemos acceder a las MV a través de varios medios y protocolos

Acceso en modo gráfico con VNC

Para poder acceder a través del protocolo VNC a una MV podemos, o bien hacerlo desde virt-manager, en las propiedades de la MV, Monitor VNC, ahí podremos configurar el puerto y las interfaces de acceso al servidor, o bien, editando el archivo de configuración xml de la MV

virsh edit guest01-win10

Buscamos las líneas del elemento graphics y definimos sus parámetros, como por ejemplo

<graphics type='vnc' port='5900' autoport='no' listen='0.0.0.0' keymap='es'>
      <listen type='address' address='0.0.0.0'/>
</graphics>

En este caso podremos acceder desde cualquier interfaz de red, incluso desde la IP del anfitrión, a través del puerto 5900/tcp, mediante el protocolo VNC. El puerto puede modificarse e incluso ser asignado de forma automática, para poder acceder a distintas MV utilizando puertos diferentes. Podemos restringir el acceso a ciertas interfaces mediante el uso de la directiva listen anterior. Cuando esté habilitado el acceso mediante VNC en el mismo puerto 5900, podemos obtener el número de pantalla a partir del comando vncdisplay de virsh

virsh vncdisplay guest01-win10

Mostraría el número de pantalla: :0, :1, etc. que deberá incorporarse después de la dirección o hostname del servidor VNC en la URL de acceso VNC

Acceso en modo gráfico con Spice

Spice es un protocolo de acceso remotoen modo gráfico a las MV, consta de 3 elementos, un servidor Spice, corriendo en el hipervisor, un agente Spice, corriendo en cada domain o MV y un cliente Spice, el programa que usaremos para acceder en remoto.

Al igual que con VNC puede configurarse el modo de acceso desde virt-manager, en el apartado Monitor Spice en el que puede configurarse el acceso mediante Spice, o bien editando el archivo de configuración xml del domain, veamos un ejemplo

virsh edit guest01-win10

Buscamos de nuevo el elemento graphics y definimos una configuración como la siguiente

<graphics type='spice' port='5900' autoport='no' listen='0.0.0.0' keymap='es'>
      <listen type='address' address='0.0.0.0'/>
</graphics>

Este caso es análogo al anterior, con la salvedad de que ahora accedemos a través del protocolo Spice

Acceso en modo consola

Una opción utilizada para acceder a sistemas GNU/Linux en modo consola

virsh console guest01-debian1

Para poder acceder de este modo a una máquina GNU/Linux tenemos que añadir la consola a través de puerto serie en las opciones de grub. Para ello editamos el archivo /etc/default/grub y añadimos a la línea GRUB_CMDLINE_LINUX el texto console=ttyS0, de modo que la línea quedará

GRUB_CMDLINE_LINUX=”console ttyS0”

Ahora actualizamos grub

update-grub

Y reiniciamos

reboot

Tras el reinicio podemos utilizar el comando anterior para acceder por consola a la MV

virsh console guest01-debian1

Clonación de MV

Una funcionalidad interesante es poder clonar MV existentes, de modo que obtengamos una MV igual a la original. Para ello usamos la herramienta virt-clone

virt-clone --original=guest01-win10 --name=guest01-win10-CLONE --file=/var/lib/libvirt/images/guest01-win10-CLONE.qcow2

El comando anterior clona el domain (MV) de nombre guest01-win10 en un nuevo domain de nombre guest01-win10-clone, además especifica que la ubicación de su volumen de almacenamiento tendrá la ruta indicada.

Gestión de volúmenes

Listado de volúmenes

virsh vol-list --details default

El comando anterior listará los volúmenes disponibles en el pool default. Un pool es una ubicación de almacenamiento de volúmenes. Es necesario indicar el pool para que el comando anterior funcione. Por defecto el volumen default, predefinido, está asociado al directorio /var/lib/libvirt/images. La opción --details muestra información detallada de los volúmenes. Mostraría una salida del tipo

 Name                Path                                        Type   Capacity  Allocation
 w10_cliente.qcow2   /var/lib/libvirt/images/w10_cliente.qcow2   file  20,00 GiB  234,95 MiB
 w2016.qcow2         /var/lib/libvirt/images/w2016.qcow2         file  30,00 GiB   10,93 GiB
 w2016_server.qcow2  /var/lib/libvirt/images/w2016_server.qcow2  file  30,00 GiB    1,11 GiB
 win10.qcow2         /var/lib/libvirt/images/win10.qcow2         file  20,00 GiB    9,10 GiB

Notar como se especifica por un lado la Capacidad del volumen, como se define a la hora de crear el volumen, y el espacio que está siendo realmente utilizado por los datos del volumen. Obtener información de un volumen

virsh vol-info /var/lib/libvirt/images/w2016_server_clone.qcow2

Mostraría la información del volumen indicado en el formato siguiente

Name:           w2016_server.qcow2
Type:           file
Capacity:       30,00 GiB
Allocation:     1,11 GiB

Para obtener más información sobre comandos relacionados con volúmenes

virsh help volume

Gestión de imágenes con qemu-img

A continuación vamos a ver un comando de qemu específicamente creado para gestionar las imágenes de almacenamiento asociadas a los volúmenes de datos de las MV

Comando qemu-img

Clonación enlazada

En el apartado anterior vimos como crear un clon de un domain. Este comando resulta útil cuando queremos realizar un clon “completo”, es decir, una copia exacta y totalmente independiente del domain original.

Sin embargo, en ocasiones, es muy útil utilizar las ventajas del formato de volumen qcow2 (qemu copy on write), el cual permite, entre otras cosas, trabajar con volúmenes “enlazados”; en el sentido de que un volumen enlazado a otro, que le sirve de base, solo almacenará las modificaciones efectuadas respecto al volumen de base. De este modo conseguimos ahorrar mucho espacio de almacenamiento al trabajar con domains que utilizan volúmenes que se van construyendo “unos sobre otros”.

Por ejemplo, supongamos que tengo un volumen, que sirve de disco virtual al domain guest01-w10. Ese volumen se almacena en la ruta /var/lib/libvirt/images/guest01-w10.qcow2. Vamos a crear un clon de este domain, de nombre guest01-w10-lclone, que además, hará uso de un volumen que opera de modo enlazado al original, el volumen se almacenará en /var/lib/libvirt/images/guest01-w10-lclone.qcow2. Lo primero es crear un volumen “enlazado” al original, es decir, no vamos a duplicar el volumen original, sino que vamos a crear un volumen que actúe tomando el volumen original “base”, de este modo solo se almacenarán las diferencias, y no el sistema de archivos completo, en el nuevo volumen, para ello usaremos la herramienta qemu-img

qemu-img create -f qcow2 -b /var/lib/libvirt/images/guest01-w10.qcow2 /var/lib/libvirt/images/guest01-w10-lclone.qcow2

Para ver la información asociada al volumen recién creado

qemu-img info /var/lib/libvirt/images/guest01-w10-lclone.qcow2

Mostraría la información siguiente

image: /var/lib/libvirt/images/guest01-w10-lclone.qcow2
file format: qcow2
virtual size: 20G (21474836480 bytes)
disk size: 196K
cluster_size: 65536
backing file: /var/lib/libvirt/images/guest01-w10.qcow2
Format specific information:
    compat: 1.1
    lazy refcounts: false
    refcount bits: 16
    corrupt: false

En la salida anterior podemos apreciar como el campo image indica la ruta del volumen recién creado, pero el campo backing file indica la ruta al archivo de imagen del volumen original. De este modo estamos trabajando con un volumen “enlazado”, que tendrá las características indicadas previamente.

A continuación vamos a efectuar el clon mediante la herramienta virt-clone, pero especificando que tome el volumen que acabamos de crear con el comando anterior, sin modificar sus datos, con la opción --preserve-data

virt-clone --original=guest01-w10 --name=guest01-w10-lclone --preserve-data --file=/var/lib/libvirt/images/guest01-w10-lclone.qcow2

Ahora vamos a ver la lista de volúmenes y sus tamaños

virsh vol-list --details default

La salida mostraría

Name                Path                                        Type   Capacity  Allocation
---------------------------------------------------------------------------------------------
 w2016.qcow2              /var/lib/libvirt/images/w2016.qcow2         file  30,00 GiB   10,93 GiB
 w2016_server.qcow2       /var/lib/libvirt/images/w2016_server.qcow2  file  30,00 GiB    1,11 GiB
 guest01-w10.qcow2        /var/lib/libvirt/images/win10.qcow2         file  20,00 GiB    9,10 GiB
 guest01-w10_lclone.qcow2 /var/lib/libvirt/images/win10_clone.qcow2   file  20,00 GiB   57,13 MiB

Podemos ver como el tamaño del volumen del nuevo clon ocupa solamente 57,13 MB, sin embargo el volumen que le sirve de base ocupa 9,10 GB.

Gestión de networks

Introducción

El tratamiento de las network por parte de qemu/KVM se basa en el concepto de Virtual Network. Este concepto se basa un Switch Virtual, es decir un dispositivo software que actúa como un conmutador o switch.

Al mismo switch virtual se conectarán todas las MV, guests, asociadas a la misma virtual network. De este modo todas son visibles entre sí, porque además comparten el direccionamiento IP establecido en la virtual network. También es posible configurar un servicio DHCP para una virtual network, de modo que todas las MV conectadas a él puedan tener IPs asignadas de modo automático. Otra opción es la asignación de IP manual dentro del rango de direccionamiento asociado a la virtual network.

Por defecto se crea una Virtual Network de nombre “default”, que opera en modo NAT, y que tiene asociado un dispositivo de tipo Switch Virtual de nombre “virbr0”. Por supuesto son posibles muchas más configuraciones. Respecto al modo en que las MV se conectan al exterior, a través del comportamiento de reenvío del tráfico en la virtual network, encontramos los siguientes modos de operación.

Archivo de configuración de una network

Vamos a ver a modo de ejemplo el archivo de configuración de la network default, para ello volcamos el contenido con el comando

virsh net-dumpxml default

Lo cual arroja la salida

<network>
  <name>default</name>
  <uuid>3b6d6a45-a302-4641-974a-8379dbca58da</uuid>
  <forward mode='nat'>
    <nat>
      <port start='1024' end='65535'/>
    </nat>
  </forward>
  <bridge name='virbr0' stp='on' delay='0'/>
  <mac address='52:54:00:60:56:f1'/>
  <ip address='192.168.122.1' netmask='255.255.255.0'>
    <dhcp>
      <range start='192.168.122.2' end='192.168.122.254'/>
    </dhcp>
  </ip>
</network>

Como podemos observar, el nombre de la network es “default”, opera en modo forward “nat”, utiliza como dispositivo bridge, o switch virtual, virbr0, teniendo asignada la MAC 52:54:00:60:56:f1, y la dirección IP del propio switch virtual es 192.168.122.1, es decir la IP más baja dentro del rango de direccionamiento asociado a la network. Por último, vemos que tiene asociado un rango de cesiones DHCP asignables las MVs conectadas a esa network.

NAT Mode

Esta es el modo de red por defecto para los domains (MVs). De hecho se dispone por defecto de una network de este tipo con nombre default Para ver las networks definidas

virsh net-list --all

Mostraría las networks creadas. Sino se especifica el modificador --all solo se visualizan las network activas.

Este tipo de network permite construir un entorno de red virtual en el cual las MVs conectadas a la network son visibles entre sí, además de poder comunicarse desde y hacia el anfitrión, a través de la primera IP del rango de direcciones de la subred asignada.

Para ello utiliza una técnica de IP masquerade con la IP del adaptador físico del host. La limitación que tiene este modo de operación es que las MVs no son accesibles directamente desde fuera del host, aunque sí pueden comunicarse entre sí, con el anfitrión y salir hacia el exterior.

Veamos la información de la red NAT network default

virsh net-dumpxml default

<network>
  <name>default</name>
  <uuid>3b6d6a45-a302-4641-974a-8379dbca58da</uuid>
  <forward mode='nat'>
    <nat>
      <port start='1024' end='65535'/>
    </nat>
  </forward>
  <bridge name='virbr0' stp='on' delay='0'/>
  <mac address='52:54:00:60:56:f1'/>
  <ip address='192.168.122.1' netmask='255.255.255.0'>
    <dhcp>
      <range start='192.168.122.2' end='192.168.122.254'/>
    </dhcp>
  </ip>
</network>

Vemos como se indica el mode=’nat’, los parámetros del port forwarding, el nombre del dispositivo bridge utilizado por la network, la dirección MAC del dispositivo bridge y el rango de direccionamiento IP asignable por DHCP.

Por defecto la network default viene deshabilitada, es decir hay que iniciarla explícitamente para que pueda ser utilizada. Para iniciarla:

virsh net-start default

Si queremos que la network se inicie de modo automático en el arranque ejecutamos virsh net-autostart default

Bridged Mode

En este modo los MVs (guests) son visibles en la misma LAN que el anfitrión, de modo que se visualizan transparentemente como hosts dentro de la misma LAN. No hay por tanto mecanismos NAT asociados, de modo que la configuración de la red se establece en el dominio de la LAN sobre la que se despliega el propio anfitrión.

Routed Mode

Este modo de operación es similar a NAT, con la salvedad de que las reglas de reenvío de tráfico son específicamente definidas en el switch virtual, el cual es susceptible de examinar el tráfico en tránsito y efectuar decisiones de enrutamiento. En esta modalidad el switch virtual actua, por lo tanto, como un enrutador, siendo necesario especificar todas las reglas de enrutamiento explícitamente.

Isolated Mode

Por último, el modo aislado solo permite conectar las MVs entre sí, pero sin ningún tipo de posibilidad de acceso al exterior a través del switch virtual. Es un modo adecuado si queremos un escenario de pruebas aislado en el que no influir.

Creación de una network a partir de otra

Podemos volcar en un archivo xml la información de definición de una network, modificar el archivo correspondiente y por último crear una nueva network a partir del archivo modificado. Veamos un ejemplo

virsh net-dumpxml default > red192.xml

Editamos el archivo red192.xml resultante para que quede

<network>
  <name>red192</name>
  <uuid>bba275f0-8866-4580-ad86-eb42e94c07fd</uuid>
  <forward mode='nat'>
    <nat>
      <port start='1024' end='65535'/>
    </nat>
  </forward>
  <bridge name='virbr1' stp='on' delay='0'/>
  <mac address='52:54:00:2f:a3:d9'/>
  <domain name='red192'/>
  <ip address='192.168.0.1' netmask='255.255.255.0'>
    <dhcp>
      <range start='192.168.0.128' end='192.168.0.254'/>
    </dhcp>
  </ip>
</network>

Y ahora creamos la nueva network a partir el archivo anterior

virsh net-create red192.xml

Gestión de snapshots

Las snapshots (instantáneas) permiten almacenar estados de ejecución de un domain. De este modo es posible restaurar un domain al estado de ejecución almacenado en la snapshot

Creación de snapshot con virsh

Para crear una snapshot podemos usar virsh

virsh snapshot-create-as guest01-win10 --name snap1

crearía la snapshot snap1 para el domain guest01-win10

Lista de snapshots de un domain

Para ver la lista de snapshots de un domain virsh snapshot-list guest01-win10

Restaurar un domain al estado de una snapshot

Debemos indicar el domain y el nombre de la snapshot que queremos restaurar

virsh snapshot-revert guest01-win10 snap1

restauraría el domain al estado almacenado en la snapshot snap1

Eliminar snapshot de domain

virsh snapshot-delete guest01-win10 snap1

eliminaría la snapshot creada anteriormente

Más acciones con snapshots

Podemos ver más comandos virsh relacionados con snapshots ejecutando

virsh help snapshot

Uso de drivers KVM paravirtualizados (virtio)

Los drivers paravirtualizados son drivers de dispositivos modificados para utilizar las características de rendimiento avanzado del hipervisor KVM. Cuando utilizamos drivers emulados el rendimiento es bastante menor, pues el hipervisor tiene que simular esos dispositivos. Al utilizar drivers paravirtualizados, mediante el estándar virtio, el propio driver coopera con el hipervisor, aprovechando las características de rendimiento avanzado.

Se dispone de drivers paravirtualizados para los dispositivos de bloques y tarjetas de red. En el caso de guests Linux éstos vienen integrados en KVM y son integrables en los kernel del guest.

Para guest windows podemos descargar los correspondientes binarios, a través de una .iso que será utilizada durante el proceso de instalación de la máquina virtual.

Activar virtio para dispositivos de bloques en guest Linux

Vamos a activar el uso de virtio para dispositivos de almacenamiento de bloques. Para ello usaremos el comando virsh edit usado para modificar la configuración de una MV

virsh edit guets01-debian1

Sustituimos en el elemento disk correspondiente el atributo bus dentro del elemento target, tal que así

<disk type='...' device='disk'>
  ...
  <target dev='vda' bus='virtio'/>
</disk>

Si todo va bien al iniciar el guest con virsh start no deberíamos obtener ningún error

Activar virtio para dispositivo de red en guest Linux

De un modo similar al procedimiento anterior activamos el bus virtio en el dispositivo correspondiente

virsh edit guets01-debian1

Sustituimos en el elemento interface correspondiente el atributo type dentro del elemento model, tal que así

<interface type='network'>
  ...
  <model type='virtio' />
</interface>

LABORATORIO DE MVs

A continuación vamos a desarrollar una práctica de construcción de un pequeño laboratorio de máquinas virtuales utilizando Qemu/KVM

LABORATORIO DE MVs

Referencias

virt-install man page

https://linux.die.net/man/1/virt-install

Guía de Administración de KVM en RHEL

https://access.redhat.com/documentation/en-us/red_hat_enterprise_linux/7/html/virtualization_deployment_and_administration_guide/sect-guest_virtual_machine_installation_overview-creating_guests_with_virt_install

linux-kvm.org

https://www.linux-kvm.org/page/Documents

virtio

https://wiki.libvirt.org/page/Virtio

Volver

JavierFP 20:17 7 nov 2017 (CET)