Virtualización

Introducción a Hyper-V en Windows Server 2008

Rajiv Arunkundram

 

De un vistazo:

  • ¿Qué es la virtualización?
  • Tres arquitecturas de virtualización
  • Hipervisor con microkernel frente a monolítico
  • Funcionamiento de Hyper-V

Contenido

Mercado de la virtualización de servidores
Cómo funciona la virtualización de servidores
Tipos de soluciones de virtualización
Hipervisor de Windows
Partición principal
Arquitectura de uso compartido de dispositivos
Componentes de integración
Conjunto de características de Hyper-V
Escalabilidad
Alta disponibilidad
Seguridad
Capacidad de administración
Conclusión

Recientemente se habla mucho de la virtualización, y gran parte de la discusión trata específicamente de la virtualización de servidores. Es una de las tendencias más interesantes en el sector y la que tiene la capacidad, en los próximos años, de cambiar el paradigma de la implementación de los sistemas de TI. Pero la virtualización de servidores no sólo cambiará el modo en que los administradores y arquitectos de TI perciben los servidores y el uso del sistema, sino que también va a afectar a los procesos y herramientas que se usan para administrar lo que, sin duda, se convertirá en un entorno cada vez más dinámico.

La virtualización ha estado presente desde hace tiempo, pero la tecnología sigue evolucionando. De hecho, la palabra en sí tiene significados distintos para diferentes personas. No obstante, en términos generales, la virtualización hace referencia a la abstracción de una capa de la pila de tecnología de la siguiente capa, como, por ejemplo, el almacenamiento de los servidores o el sistema operativo de las aplicaciones. La abstracción de las diferentes capas, a su vez, permite la consolidación y una mejor capacidad de administración.

Como concepto, la virtualización se aplica al almacenamiento, las redes, los servidores, las aplicaciones y el acceso. En relación con el almacenamiento y las redes, el objetivo de la virtualización es agregar un conjunto de distintos dispositivos de modo que el grupo total de recursos parezca y actúe como una sola entidad. Por ejemplo, puede configurar una solución de almacenamiento de 40 TB en vez de un conjunto de 20 dispositivos de almacenamiento de 2 TB. Pero con otros componentes, la virtualización actúa en la dirección contraria y le ayuda a que un único sistema aparezca como si hubiera múltiples sistemas. El ejemplo más habitual de este caso es la virtualización de servidores, donde se hospedan múltiples instancias y entornos de sistema operativo en un solo servidor.

Microsoft ha abordado la virtualización en diferentes niveles, que van desde el escritorio hasta el centro de datos con soluciones para la virtualización de servidores, virtualización de aplicaciones, virtualización de presentaciones y virtualización de escritorios. El denominador común de todos ellos es la administración con Microsoft System Center. En este artículo me centraré en el componente de virtualización de servidores y, específicamente, en el modo en que Hyper-V, una característica clave de Windows Server 2008, encaja en la ecuación de un centro de datos dinámico.

Mercado de la virtualización de servidores

En primer lugar, considero que merece la pena examinar lo que existe en el entorno de hoy en día y hacia dónde se dirige el mercado general. Según el estudio que lea, algunos analistas calculan que del 5% al 9% de los todos los servidores físicos que se venden en la actualidad se van a usar como hosts de virtualización. Tal vez considere que esto supone una gran cantidad de sistemas en un mercado en el que cada año se distribuyen más de nueve millones de servidores físicos. Pero una cosa es cierta: todavía hay una enorme oportunidad de mercado, ya que cada vez más clientes se sienten cómodos con la virtualización y desean emplearla.

Es importante tener en cuenta dónde se adopta la virtualización. Los clientes empresariales ciertamente son los que han abierto camino con sus pruebas y al ser los primeros usuarios. Sin embargo, hay pequeñas y medianas empresas que también implementan la virtualización. La adopción de la virtualización abarca distintos tipos de cargas de trabajo, desde aplicaciones empresariales y administrativas hasta la Web y el correo electrónico.

¿Por qué se habla ahora tanto de la virtualización? Hay varios factores y el más importante es la temporización. Se han combinado una serie de factores clave del sector al mismo tiempo, lo que contribuye a impulsar la mayor adopción de la virtualización. Entre estos factores sectoriales se incluye el cambio a la computación de 64 bits, los procesadores de varios núcleos e, incluso, el impulso de una computación sostenible para mejorar el uso del sistema.

Los sistemas están aumentando de tamaño y requieren una tecnología como la virtualización para realizar un uso completo de la eficacia del sistema. Pero aunque es cierto que la tecnología principal (y la ley de Moore) ha avanzado de forma continua en lo que respecta a la producción de una mayor capacidad de procesamiento de la que los sistemas pueden usar, ahora tenemos una mayor conciencia del impacto medioambiental, los requisitos de energía y los costos de refrigeración.

Todos estos factores, además del rendimiento de la inversión (ROI) al adoptar la virtualización, deberían acelerar la adopción de la virtualización en empresas grandes y pequeñas. Y nosotros, los profesionales de TI, podemos esperar que las principales empresas sigan invirtiendo en esta tecnología en los próximos años y mejorando las características y la funcionalidad.

Cómo funciona la virtualización de servidores

En términos generales, la virtualización de servidores permite tomar un único dispositivo físico e instalar (y ejecutar simultáneamente) dos o más entornos de sistema operativo potencialmente distintos y con diferentes identidades, pilas de aplicaciones, etc. Hyper-V es una tecnología de virtualización avanzada basada en hipervisor de 64 bits que ofrece capacidades de plataforma confiables y escalables. Junto con System Center, proporciona un único conjunto de herramientas de administración integradas para los recursos físicos y virtuales.

Todo esto sirve para reducir costos, mejorar el uso, optimizar la infraestructura y permitir que las empresas aprovisionen rápidamente nuevos servidores. Para ayudarle a comprender mejor cómo se ha diseñado Hyper-V, primero examinaremos los distintos tipos de soluciones de virtualización.

Tipos de soluciones de virtualización

Esencialmente existen tres arquitecturas generales que se usan para la virtualización de servidores, tal y como se muestra en la figura 1. Las diferencias fundamentales tienen que ver con la relación entre la capa de virtualización y el hardware físico. Cuando hablo de capa de virtualización, me refiero a la capa de software denominada monitor de máquina virtual (VMM, que no se debe confundir con Virtual Machine Manager). Esta es la capa que proporciona la capacidad de crear varias instancias aisladas que comparten los mismos recursos de hardware subyacentes.

fig01.gif

Figura 1 Las tres arquitecturas de virtualización (haga clic en la imagen para ampliarla)

La arquitectura VMM de tipo 2 se ejemplifica mediante máquinas virtuales Java. Aquí, el objetivo de virtualización es crear un entorno de tiempo de ejecución en el que el proceso puede ejecutar un conjunto de instrucciones sin basarse en el sistema host. En este caso, el aislamiento es para los distintos procesos y permite que una sola aplicación se ejecute en varios sistemas operativos sin tener que preocuparse de las dependencias de sistema operativo. La virtualización de servidores no se incluye en esta categoría.

El VMM de tipo 1 y los VMM híbridos son dos tipos de planteamientos que probablemente tengan una mayor difusión en la actualidad. El VMM híbrido constituye una etapa en la que el VMM se ejecuta junto al sistema operativo host y ayuda a crear máquinas virtuales en él. Algunos ejemplos de VMM híbrido son Microsoft Virtual Server, Microsoft Virtual PC, VMware Workstation y VMware Player. Debe tener en cuenta que estos tipos de soluciones son excelentes para un escenario de cliente donde sólo se ejecutan máquinas virtuales una parte del tiempo, ya que los VMM agregan una sobrecarga considerable y, por lo tanto, no resultan adecuados para cargas de trabajo que realicen un uso intensivo de los recursos.

En una arquitectura VMM de tipo 1, la capa de VMM se ejecuta directamente sobre el hardware. Se suele denominar capa de hipervisor. Esta arquitectura la diseñó IBM originalmente en la década de 1960 para los grandes sistemas (mainframe) y recientemente se ha hecho disponible en las plataformas x86/x64 con una amplia variedad de soluciones, incluido Windows Server 2008 Hyper-V.

Existen soluciones en las que el hipervisor es una parte incrustada del firmware. No obstante, se trata simplemente de una opción de empaquetado y no cambia realmente la tecnología subyacente.

En lo que respecta a los VMM de tipo 1, existen principalmente dos modos principales de diseñar las soluciones de hipervisor: con microkernel y monolítico. Ambos de estos enfoques, tal y como se muestra en la figura 2, son auténticos VMM de tipo 1 en los que el hipervisor se instala directamente en el hardware físico.

fig02.gif

Figura 2 Dos formas de diseñar las soluciones de hipervisor (haga clic en la imagen para ampliarla)

El enfoque de hipervisor monolítico hospeda el hipervisor/VMM en una sola capa que también incluye la mayor parte de los componentes requeridos, como el kernel, los controladores de dispositivo y la pila de E/S. Se trata del enfoque que usan soluciones como VMware ESX y los grandes sistemas (mainframe) tradicionales.

El enfoque con microkernel usa un hipervisor muy ligero y especializado que sólo lleva a cabo las tareas principales para garantizar el aislamiento de particiones y la administración de la memoria. Esta capa no incluye la pila de E/S ni los controladores de dispositivo. Es el enfoque que usa Hyper-V. En esta arquitectura, la pila de virtualización y los controladores de dispositivo específicos del hardware se encuentran en una partición especializada que se denomina la partición principal.

Hipervisor de Windows

La separación sólida entre los múltiples sistemas operativos se garantiza con la creación de procesadores virtuales, memoria, temporizadores y controladores de interrupciones. Los sistemas operativos usan estos recursos virtuales del mismo modo que usarían sus homólogos físicos.

El hipervisor de Windows, parte de Hyper-V, realiza las siguientes tareas:

  • Crea particiones lógicas.
  • Administra la programación de memoria y procesador para los sistemas operativos invitados.
  • Proporciona mecanismos para virtualizar la entrada/salida y establecer comunicación entre las particiones.
  • Aplica las reglas de acceso a la memoria.
  • Aplica la directiva de uso de la CPU.
  • Expone una interfaz de programación sencilla denominada hiperllamadas.

Debido a que usa el enfoque con microkernel, el hipervisor de Windows es bastante pequeño, con un tamaño de menos de 1 MB. Este espacio mínimo contribuye a mejorar la seguridad general del sistema.

Uno de los requisitos para ejecutar Hyper-V es disponer de un sistema x64 que tenga tecnologías Intel VT o AMD-V. La tecnología x64 permite el acceso a un espacio de direcciones mayor y compatibilidad con sistemas con más memoria, con lo que se pueden ejecutar más máquinas virtuales en un solo sistema host. Intel VT y AMD-V son las soluciones de virtualización asistida por hardware que proporcionan una capa con grandes privilegios en la arquitectura de anillo que ayuda a mantener el entorno de ejecución del hipervisor separado del resto del sistema. También permiten que Hyper-V ejecute un sistema operativo no modificado sin que suponga una penalización importante en el rendimiento de emulación.

Partición principal

Hyper-V consta de una partición principal, que es esencialmente una máquina virtual que tiene un acceso especial o privilegiado. Es la única máquina virtual con acceso directo a los recursos de hardware. Todas las demás máquinas virtuales, que se denominan particiones invitadas, pasan por la partición principal para obtener acceso a sus dispositivitos.

La existencia de la partición principal es bastante transparente. Cuando se comienza a instalar Hyper-V, lo primero que debe hacer es instalar Windows Server 2008 x64 Edition en el sistema físico. A continuación, se debe ir a Administrador de servidores, habilitar la función de Hyper-V y reiniciar el sistema. Una vez reiniciado el sistema, primero se carga el hipervisor de Windows y, después, el resto de la pila se convierte en la partición principal.

La partición principal es la propietaria del teclado, el mouse, la pantalla de vídeo y otros dispositivos conectados al servidor host. No tiene control directo sobre los temporizadores y los controladores de interrupciones que usa el hipervisor.

La partición principal contiene un proveedor de Instrumental de administración de Windows (WMI) para facilitar la administración de todos los aspectos del entorno virtualizado, así como una pila de virtualización que lleva a cabo las tareas relacionadas con el hardware en nombre de las particiones secundarias. Además, los controladores de fabricante de hardware independiente (IHV) que necesita el hardware del sistema host se incluyen en la partición principal y los controladores creados para las ediciones de Windows Server 2008 x64 también funcionan en la partición principal.

Arquitectura de uso compartido de dispositivos

Uno de los componentes de arquitectura innovadores en Hyper-V es la nueva arquitectura de uso compartido de dispositivos que admite los dispositivos emulados y sintéticos en cada sistema operativo invitado. La emulación de dispositivos resulta bastante útil para la compatibilidad de sistemas operativos anteriores en controladores de dispositivo diseñados para generaciones de hardware antiguas. Por ejemplo, Hyper-V incluye una emulación del adaptador de red Intel 21140, que se denominó adaptador de red DEC 21140 cuando se distribuían numerosos sistemas operativos antiguos.

Por lo general, la emulación de dispositivos es lenta, no se puede ampliar fácilmente y no se escala bien. Pero la emulación sigue siendo importante porque permite ejecutar la mayoría de los sistemas operativos x86 en Hyper-V. Debido a que la virtualización ahora está pasando de una tecnología nicho principalmente para pruebas y desarrollo a una tecnología esencial para entornos de producción, los usuarios requieren un mejor rendimiento para ejecutar mayores cargas de trabajo. Los dispositivos emulados ya no cumplen estas demandas cada vez más exigentes.

Una solución alternativa a esto es usar dispositivos sintéticos de Hyper-V. Los dispositivos sintéticos son dispositivos virtuales que se asignan directamente a dispositivos físicos. A diferencia de los dispositivos emulados, los sintéticos no emulan el hardware heredado. Con el modelo de uso compartido de hardware de Hyper-V, los sistemas operativos invitados compatibles pueden interactuar directamente con los dispositivos sintéticos que tal vez no tengan equivalentes físicos. Estos sistemas operativos usan clientes de servicio virtuales (VSC), que actúan como controladores de dispositivo dentro del sistema operativo invitado.

En vez de obtener acceso al hardware físico directamente, los VSC usan VMBus, que es un bus de alta velocidad en memoria, para tener acceso a los proveedores de servicios virtuales (VSP) en la partición principal. A continuación, los VSP administran el acceso al hardware físico subyacente, tal y como se ilustra en la figura 3. Una ventaja clave de los dispositivos sintéticos es que el rendimiento de dichos dispositivos sobre VMBus se aproxima al de los dispositivos de hardware no virtualizados.

fig03.gif

Figura 3 Los VSC usan VMBus para obtener acceso a los VPS, que administran el acceso al hardware físico subyacente (haga clic en la imagen para ampliarla)

Componentes de integración

Hyper-V se ha diseñado para proporcionar límites sólidos entre las distintas instancias que se ejecutan en un equipo. Para habilitar la interacción entre los sistemas operativos invitado y host, y para suministrar funcionalidad adicional a los sistemas operativos invitados compatibles, Hyper-V proporciona componentes de integración.

Las componentes de integración de Hyper-V admiten las siguientes características:

  • Sincronización de hora
  • Servicio de instantáneas de volumen (VSS)
  • Funcionalidad Latido
  • Apagado de invitado
  • Intercambio de pares de clave y-valor (se usa para el acceso al Registro de un sistema operativo invitado)
  • Identificación de sistema operativo

Conjunto de características de Hyper-V

Ni que decir tiene que cuanto más se aproxima la plataforma de virtualización a la forma de actuar de un servidor físico, más fácil resulta para las organizaciones implementar y confiar en las cargas de trabajo virtuales. En mi opinión, existen cuatro áreas clave en las que se pueden ver las distintas características de la plataforma de virtualización.

En la actualidad, la mayoría de las soluciones de virtualización basadas en hipervisor se parecen mucho en cuanto a características y funcionalidad. A medida que se avanza, cuestiones como el costo total de propiedad (TCO) y la facilidad de uso serán los diferenciadores clave. Se realizarán inversiones continuas en las soluciones de administración y el desarrollo nos acercará a la visión de un entorno de TI dinámico, donde la infraestructura es lo suficientemente flexible como para adaptarse a las necesidades de la empresa, y los modelos y directivas ayudarán a impulsar una mayor automatización y administración.

Escalabilidad

Gracias a la arquitectura de hipervisor con microkernel, Hyper-V tiene muy poca sobrecarga de CPU, lo que deja mucho espacio para virtualizar las cargas de trabajo. Al permitir que las máquinas virtuales hagan uso de características y hardware eficaces, como la tecnología de multinúcleo, el acceso a disco mejorado y más memoria, Hyper-V mejora la escalabilidad y el rendimiento de la plataforma de virtualización.

Combinado con el resto de las capacidades de Windows Server 2008, Hyper-V permite consolidar la mayoría de las cargas de trabajo (incluidas las de 32 y 64 bits) en un solo sistema. Y puede ayudar a equilibrar la adopción de tecnología de 64 bits con compatibilidad continua con las cargas de trabajo de 32 bits que ya se usan en el entorno.

El hecho de que Hyper-V requiera un sistema host de 64 bits con virtualización asistida por hardware contribuye a garantizar que el sistema host podrá obtener acceso a un grupo grande de recursos de memoria. Hyper-V puede admitir hasta 1 TB de memoria en el host, con hasta 64 GB de memoria por máquina virtual. Esto resulta clave para quien planifique virtualizar cargas de trabajo que hacen un uso intensivo de la memoria, como Exchange Server y SQL Server.

Hyper-V también admite hasta 16 procesadores lógicos en el sistema host, lo que convierte a Hyper-V en escalable para la mayoría de los sistemas de dos y cuatro zócalos comerciales con varios núcleos. También puede crear una máquina virtual con un máximo de cuatro procesadores virtuales con el fin de admitir cargas de trabajo que requieran o aprovechen las ventajas de un multiprocesador.

La consolidación de servidores mediante Hyper-V también permite a dichos servidores utilizar la sólida compatibilidad de funciones de red, incluido VLAN, Traducción de direcciones de red (NAT) y las directivas (cuarentena) de Protección de acceso a redes (NAP). Y como una característica de Windows Server 2008, Hyper-V funciona bien con otras características de Windows Server, como BitLocker y Windows PowerShell.

Alta disponibilidad

La alta disponibilidad es un escenario donde Hyper-V y las capacidades de agrupación en clúster del host colaboran para atender las necesidades de continuidad de negocio y la recuperación ante desastres. La continuidad de negocio es la capacidad de minimizar el tiempo de inactividad programado y el no programado. Esto incluye el tiempo que se pierde con las funciones rutinarias tales como el mantenimiento o la copia de seguridad, así como las interrupciones imprevistas.

La recuperación ante desastres es un componente clave de la continuidad de negocio. Los desastres naturales, los ataques malintencionados e incluso los problemas sencillos de configuración, como los conflictos de software, pueden paralizar los servicios y las aplicaciones hasta que los administradores resuelven el problema y restauran los datos. Una estrategia confiable de negocio y de recuperación ante desastres debe ofrece una mínima pérdida de datos y capacidades de administración remota eficaces.

En lo que respecta a la alta disponibilidad, debe considerar tres categorías distintas: tiempo de inactividad planificado, tiempo de inactividad no planificado y copias de seguridad. La protección para el tiempo de inactividad no planificado normalmente es necesaria para quitar las máquinas virtuales del sistema host para poder realizar tareas de mantenimiento de hardware o aplicar revisiones al sistema host o la plataforma de virtualización (que puede requerir que se reinicie).

La mayoría de las organizaciones tienen intervalos de mantenimiento planificado y lo que se busca realmente es minimizar o eliminar el período de tiempo en el que las máquinas virtuales no estarán disponibles mientras el sistema está inactivo durante el mantenimiento. Con la característica Migración rápida se puede migrar rápidamente una máquina virtual en ejecución desde un nodo físico a otro en cuestión de segundos. De este modo puede mantener la disponibilidad de las máquinas virtuales para el entorno de producción mientras lleva a cabo el mantenimiento en el host original. Una vez terminado el mantenimiento, puede usar Migración rápida para devolver las máquinas virtuales a su sistema host original.

El tiempo de inactividad no planificado es el que no se ha previsto. Puede ser de naturaleza catastrófica o tan simple como que un usuario desenchufe accidentalmente un cable de alimentación y apague un servidor. Aunque pueda parecer improbable, con los años he conocido a algunos administradores en Tech•Ed, VMworld y otras conferencias que han contado cómo un compañero ha apagado accidentalmente un servidor.

Con Hyper-V, puede configurar un clúster de hosts para los distintos sistemas host y configurar todas las máquinas virtuales como recursos de clúster que pueden realizar la conmutación por error en otro sistema en el caso de que se produzca un error en uno de los hosts. Mientras tanto, la capacidad de agrupación en clúster multisitio de Windows Server 2008 permitirá configurar un clúster disperso geográficamente de modo que, si se produce un error en el centro de datos principal, se tenga la capacidad de recuperar las distintas máquinas virtuales en un centro de datos remoto.

Esto también resulta útil para proteger todas las sucursales. Una de las ventajas de administrar el tiempo de inactividad no planificado con Hyper-V es que es independiente del sistema operativo invitado, lo que significa que puede ampliar sus ventajas de alta disponibilidad a máquinas virtuales Linux y a versiones anteriores de Windows Server para proteger y recuperar estos sistemas de forma similar.

En lo que respecta al tiempo de inactividad no planificado, es importante tener en cuenta que la recuperación equivale a apagar el sistema y reiniciarlo, lo que significa que se habrá perdido toda la información de estado. Esto puede suponer un problema o no, según la carga de trabajo que esté ejecutando en la máquina virtual. Por eso es importante considerar la copia de seguridad en el contexto de la alta disponibilidad.

Hyper-V realiza copias de seguridad de cada máquina virtual o usa VSS para efectuar copias de seguridad coherentes de todas las máquinas virtuales compatibles con VSS mientras se están ejecutando. Con VSS, puede configurar que las copias de seguridad se realicen a intervalos definidos, sin que se vea afectada la disponibilidad de carga de trabajo de producción, a la vez que se garantiza que dispondrá de un plan de copias de seguridad continuo que puede ayudarle a recuperar fácilmente el estado si se produce un tiempo de inactividad no planificado. Para obtener más información acerca de las soluciones de alta disponibilidad con Hyper-V, consulte el artículo "Obtención de alta disponibilidad para Hyper-V" de Steven Ekren en este número de TechNet Magazine (technet.microsoft.com/magazine/cc837977).

La arquitectura de hipervisor con microkernel se ha diseñado para minimizar la superficie de ataque y mejorar la seguridad, especialmente cuando Hyper-V se implementa como función de Server Core. Server Core es una opción de instalación de Windows Server 2008. El hipervisor no contiene controladores de dispositivo ni código de terceros, lo que promueve una base estable, ligera y segura para ejecutar máquinas virtuales. Hyper-V también proporciona seguridad sólida basada en funciones con la integración de Active Directory. Y Hyper-V permite que las máquinas virtuales aprovechen las características de seguridad de nivel de hardware, como el bit de deshabilitación de ejecución (NX), lo que contribuye aún más al aumento de la seguridad de las máquinas virtuales.

Hyper-V ha pasado el ciclo de vida de desarrollo seguro (SDL) como el resto de los componentes de Windows Server y se ha realizado un exhaustivo análisis y una modelación de las amenazas para garantizar que Hyper-V es una plataforma de virtualización muy segura. Al implementar Hyper-V, asegúrese de seguir los procedimientos recomendados para implementar Windows Server y también los procedimientos recomendados para Hyper-V. Incluya Active Directory, así como soluciones antivirus o antimalware como parte de su plan. Y use las capacidades de administración delegada para garantizar que utiliza los privilegios de acceso administrativo de forma adecuada para los hosts de Hyper-V.

Capacidad de administración

Es fácil pasar de un ligero problema de dispersión de servidores a una dispersión de servidores masiva. Es el riesgo que conlleva la facilidad de implementación de las máquinas virtuales. Y con la mayor movilidad de las máquinas virtuales, debe saber exactamente dónde se ejecutan las distintas máquinas virtuales, mantener un seguimiento de sus contextos de seguridad, etc.

Afortunadamente, con Hyper-V no tiene que crear una infraestructura de administración independiente para su entorno virtual. Se integra con las herramientas de administración de Microsoft, System Center Virtual Machine Manager y Microsoft System Center Operations Manager, así como con herramientas de administración de terceros. Esto permite administrar todos los recursos físicos y virtuales desde una consola. Para obtener más información acerca de System Center Virtual Machine Manager 2008, consulte el artículo de Edwin Yuen, "Administración de entornos virtuales con VMM 2008", en este número de TechNet Magazine (technet.microsoft.com/magazine/cc836456). Mientras tanto, la compatibilidad con Windows PowerShell facilita la automatización de tareas.

Hyper-V también proporciona máquinas virtuales con una capacidad sin precedentes para usar el hardware disponible. Como todos los controladores certificados por el laboratorio de calidad de hardware de Windows (WHQL) pueden ejecutarse en la partición principal, Hyper-V ofrece una amplia compatibilidad con controladores y dispositivos, lo que facilita la administración de los distintos controladores que se ejecutan en el entorno.

Conclusión

Tal y como he mencionado anteriormente, la administración va a ser un área clave de desarrollo y de diferenciación. Sin duda alguna verá mucha actividad en esa área en los próximos años. En términos generales, se trata de un momento interesante en el que la virtualización adopta una función más principal. Si todavía no ha probado Hyper-V o simplemente desea más información, vaya a microsoft.com/Hyper-V.

Rajiv Arunkundram es director ejecutivo de productos de Microsoft y trabaja en la virtualización de servidores en la división de marketing de Windows Server. La responsabilidad principal de Rajiv es colaborar con clientes y socios para ayudarles a comprender la estrategia y las soluciones de virtualización de Microsoft desde un punto de vista técnico y de negocio.