Virtualização

Uma introdução ao Hyper-V no Windows Server 2008

Rajiv Arunkundram

 

Visão geral:

  • O que é virtualização?
  • Três arquiteturas de virtualização
  • Hipervisor com microkernel X monolítico
  • O que faz o Hyper-V

Sumário

O mercado de virtualização de servidor
Como funciona a virtualização de servidor
Tipos de solução em virtualização
Hipervisor do Windows
A partição pai
Arquitetura de compartilhamento de dispositivo
Componentes de integração
O conjunto de recursos do Hyper-V
Escalabilidade
Alta disponibilidade
Segurança
Capacidade de gerenciamento
Conclusão

Ultimamente, tem se falado muito sobre virtualização, e grande parte da discussão é especificamente a respeito da virtualização de servidor. Trata-se de uma das tendências mais interessantes do setor e a que apresenta o potencial, nos próximos anos, de mudar o paradigma de como os sistemas de TI são implantados. Mas a virtualização de servidor irá não apenas alterar a forma como os administradores de TI e arquitetos pensam os servidores e a utilização do sistema, mas também afetar os processos e as ferramentas usadas para gerenciar o que certamente se tornará um ambiente cada vez mais dinâmico.

Na verdade, a virtualização já está por aí há um bom tempo, mas a tecnologia ainda está em evolução. Na realidade, a própria palavra ainda tem significados diferentes para pessoas diferentes. No entanto, em termos mais amplos, virtualização diz respeito à abstração de uma camada da pilha de tecnologias da próxima camada como o armazenamento em servidores ou o sistema operacional nos aplicativos. Por sua vez, a abstração de camadas diferentes permite a consolidação e uma capacidade maior de gerenciamento.

Como conceito, a virtualização se aplica a armazenamento, redes, servidores, aplicativos e acesso. Quando você observa armazenamento e redes, o objetivo da virtualização é agregar um conjunto de dispositivos diferentes de forma que o pool de recursos seja semelhante a e aja como uma entidade única. Por exemplo, é possível configurar uma solução em armazenamento de 40 TB em lugar de um conjunto de 20 dispositivos de armazenamento de 2 TB. Mas, com outros componentes, a virtualização age no sentido contrário, ajudando a fazer com que seja exibido um único sistema, muito embora haja vários. O exemplo mais comum disso é a virtualização de servidor, em que você hospeda várias instâncias de sistema operacional e ambientes em um único servidor.

A Microsoft abordou a virtualização em vários níveis diferentes, passando do desktop para o data center com soluções para virtualização de servidor, virtualização de aplicativo, virtualização de apresentação e virtualização de desktop. O thread comum a todas elas é a parte de gerenciamento do Microsoft System Center. Neste artigo, estou me concentrando no componente de virtualização de servidor e, mais especificamente, em como o Hyper-V, um recurso chave do Windows Server 2008, entra na equação de um data center dinâmico.

O mercado de virtualização de servidor

Primeiro, acho que valeria a pena observar o que existe no ambiente atual e para onde o mercado geral está voltado. Dependendo da pesquisa que você lê, alguns analistas estimam que entre 5 e 9 por cento de todos os servidores físicos vendidos atualmente estão sendo usados como hosts de virtualização. Você pode considerar essa uma boa parte dos sistemas em um mercado em que chegam mais de nove milhões de servidores físicos todos os anos. Mas uma coisa é certa: ainda existe uma enorme oportunidade de mercado à medida que mais clientes se sentem confortáveis com a virtualização e desejam empregá-la.

É importante observar onde a virtualização está sendo adotada. Os clientes corporativos estiveram certamente à frente com o teste, sendo os primeiros a adotá-la. No entanto, existem pequenas e médias empresas que também estão implantando a virtualização. A adoção da virtualização chega a vários tipos diferentes de cargas de trabalho, de aplicativos de negócios e de gerenciamento até a Web e o email.

E por que toda essa repercussão da virtualização agora? Existem alguns fatores, dentre os quais está o tempo. Alguns fatores-chave do setor aconteceram simultaneamente, ajudando a impulsionar a maior adoção da virtualização. Entre esses fatores do setor estão a migração para a computação em 64 bits, os processadores com vários núcleos e até mesmo o incentivo à computação sustentável para melhorar a utilização do sistema.

Os sistemas estão ficando muito maiores e exigem uma tecnologia como a virtualização para que toda a eficiência do sistema seja usada. E embora seja verdade que a tecnologia básica (e a lei de Moore) tenha sido constante em termos de produção de maior capacidade de processamento do que os sistemas podem usar, agora também estamos mais conscientes do impacto ambiental, dos requisitos de energia e dos custos de resfriamento.

Todos esses fatores, somados à simples justificativa do retorno do investimento (ROI) de adoção da virtualização, devem, juntos, agilizar a adoção da virtualização em pequenas e médias empresas. E nós, os profissionais de TI, podemos esperar que todos os principais nomes continuem investindo nessa tecnologia durante os próximos anos e melhorando os recursos e a funcionalidade.

Como funciona a virtualização de servidor

Em termos gerais, a virtualização de servidor permite pegar um único dispositivo físico e instalar (e executar simultaneamente) dois ou mais ambientes de sistema operacional potencialmente diferentes e ter identidades diferentes, pilhas de aplicativos etc. Hyper-V é uma tecnologia de virtualização baseada em hipervisor de 64 bits, da próxima geração, que oferece recursos de plataforma confiáveis e escalonáveis. Com o System Center, ele oferece um conjunto único de ferramentas de gerenciamento integradas para recursos físicos e virtuais.

Tudo isso funciona para reduzir custos, aumentar a utilização, otimizar a infra-estrutura e permitir à empresa provisionar novos servidores rapidamente. Para poder ajudá-lo a compreender melhor como o Hyper-V está arquitetado, quero primeiro observar os tipos diferentes de solução em virtualização.

Tipos de solução em virtualização

Basicamente, existem três arquiteturas gerais usadas na virtualização de servidor, como mostra a Figura 1. As diferenças fundamentais dizem respeito à relação entre a camada de virtualização e o hardware físico. Com “camada de virtualização” me refiro à camada de software chamada de monitor de máquina virtual (VMM, não confundir com Virtual Machine Manager). É essa camada que fornece a possibilidade de criar várias instâncias isoladas que compartilham os mesmos recursos de hardware subjacentes.

fig01.gif

Figura 1 As três arquiteturas de virtualização (Clique na imagem para ampliá-la)

A arquitetura Tipo-2 VMM é exemplificada por Máquinas Virtuais Java. Aqui, o objetivo da virtualização é criar um ambiente de tempo de execução no qual o processo possa executar um conjunto de instruções sem depender do sistema host. Nesse caso, o isolamento se destina aos processos diferentes e permite que um único aplicativo seja executado em sistemas operacionais diferentes sem que haja preocupação com as dependências do sistema operacional. A virtualização de servidor não se encaixa nessa categoria.

Tipo-1 VMM e Hybrid VMMs são as duas abordagens mais comumente encontradas dentre as mais usadas hoje em dia. Hybrid VMM é um estágio em que o VMM é executado com o sistema operacional host e ajuda a criar máquinas virtuais acima. Exemplos de Hybrid VMM são o Microsoft Virtual Server, o Microsoft Virtual PC, o VMware Workstation e o VMware Player. Você deve observar que, embora esses tipos de solução sejam excelentes para um cenário de cliente em que você é o único executando máquinas virtuais em parte do tempo, os VMMs geram uma sobrecarga considerável e, por isso, não são apropriados a cargas de trabalho que exigem muitos recursos.

Em uma arquitetura Tipo-1 VMM, a camada do VMM é executada diretamente acima do hardware. Ela costuma ser chamada de camada do hipervisor. Essa arquitetura foi projetada originalmente na década de 60 pela IBM para sistemas de mainframe e foi recentemente disponibilizada nas plataformas x86/x64 com várias soluções, inclusive o Hyper-V do Windows Server 2008.

Há soluções disponíveis em que o hipervisor é uma parte incorporada do firmware. No entanto, trata-se apenas de uma opção de empacotamento e que não altera, de fato, a tecnologia subjacente.

Como você pode ver em Tipo-1 VMMs, existem basicamente duas formas de arquitetar as soluções em hipervisor: com microkernel e monolítica. Essas duas abordagens, como mostra a Figura 2, são Tipo-1 VMMs efetivos que apresentam o hipervisor instalado diretamente no hardware físico.

fig02.gif

Figura 2 As duas formas de arquitetar soluções em hipervisor (Clique na imagem para ampliá-la)

A abordagem de hipervisor monolítico hospeda o hipervisor/VMM em uma única camada que também inclui a maioria dos componentes obrigatórios como, por exemplo, o kernel, os drivers de dispositivo e a pilha de E/S. Trata-se da abordagem usada por soluções como, por exemplo, o VMware ESX e os sistemas de mainframe tradicionais.

A abordagem com microkernel usa um hipervisor especializado, muito fino, que só executa as tarefas principais de garantia do isolamento da partição e de gerenciamento da memória. Essa camada não inclui a pilha de E/S ou os drivers do dispositivo. Trata-se da abordagem usada pelo Hyper-V. Nessa arquitetura, a pilha de virtualização e os drivers de dispositivo específicos do hardware estão localizados em uma partição especializada, chamada de partição pai.

Hipervisor do Windows

A garantia da existência de uma clara separação entre vários sistemas operacionais é feita com a criação de processadores virtuais, memória, temporizadores e controladores de interrupção. Os sistemas operacionais usam esses recursos virtuais da mesma forma que usariam seus equivalentes físicos.

O hipervisor do Windows, parte do Hyper-V, realiza as seguintes tarefas:

  • Cria partições lógicas.
  • Gerencia a memória e o agendamento do processador para sistemas operacionais convidados.
  • Fornece mecanismos para virtualizar a entrada/saída e se comunicar em meio às partições.
  • Impõe regras de acesso à memória.
  • Impõe uma diretiva de uso da CPU.
  • Expõe uma interface programática simples conhecida como hiperchamada.

Por usar a abordagem com microkernel, o hipervisor do Windows é bem pequeno – menos de 1 MB. Essa superfície mínima ajuda a aumentar a segurança geral do sistema.

Um dos requisitos para executar o Hyper-V é que você tenha um sistema x64 com tecnologias Intel VT ou AMD-V. A tecnologia x64 permite acessar um espaço de endereçamento maior e oferecer suporte a sistemas com mais memória e, assim, permite mais máquinas virtuais em um único sistema de host. Intel VT e AMD-V são soluções em virtualização assistidas por hardware que fornecem uma camada ultraprivilegiada na arquitetura em anel que ajuda a manter o ambiente de execução do hipervisor separado do restante do sistema. Elas também permitem ao Hyper-V executar um sistema operacional convidado não-modificado sem incorrer em perdas significativas de desempenho da emulação.

A partição pai

O Hyper-V consiste em uma partição pai, essencialmente uma máquina virtual com acesso especial ou privilegiado. Trata-se da única máquina virtual com acesso direto aos recursos de hardware. Todas as demais máquinas virtuais, conhecidas como partições convidadas, passam pela partição pai para ter acesso ao dispositivo.

A existência da partição pai é bem transparente. Ao começar a instalar o Hyper-V, a primeira coisa que você deve fazer é instalar o Windows Server 2008 x64 Edition no sistema físico. Em seguida, é preciso ir até o Gerenciador do Servidor, habilitar a função Hyper-V e reiniciar o sistema. Após a reinicialização do sistema, o hipervisor do Windows é carregado primeiro e, em seguida, o restante da pilha é convertido na partição pai.

A partição pai tem a propriedade do teclado, do mouse, do monitor de vídeo e dos demais dispositivos conectados ao servidor host. Ela não tem controle direto sobre os temporizadores e os controladores de interrupção usados pelo hipervisor.

A partição pai contém um provedor de Instrumentação de Gerenciamento do Windows (WMI) para facilitar o gerenciamento de todos os aspectos do ambiente virtualizado, bem como uma pilha de virtualização que realiza tarefas relacionadas a hardware em nome das partições filho. Além disso, os drivers de qualquer fornecedor independente de hardware (IHV) necessários ao hardware de sistema host estão na partição pai e todos os drivers criados para o Windows Server 2008 edições x64 também funcionarão na partição pai.

Arquitetura de compartilhamento de dispositivo

Um dos componentes arquitetônicos inovadores do Hyper-V é a nova arquitetura de compartilhamento de dispositivo que oferece suporte a dispositivos emulados e sintéticos em cada sistema operacional. A emulação de dispositivo é muito útil para oferecer suporte a sistemas operacionais anteriores com drivers de dispositivo projetados para gerações de hardware anteriores. Por exemplo, o Hyper-V inclui uma emulação do adaptador de rede Intel 21140, que era chamado de DEC 21140 no momento em que muitos sistemas operacionais anteriores eram lançados.

Em geral, a emulação de dispositivo é lenta, não pode ser estendida facilmente, além de não ser bem dimensionada. Mas, ela continua importante porque permite executar grande parte dos sistemas operacionais x86 no Hyper-V. Como a virtualização agora está migrando de uma tecnologia segmentada unicamente de teste e desenvolvimento para uma tecnologia essencial destinada a ambientes de produção, o usuários exigem um melhor desempenho para que consigam executar cargas de trabalho maiores. Os dispositivos emulados não atendem mais a essas demandas cada vez maiores.

Uma solução alternativa a esse problema é usar dispositivos sintéticos Hyper-V. Sintéticos são dispositivos virtuais mapeados diretamente para dispositivos físicos. Diferentemente dos dispositivos emulados, os sintéticos não emulam hardware herdado. Com o modelo de compartilhamento do hardware Hyper-V, os sistemas operacionais interagem diretamente com dispositivos sintéticos que talvez não tenham equivalentes físicos. Esses sistemas operacionais usam clientes de serviço virtual (VSCs), que funcionam como drivers de dispositivo no sistema operacional convidado.

Em vez de acessar o hardware físico diretamente, os VSCs usam o VMBus, um barramento na memória de alta velocidade, para acessar provedores de serviço virtuais (VSPs) na partição pai. Em seguida, os VSPs da partição pai conseguem acessar o hardware físico subjacente, conforme ilustra a Figura 3. Um dos principais benefícios dos dispositivos sintéticos é que seu desempenho em relação ao VMBus está mais próximo do desempenho dos dispositivos de hardware não-virtualizados.

fig03.gif

Figura 3 VSCs usam o VMBus para acessar VSPs, que conseguem acessar o hardware físico subjacente (Clique na imagem para ampliá-la)

Componentes de integração

O Hyper-V foi criado para fornecer limites definidos entre várias instâncias em execução em um computador. Para habilitar a interação entre os sistemas operacionais convidado e host e fornecer uma funcionalidade adicional a sistemas operacionais convidados para os quais há suporte, o Hyper-V fornece componentes de integração.

Os componentes de integração do Hyper-V oferecem suporte aos seguintes recursos:

  • Sincronização de hora
  • Serviço de Cópias de Sombra de Volume (VSS)
  • Funcionalidade de pulsação
  • Desligamento convidado
  • Troca do par de valores chave (usada para acessar o Registro de um sistema operacional convidado)
  • Identificação do sistema operacional

O conjunto de recursos do Hyper-V

Não é preciso dizer que, quanto mais próxima a plataforma de virtualização chega do funcionamento como o servidor físico, mais fácil fica para as organizações implantar e contar com cargas de trabalho virtuais. Na minha opinião, existem quatro áreas principais nas quais é possível exibir recursos diferentes da plataforma de virtualização.

Atualmente, a maioria das soluções em virtualização baseadas em hipervisor é muito semelhante em termos de recursos e funcionalidade. À medida que avançarmos, coisas como o custo total de propriedade (TCO) e a facilidade de uso serão os principais diferenciais. E as soluções em gerenciamento verão investimentos contínuos e desenvolvimento para nos aproximar ainda mais da visão de um ambiente de TI dinâmico, em que a infra-estrutura é flexível o suficiente para se adaptar às necessidades da empresa e os modelos e as políticas ajudam a aumentar a automação e o gerenciamento.

Escalabilidade

Usando a arquitetura de hipervisor com microkernel, o Hyper-V apresenta uma sobrecarga de CPU muito baixa, deixando muito espaço para virtualizar as cargas de trabalho. Permitindo que máquinas virtuais usufruam os recursos eficientes e o hardware como, por exemplo, a tecnologia com vários núcleos, o melhor acesso a disco e mais memória, o Hyper-V aumenta a escalabilidade e o desempenho da plataforma de virtualização.

Combinado ao demais recursos do Windows Server 2008, o Hyper-V permite a você consolidar a maioria das cargas de trabalho – inclusive cargas de trabalho de 32 e 64 bits – em um único sistema. Além disso, ele pode ajudá-lo a equilibrar a adoção da tecnologia de 64 bits com o suporte contínuo a cargas de trabalho de 32 bits já usadas em todo o ambiente.

O fato de o Hyper-V exigir um sistema host de 64 bits com virtualização assistida por hardware ajuda a garantir que o sistema host tenha acesso a um pool maior de recursos da memória. O Hyper-V pode oferecer suporte a até 1 TB de memória no host e até 64 GB de memória por máquina virtual. Essa é a chave para aqueles que pretendem virtualizar cargas de trabalho que usam muita memória como, por exemplo, o Exchange Server e o SQL Server.

O Hyper-V também oferece suporte a até 16 processadores lógicos no sistema host, o que o torna escalonável diante da maioria dos sistemas com dois e quatro soquetes e vários núcleos. Também é possível criar uma máquina virtual com até quatro processadores virtuais para oferecer suporte a cargas de trabalho que exigem ou usufruem recursos de vários processadores.

A consolidação de servidores por meio do Hyper-V também permite que esses servidores usem um suporte ao sistema de rede eficiente, inclusive VLAN, conversão de endereço de rede (NAT) e diretivas de Proteção de Acesso à Rede (NAP) (quarentena). E, sendo um recurso do Windows Server 2008, o Hyper-V funciona bem com outros recursos do Windows Server como, por exemplo, BitLocker e Windows PowerShell.

Alta disponibilidade

Alta disponibilidade é um cenário em que o Hyper-V e os recursos de clustering do host funcionam juntos para ajudar a atender às necessidades de continuidade dos negócios e de recuperação de desastre. A continuidade dos negócios é a possibilidade de minimizar o tempo de inatividade programado e não-programado. Isso inclui o tempo que se perde com funções de rotina como, por exemplo, manutenção e backup, bem como interrupções imprevistas.

A recuperação de desastre é um componente importante da continuidade dos negócios. Desastres naturais, ataques mal-intencionados e até mesmo problemas de configuração simples como, por exemplo, conflitos de software podem prejudicar serviços e aplicativos até que os administradores resolvam os problemas e restaurem os dados. Uma estratégia confiável de negócios e de recuperação de desastre deve oferecer uma perda de dados mínima e recursos de gerenciamento remoto eficientes.

Ao observar a alta disponibilidade, você deve considerar três categorias diferentes: tempo de inatividade planejado, tempo de inatividade não-planejado e backups. A proteção contra o tempo de inatividade planejado costuma ser necessária para ajudar a migrar as máquinas virtuais do sistema host, de forma que seja possível realizar a manutenção do hardware ou aplicar patches ao sistema host ou à plataforma de virtualização (que pode exigir uma reinicialização).

A maioria das organizações tem janelas de manutenção planejadas, e o que você está procurando fazer aqui, de fato, é minimizar ou eliminar o período em que as máquinas virtuais não estarão disponíveis enquanto o sistema host estiver inativo para manutenção. Com o recurso Quick Migration, é possível migrar rapidamente uma máquina virtual em execução de um nó físico para outro em questão de segundos. Por isso, você pode manter as máquinas virtuais disponíveis para produção enquanto realiza a manutenção no host original. Uma vez concluída a manutenção, é possível usar a Quick Migration para restaurar o sistema original das máquinas virtuais.

Não planejado é o tempo de inatividade imprevisto. Ele pode ser uma catástrofe natural ou tão simples quanto alguém desconectar acidentalmente um cabo de alimentação e desligar um servidor. Embora isso possa parecer improvável, ao longo dos anos, conheci alguns administradores durante a Tech•Ed, VMworld, e em outras conferências que me contaram histórias sobre como um servidor foi desligado acidentalmente por um colega.

Com o Hyper-V, é possível definir um cluster host para os sistemas host diferentes e configurar todas as máquinas virtuais como recursos do cluster com failover para um sistema diferente em caso de falha de um dos hosts. Enquanto isso, o recurso de clustering multissite do Windows Server 2008 permitirá configurar um cluster dispersado geograficamente de forma que, caso o data center principal falhe, você tem a possibilidade de recuperar as máquinas virtuais diferentes usando um data center remoto.

Isso também é útil para proteger todas as filiais. Uma das vantagens do suporte ao tempo de inatividade não planejado com o Hyper-V é que ele desconhece o sistema operacional convidado, o que significa ser possível estender os benefícios de alta disponibilidade até máquinas virtuais Linux e versões anteriores do Windows Server para proteger e recuperar esses sistemas de maneira semelhante.

Ao observar o tempo de inatividade não-planejado, é importante notar que a recuperação se equivale a desligar o sistema e reiniciá-lo, o que significa que você perderá todas as informações sobre o estado. Isso pode ou não ser um problema, dependendo da carga de trabalho em execução na máquina virtual. Por isso é importante observar o backup no contexto da alta disponibilidade.

O Hyper-V permite fazer backups de todas as máquinas virtuais ou usar o VSS para fazer backups consistentes de todas as máquinas virtuais que reconhecem o VSS enquanto estão em execução. Com o VSS, é possível configurar os backups para que ocorram em intervalos definidos sem que haja impacto sobre a disponibilidade da carga de trabalho da produção, ao mesmo tempo em que exista a garantia de um plano de backup contínuo que possa ajudá-lo a recuperar facilmente o estado em caso de um tempo de inatividade não-planejado. Para obter mais informações sobre soluções em alta disponibilidade com o Hyper-V, consulte o artigo "Obtendo alta disponibilidade para o Hyper-V" de Steven Ekren nesta edição da TechNet Magazine (technet.microsoft.com/magazine/cc837977).

A arquitetura de hipervisor com microkernel foi projetada para minimizar a superfície de ataque e aumentar a segurança, especialmente quando o Hyper-V é implementado como uma função Server Core. Server Core é uma opção de instalação do Windows Server 2008. O hipervisor não contém drivers de dispositivo ou códigos de terceiros, o que favorece uma base mais estável, fina e segura para a execução de máquinas virtuais. O Hyper-V também proporciona uma segurança eficiente com base em funções usando a integração com o Active Directory. Além disso, o Hyper-V permite que as máquinas virtuais se beneficiem dos recursos de segurança em nível de hardware como, por exemplo, o bit desabilitar execução (NX), o que ajuda a aumentar ainda mais a segurança das máquinas virtuais.

O Hyper-V passou pelo Security Development Lifecycle (SDL), assim como os demais componentes do Windows Server, e houve ampla modelagem e análise para garantir que o Hyper-V fosse uma plataforma de virtualização altamente segura. Ao implantar o Hyper-V, não se esqueça de seguir as práticas recomendadas para implantar o Windows Server 2008 e também as do Hyper-V. Inclua o Active Directory, bem como soluções em antivírus e antimalware como parte do plano. E use recursos de administração delegados para garantir que você use os privilégios de acesso administrativos de maneira apropriada aos hosts do Hyper-V.

Capacidade de Gerenciamento

É fácil deixar um pequeno problema de expansão do servidor e chegar a uma grande expansão de máquina virtual. Trata-se de um risco devido à facilidade de implantação de máquinas virtuais. E com a mobilidade cada vez maior das máquinas virtuais, você também tem a responsabilidade de saber com exatidão onde as máquinas virtuais diferentes estão em execução, acompanhando os contextos de segurança etc.

Felizmente, com o Hyper-V você não precisa criar uma infra-estrutura de gerenciamento separada para o ambiente virtual. Ele se integra às ferramentas de gerenciamento Microsoft, System Center Virtual Machine Manager e Microsoft System Center Operations Manager, bem como a ferramentas de gerenciamento de terceiros. Isso permite gerenciar todos os recursos físicos e virtuais em um só console. Para obter detalhes sobre o System Center Virtual Machine Manager 2008, consulte o artigo de Edwin Yuen, "Gerencie os ambientes virtuais com o VMM 2008", nesta edição da TechNet Magazine (technet.microsoft.com/magazine/cc836456). Enquanto isso, o suporte ao Windows PowerShell facilita a automatização das tarefas.

O Hyper-V também fornece máquinas virtuais com uma possibilidade única de usar o hardware disponível. Como todos os drivers certificados pelo Windows Hardware Quality Lab (WHQL) podem ser executados na partição pai, o Hyper-V proporciona maior compatibilidade para drivers e dispositivos, o que facilita o gerenciamento de drivers diferentes que estejam em execução no ambiente.

Conclusão

Como mencionei anteriormente, o gerenciamento será uma área chave de desenvolvimento e diferenciação. Você certamente verá muita atividade nessa área nos próximos anos. De maneira geral, esse é um momento interessante porque a virtualização consegue um papel base. Caso ainda não tenha testado o Hyper-V ou simplesmente queira mais informações, vá até microsoft.com/Hyper-V.

Rajiv Arunkundram é gerente de produto sênior na Microsoft, voltado para a virtualização do servidor na divisão de Marketing do Windows Server. A principal responsabilidade de Rajiv é trabalhar com clientes e parceiros para ajudá-los a compreender a estratégia de virtualização e as soluções da Microsoft de uma perspectiva técnica e comercial.