Optimización de Infraestructuras de Servidores: conectividad

Comience el proceso de mejora de su nivel de Optimización de Infraestructuras poniendo en marcha las mejores prácticas que resulten más fáciles de adoptar. Empecemos por el escenario de Conectividad.

Tecnología para responsables de TI

Continuando con el artículo del mes pasado, en esta ocasión vamos a incidir en uno de los escenarios propuestos en nuestro estudio de investigación al que hicimos extensa referencia, y que fue publicado recientemente, concretamente en Enero de 2009, sobre mejores prácticas para reducir los costes operativos de TI en las empresas.

Recordemos brevemente que los escenarios planteados de buenas prácticas orientadas a la optimización de Infraestructuras de TI fueron el de colaboración, la gestión de datos, la gestión de identidades y el acceso, el correo electrónico, la conectividad y la gestión de la impresión.

No por ser más importante que el resto, pero sí el casi omnipresente en el core de todo entorno empresarial, nos centraremos en el escenario de la Conectividad. A este apartado corresponden tareas tales como los servicios relacionados con DHCP (Dynamic Host Configuration Protocol), DNS (Domain Name System) y WINS (Microsoft Windows Internet Name Service).

Empezando por las conclusiones y para abrir boca, adelantaremos que con la aplicación de las mejores prácticas en las infraestructuras de TI, se pueden llegar a ahorrar unos 3,500 $ por servidor y año simplemente mediante la automatización de las tareas de aprovisionamiento, como así lo pusieron en práctica más de un 30% de los entrevistados.

Analizando con detenimiento el cuadrante adjunto, entre las mejores prácticas puestas en marcha por los participantes en nuestra encuesta, las más populares fueron las tareas estandarizadas de mantenimiento de sistemas operativos – aplicadas por un 67% de los encuestados-, lo que les reportaba unos de los ahorros más bajos: ligeramente superior a los 500 $ anuales por servidor. En este mismo rango de popularidad nos encontramos con la virtualización de servidores, la aplicación de técnicas de imagen y clonación de servidores, y la clusterización de servidores, que ayudan a las organizaciones a responder con agilidad ante aumentos de demanda de carga de trabajo, además de conseguir paralelamente una atractiva reducción de costes.

Entre las menos adoptadas (alrededor de un 28%) o infrautilizadas, nos encontramos con la recuperación automatizada de copias de seguridad, que si bien reduce la posible pérdida de datos y su consiguiente impacto empresarial en la continuidad del negocio, apenas supone un ahorro anual de 500 $ por servidor para el departamento de TI. Poca incidencia para los técnicos, y de suma importancia para la empresa.

Entre las más rentables, y por orden de mayor a menor relevancia, destacan la gestión del almacenamiento jerárquico, la verificación automatizada de actualizaciones de seguridad (antes de su aplicación masiva en los entornos de producción, lo que supone un ahorro de 3.200 $ por servidor y año), la virtualización y el decomisionado automatizado.

En el conjunto de tareas relacionadas con los servicios de conectividad, el clonado y la gestión de imágenes de software tienen un gran impacto sobre los costes de TI y la disponibilidad. Los ahorros de tiempo y de costes de un aprovisionamiento más eficiente, evaluación de parches y la gestión del almacenamiento reducen aún más los costes de operaciones de TI en organizaciones que cuentan con infraestructuras racionalizadas.

Multiplique por 12 la capacidad de gestión de servidores por cada IT Pro

Aportando más valoraciones económicas, es interesante también comparar las consecuencias de una optimización de infraestructuras de TI mediante la adopción de estas mejores prácticas relacionadas con las tareas de conectividad, en los tres primeros niveles de optimización.

Recordemos brevemente, que estos niveles son cuatro: Básico (infraestructura manual y descoordinada), Estándar (infraestructura de TI gestionada, con un nivel de automatización limitado), Racionalizado (infraestructura de TI consolidada, con máximo nivel de automatización) y Dinámico (gestión totalmente automática, uso dinámico de recursos, SLAs ligados a necesidades de negocio). Lamentablemente ninguno de los encuestados se encontraba en el máximo nivel, pero al menos se pueden detectar ahorros significativos entre los tres primeros estados.

Destaca en primer lugar el coste de recursos necesarios de personal de TI por usuario y año, que se multiplica casi por 25 si en vez de evolucionar hacia un nivel racionalizado (0,96 $), la empresa permanece anclada en una infraestructura básica (23,07 $).

La cuantificación de servidores por profesional de IT FTE (full time equivalent, es decir, a jornada completa) al igual que las métricas de productividad, suponen una medida de eficacia. Cuanto mayor es este factor, se requiere un menor trabajo por cada servidor, por lo que el coste por servidor y el coste total de propiedad será proporcionalmente menor. Según los datos extraídos de la encuesta, una infraestructura racionalizada multiplica por 12 este factor comparándose con una infraestructura básica, pasando de 29,4 a 366,8 unidades.

El impacto del coste de personal de TI por servidor y año pasa de 3.753 $ a tan sólo 301 $, reduciéndose a menos de 12 veces. Y recordemos que tan sólo estamos hablando de aplicación de las mejores prácticas asociadas a la gestión de la conectividad, uno de los seis escenarios en los que se ha segmentado el estudio de Microsoft.

Es importante insistir en que los beneficios están al alcance de cualquier organización. Las organizaciones –independientemente del nivel de IO en el que se encuentren - pueden conseguir ahorros de coste desde ya mismo, adoptando mejores prácticas en su infraestructura principal.

Los resultados de estudio revelan que la adopción de mejores prácticas tiene un efecto cada vez más positivo sobre gastos de TI y la disponibilidad de los servidores a medida que las organizaciones se desplazan desde un nivel de IO básico, estandarizados o racionalizados a uno superior.

Las propuestas de Microsoft para la Configuración y Gestión de Servidores

Microsoft dispone de soluciones que ayuda a los responsables de los Centros de Datos a automatizar el aprovisionamiento de servidores y la actualización de éstos, centralizando la gestión y el despliegue de software en servidores, independientemente de si son físicos o virtuales, facilitando además la consolidación de éstos.

Estas soluciones ayudan a disminuir los costes de operaciones de TI mediante la reducción de consumos eléctricos, optimizando los recursos de TI, mejorando la eficiencia del personal de TI y manteniendo al día los sistemas operativos, el software de seguridad y el resto de aplicaciones corporativas.

De forma resumida, las mejores prácticas asociadas a este escenario son éstas: automatización de procesos de despliegue, automatización de despliegue y rollback de parches, automatización de evaluación de actualizaciones, mantenimiento de sistemas operativos, clonado e imágenes de servidores, aplicación de procesos estandarizados para adición de nuevos servidores, cambios y traslaciones, y la virtualización.

En este último apartado, mediante la consolidación de servidores a través de la virtualización, se reducen tanto los costes de hardware como de gestión. Concretamente, mediante la aplicación de conversiones automatizadas de servidores físicos a virtuales, posibilitando un rápido aprovisionamiento, y extendiendo la gestión unificada a servidores virtualizados bajo VMware (con la plataforma de gestión multi-hypervisor, todo en la misma herramienta, se permite administrar máquinas virtuales ejecutadas en infraestructura VMware ESX y Microsoft Virtual Server).

Los productos y tecnologías de Microsoft relacionados con estas tareas son básicamente tres:

System Center Configuration Manager 2007 R2, la nueva versión de Systems Management Server (SMS) 2003, que contribuye a alcanzar un departamento de TI más eficaz al permitir una implementación escalable y segura de sistemas operativos y aplicaciones, mejorar la seguridad de los sistemas y proporcionar una administración exhaustiva de activos: servidores, escritorios y dispositivos móviles.

System Center Virtual Machine Manager 2008, una solución unificada multi-vendor que permite a las organizaciones configurar y desplegar nuevas máquinas virtuales y gestionar de forma centralizada y dinámica infraestructuras físicas y virtuales desde una única consola.

Windows Server 2008 Solution Accelerators, que incluyen guías revisadas y herramientas automatizadas que permiten a las organizaciones gestionar sus activos de hardware y desplegar y operar de forma segura con sus servidores Windows Server 2008.

Invitamos una vez más y desde aquí a profundizar en el conocimiento de nuestro Modelo de Optimización de Infraestructuras, y a seguir una serie de recomendaciones que destacamos en nuestro texto sobre Mejores prácticas para la optimización de Infraestructuras de Servidores.

Por cierto… ¿Sabe en qué nivel de Optimización se encuentra su infraestructura de TI? Es muy sencillo. Comience por aquí