Cloud Computing : Gérez vos ressources

Gestion des ressources pour un système intrinsèquement complexe telle que le cloud computing nécessite différentes façons de mesurer et d'allocation des ressources.

Dan Marinescu

Adapté de « Cloud Computing : Theory and Practice"(Elsevier Science & Livres de technologie)

Gestion des ressources est une fonction de base nécessaire de tout système artificiel. Elle affecte les trois critères de base pour l'évaluation du système : efficacité, fonctionnalité et coût. Gestion inefficace des ressources a un effet négatif direct sur la performance et de coût. Elle peut affecter aussi indirectement de fonctionnalité du système. Certaines fonctions que fournit le système pourraient devenir trop coûteux ou inefficaces en raison de mauvaises performances.

Une infrastructure informatique en nuage est un système complexe avec un grand nombre de ressources partagées. Ceux-ci sont soumis à des demandes imprévisibles et peuvent être affectés par des événements extérieurs indépendants de votre volonté. Nuage la gestion des ressources nécessite des politiques complexes et les décisions d'optimisation multi-objectif. Il est extrêmement difficile en raison de la complexité du système, ce qui rend impossible de disposer d'informations exactes état global. Il est également soumis à d'incessantes et imprévisibles des interactions avec l'environnement.

Les stratégies de gestion des ressources nuages associés avec les modèles de prestation de trois nuages, Infrastructure as a Service (IaaS), Platform as a Service (PaaS) et Software as a Service (SaaS), diffèrent entre eux. Dans tous les cas, les fournisseurs de cloud services rencontrent des grandes charges fluctuantes qui remettent en question la prétention d'élasticité de nuage. Dans certains cas, quand ils peuvent prédire qu'un épi peut être prédit, ils peuvent dimensionner des ressources à l'avance. Par exemple, saisonnières services Web peuvent être soumis à des pointes.

Pour une pointe non planifiée, la situation est légèrement plus compliquée. Vous pouvez utiliser Auto Scaling pour les charges de pointe non planifiées, condition qu'il existe un pool de ressources, vous pouvez libérer ou allouer à la demande et un système de surveillance qui vous permet de décider en temps réel de réaffecter les ressources. Auto Scaling est pris en charge par PaaS services comme Google App Engine. Auto Scaling pour IaaS est compliquée en raison de l'absence de normes.

Dans le nuage, où les changements sont fréquentes et imprévisibles, un contrôle centralisé est peu susceptible de fournir des garanties de service et de rendement continus. En effet, un contrôle centralisé ne peut apporter des réponses appropriées à l'hôte de politiques de gestion de cloud qu'il faut appliquer.

Politiques autonomes sont d'un grand intérêt en raison de l'échelle du système, le grand nombre de demandes de services, la population importante d'utilisateurs et l'imprévisibilité de la charge. Le ratio de la moyenne à la ressource Pointe a besoin peut être grand.

Politiques et mécanismes

Une politique désigne généralement le principe guidant les décisions, tandis que les mécanismes représentent les moyens à mettre en œuvre des politiques. Séparant les politiques des mécanismes est un principe directeur en informatique. Butler Lampson et Per Brinch Hansen offrent de solides arguments pour cette séparation dans le cadre de la conception de l'OS.

Vous pouvez regrouper souplement les nuages politiques de gestion des ressources en cinq classes :

Le but explicit d'une politique de contrôle d'admission est d'empêcher le système d'accepter des charges de travail en violation des politiques de haut niveau système. Par exemple, un système ne peut pas accepter une charge de travail supplémentaire qui ne l'empêcherait d'achever les travaux déjà en cours ou sous contrat. Limitant la charge de travail exige une connaissance de l'état du système global. Dans un système dynamique, cette information est souvent obsolète au mieux.

Allocation de capacité signifie l'affectation de ressources à des instances individuelles. Une instance est une activation du service. Localiser les ressources qui sont soumis à plusieurs contraintes d'optimisation globale vous oblige à une recherche un grand espace lorsque l'état des systèmes individuels évolue si rapidement.

Vous pouvez effectuer d'équilibrage de charge et d'optimisation de l'énergie sur place, mais les politiques globales d'équilibrage de la charge et l'optimisation de l'énergie rencontrent les mêmes difficultés que celles déjà discutés. Optimisation d'équilibrage et de l'énergie de charge sont corrélées et influent sur le coût de fourniture des services.

Le sens commun de l'équilibrage de charge du terme est celui de répartir uniformément la charge à un ensemble de serveurs. Par exemple, prenons le cas de quatre serveurs identiques, A, B, C et D. Leurs charges relatives sont de 80 %, 60 %, 40 pour cent et 20 pour cent, respectivement, de leur capacité. Parfait équilibrage se traduirait par tous les serveurs avec la même charge de travail — 50 pour cent de la capacité de chaque serveur.

Cloud computing, un objectif essentiel minimise le coût de fourniture du service. En particulier, cela signifie aussi minimiser la consommation d'énergie. Cela conduit à un sens différent de l'équilibrage de charge du terme. Au lieu d'avoir la charge uniformément répartie entre tous les serveurs, nous voulons concentrer et utiliser le plus petit nombre de serveurs tout en permutant les autres en mode veille, un État dans lequel un serveur consomme moins d'énergie. Dans notre exemple, la charge de D va migrer à A et la charge de C va migrer vers B. Ainsi, A et B seront chargés à pleine capacité, tandis que C et D seront commuté en mode veille.

Qualité du service est que les aspects de la gestion des ressources qui est probablement le plus difficile à adresse et, en même temps, peut-être les plus critiques pour l'avenir de l'informatique en nuage. Stratégies de gestion des ressources ciblent souvent conjointement performance et consommation d'énergie.

Tension dynamique et la fréquence de mise à l'échelle de techniques (DVFS) tels que les Intel SpeedStep et AMD PowerNow abaisser la tension et la fréquence pour diminuer la consommation d'énergie. Motivés au départ par la nécessité d'économiser l'énergie pour les appareils mobiles, ces techniques ont migré à pratiquement tous les processeurs, y compris ceux utilisés dans les serveurs de haute performance. À la suite de basse tensions et fréquences, les performances du processeur diminuent. Cependant, il le fait à un rythme sensiblement plus lent que la consommation d'énergie.

Pratiquement tous les mécanismes optimales ou quasi optimale d'aborder les classes de cinq politiques ne s'adaptent pas vers le haut. En général, ils ciblent un seul aspect de la gestion des ressources, telles que le contrôle d'admission, mais ignorent les économies d'énergie. La plupart requièrent des calculs complexes qui ne peuvent se faire de façon efficace dans le temps imparti répondre. Modèles de performance sont complexes, les solutions analytiques sont insolubles et les systèmes de surveillance utilisés pour recueillir des informations d'État pour ces modèles peuvent être trop intrusif et incapable de fournir des données précises.

Par conséquent, beaucoup de techniques est concentrés sur les performances du système en termes de débit et de temps dans le système. Ils incluent rarement compromis énergie ou garanties de QoS. Certaines techniques sont basées sur des hypothèses irréalistes. Par exemple, la répartition des capacités est vu comme un problème d'optimisation, mais en supposant que les serveurs sont protégés contre les surcharges de.

Contrôle le nuage

Techniques de répartition dans les nuages de l'ordinateur doivent être fondées sur une approche disciplinée, plutôt que les méthodes ad hoc. Les quatre mécanismes de base pour la mise en œuvre de politiques de gestion des ressources sont :

  • **Théorie du contrôle :**La théorie du contrôle utilise la rétroaction pour garantir la stabilité du système et de prédire le comportement transitoire, mais il peut seulement prédire le comportement du local.
  • **Apprentissage artificiel :**Un avantage majeur des techniques d'apprentissage automatique, c'est qu'ils n'ont besoin d'un modèle de performance du système. Vous pouvez appliquer cette technique à la coordination de plusieurs gestionnaires de système nerveux autonome.
  • **Axée sur l'utilitaire :**Approches axées sur l'utilitaire nécessitent un modèle de performance et un mécanisme à mettre en corrélation des performances de niveau utilisateur avec coût.
  • **Mécanismes de marché-orienté et économiques :**Ces mécanismes ne nécessitent pas un modèle de système, telles que la combinaison des enchères pour les faisceaux des ressources.

Une distinction doit être faite entre les charges de travail interactifs et non interactif. Les techniques de gestion des charges de travail interactives (services Web, par exemple) impliquent le mousseur et placement d'application dynamique, tandis que ceux pour des charges de travail non interactif sont axés sur la planification.

Une bonne quantité de travaux rapporté dans la littérature est consacrée à la gestion des ressources de charges de travail interactives — certains non interactif et seulement quelques charges à hétérogène, une combinaison des deux. Planification suivre à comment vous allez gérer ces aidera à assurer une transition harmonieuse à travailler avec le nuage.

Dan C. Marinescu

Dan C. Marinescu a été professeur d'informatique à l'Université Purdue de 1984 à 2001. Puis il rejoint le département informatique à l'Université de Central Florida. Il a occupé des postes de professeur invité à l'IBM T. J. Watson Research Center, l'Institut des Sciences de l'Information à Beijing, la Division de systèmes évolutifs de Intel Corp., Deutsche Telecom AG et Rocquancourt INRIA en France. Sa recherche intérêts couverture systèmes parallèles et distribués, le cloud computing, scientifique, informatique, informatique quantique et théorie de l'information quantique.

Pour en savoir plus sur les autres titres Elsevier, Découvrez Elsevier Science & Livres technologie.

Contenus associés