Cloud-Computing: Verwalten von Ressourcen

Ressourcen-Management für ein von Natur aus komplexen System erfordert wie cloud computing verschiedene Möglichkeiten, Mess- und Zuteilung von Ressourcen.

Dan Marinescu

Angepasst von "Cloud Computing: Theorie und Praxis"(Elsevier Science & Technik-Bücher)

Ressourcenmanagement ist eine Kernfunktion eines vom Menschen geschaffenen Systems erforderlich. Es wirkt sich auf die drei grundlegenden Kriterien für System-Bewertung: Leistung, Funktionalität und Kosten. Ineffiziente Ressourcenmanagement hat direkte negative Auswirkungen auf Leistung und Kosten. Es kann auch indirekt Systemfunktionalität auswirken. Einige Funktionen, die das System bietet möglicherweise zu teuer oder wegen schlechter Leistung unwirksam geworden.

Eine Cloud-computing-Infrastruktur ist ein komplexes System mit einer großen Anzahl von freigegebenen Ressourcen. Diese unterliegen unvorhersehbaren Anforderungen und können durch externe Ereignisse außerhalb Ihrer Kontrolle beeinflusst werden. Cloud-Ressourcen-Management erfordert komplexe Politik und die Beschlüsse für Multi-objektiven Optimierung. Es ist extrem schwierig, aufgrund der Komplexität des Systems, das macht es unmöglich, die genaue globalen Zustandsinformationen zu haben. Es unterliegt auch der unaufhörlichen und unvorhersehbaren Wechselwirkungen mit der Umwelt.

Die Strategien für Cloud-Ressourcen-Management verbunden mit drei Cloud Delivery Modelle, Everything as a Service (IaaS), Everything as a Service (PaaS) und Software as a Service (SaaS), unterscheiden sich voneinander. In allen Fällen sind die Cloud-Service-Providern mit großen, schwankenden Belastungen konfrontiert, die den Anspruch der Wolke Elastizität Herausforderung. In einigen Fällen wenn sie Vorhersagen können, dass eine Spitze vorausgesagt werden kann, können sie Ressourcen im Voraus bereitstellen. Beispielsweise können saisonale Webdienste Spitzen unterliegen.

Für eine ungeplante Spike ist die Situation etwas komplizierter. Automatische Skalierung können für ungeplante Spike Lasten vorausgesetzt, es gibt ein Pool von Ressourcen freizugeben oder on-Demand und monitoring-System, mit dem Sie in Echtzeit auszustatten möchten reservieren können. Auto Scaling wird durch PaaS-Dienste wie Google App Engine unterstützt. Automatische Skalierung für IaaS ist kompliziert wegen Mangel an Standards.

In der Wolke, wo Änderungen häufiger und unvorhersehbar sind, dürfte Zentralklimaanlage kontinuierliche Service und Performance-Garantien bieten. Tatsächlich kann nicht zentrale Steuerung adäquate Lösungen an den Host Policies für Wolke bilden, müssen Sie erzwingen.

Autonome Politik sind von großem Interesse durch die Skalierung des Systems, die große Anzahl von Service-Anfragen, die große Benutzergemeinde und die Unvorhersehbarkeit der Belastung. Das Verhältnis des Mittelwerts der Peak-Ressource muss groß sein kann.

Strategien und Mechanismen

Eine Politik bezieht sich üblicherweise auf die wichtigsten Entscheidungen, Führung, während Mechanismen die Mittel zur Umsetzung von Richtlinien darstellen. Richtlinien von Mechanismen zu trennen ist ein Leitprinzip in der Informatik. Butler Lampson und Per Brinch Hansen bieten solide Argumente für diese Trennung im Rahmen des OS Designs.

Sie können lose Wolke-Ressource-Management-Policies in fünf Klassen gruppieren:

Das ausdrückliche Ziel einer Zulassung-Kontrolle-Politik soll verhindern, dass das System akzeptiert Arbeitslasten gegen hochrangige Systemrichtlinien. Ein System kann beispielsweise keine zusätzliche Arbeitsbelastung akzeptieren, die würde verhindern Abschließen der Arbeit bereits im Gange oder in Auftrag gegebenen. Begrenzung der Arbeitsauslastung erfordert einige Kenntnisse des globalen Systemstatus. In einem dynamischen System ist diese Informationen am besten oft veraltet.

Entgelt-bedeutet Zuteilung von Ressourcen für die einzelnen Instanzen. Eine Instanz ist eine Service-Aktivierung. Suchen von Ressourcen, die mehrere globale Optimierung Einschränkungen unterliegen müssen Sie zu einer Suche einen großen Raum bei der Zustand der einzelnen Systeme so schnell ändern wird.

Sie können ausführen, Load balancing und Energieoptimierung lokal, aber globale Load-balancing und Energieoptimierung Richtlinien stoßen auf die gleichen Schwierigkeiten wie die bereits diskutiert. Load-balancing und Energie-Optimierung sind korreliert und die Kosten für die Bereitstellung der Services.

Die gemeinsame Bedeutung dem Begriff Load balancing ist gleichmäßig verteilen die Last auf eine Gruppe von Servern. Betrachten Sie z. B. im Fall von vier identischen Servern, A, B, C und D. Ihre relativen Lasten sind 80 Prozent, 60 Prozent, 40 Prozent und 20 Prozent ihrer Kapazität. Perfekte Lastverteilung in allen Servern arbeiten mit derselben Belastung ergäbe — 50 Prozent der einzelnen Server-Kapazität.

Cloud computing ist ein kritischer Ziel die Kosten der Dienstleistung minimieren. Insbesondere bedeutet dies auch, den Energieverbrauch zu minimieren. Dies führt zu eine andere Bedeutung von dem Begriff Load balancing. Anstatt die Last gleichmäßig auf alle Server verteilt, wollen wir es zu konzentrieren und die kleinste Anzahl von Servern zu verwenden, während die anderen die Umstellung auf standby-Modus, einen Zustand, in dem ein Server weniger Energie verbraucht. In unserem Beispiel die Belastung von D bis A migriert und migriert die Belastung von C nach B. So werden A und B bei voller Auslastung geladen werden, während C und D wird auf standby-Modus geschaltet werden.

Quality of Service ist, dass der Aspekt der Ressourcenverwaltung, die wohl die am schwierigsten zu Adresse und zur gleichen Zeit, möglicherweise die wichtigste für die Zukunft der computing cloud. Ressource-Management-Strategien Zielen oft gemeinsam Leistung und Energieverbrauch.

Dynamische Spannung und Frequenz-Skalierung (DVFS) Techniken wie Intel SpeedStep oder AMD PowerNow senken die Spannung und die Frequenz, Stromverbrauch zu verringern. Motiviert zunächst durch die Notwendigkeit, für mobile Geräte zu schonen, haben diese Techniken in praktisch allen Prozessoren, einschließlich denen in Hochleistungs-Server migriert. Aufgrund der niedrigeren Spannungen und Frequenzen verringert sich die Prozessorleistung. Jedoch tut sie dies deutlich langsamer als der Energieverbrauch.

Praktisch alle optimale oder in der Nähe-optimale Mechanismen auf die fünf Klassen skalieren nicht. Sie in der Regel als Ziel einen einzigen Aspekt der Ressourcenverwaltung, wie Zutrittskontrolle, aber ignorieren Energieeinsparung. Viele erfordern komplexe Berechnungen, die in der Zeit reagieren nicht effektiv erfolgen können. Performance-Modelle sind komplex, analytische Lösungen sind unlösbar, und die Überwachungssysteme verwendet, um Zustandsinformationen für diese Modelle sammeln kann zu aufdringlich und nicht in der Lage, genaue Daten zu liefern.

Daher konzentrieren sich viele Techniken auf die Systemleistung in Bezug auf Durchsatz und Zeit im System. Sie sind selten Energie Kompromisse oder QoS garantiert. Einige Techniken basieren auf unrealistische Annahmen. Beispielsweise wird Kapazitätszuweisung angesehen, als ein Optimierungsproblem, aber unter der Annahme, dass die Server vor Überlastung geschützt werden.

Kontrolle der Wolke

Zuweisung Techniken in Computer Wolken müssen auf einen disziplinierten Ansatz, sondern als ad-hoc-Methoden beruhen. Die vier grundlegenden Mechanismen für die Implementierung von Ressourcenverwaltungsrichtlinien sind:

  • **In der Theorie:**In der Theorie verwendet Feedback garantieren Stabilität und Transienten Verhalten vorherzusagen, aber es kann nur lokale Verhalten vorhersagen.
  • **Maschinelles Lernen:**Ein großer Vorteil der Computerlernen Techniken ist, dass sie nicht, ein Performance-Modell des Systems brauchen. Sie könnten diese Technik anwenden, mehrere autonome Systemmanager die Koordinierung.
  • **Auf der Grundlage von Dienstprogramm:**Dienstprogramm-basierte Ansätze erfordern eine Performance-Modell und einen Mechanismus, um auf Benutzerebene Leistung mit Kosten zu korrelieren.
  • **Markt-orientierte und wirtschaftlichen Mechanismen:**Solche Mechanismen erfordern kein Systemmodell, wie das Zusammenfassen von Auktionen für bündeln von Ressourcen.

Zwischen interaktiven und nicht interaktiven Arbeitslasten sollte unterschieden werden. Managementtechniken für interaktive Arbeitsauslastungen (Web Services, zum Beispiel) beziehen Flusssteuerung und dynamische Anwendung Platzierung, während für nicht-interaktive Arbeitslasten auf Planung gerichtet werden.

Eine Menge Arbeit, die in der Literatur beschrieben ist Ressourcenmanagement interaktive Arbeitslasten gewidmet — einige, nicht-interaktiven und nur ein paar zu heterogener Arbeitsauslastungen, eine Kombination der beiden. Voraus planen, wie Sie diese verwalten willst, wird helfen, einen reibungslosen Übergang auf die Zusammenarbeit mit der Wolke.

Dan C. Marinescu

Dan C. Marinescu war Professor für Informatik an der Purdue University von 1984 bis 2001. Danach trat er in die Fakultät für Informatik an der University of Central Florida. Er hatte Besuch Anstellung an der IBM T. inne. J. Watson Research Center, dem Institute of Information Sciences in Peking, die skalierbare Systems Division von Intel Corp., Deutsche Telekom AG und INRIA Rocquancourt in Frankreich. Seine Forschung Interessen Abdeckung parallele und verteilte Systeme, Cloud-computing, scientific computing, Quantum computing und Quantentheorie Informationen.

Schauen Sie für weitere Informationen zu dieser und anderen Titeln von Elsevier, Elsevier Science & Technik Bücher.

Verwandte Inhalte