I.

Einführung in Cloud-Computing

Wer bei den Wörtern Cloud, Cloud-Computing oder Cloud-Speicher an luftige Höhen denkt und Schwindel bekommt, der sei beruhigt:

Wenn etwas in der Cloud, dt. Wolke, ist, bedeutet das schlicht, dass es auf Servern gespeichert wird, auf die man über das Internet statt „vor Ort“ zugreift. Cloud-Hosting bietet Computerressourcen auf Abruf (on demand) – Anwendungen, Software, Datenbanken u. v. m. –, die auf diesen Servern laufen, welche oft in Datenzentren stehen.

Die Cloud lässt sich anhand fünf wesentlicher Eigenschaften besser verstehen:

  • Selbstbedienung auf Abruf: Benutzer können bei Bedarf Cloud-Ressourcen (wie Rechenleistung, Speicherkapazität und Netzwerk) über eine Schnittstelle nutzen, ohne dass ein Mensch mit dem Dienstanbieter interagieren muss.

  • Zugang zu einem großen Netzwerk: Auf diese Cloud-Computing-Ressourcen kann über das Netzwerk mit Standardmechanismen und Plattformen wie Mobiltelefonen, Tablets, Laptops und Desktop-PCs zugegriffen werden.

  • Ressourcenbündelung: Mit Ressource Pooling oder Ressourcenbündelung lassen sich Dienste hochskalieren und Kosten optimieren. Die Computerressourcen werden entsprechend der Nachfrage mehreren Benutzer dynamisch zugeteilt.

  • Schnelle Anpassbarkeit: Benutzer können ihre Ressourcennutzung je nach Bedarf anpassen, da die Ressourcen flexibel zugeteilt und entzogen werden.

  • Maßgeschneiderte Lösungen: Benutzer zahlen nur für das, was sie nutzen bzw. reservieren – nutzen sie nichts, zahlen sie nichts. Die Ressourcennutzung wird transparent auf Grundlage der Nutzung überwacht, gemessen und registriert, wie bei einer Ware.

Cloud-Computing ist Technology as a Service, Technologie als Dienst: Man nutzt auf Distanz und auf Abruf Ressourcen über das offene Internet, kann die Nutzung je nach Bedarf erhöhen oder senken und zahlt nur für das, was man tatsächlich nutzt. Dieses revolutionäre Geschäftsmodell hat den Zugang zu Computerdiensten verändert und hilft Unternehmen, flexibler auf Marktentwicklungen zu reagieren.

Die Entwicklung des Cloud-Computing

Cloud-Computing entstand aus der Weiterentwicklung der Speichertechnologie. Als Inspiration für die Bezeichnung „Cloud-Computing“ (dt. „Rechnerwolke“) diente das Wolkensymbol, das oft in Schaubildern für das Internet stand.

Mit Cloud-Computing werden der Standort des Dienstanbieters, die Hardware und das Betriebssystem für den Benutzer quasi irrelevant.

Von der Cloud war erstmals Anfang der 2000er-Jahre die Rede, doch das Konzept des Computing as a Service gibt es bereits seit den 1950ern, als Unisys (UNIVAC Computer), International Business Machines Corporation (IBM) und andere Unternehmen begannen, riesige, teure Computer mit hoher Leistungsfähigkeit für große Unternehmen und Forschungslabore der Regierung zu bauen. Angesichts der Kosten für Kauf, Betrieb und Instandhaltung der Großrechner konnten Unternehmen und Institutionen es sich nicht leisten, jedem Benutzer einen Rechner zur Verfügung zu stellen, was zur Entwicklung von Ressourcenbündelung bzw. Time-Sharing führte.

Man mietete Zeit für die Nutzung eines Großrechners. 1959 betrug die Monatsmiete für einen IBM-1401-Computer 8.000 USD (die ersten IBM-Computer wurden fast alle vermietet, nicht verkauft) und 1964 kostete der größte Computer von IBM, das Modell S/360, mehrere Millionen Dollar.

An Dumb Terminals, „unintelligenten Datenstationen“, die lediglich dem Zugang zum Großrechner dienten, konnten mehrere Benutzer dieselbe Datenträgerschicht und Prozessorleistung von jedem Terminal aus nutzen.

Virtuelle Maschinen

In den 1970er-Jahren gab IBM ein Betriebssystem heraus, das mehrere virtuelle Systeme oder „virtuelle Maschinen“ (VMs) auf einem Großrechner ermöglichte, was neue Vorteile für die gemeinsame Nutzung brachte. Mehrere unterschiedliche Computerumgebungen konnten auf derselben physischen Hardware existieren.

Beispiel

Um zu erklären, was eine virtuelle Maschine ist, nehmen wir einen Fall, den Sie vielleicht bereits erlebt haben: inkompatible Software. Vor einigen Jahren, als Apps noch rar waren, funktionierte Software, die für Windows konzipiert war, nicht auf einem Mac-Computer. Wollte man eine solche Anwendung auf einem Mac nutzen, konnte man mit Apple Bootcamp einen Teil seiner Festplatte zur Installation von Windows und zum Betrieb von Office verwenden. Damit hatte man tatsächlich zwei Computer in einem, einen mit Windows und einen mit macOS. Jedoch konnten nicht beide Betriebssysteme gleichzeitig laufen, sodass man den Computer neustarten musste, um zwischen macOS und Windows zu wechseln. Es gibt auch Software, mit der beide Betriebssysteme ohne Neustart gleichzeitig laufen.

Mit virtuellen Maschinen hat man sozusagen mehrere Computer in einem. Jede virtuelle Maschine kann mit dem gewünschten Betriebssystem (Microsoft Windows, macOS, Linux) vom Benutzer eingerichtet werden und funktioniert, als ob sie eigene Ressourcen (Speicher, CPU, Festplatte und Netzwerk) hätte, obwohl diese geteilt sind. Dies wird Virtualisierung genannt und gab den entscheidenden Impuls für viele wichtige Entwicklungen in Kommunikation und Computertechnik. Es ist zudem die Grundlage des Cloud-Computing.

Der wichtigste Punkt ist, dass das, was auf einer Maschine passiert, sich nicht auf die anderen auswirkt. Wird z. B. eine virtuelle Maschine mit einem Virus oder Malware infiziert, sind die anderen davon nicht betroffen.

Virtualisierung von Servern

Bis vor sehr kurzem war physische Hardware relativ teuer. Dank zunehmender Zugänglichkeit des Internets und sinkenden Hardwarekosten konnten sich immer mehr Benutzer eigene Server leisten. Um weitere Hardwarekosten einzusparen, wurden Server virtualisiert, indem man sich dieselbe Funktion wie bei einer virtuellen Maschine zunutze machte.

Das Problem war dadurch anders gelagert: Ein Server war z. B. für grundlegende Funktionen geeignet, hatte aber nicht genug Ressourcen für anspruchsvollere Aufgaben. Dies führte zu einem Wandel: Statt teure Server zu teilen, kombinierte man günstige Server – die Geburtsstunde der „Cloud-Virtualisierung“.

Note

Dazu wurde eine Software namens Hypervisor auf mehreren physischen Servern installiert, sodass Ressourcen angezeigt und zugewiesen werden konnten, als ob sie sich auf einem einzigen physischen Server befänden. Computerfachleute verwenden hierfür Begriffe wie Utility-Computing und Cloud-Computing. In solchen Cloud-Computing-Umgebung war es ein leichtes, die Cloud wachsen zu lassen. Computerfachleute konnten einfach einen neuen physischen Server in den Rechnerraum stellen und so konfigurieren, dass er Teil des Systems wurde.

Als sich Technik und Hypervisoren weiterentwickeln, wollten Unternehmen die Vorteile der Cloud auch Benutzern ohne eigene Ressourcen zugänglich machen. Heute können Benutzer ganz unkompliziert Cloud-Dienste buchen und kündigen, und genauso einfach ist es für Anbieter von Cloud-Diensten, diesen Wünschen nachzukommen: Alles geschieht quasi sofort.

Mit nutzungsbasierter Bezahlung (Pay-per-Use) zahlen Unternehmen und Entwickler nur für die Computerressourcen, die sie tatsächlich nutzen, ähnlich wie für Strom. Das ist der Schlüssel zum modernen Cloud-Computing.

Next section
II. Wie ist die Cloud aufgebaut und wie funktioniert sie?