I.

Wprowadzenie do przetwarzania w chmurze

Kiedy słyszysz o chmurze, przetwarzaniu w chmurze lub przechowywaniu w chmurze, możemy Cię zapewnić: nic nie dzieje się w próżni!

Mówiąc prościej, kiedy coś znajduje się w chmurze, oznacza to, że jest przechowywane na serwerach dostępnych przez Internet, a nie "na miejscu". Hosting w chmurze oferuje zasoby komputerowe na żądanie - wszystko od aplikacji, oprogramowania, baz danych - działające na tych serwerach, bardzo często zlokalizowanych w centrach danych.

Dobrym sposobem na zrozumienie chmury jest wymienienie jej pięciu podstawowych cech:

  • Samoobsługa na żądanie: Użytkownicy mogą uzyskać dostęp do zasobów chmury (takich jak moc obliczeniowa, pamięć masowa i sieć) w razie potrzeby za pośrednictwem interfejsu, bez konieczności interakcji człowieka z dostawcą usług.

  • Szeroki dostęp poprzez sieć: Te zasoby chmury obliczeniowej mogą być dostępne za pośrednictwem sieci dzięki standardowym mechanizmom i platformom, takim jak telefony komórkowe, tablety, laptopy i stacje robocze.

  • Łączenie zasobów: Jest to klucz do skalowania i opłacalności usług. Zasoby obliczeniowe są dynamicznie przydzielane i przekierowywane w zależności od zapotrzebowania i służą wielu konsumentom

  • Szybka elastyczność: Użytkownicy mogą uzyskać dostęp do większej ilości zasobów, gdy ich potrzebują i ograniczyć je, gdy nie są potrzebne, ponieważ zasoby są elastycznie dostarczane i uwalniane.

  • Mierzona usługa: Użytkownicy płacą tylko za to, czego używają lub co rezerwują na bieżąco - jeśli nie korzystasz, nie płacisz. Wykorzystanie zasobów jest monitorowane, mierzone i raportowane w sposób przejrzysty w oparciu o wykorzystanie, jak w przypadku każdego innego narzędzia.

Przetwarzanie w chmurze to technologia "jako usługa": korzystasz ze zdalnych zasobów na żądanie przez otwarty Internet, możesz skalować w górę i w dół w oparciu o swoje potrzeby, a płacisz za to, z czego korzystasz. Ten rewolucyjny model zmienił sposób dostępu do usług informatycznych, pomagając organizacjom stać się bardziej elastycznymi przy reagowaniu na zmiany na rynku.

Ewolucja przetwarzania w chmurze

Przetwarzanie w chmurze powstało w wyniku ewolucji technologii pamięci masowej. Nazwa przetwarzanie w chmurze została zainspirowana symbolem chmury, który jest często używany jako reprezentacja Internetu w diagramach i schematach.

W przypadku przetwarzania w chmurze lokalizacja dostawcy usług, sprzętu i bazowego systemu operacyjnego jest zazwyczaj nieistotna dla użytkownika.

O chmurze po raz pierwszy usłyszeliśmy na początku XXI wieku, ale pojęcie "przetwarzania jako usługi" istnieje już od lat 50-tych, kiedy to Unisys (komputer UNIVAC), International Business Machines Corporation (IBM) i inne firmy zaczęły produkować ogromne i drogie komputery o dużej mocy obliczeniowej dla wielkich korporacji i rządowych laboratoriów badawczych. Ze względu na koszty zakupu, eksploatacji i utrzymania mainframe'ów organizacje i instytucje nie mogły sobie pozwolić na posiadanie własnego mainframe'a dla każdego użytkownika, w związku z czym zaczęto kształtować łączenie zasobów lub "time sharing (dzielenie się czasem)".

Firmy wynajmowały czas na komputerze mainframe. W 1959 r. komputer IBM 1401 był wynajmowany za 8000 dolarów miesięcznie (wczesne maszyny IBM były prawie zawsze dzierżawione, a nie sprzedawane), a w 1964 r. największy komputer IBM S/360 kosztował kilka milionów dolarów.

Za pomocą "głuchych terminali", których jedynym celem było umożliwienie dostępu do komputerów mainframe, wielu użytkowników mogło uzyskać dostęp do tej samej warstwy składowania danych i mocy procesora z dowolnego terminala.

Maszyny wirtualne

W latach 70-tych IBM wypuścił system operacyjny, który pozwalał na utworzenie wielu systemów wirtualnych lub "maszyn wirtualnych" (VM) na komputerze mainframe, przenosząc współdzielony dostęp do mainframe’a/komputera na wyższy poziom. Wiele odrębnych środowisk obliczeniowych mogło funkcjonować w ramach tego samego sprzętu komputerowego.

Przykład

Aby wyjaśnić, czym jest maszyna wirtualna, podamy przykład, z którym być może się zetknęliście: uruchamianie niekompatybilnego oprogramowania. Kilka lat temu, przed eksplozją aplikacji, oprogramowanie przeznaczone dla systemu Windows, takie jak Microsoft Office, nie działało na komputerach Mac. Jeśli użytkownik chciał korzystać z tych aplikacji na komputerze Mac, mógł użyć programu Apple Bootcamp, aby poświęcić część dysku twardego na instalację systemu Windows w celu uruchomienia pakietu Office. Dzięki temu użytkownik miał dwa komputery w jednym, jeden z systemem Windows, a drugi z systemem Mac OS. Jednak tylko jeden system operacyjny mógł być uruchomiony w tym samym czasie, więc trzeba było ponownie uruchomić komputer Mac, aby przełączyć się między macOS i Windows. Istnieje również oprogramowanie, które pozwala na równoległe uruchamianie obu systemów operacyjnych bez konieczności ponownego uruchamiania komputera.



Wirtualne maszyny działają jak wiele komputerów w jednym komputerze. Każda maszyna wirtualna może być skonfigurowana z systemem operacyjnym wymaganym przez każdego użytkownika (takim jak Microsoft Windows, macOS, Linux) i działać tak, jakby miała własne zasoby (pamięć, procesor, dyski twarde i sieć) - nawet jeśli były one współdzielone. Nazywamy to wirtualizacją i był to ogromny katalizator dla wielu ważnych zmian w komunikacji i informatyce. Jest to również główna technologia umożliwiająca przetwarzanie w chmurze.

Najważniejszym aspektem jest to, że to, co dzieje się w jednej maszynie wirtualnej, nie ma żadnego wpływu na pozostałe. Na przykład, jeśli jedna maszyna wirtualna zostanie uszkodzona (zainfekowana wirusem lub złośliwym oprogramowaniem), nie ma to wpływu na pozostałe.

Wirtualizacja serwerów

Jeszcze do niedawna sprzęt fizyczny był dość drogi. Wraz z rosnącym dostępem do Internetu i spadkiem kosztów sprzętu coraz więcej użytkowników mogło pozwolić sobie na zakup własnych serwerów dedykowanych. Aby koszty sprzętu były bardziej rentowne, serwery były również wirtualizowane przy użyciu tych samych typów funkcjonalności, które zapewniał system operacyjny maszyny wirtualnej, opisany powyżej.

Problem był teraz inny: jeden serwer mógł dobrze nadawać się do podstawowych funkcji, ale nie być w stanie zapewnić zasobów do szczególnie wymagającego zadania. Ta sytuacja wymusiła przejście od dzielenia drogich serwerów do ich współdzielenia, do łączenia niedrogich serwerów i tak narodziła się "wirtualizacja w chmurze".

Note

Oprogramowanie zwane hiperwisorem, zainstalowane na różnych serwerach fizycznych, pozwala na wizualizację i przypisanie zasobów tak, jakby znajdowały się na jednym serwerze fizycznym. Technolodzy używali terminów takich jak " przetwarzanie użyteczne" i "przetwarzanie w chmurze" odnosząc się do tej wizualizacji. W tych środowiskach przetwarzania w chmurze rozrost "chmury" był łatwy. Technolodzy mogli dodać nowy serwer fizyczny do przestrzeni komputerowej i skonfigurować go tak, aby stał się częścią systemu.

W miarę rozwoju technologii i hiperwizorów firmy chciały udostępnić korzyści płynące z chmury użytkownikom, którzy nie posiadali własnych zasobów. Użytkownikom łatwo jest rezerwować i anulować usługi w chmurze, a firmom świadczącym usługi w chmurze łatwo jest realizować te zamówienia: jest to niemal natychmiastowe.

Model pay-per-use (płacenia w miarę użytkowania) umożliwia instytucjom, firmom i indywidualnym programistom płacenie za zasoby obliczeniowe "w momencie ich wykorzystania, tak jak za jednostki energii elektrycznej". To jest właśnie klucz do współczesnej technologii przetwarzania w chmurze.

Next section
II. Jak zbudowana jest chmura i w jaki sposób działa?