Tags Posts tagged with "openstack"

openstack

przez -
1 1167
Red Hat

Red Hat ogłosił, że jest pierwszą firmą w historii, używającą na tak dużą skalę wolnego oprogramowania, której roczna sprzedaż przekroczyła 2 mld Dolarów. Według udostępnionych raportów finansowych, przez ostatnie 56 miesięcy korporacja nieprzerwanie odnotowuje wzrosty. Tak dobre wyniki są związane z udostępnieniem systemu Red Hat Enterprise Linux na platformach chmurowych, takich jak Amazon Web Services (AWS), Microsoft Azure czy Google, które biznes wykorzystuje w coraz większym stopniu. Jednakże główną branżą, na której Red Hat zarabia najwięcej, jest telekomunikacja. Na drugim miejscu natomiast plasuje się sektor finansowy.

Jim Whitehurst, prezes Red Hata tak skomentował to wszystko:

Nasze technologie w chmurze mają swój udział w największych kontraktach, takich jak wygrany wielomilionowy projekt oparty na OpenStack, który po wdrożeniu będzie jedną z największych implementacji tej platformy.

przez -
1 1163
chmura obliczeniowa, chmura danych

Firma SUSE przygotowała raport, dotyczący planów migracji dużych firm na prywatne chmury. Niezależne badanie przeprowadziła agencja Dynamic Markets, która przepytała 813 informatyków na kierowniczych stanowiskach w dużych firmach. Badanie zrealizowano w USA, Kanadzie, Wielkiej Brytanii, Niemczech, Francji, Włoszech i krajach skandynawskich, w każdym z regionów przeprowadzając co najmniej 110 wywiadów. Ponad 80% badanych osób planuje lub już dokonuje migracji na prywatne chmury oparte na platformie OpenStack. Sporo respondentów obawia się jednocześnie problemów z instalacją, uzależnieniem od jednego dostawcy oraz brakiem specjalistów znających się na technologi OpenStack.

Oto najważniejsze wnioski, ujęte w raporcie:

  • Powszechna akceptacja: 90 procent dużych przedsiębiorstw twierdzi, że już korzysta z co najmniej jednej prywatnej chmury.
  • Zaufanie: 96 procent respondentów deklaruje, że wykorzystałoby rozwiązania chmurowe do obsługi newralgicznych procesów biznesowych.
  • Wzrost znaczenia rozwiązań open source: 96 procent respondentów uważa, że wdrażanie prywatnych chmur opartych na rozwiązaniach open source jest biznesowo uzasadnione. Najczęstsze powody dla wdrażania prywatnych chmur to niższe koszty i ograniczenia budżetowe (67 procent) oraz zwiększenie elastyczności/nowatorstwa (77 procent) – i są to właśnie zalety rozwiązań open source.

Jednakże, choć przedsiębiorstwa coraz chętniej zwracają się ku inwestowaniu w prywatne chmury oparte na OpenStack, obawiają się też związanych z tym wyzwań i komplikacji, takich jak:

  • Znaczna trudność wdrożenia: Połowa firm, które próbowały wdrożyć chmury oparte na OpenStack deklaruje, że próba zakończyła się porażką, zaś 65 procent przedsiębiorstw informuje o trudnościach podczas wdrożenia. Jednocześnie niemal połowa (44 procent) firm zamierza samodzielnie instalować oprogramowanie OpenStack, co potencjalnie utrudnia wdrożenie.
  • Uzależnienie od jednego dostawcy: 92 procent respondentów obawia się uzależnienia od jednego dostawcy przy wyborze rozwiązania infrastruktury prywatnych chmur.
  • Brak umiejętności: 86 procent respondentów twierdzi, że przed wdrażaniem prywatnych chmur powstrzymuje je brak doświadczonych pracowników na rynku. Takie same obawy ma 78 procent firm, które planują wdrożenie.

przez -
7 15970
OpenStack

Czym jest openstack?

Jako alternatywę dla płatnych dostępów do usług cloud computingowych szczególnie warto wyróżnić OpenStack. Projekt OpenStack ma swoje korzenie w 2010 roku jako wspólne dzieło Rackspace Hosting i Narodowej Agencji Kosmicznej. Najnowsza wersja stabilna została wydana w maju 2015 roku. Jest to innowacyjna technologia implementująca model IaaS. OpenStack powstał na licencji Apache License 2.0, jest oprogramowaniem open-sourcowym, zarządzanym przez OpenStack Foundation, organizację o statusie non-profit. Technologia OpenStack składa się z wielu powiązanych ze sobą projektów w różnych dziedzinach Cloud Computingu. Dotyczy on gromadzenia danych, zasobami sieciowymi i przede wszystkim zarządzania procesem wirtualizacji. Zarządzanie może odbywać się za pomocą przeglądarki internetowej z konta użytkownika, z poziomu komend lub udostępnianego do obsługi protokołem REST API.

Wymienione projekty są ze sobą zintegrowane, każdy z nich grupuje szereg funkcjonalności niezbędnych do zarządzania w chmurze. Elementy można powielać uzyskując jak najbardziej optymalną wydajność. Programiści przyczyniający się do tworzenia głównego kodu OpenStacka, mają intencję stworzenia nowego, wolnego standardu chmury, co analogią mógłby być Internet. Rozwiązania dostarczane przez OpenStack miałyby stać się alternatywą dla zamkniętych prywatnych i publicznych rozwiązań chmurowych. OpenStack posiada wiele zalet. Przede wszystkim gwarantuje bezpieczeństwo danych, kiedy można problem ich przechowywania rozwiązać chmurą hybrydową i przechowywać dane w chmurze publicznej a krytyczne w lokalnej chmurze prywatnej. Platforma OpenStack jest skalowalna, moc chmury można dopasować do własnych potrzeb. Używanie technologii OpenStack podnosi efektywność zarządzania cyklem życia poszczególnych instancji, takich jak uruchamiania, przebudowywanie, usuwanie. Udostępnione jest również wygodne zarządzanie bazą obrazów systemowych, ich importowanie i tworzenie. Zarządzanie sieciami jest również elastyczne i pozwala dostosować infrastrukturę pod konkretne aplikacje. Bezpieczeństwo może zostać dodatkowo wzmocnione poprzez definiowanie grup bezpieczeństwa określających poziom dostępu do instancji dla przypisanych użytkowników. Istnieją różne usługi udostępnione w ramach używania oprogramowania OpenStack. Można z jego pomocą budować aplikacje typu SaaS, zarówno poprzez nowe wdrożenie jak i zastąpienie istniejącego rozwiązania w firmie. Z pomocą OpenStack możliwe jest budowania aplikacji typu “self-service storage”, które charakteryzują się przechowywaniem danych w chmurze jak główna funkcjonalność. Dane mogą być przechowywane w postaci obiektów lub bloków. Firma, która korzystała z oprogramowania VMware, może zastąpić je technologią KVM (Kernel-based Virtual Machine) wspieraną przez OpenStack. OpenStack jest szeroko wspierany przez światowe korporacje, z których można wymienić Cisco, Dell, HP, IBM, Red Hat i VMware. W skład projektu OpenStack wchodzi wiele komponentów, niektóre z nich zostaną omówione w artykule pod względem działania i implementacji.

OpenStack

Wiele firm zaufało technologii OpenStack i na jej podstawie również firmy zajmujące się hostingiem stworzyły własne rozwiązanie umożliwiające klientom korzystanie z serwerów, których zarządzanie odbywa się w technologii OpenStack. Przykładem takiej firmy są serwery.pl, w której możliwe jest elastyczne rozliczanie za używane godziny, dzięki wykorzystaniu dobrych rozwiązań.

OpenStack API

Kod projektu OpenStack został napisany w Pythonie, więc OpenStack API udostępnia bibliotekę do tworzenia chmury w języku programowania Python. Wystarczy biblioteka Python, narzędzie CLI i po zainstalowaniu pakietów projektów OpenStacka można rozpocząć tworzenie systemu Cloud, który będzie pod względem wielu czynności zautomatyzowany. Z API OpenStack można komunikować się za pomocą narzędzia cURL, który jest sieciową biblioteką programistyczną umożliwiającą wysyłanie zapytań HTTP ułatwiając tworzenie aplikacji korzystających z protokołu HTTP. Można go używać z wiersza poleceń lub z dowolnego języka programowania, który obsługuje bibliotekę cURL, może to być również Python. Kolejnym sposobem komunikacji mogą być narzędzia dostarczane przez OpenStack, czyli wspomniane komunikowanie się z linii poleceń w konsoli po instalacji projektu.

Keystone

Keystone należy do podstawowych komponentów OpenStacka umożliwiający zarządzanie użytkownikami oraz przede wszystkim ich autoryzacją. Jest odpowiedzialny za usługę potwierdzania tożsamości. Zawiera listę użytkowników i listę uprawnień. Za jego pośrednictwem odbywa się uwierzytelnianie dostępu do poszczególnych chmur. Poniżej posłużono się modelem jednej z dostępnych identyfikacji, tzw. v2, w którego skład wchodzą zabezpieczenia w postaci: posiadaczy – tenants, użytkowników – users, uprawnień – roles, usług – services, endpoints – adres dostępu do interfejsu. Keystone jest pierwszym komponentem, od którego zaczyna się korzystanie z API, ponieważ do wykonywania operacji na chmurze potrzebna jest autoryzacja. Keystone zwraca unikalny token wygenerowany dla klienta.

Podstawową implementacją skryptu wykorzystującego Keystone, jest stworzenie instancji klienta z posiadanymi wcześniej danymi do uwierzytelnienia. Można logować się przez hasło lub bardziej polecane: poprzez użycie tokena, którego podaje się jako jeden z parametrów w trakcie tworzenia instancji Client. Jeżeli dany użytkownik miał przypisaną rolę admin, zyskuje on swobodny dostęp do przeglądania danych związanych z cloudem. Admin, czyli administrator, tworzy nowe uprawnienia, grupy użytkowników, a także wraz z dołączaniem kolejnych modułów przegląda listy obrazów, maszyn, sieci i inne obiekty udostępniane w komponentach OpenStacka

Wymieniona w trzeciej linijce kodu lista tenant jest grupą projektową, do której przynależą użytkownicy danej chmury. Można wykonywać zapytania również o inne listy:

  • Flavor – możliwe konfiguracje serwera (keystone.flavors.list())
  • User – listy użytkowników
  • Tenant – projekt z id i przypisanymi do niego użytkownikami
  • Role – przywileje i uprawnienia, przypisywane użytkownikom
  • Service – chmury utworzone przez hipervisore’a
  • Endpoint – interfejsy w postaci adresu URL

Są dwa sposoby na logowanie się z wykorzystaniem keystone: jako administrator z tzw. “tokenem”, który zostanie wygenerowany dla administratora jako ciąg znaków, oraz na publiczną maszynę z nazwą użytkownika i hasłem jako pośredni użytkownik. Wartość tokena jest określona w pliku konfiguracyjnym keystona keystone.conf jako jedna z opcji, plik powinien znajdować się w /etc/keystone. Należy również się upewnić, że poprzez url administratora loguję się na port: 355357, a użytkownik na port: 5000.

>>> auth_url='http://192.168.206.130:5000/v2.0' >>>
			keystone = client.Client(username=username, password=password, ...
			tenant_name=tenant_name, auth_url=auth_url)

Requesty w danej sesji po pierwszej autoryzacji powinny być wykonywane z użyciem tokena zamiast hasła.

Nova

Komponent Nova odpowiada zarządzaniu instancjami. Nova może być traktowana jako główny komponent OpenStacka, ponieważ praktycznie po dokonaniu autoryzacji wszelkie zarządzanie obrazami, sieciami i innymi zależnościami w chmurze może dokonywać za pomocą odwołania do obiektu klienta z Nova Client.

W używaniu Novej zaleca się używania baz danych bazujących na SQLu, które są rozpoznawane przez wszystkie komponenty systemu. Ilość zagłębień danych dopasowuje się do bazy danych. Dla małych zapotrzebowań jest to optymalne rozwiązanie, dla większych, zwłaszcza gdy klient koncentruje się na bezpieczeństwie, Nova będzie przeniesiona na wiele magazynów udostępnionych przez system zarządzający. Nova składa się z kilku kluczowych komponentów.

Nova Servers

Odwołanie do obiektu klasy Nova o nazwie Servers daje możliwość działań listowania, tworzenia, pytania o szczegóły, edycji właściwości i dodawnia/usuwania serwerów. Operacje będą wykonywane poprzez odwołanie z class novaclient.v2.servers. Moduł Nova Servers pozwala określić dla serwera metadane, o maksymalnym rozmiarze dla każdego słownika metadanych 255 bajtów.

Dla prostych potrzeb Nova może zarządzać sieciami, może określać z jakim innym serwerem może się łączyć instancja. Można tworzyć wiele sieci. Użytkownik ustalający sieć może również określić port i prywatny adres IP instancji. Dopuszczalny jest zarówno standard IPv4 jak i IPv6. Z pomocą Nova Server można przesłać pliki systemowe do instancji, np. klucze SSH, pliki konfiguracyjne, albo bazę danych, z której chce się korzystać będąc w danej instancji. Ważne jest, aby po lub przed przeniesieniem plików sprawdzić, czy plik o danej nazwie w katalogu nie istniał, ponieważ w przeciwnym razie plik zostanie skopiowany, ale uzyska rozszerzenie .bak. Po przeniesieniu warto również sprawdzić prawa do plików, ponieważ po wysłaniu do osobistych plików dostęp będzie dla zwykłych użytkowników tylko na zasadzie odczytu.

Nova Flavors

Określa możliwe konfiguracje sprzętowe dla serwera. Przy pomocy Flavor określa się zasoby fizyczne dla tworzonej instancji. W procesie tworzenia takiej konfiguracji definiuje się po kolei: nazwę konfiguracji – treściwie opisującą dany flavor, ram – dostępność zasobu ram w MB, vcpus – numer vcpus, rozmiar dysku – w GB, opcjonalne ID – możliwe domyślne “auto”, swap – w MB, RX/TX factor. Każdy obiekt z listy flavors jest unikalną kombinacją przestrzeni dyskowej i pojemności pamięci. Oprócz tworzenia można wydobywać listy oraz pytać o szczegóły konfiguracji.

Nova Images

Nova Images reprezentuje obraz systemu, jest zbiorem plików, które używamy aby przebudować lub zainstalować system na serwerze. Domyślnie jest dostarczany system operacyjny, ale można wybrać własny, np. Ubuntu, Linux Mint (polecam), Windows 10 (nie polecam).

Glance

Komponent Glance dotyczy załączania, tworzenia, zarządzania obrazami wirtualnych maszyn. Obrazy instancji mogą być gromadzone w różnych lokacjach dla prostego systemu plików w sposób, aby mogły być zintegrowane z używaniem komponentu OpenStack Swift. Projekt Glance dostarcza usługę, kiedy użytkownik może wysyłać aktywa danych, które są używane przez inne komponenty. Glance ma architekturę działającą po stronie serwera. Posiadany obraz maszyny użytkownik chmury przesyła na zdalny serwer (glance.upload()). Podczas procedury przesyłania zabezpiecza się proces wbudowaną konstrukcją “with” charakterystyczną dla Pythona w sposób przedstawiony w poniższym skrypcie, który pokazuje proces od zalogowania klienta obsługującego moduł Glance poprzez upload do usunięcia obrazu.

>>> from glanceclient import Client >>> glance =
			Client('1', endpoint=OS_IMAGE_ENDPOINT, token=OS_AUTH_TOKEN) >>>
			image = glance.images.create(name="My Test Image") >>> print
			image.status 'queued' >>> image.update(data=open('/tmp/myimage.iso',
			'rb')) >>> print image.status 'active' >>>
			image.update(properties=dict(my_custom_property='value')) >>> with
			open('/tmp/copyimage.iso', 'wb') as f: for chunk in image.data():
			f.write(chunk >>> image.delete()

Powyższy przykład pozwala również zapoznać się z cyklem statusu obrazu. Po stworzeniu obrazu jego status jest ‘queued’ – kolejkowany, czeka na uzupełnienie i zatwierdzenie, ponieważ sam proces tworzenia to stworzenie obiektu z atrybutem ‘name’. Obiekt uzupełniono o obraz zapisany w formacie .iso. Obraz jest aktywny i gotowy do użycia. Ostatni etap, przesłanie, wgrywa system do chmury. Teraz przy logowaniu do urla maszyny użytkownik zobaczy przygotowany system operacyjny gotowy do użycia. Z zakresu zarządzania obrazami istotne są kwestie dostępności obrazu. Obraz można wgrać jako publiczny i będzie widoczny dla każdego użytkownika tworzonej chmury lub prywatny i użytkownik chmury proszący o listę obrazów nie zobaczy prywatnego obrazu nie będąc w grupie ‘admin’. Podobnie próba usunięcia przez zwykłego użytkownika dla prywatnego obrazu zwróci błąd 404, ponieważ zasób o podany Id nie zostanie znaleziony.

Obrazy tworzone przez Glance mają szereg parametrów, po których może odbywać się filtracja podczas wyszukiwania obrazu. Podstawowymi atrybutami obrazu są nazwa obrazu, format dysku, status, rozmiar minimalny i maksymalny obrazu, dostępność. Zapytania o szczegóły obrazu przy użyciu REST odbywają się poprzez zapytania typu GET /v1/images/details. Glance jest kompatybilne zarówno z formatem JSON jak i XML, przykład zwróconej odpowiedzi zakodowanej w JSONie może wyglądać następująco:

{'images': [ {'uri':
			'http://glance.example.com/v1/images/71c675ab-d94f-49cd-a114-e12490b328d9',
			'name': 'Ubuntu 10.04 Plain 5GB', 'disk_format': 'vhd',
			'container_format': 'ovf', 'size': '5368709120', 'checksum':
			'c2e5db72bd7fd153f53ede5da5a06de3', 'created_at': '2010-02-03
			09:34:01', 'updated_at': '2010-02-03 09:34:01', 'deleted_at': '',
			'status': 'active', 'is_public': true, 'min_ram': 256, 'min_disk': 5,
			'owner': null, 'properties': {'distro': 'Ubuntu 10.04 LTS'}}, ...]}

Trove

Przechodząc do utrzymywania bazy danych w chmurze warto wspomnieć o Trove, który jest usługą tzw. database-as-a-service. Celem Trove jest pozwolenie użytkownikiem na szybkie i łatwe używanie baz danych bez ciężaru obsługi złożonych zadań administracyjnych. W ramach Trove Openstack dostarcza relacyjny i nierelacyjny silnik do obsługi baz danych w chmurze. Kiedy Trove wysyła komendy, aby stworzyć instancję potrzebuje współpracy z Nova do stworzenia instancji i Glance do przesłania poprawnego obrazu.

Neutron

Neutron jest usługą dostarczającą połączenie sieciowe tzw. “network connectivity as a service”. Pozwala na zarządzanie połączeniami pomiędzy interfejsami urządzeń a innymi usługami OpenStacka, przede wszystkim dla instancji utworzonych przez Nova. OpenStack Neutron dostarcza możliwość łagodzenia obciążenia sieci w środowisku chmurowym, pozwala łatwiej dostarczać usługi typu Network as a Service w chmurze. Pozwala właścicielom na tworzenie wielu prywatnych sieci i ustalania puli adresów IP dla nich. W rezultacie zyskuje się dodatkową kontrolę nad bezpieczeństwem i jakością usług (QoS), monitorowaniem, rozwiązywaniem problemów poprzez wdrażanie zaawansowanych usług sieciowych takich jak blokady sieciowe (firewall), wsykrywanie włamań, VPN. Z praktycznej strony po autoryzacji przy użyciu tokena administratora otrzymuje się dostęp do zarządzania siecią. Przykład stworzenia sieci, wylistowanych po nazwie i pytania o detale reprezentuje fragment poniższego skryptu:

import logging >>> from neutronclient.neutron import
			client >>> logging.basicConfig(level=logging.DEBUG) >>> neutron =
			client.Client('2.0', endpoint_url=OS_URL, token=OS_TOKEN) >>>
			neutron.format = 'json' >>> network = {'name': 'mynetwork',
			'admin_state_up': True} >>>
			neutron.create_network({'network':network}) >>> networks =
			neutron.list_networks(name='mynetwork') >>> print networks >>>
			network_id = networks['networks'][0]['id'] >>>
			neutron.delete_network(network_id)

Jak można zauważyć formatem do komunikacji z neutronem stał się json, a kluczowym atrybutem tworzonej sieci jest “id” konieczny do odwołań w celu usunięcia lub edycji. Powyższy przykład reprezentuje tworzenie podstawy do tworzenia sieci, ponieważ za pomocą obiektu networks będzie można wykonywać operacje typowe dla zarządzania siecią. Możliwości są bardzo rozbudowane. Zaczynają się od przypisywania instancji do danej sieci i przypisywaniu IP, przez ustalanie podsieci, masek podsieci, ruterów po przypisywanie publicznego IP i testowanie połączeń między instancji zbudowany w różnych podsieciach i sieciach.

Podsumowanie

OpenStack zdobywa coraz większą popularność, zwłaszcza wśród korporacji. Poniżej zamieszczono listę firm, które oficjalnie się przyznają do korzystania z technologii OpenStack.

OpenStack

Dane z grudnia 2014 roku mówią o 198 firmach, które wdrażają rozwiązania OpenStacka. OS Foundation opiekująca się projektem podaje, iż system posiada ponad 22 miliony linii kodu, napisane przez 21 tysięcy programistów. Ktoś nawet policzył, że gdyby jeden programista miał napisać całego OpenStacka samodzielnie musiałby zacząć pracę ok. roku 1600. Myślę, że te liczby potwierdzają, że warto zainteresować się tą technologią, zwłaszcza, jeżeli ktoś planuję pracę w IT. Chmury obliczeniowe to przyszłość informatyki, a OpenStack zdecydowanie zyskuje na popularności, nawet w stosunku do komercyjnych rozwiązań jak Eucalyptus Amazona.

Źródła

  • http://docs.openstack.org/developer/
  • http://blog.integratedsolutions.pl/is-news/openstack-jak-stworzyc-chmure/
  • http://www.computerworld.pl/news/397000/Cz.i.jak.male.i.srednie.firmy.moga.wdrazac.chmury.OpenStack.html
  • https://wiki.openstack.org/wiki/Trove
  • https://www.sdxcentral.com/resources/open-source/what-is-openstack-quantum-neutron/

przez -
0 1402
Red Hat

Firma Red Hat wprowadziła do swojej oferty platformę Red Hat Enterprise Linux OpenStack Platform 7. Nowy moduł instalatora ułatwia wdrażanie i codzienne zarządzanie platformą. Zawiera ona nowe narzędzie, które ułatwia instalację, codzienne zadania w zakresie zarządzania i tworzy podstawę dla automatycznych aktualizacji systemu oraz ulepszeń dla późniejszych wersji. Całość została oparta o system operacyjny Red Hat Enterprise Linux oraz OpenStack 11 Kilo. Rozwiązanie to tworzy platformę chmurową gotową do zastosowania w środowiskach produkcyjnych, a także zapewnia wysoce skalowalną i niezawodną platformę, na bazie której można budować chmury zarówno prywatne, jak i publiczne.

Red Hat Enterprise Linux OpenStack Platform 7 zawiera kilka nowych funkcji, które mają na celu przyspieszenie procesu wdrażania technologii OpenStack, w tym:

  • Uproszczone wdrażanie i zarządzanie – operatorzy chmur mogą w prostszy sposób zarządzać codziennymi operacjami i dostarczać zasoby, dzięki zastosowaniu nowego modułu instalatora platformy Red Hat Enterprise Linux OpenStack Platform. RHEL OSP Director oferuje uproszczony i zautomatyzowany proces instalacji chmury wraz z kontrolą poprawności działania całego systemu, gwarantując w ten sposób prawidłowy przebieg wdrożenia. Ponadto, ułatwia on codzienne zarządzanie i przekazywanie zasobów operatorom chmur, co obejmuje automatyczne przekazywanie „w stanie gotowym” zasobów w architekturze bez warstwy pośredniej, aby uprościć wdrażanie i zmianę przeznaczenia zasobów sprzętowych w zależności od zapotrzebowania. Nowy moduł jest oparty na rozwijanym przez społeczność projekcie OpenStack o nazwie TripleO i łączy wiele technologii, aby zapewnić jedno potężne narzędzie, ustanawiające nowe ramy, które mogą zostać wykorzystane na potrzeby skoordynowanych automatycznych aktualizacji technologii OpenStack oraz administratora dla wersji 7 i kolejnych.
  • Tradycyjne obciążenia robocze wymagające wysokiej dostępności OpenStack – aby usprawnić migrację tradycyjnych i najważniejszych dla biznesu aplikacji, które wymagają od OpenStack wysokiej dostępności, platforma Red Hat Enterprise Linux OpenStack Platform 7 wprowadza wysoką dostępność węzła hosta obliczeniowego poprzez zintegrowane, automatyczne monitorowanie oraz usługi pracy w trybie awaryjnym (zapewniane przez system Red Hat Enterprise Linux). Ta nowa funkcja monitoruje węzły hosta oraz umożliwia automatyczne wyprowadzenie maszyn wirtualnych z hostów wraz z ponownym uruchomieniem obciążeń roboczych na alternatywnych dostępnych hostach.
  • Większa kontrola nad zabezpieczeniami – klienci z branży telekomunikacyjnej otrzymują teraz bardziej szczegółowy widok oraz kontrolę nad portami ruchu sieciowego na poziomie maszyny wirtualnej. Pozwala to klientom na utrzymanie wyższego poziomu zabezpieczeń w obrębie większej chmury OpenStack, przy jednoczesnym zezwoleniu na przesyłanie danych zwirtualizowanych funkcji sieciowych (VNF) przez każdą z maszyn wirtualnych wedle wymagań. Wersja 7 wprowadza poprzez warstwę modularną Neutron modular layer 2 (ML2) oraz port Open vSwitch (OVS) mechanizmy zabezpieczeń zawarte w społecznościowej wersji Kilo.
  • Elastyczność sieci – nowe funkcje sieciowe Neutron zapewniają większą elastyczność oraz zwiększoną redundancję sieci. Operatorzy sieciowi mogą skorzystać z kilku ulepszeń protokołu IPv6, w tym z możliwości obsługi bezpośredniego trasowania w sieci pomiędzy użytkownikami a bramą zewnętrzną. Ponadto, wersja 7 rozszerza wysoką dostępność dla routerów Neutron oraz ulepsza monitorowanie dokonywane przez router, jak również generowanie przezeń raportów, co pomaga operatorom sieci utrzymać czas sprawności.
  • Przyrostowe kopie zapasowe – administratorzy pamięci masowych mogą teraz skorzystać z szybszego tworzenia kopii zapasowych na poziomie bloków oraz mniejszego zapotrzebowania na pojemność dzięki obsłudze kopii migawkowych. Dodanie obsługi systemów plików NFS i POSIX skróciło czas i zapotrzebowanie na miejsce na dane, jako że procesowi backupu poddane są wyłącznie przyrostowe zmiany względem ostatniej pełnej kopii zapasowej.

przez -
0 1117
Mirantis

Mirantis rozpoczął intergrację usługi Kubernetes z OpenStack. Ma to pozwolić deweloperom na przygotowanie i wdrożenie odpowiednich kontenerów z wirtualnymi maszynami w ciągu kilku minut. Współpraca z Google ma umożliwić deweloperom natychmiastowy dostęp do klastrów Kubernetes z kontenerami Dockera, bez potrzeby przygotowywania infrastruktury. Migracja środowisk ma się odbywać płynnie, pomiędzy prywatnymi chmurami OpenStack, a tymi publicznymi które wspierają Kubernetes, jak Google Cloud Platform.

Kubernetes to uboższa wersja technologii Borg od firmy Google, która umożliwia połączenie mocy obliczeniowej z wielu centrów danych i stworzenie potężnej maszyny wirtualnej.

przez -
3 1034
Canonical Ubuntu

Canonical dodało do swojej oferty produktowej system Ubuntu OpenStack. Jest to specjalny obraz dystrybucji Ubuntu, z gotowym do wdrożenia oprogramowaniem OpenStack. Ubuntu OpenStack od Canonical ma spełnić potrzeby małych, średnich i wielkich firm które potrzebują szybko stworzyć własną przestrzeń w chmurze, bez dodatkowych kosztów. Dystrybucja jest dostępna publicznie za darmo dla 10 maszyn fizycznych i wirtualnych. Obrazy systemu można pobrać ze strony: www.ubuntu.com/download/cloud.

Przypomnijmy także o współpracy HP i Canonical oraz ich białej HP Reference Architecture for OpenStack on Ubuntu 14.04 LTS. Warto zapoznać się także z raportem nt wdrożeń OpenStack na Ubuntu.

przez -
6 1148
Canonical Ubuntu

Inżynierowie z firm HP i Canonical udostępnili publicznie białą księgę: HP Reference Architecture for OpenStack on Ubuntu 14.04 LTS. Zawiera ona informację, jak klienci HP powinni zaplanować wdrożenia chmur obliczeniowych, z wykorzystaniem OpenStack na Ubuntu i serwerach HP. Dla klientów, którzy zaczynają eksperymentować z własnymi wdrożeniami chmury, biała księga opisuje krok po kroku, co dokładnie jest potrzebne.

Aby uprościć instalację, autorzy zalecają użycie MAAS (Metal as a Service) i Juju. MAAS jest to czysto sprzętowe narzędzie provisioningu, które przygotowuje nam całe środowisko produkcyjne. Juju to narzędzie do zarządzania usługami orkiestracji, napisane i rozwijane przez Canonical, ułatwiające wdrażanie OpenStack.

przez -
2 540
Mirantis

Canonical i Mirantis ogłosiły, iż nawiązały długofalową współpracę, w celu integracji i zaoferowania Mirantins OpenStack na systemie Ubuntu. Oferowane rozwiązanie ma być w pełni stabilne, bezpieczne oraz gotowe do wdrożeń typowo produkcyjnych. Mirantis ma zaoferować także komercyjne wsparcie dla wszystkich klientów, którzy wykupią Mirantis OpenStack i system Ubuntu. Według danych zbieranych przez Fundację OpenStack, Ubuntu posiada 55% rynku serwerów z zainstalowanym OpenStack.

Polecane

OSWorld

6 1174
Drodzy Czytelnicy, prowadzimy portal OSWorld.pl już ponad 10 lat. Z przykrością stwierdzamy, że mamy na niego coraz mniej czasu, dlatego chcielibyśmy przekazać prowadzenie serwisu osobie...