Retrospektiva : Virtualizacija, linux kontejneri i Proxmox VE

18.6.2016 održalo se predavanje “Virtualizacija, linux kontejneri i Proxmox VE”.

 

Pogledajte kako je bilo:

Virtualizacija i ProxmoxVE -1Virtualizacija i ProxmoxVE -2

 

O čemu smo razgovarali ?

 

Zbog čega uopće koristiti virtualizaciju

Upotrebom virtualizacije u odnosnu na tradicionalne sustave, instalirane direktno na hardver:

  • Smanjujemo troškove održavanja
  • Ubrzavamo proces izrade sigurnosne kopije cijelog operacijskog sustava i svih podataka unutar njega. Naime cijelo virtualno računalo je jedna datoteka koja se obično komprimira zajedno sa svim podacima o virtualiziranom hardveru od kojega se “sastoji” to virtualno računalo :
    • disk kontroler,
    • vrsta i veličina diska,
    • količina dostupne RAM memorije,
    • mrežne kartice i sl.
  • Drastično ubrzavamo proces povratka cijelog operacijskog sustava i svih podataka uslijed nekog kvara ili problema u radu. Kao što smo rekli – praktično cijelo virtualno računalo je jedna jedina datoteka koju treba “vratiti” nazad iz sigurnosne kopije, na nekom drugom fizičkom računalu, bez ikakvih dodatnih intervencija poput :
    • instalacije operacijskog sustava
    • instalacije svih upravljačkih programa
    • instalacije i konfiguracije svih aplikacija
    • povratka svih podataka i sl

u globalu pojednostavljuje se management svih virtualiziranih računala

 

Kako radi virtualizacija

 

Za virtualizaciju je potrebna određena platforma odnosno takozvani “Hypervisor” operacijski sustav, bilo samostalan ili unutar ostojećeg operacijskog sustava, a koji ima mogućnost kreiranja virtualiziranog okruženja za naša virtualna računala.

Naučili smo da postoje dvije kategorije platformi za virtualizaciju:

  • Type 2” koji se zapravo pokreću na već instaliranom operacijskom sustavu, Najčešće korisšteni su : VirtualBox i VMware player/workstation i sl. Oni u pravilu nisu namjenjeni za “produkcijsku” upotrebu jer (namjerno) nemaju sve alate i mogučnosti “samostojećih” sustava za virtualizaciju. S druge strane zbog čega bi netko razvijao i istovremeno rješenje poput “VMware player/workstation” i “VMware ESXi

 

  • Type 1” su oni koji su “samostojeći” operacijski sustavi s pripadajućim Hypervizorom. Cijeli “paket” : OS + Hypervizor je optimiziran za virtualizaciju te ne sadrži nepotrebne programe ili alate. Predstavnici ove grupe su : VMware ESXi , Xen Server, Microsoft Hyper-V (iako je on prema logici rada nešto između ova dva tipa), OpenStack i naravno Proxmox VE.

Virtualizirano okruženje kreira sve resurse hardvera koji i inače postoje na svakom računalu, ali virtualno odnosno simulira ih se i to počevši od :

  • Matične ploče, njenog BIOSa i svih njenih funkcionalnosti,
  • Centralnog procesora (CPU) i pristupa RAM memoriji
  • Disk kontrolera, njegovog BIOSa i njegove funkcionalnosti
  • Tvrdog diska, CD/DVD-ROMa i drugih uređaja
  • Mrežne kartice, njenog BIOSa i svih njenih funkcionalnosti
    … itd.

Dakle virtualizira (simulira) se svaka komponenta računala, koja se onda dodjeljuje našem virtualnom računalu. Na to virtualno računalo se potom normalno instalira cijeli operacijski sustav od “nule”, sa svim upravljačkim programima, našim aplikacijama i sl.

U inicijalnom dijelu instalacije operacijskog sustava unutar virtualnog računala, kada se instaliraju upravljački programi, instaliraju se upravljački programi za virtualne komponente našeg virtualnog računala, koje nam je ddijelio “Hypervisor”.

Ako smo recimo kao disk kontroler za naše virtualno računalo unutar “Hypervisor”-a odabrali IDE (ATA) disk kontroler, tada ćemo dobiti primjerice virtualiziran PIIX3 disk kontroler, sa svojim pripadajućim BIOS-om i svim svojim funkcionalnostima.

Dakle u trenutku kada krenemo s instalacijom našeg virtualnog računala (pr. sa ISO image-a od našeg operacijskog sustava), kada se budu morali instalirati upravljački programi za disk kontroler – biti će odabran PIIX3 disk kontroler. Ista je stvar sa svakom dugom komponentom našeg budućeg virtualnog računala.

Operacijski sustav i sve aplikacije unutar virtualnog računala nisu svjesne da se nalaze unutar virtualnog računala te se ponašaju kao da su instalirane na “normalno” računalo.

Za efikasnu virtualizaciju, potrebna je i podrška centralnog procesora (CPU), a koja može drastično ubrzati sve procese potrebne za virtualizaciju:

  • Intel ovu funkcionalnost unutar centralnog procesora naziva VT-x a AMD ju naziva AMD-V.

Ovakvu vrstu virtualizacije nazivamo i puna virtualizacija (engl. Full Virtualization).

 

 

 

**Upoznali smo se i s logičkom shemom “Type 1” platformi za virtualizaciju.

**

 

Ovdje imamo pripadnike rješenja koja su inicijalno zamišljena i razvijana za velika okruženja sa stotinama ili tisučama poslužitelja.

 

 

Osnovna dva predstavnika (prema logičkoj implementaciji ) su :

VMware ESXi te Microsoft Hyper-V (kao i Xen Server).

Njihova ideja je instalacija osnovnog Hypervizora na direktno na poslužitelj (zbog toga pripadaju kategoriji “Type-1“) a uz koje dobivamo samo osnovne funkcionalnosti (koje imamo i u “VMware player/workstation” ili “Virtual Box“-u) te malo više od doga.

Sve važne funkcionalnosti koje stvarno želimo od ovakvog sustava dobivamo instalacijom Tzv. “Virtual Appliance”-a odnosno virtualnog računala koje se pokreće unutar Hypervizora.

 

Kod ESXi rješenja je to obično virtualka koja se zove “vCenter Server” tj. “VCSA” koja u najosnovnijoj konfiguraciji ima integriran Tzv. “Embedded Platform Controler” koji pokreće postgreSQL bazu podataka u koju se snimaju sve konfiguracijske posstavke :

  • od konfiguracije svakog virtualnog računala
  • preko mrežne konfiguracije svakog poslužitelja i virtualnih računala
  • do konfiguracije clustera kao i drugih “Virtual Appliance” tj, virtzalki.

Klijenti koji se spajaju na management sučelje se zapravo spajaju na gore navedenu virtualku, koja nakon dodavanja svakog pojedinog ESXi poslužitelja u vCenter/vSphere, postaje svjesna i svih virtualki te naravno svih ostalih komponenti cijelog sustava.

Jedan od primjera je i Backup funkcionalnost. Naime unutar ESXi+vCenter/vSphere funkcionalnost backupa je na razini rješenja koja su dostupna i na VirtualBox/VMware Player/Workstation “Type 2” sustavima. Dakle praktično samo ručni backup pojedine virtualke.

Ako žeimo imalo više od toga – pr. automatiziranu izradu backupa svekih x dana, potrebno je kupiti profesionalni sustav za izradu backupa – koji dolazi kao zasebna (još jedna) virtualka. Jedno od VMware certificiranih rješenja je i rješenje (virtualka) tvrtke “VEEAM” koja nudi i cijeli niz naprednih mogućnosti za backup i restore, podršku za tračne uređaje, inkrementalni backup i desetke drugih stvari koje su važne za podatkovne centre.

 

Da sumariziramo ovaj koncept

U slučaju potrebe za dodatnim funkcionalnostima, uglavnom se stvar svodi ili na plačanje i otključavanje funkcionalnosti ili na instalaciju još jednog “Virtual Appliance-a” tj. dodatne virtualke (obično uz plačanje iste).

 

 

VMware ESXi logička shema rada:

VMware ESXi

 

Kod Microsoft “Hyper-V” rješenja stvar je slična kao kod “VMware ESXi” s time da se ovdje nudi nekoliko “Virtual Appliance”-a odnosno virtualki od kojih svaka pokriva jedan dio funkcionalnosti, tako imamo :

  • “System Center Virtual Machine Manager” virtualku,
  • “System Center Configuration Manager” virtualku ,
  • “System Center Operation Manger” virtualku,

I ovdje se sve konfiguraciju pohranjuju na (ovaj puta) Microsoft SQL Server koji mora biti negdje instaliran (obično unutar neke četvrte virtualke).

 

Microsoft Hyper-V:

MS Hyper-V

 

Kod oba gore navedena pristupa možemo si postaviti pitanje : što je s redundancijom (zalihosti) ?

Točnije što ako (kada) se prvi poslužitelj na kojemu se nalazi virtualka koja je “Kontroler i Web GUI” sruši ili pokvari. Želimo ipak redundanciju i njegove funkcionalnosti jer ne žalimo izgubiti dane na reinstalaciju novog poslužitelja, pa (u najbojem slučaju) povrat virtualke iz backupa.

 

Odgovor je – postoje rješenja od strane oba proizvođaća koja uz potrebu za uvođenjem dodatnih komponenti koje osiguravaju osnovu za redundantan rad, donose i potrebu za minimalnim dupliciranjem svih gore navedenih virtualnih računala. Naravno od kojih bi se svaki moralo pokretati na drugom fizičkom poslužitelju (da bi cijeli suatav bio otporan na ispad bilo kojeg fizičkog poslužitelja).  Sada nismo niti došli do redundantnog sustava za pohranu podataka (virtualki) : dakle nekog NAS/SAN sustava, ta komponenta je podržana djelom od oba proizvođaća a djelom od trećih tvrtki koji prodaju takve (profesionalne) sustave.

 

 

Drugoj gupi pripada OpenStack

Ovo rješenje je slično kao prethodna dva, s time da ovdje nema potrebe za instaliranjem virtualnih računala koja nude određene funkcionalnosti, već se to postiže instaliranjem Tzv “Rola” ili uloga, na svaki fizički poslužitelj.

 

Tako nam je za minimalno funkcioniranje sustava potrebna minimalno jedna instalacijua “Kontrolera sa svojom pripadajućim SQL serverom” na koji se pohranjuju sve konfiguracije.

Dodatno potrebna nam je  i “Network” rola – tj. poslužitelj koji ima pristup svim unutarnjim i vanjskim mrežama i preko kojeg prolazi mrežni promet : unutra <-> van .  Ova komponenta/role-a se zove “Neutron

Svi ostali poslužitelji na kojima se pokreću virtualke, moraju imati “role”-u , odnosno ulogu “Compute” poslužitelja, koja se zove  “Nova“.

Još nam trebaju i slijedeće “Role”:

  • “Horizon” je zadužen za Web sučelje
  • “Keystone” za korisničke račune, “policy” i sl .(Identity service),
  • U slučaju da nam trebaju template-i , tada nama treba i “Heat”,
  • Kao “Block storage” se koristi komponenta koja se zove “Cinder”,
  • “Glance” je manager za image-e virtualki ,
  • tu je još i cijeli niz drugih komponenti

Logička shema OpenStack-a:

OPenStack

 

Što je s redundancijom OpenStacka ?

Nudi se slično rješenje kao kod “VMware ESXi” i “Microsoft Hyper-V” dakle prvo instalacija i konfiguracija komponenti koje su preduvjet za redundaniciju te konfiguraciju “poduplanih” “Role”-a , na više fizičkih poslužitelja.

 

To kreće od SQL poslužitelja koji sada mora biti redundantan i po mogućnosti u “Multi-Master” konfiguraciji ispred kojega mora biti instaliran Load Balancer, koji isto mora biti redundantan a ispred njega neka Layer 3 (na IP sloju) komponenta koja isto mora biti redundantna.

I sve druge “Role” moraju biti posebno (“poduplano”) instalirane na različitim fizičkim poslužiteljima te konfigurirane za ovakav način rada.

 

Sve navedeno drastično  komplicira dizajn i znanja potrebna za otkrivanje grešaka, kada se jednom pojave.

 

Prva i druga grupa – zbog čega ovakav dizajn ?.

Zbog same namjene u kojoj će se ovakvi sustavi integrirati unutar podatkovnih centara sa tisućama i tisućama poslužitelja i desecima ili stotinama tisuća virtualnih računala. OSim toga postoji i potreba korisnika da svatko (kao tvrtka ili korisnik) ima svoju izoliranu mrežu i IP adresni prostor (Virtual Private Cloud) unutar postojećeg ogromnog sustava.

 

 

I na kraju i Proxmox VE

Ovdje smo došli do potpuno drugačijeg dizajna, zbog potpuno drugačije namjene.

Proxmox VE je namjenjen za manja okruženja i ograničen je – u staroj verziji 3.x na 16. a u novoj v.4.x na, do maksimalno, 32. fizička poslužitelja.

 

Zbog potpuno drugačije namjene i sam dizajn je potpuno drugačiji iako i ovdje imamo slične komponente.

 

I dalje imamo mjesto gdje se pohranjuju apsolutno sve konfiguracije : od konfiguracija svake virtualke ili mrežnih komponenti, preko sustava za pohranu podataka, firewall-a i sl.

Ali pošto je ovo manji sustav od gore navedenih, stoga je bio moguć kompromis. Nema potreba za SQL serverom, i njegovom redundanijom jer možemo imati “samo” 32 fizička poslužitelja. To u praksi znači da nećemo  imati tisuće i tisuće virtualnih računala u našem podatkovnom centru, već  vrlo vjerojatno “samo” nekoliko stotina virtualki i/ili linux kontejnera, pa nam stvarno ne treba SQL poslužitelj ili cluster SQL poslužitelja (u slučaju redundancije).

Ekipa iz Proxmox VE se odlućila upogoniti “Corosync” kao višestuko dokazan clusterski sutav ispred kojeg se nalazi datotečni sustav koji se  sinkronizira između svih poslužitelja koji se nalaze u Proxmox VE clusteru.

Ovdje se radi o “Proxmox cluster file system” rješenju :

  • stabilno je (u produkcijskoj je upotrebi cijeli niz godina),
  • pouzdano je i otporno na ispade bilo kojeg poslužitelja (ili više njih – ovisno o njihovom broju),
  • distribuirano – svi poslužitelji imaju pristup svim konfiguracijskim datotekama u svakom trenutku
  • sve promjene na bilo kojoj konfiguracijskoj datoteci su vidljive svim Proxmox VE poslužiteljima u clusteru, trenutno – čim se promjena dogodila

 

Naime svaka promjena bilo koje konfigutacije se odmah sinkronizira sa svim poslužiteljima, tako je već u startu sve redundantno.

 

Dodatno i uloga “Kontrolera” odnosno poslužitelja na koji se spajamo preko Web sučelja je isto redundantna jer se ovdje možemo spojiti na bilo koji poslužitlj u Proxmox VE clusteru – jer oni ionako dijele sve konfiguracije preko clusterskog dijeljenog datotečnog sustava.

U konačnici je svejedno na koji ste se fizički poslužitelj spojili preko Web sučelja – svi oni “vide” sve ostale poslužitelje, sve konfiguracijske datoteke, sve virtualke i sve ostalo što je potrebno za rad.

 

Možemo reći da ako smo kreirali Proxmox VE cluster sa tri (ili više) poslužitelja u njemu, tada imamo trostruku (ili više) redundanciju što se tiće managementa i konfiguracije.

Nadalje ostaje pitanje s redundantim sustavom za pohranu podataka (NAS/SAN), kao i kod drugih sustava (što se nudi po tom pitanju pogledajte dalje u tekstu)

 

Možemo rreći i da je svaki fizički poslužitelj u Proxmox VE clusteru :

  • i “Kontroler”  poslužitelj,
  • i “Web poslužitelj,
  • i “Identity” poslužitelj  (korisnički računi i grupe, prava pristupa),
  • i SQL poslužitelj (barem njegov ekvivalent),
  • i “Network” poslužitelj,
  • i “Compute” poslužitelj odnosno “Hypervisor” poslužitelj
  • i još štošta

 

Ništa dodatno se ne mora instalirati na Proxmox VE poslužitelje – sve je već dostupno i spremno za rad.  Potrebno je samo znanje za konfiguraciju svega što vam treba za rad.

 

Pogledajmo i logičku shemu:

 

Proxmox VE

 

 

Zbog čega je važno da platforma za virtualizaciju podržava i Linux kontejnere

Upotrebom Linux kontejnera štedimo hardverske resurse te u konačnici dobivamo na brzini rada. Samim time dobivamo na mogućnosti da na istom hardveru pokrećemo znatno veći broj linux kontejnera nego što bi mogli pokrenuti klasičnih virtualnih računala.

Kao što smo rekli – klasična virtualizacija mora virtualizirati (simulirati) svaku pojedinu komponentu našeg virtualnog računala.  Ovaj proces kod klasične virtualizacije troši hardverske resurse, pogotovo čim više virtualnih računala imate na sustavu jer svako od njih mora imati virtualizirane (simulirane) sve komponente računala.

Ako primjerice imamo deset virtualnih računala tada hypervisor mora virtualizirati (simulirati) deset matičnih ploča, deset disk kontrolera, deset diskova, …. (resursi, resursi).

 

Što su uopće Linux kontejneri ?

Linux kontejneri su jedan oblik virtualizacije ali na razini operacijskog sustava Linux, unutar kojega se pokreću izolirani Linux operacijski sustavi odnosno Linux kontejneri.

Ovdje se ne radi o virtualnim računalima već o izoliranom pokretanju novih instanci linuxa. Dakle pokretanje linuxa unutar postojećeg linuxa.

U svakom slučaju nema cijelog niza slojeva virtualizacije i simulacije virtualiziranog hardvera.

Rad linux kontejnera se svodi na pristup već postojećem (instaliranom) linuxu, odnosno njegovom kernelu i sistemskim pozivima, kroz samo jedan kontrolni sloj, koji dodaje potrebna ograničenja odnosno prava pristupa na dostupne resurse.

U ovom sloju se ograničava pristup na dostupan broj centralnih procesora (pr. dozvoljavamo samo 2 CPU jezgre za pojedini linux kontejner), količinu RAM memorije, diskovnog prostora i sl.

Već je iz ovoga vidljivo da to sve mora raditi brže nego klasična virtualizacija, ali i istovremeno biti štedljivije prema dostupnim resursima.

Jedan linux kontejner je za linux koji ga “opslužuje” samo novi niz linux procesa, ništa više.

Pogledajmo izlistanje svih pokrenutih procesa na Proxmox VE platformi (koja je u pozadini također malo optimiziran debian linux) te se fokusirajmo na označene procese:

Slika 1: Prikaz svih Linux procesa na Proxmox VE v.3.x (ovdje se radi o OpenVZ linux kontejnerima):

ProxMox-Linux-kontejner-procesi-pogled

Slika 2. Pogledajmo kako to izgleda na novoj verziji Proxmox VE 4.x. (ovdje se radi o LXC linux kontejnerima):

LXC Linux containers - process view

Na slikama gore vidimo sve procese koji su od Proxmox VE linuxa (crno) te sve procese koji su od jednog linux kontejnera (crveno).

Za one koji poznaju linux malo bolje – pogledajte init procese (za sve ostale – malo proučite ( 1. i 2. ) :

Za Proxmox VE v.3.x (slika 1):

  • Prvi  init (gore) je init od samog Proxmox VE linuxa i on pokreče sve ostale procese,
  • Drugi init (dolje) je init od linux kontejnera i on pokreće sve procese od tog linux kontejnera

Za Proxmox VE v.4.x (slika 2):

  • Prvi proces je systemd (gore) od samog Proxmox VE linuxa (on je nova generacija init procesa) i on pokreče sve ostale procese,
  • init (dolje) je init od linux kontejnera i on pokreće sve procese od tog linux kontejnera

 

Vrlo jednostavno i učinkovito. Osim toga nije potrebna nikakva hardverska podrška unutar centralnog procesora.

 

I na kraju da ne bi bilo zabune: Linux kontejneri mogu pokretati samo i isključivo Linux operacijski sustav.

 

Proxmox VE

Nekoliko činjenica o ovoj platformi:

  • Prva stabilna verzija je razvijena 2008 s podrškom za Virtualizaciju i Linux kontejnere  (OpenVZ)
  • U potpunosti je “Open Source” bez skrivenih i nedostupnih funkcionalnosti
  • Koristi se na preko 120 000 računala/poslužitelja u više od 140 zemalja svijeta
  • Aktivna zajednica broji oko 29 500 članova (forum)
  • GUI je preveden na 19 jezika
  • Više od 6 500 korisnika plaća komercijalnu podršku

 

Osnovni hardverski zahtjevi platforme su:

  • 64. bitni CPU s hardverskom virtualizacijom (Intel VT-x ili AMD-V)
  • 2 GB RAM
  • 20 GB Diskovnog prostora
  • 100Mbps LAN

 

Sama platforma koristi u praksi višestruko provjerene i dokazane servise i tehnologije:

  • Za virtualizaciju se koristi Linux KVM (Kernel Based Virtual Machine) koji je dokazan dugim nizom godina rada u produkciji
  • Za Linux kontejnere se koristi :
    • za verziju 3.x : OpenVZ, koji je također u produkciji godinama
    • a za verziju 4.x : LXC, koji je noviji ali se također dokazao u produkciji
  • Za Proxmox klasterski datotečni sustav je razvijen pmxcfs koji se oslanja na “Corosync Cluster Engine) a koji je također dokazan u produkciji
    • Za ostale klasterske funkcionalnosti se koriste RedHat Cluster i drugi provjereni i produkcijski dokazani alati.
  • Za mrežni model se koriste :

 

Što nam sve nudi Proxmox VE

 

Centralizirani management

  • Centralizirani management je dostupan na svim poslužiteljima unutar Proxmox klastera a koji se automatski sinkronizira između svih poslužitelja u klasteru.
  • Ne postoji jedan ili nekolicina poslužitelja nadležnih za management već su to apsolutno svi poslužitelji unutar Proxmox klastera u takozvanoj Multi-Master konfiguraciji. Ovo je standardna funkcionalnost ProxmoxVE klastera.

Slika – Proxmox klaster – centralizirani management s tri Proxmox VE poslužitelja

(Pogled na jedan poslužitelj [pve-2-51]) i njegove resurse:

Prox-1

Slika : Pogled na cijeli Proxmox klaster sa svim fizičkim poslužiteljima :

Prox-2

  • Moguće je koristiti i REST web API za izradu svojih funkcionalnosti prema potrebi,
  • Centralizirani management je moguće definirati prema specifičnim korisničkim grupama, korisnicima ili akcijama (pravima) koje su dozvoljene za njih.
  • Autentikacija je moguća i preko vanjskih servisa popu Acive Directory-ja ili  LDAP-a

Slika: Autentikacija preko postojećeg Active Directory poslužitelja:

ProxMox-AD

 

  • Dostupan je i cijeli niz gotovih Linux kontejnera – direktno preko centraliziranog web sučelja.

Slika:  Dostupni Linux kontejner template-i v.3.x (intenzivno se radi i na LXC template-ima za verziju 4.x):

ProxMox-Templates

Preko centraliziranog i klasteriziranog grafičkog sučelja omogućen je i konzolni pristup na bilo koje virtualno računalo ili linux kontejner.

Osim toga, moguć je pristup na konzolu bilo kojeg virtualnog računala ili linux kontejnera i preko noVNC, VNC i Spice klijenata.

 

Slika: Konzolni pristup na virtualno računalo s Debian Linuxom iz Web sučelja:

ProxMox-konzola

 

Backup sustav

  • Zadužen je za izradu sigurnosnih kopija virtualnih računala ili linux kontejnera. Integriran je za cijeli klaster Proxmox VE poslužitelja. Podržava razne metode izrade sigurnosnih kopija :
  • “Stop/Start” Virtualke/Linux kontejnera u trenutku izrade sigurnosne kopije ili
  • “Snapshot” Virtualke/Linux kontejnera u trenutku izrade sigurnosne kopije ili
  • “Suspend” Virtualke/Linux kontejnera u trenutku izrade sigurnosne kopije.

Backup sustav omogućava izradu sigurnosnih kopija na razini svake pojedine virtualke ili linux

kontejnera i to :

○ Ručno – za trenutnu željenu (odabranu) virtualku ili linux kontejner ili

○ Automatizirano prema vremenskim okvirima  (pr. svaki dan u točno određeno vrijeme ili sl.)

Slika : Automatizirana izrada backupa u zadano vrijeme:

ProxMox-Automatski-Backup

 

Izrada snapshota

  •  Snapshot-i su kopije virtualke u realnom vremenu, koji predstavljaju snimljeno stanje virtualke u tom trenutku.
    • Moguća je izrada tkzv. “snapshot”-a bilo koje virtualke, u potpunosti bez njenog zaustavljanja – kao sigurnosne kopije u vremenu – dodatno uključujuči (ili ne) i stanje RAM memorije.

ProxMox-Snapshot

  U bilo kojem trenutku se možete vratiti na bilo koji snapshot koji ste napravili u prošlosti – odnosno vratiti se u stanje rada vaše virtualke u vremenu.

 

  • Izrada template-a (gotovih predložaka ) i kloniranje istih

    • Moguća je izrada template-a (predložaka) virtualki (a uskoro će biti moguće i za linux kontejnere). Ovom procedurom možemo pripremiti virtualku na koju ćemo instalirati sav potreban softver te od nje napraviti “template”. Taj template ili predložak   možemo kasnije klonirati i vrlo brzo kreirati nove funkcionalne virtualke koje će već imati instaliran i konfiguriran sav softver koji smo instalirali na template virtualku.
      • Na osnovi Template-a virtualke moguće je raditi njene klonove :

Slika : Pogled na izrađeni template [ID template-a : 100 (jessie1-template)] te odabir kloniranja tog template-a u novu virtualku –  ID nove virtualke: 116

ProxMox-Template

 

  • Sustav visoke dostupnosti (HA System)

    • Proxmox VE klaster podržava do 16 fizičkih poslužitelja u klasteru (nova verzija 4.x do 32), bez ograničenja na broj jezgri CPU-a, RAM memorije ili diskova – za svaki fizički poslužitelj.

Dodatno konfiguriran Proxmox VE klaster, omogućava “failover” Virtualki ili Linux kontejnera odnosno njihovo automatsko podizanje u slučaju kvara ili održavanja fizičkog poslužitelja u klasteru. To se u pozadini odrađuje automatskim pokretanjem na drugom (ispravnom) fizičkom poslužitelju, automatizirano i bez naše intervencije.

Slika : Odabir virtualke ili Linux kontejnera koju/kojeg označavamo kao HA (otpornog na kvar bilo kojeg fizičkog poslužitelja )

ProxMox-HA-node

 

Slika: Pogleda na cijeli Proxmox VE klaster i sve virtualke i linux kontejnere koji su označeni kao HA (pogledajte HA Service Status – vidimo dvije virtualke il linux kontejnera (110 i 111) označena kao HA):

ProxMox-HA-Service-Status

 

  • ### **Migracija virtualki ili linux kontejnera sa fizičkog poslužitelja na drugi fizički poslužitelj

**

  *    Moguća je i ručna “**live**” **migracija** bilo kojeg (pojedinog) virtualnog računala ili Linux kontejnera koji je pokrenut na bilo kojem fizičkom poslužitelju unutar klastera, na drugi fizički poslužitelj  (prema želji), uključujuči i stanje RAM memorije.

Ovo se koristi primjerice  u slučajevima planiranog održavanja/gašenja pojedinog fizičkog poslužitelja. Važna osobina ove funkcionalnosti su  minimalni zastoji u radu željene virtualke ili linux kontejnera koji se prebacuje na drugi fizički server, u tijeku migracije.

Slika: Odabir virtualke ili linux kontejnera (br. 116) na Proxmox VE poslužitelju (prox01) koji želimo “na živo” migrirati na Proxmox VE poslužitelj prox02:

ProxMox-Migrate

 

  • Proxmox VE napredni Mrežni model  podržava:

    • Firewall na razini :
      • Cijelog klastera,
      • Pojedinog  fizičkog poslužitelja unutar klastera,
      • Pojedinog virtualnog računala ili Linux kontejnera
    • Linux model :
      • Bridge,
      • Linux Bond (LACP, Balance-RR, Active backup, balance-xor, balance-tlb , balance-alb),
      • VLAN-ove i za Bridge i za Bond mod rada
    • Open vSwitch model:
      • Bridge
      • Bond (LACP-balance SLB , LACP-balance-tcp, active-backup, balance-slb)
      • VLAN-ove i za Bridge i za Bond mod rada
      • Podržava i mnoge druge protokole (NetFlow, sFlow, SPAN, RSPAN, STP, Multiple Tunneling protocols,…)

Mrežni model nam omogućava i izolacije mreža – standardno pomoću VLAN-ova u kombinaciji s konfiguracijom mrežne opreme.

To nam daje potpunu izolaciju ali nam ne nudi (barem ne na jadnostavan način ) kreiranje nečega što bi bio “Virtual Private Cloud” u punom smislu rijeći.

S druge strane kome stvarno treba više od standardnih 1024 ili 4096 potpuno izoliranih VLAN-ova sa proizvoljnim odabirom IP adresnog prostora za svaki od njih.

 

… govorimo ipak o okruženju za sve koji nemaju svoj podatkovni centar, pa su bili potrebni i neki kompromisi   :-).

 

 

  • Proxmox VE podržava mnoge NAS ili SAN sustave za pohranu podataka  

    Na dolje odabranim sustavima za pohranu podataka možete pohranjivati:

  • same virtualke,
  • Linux kontejnere,
  • ISO image-a,
  • Template-a ili
  • Backupe  i sl.
  <p>
    &nbsp;
  </p>

  <p>
    &nbsp;
  </p>

  <p>
    &nbsp;
  </p>

  <p>
    Sve ovisi o vašim potrebama.
  </p>

  <p>
    Što je trenutno dostupno kao sustav za pohranu podataka:
  </p>

  <p>
    &nbsp;
  </p>

  <ul>
    <ul>
      <li>
        LVM (Linux LVM2) za bilo koji “Block Device” ili lokalni disk
      </li>
      <li>
        iSCSI
      </li>
      <li>
        NFS
      </li>
      <li>
        CEPH RBD
      </li>
      <li>
        GlusterFS
      </li>
      <li>
        Directory (vidljivo kao direktorij na lokalno disku)
      </li>
      <li>
        ZFS
      </li>
    </ul>
  </ul>

  <p>
    Slika: Dodavanje &#8220;storage-a&#8221; u klaster  &#8211; za cijeli klaster ili samo za željene Proxmox VE poslužitelje:
  </p>

  <p>
    <img class="alignnone size-full wp-image-2210" src="https://i1.wp.com/www.opensource-osijek.org/wordpress/wp-content/uploads/2016/06/ProxMox-Add-Storage.jpg?resize=187%2C357&#038;ssl=1" alt="ProxMox-Add-Storage" width="187" height="357" srcset="https://i1.wp.com/www.opensource-osijek.org/wordpress/wp-content/uploads/2016/06/ProxMox-Add-Storage.jpg?w=187&ssl=1 187w, https://i1.wp.com/www.opensource-osijek.org/wordpress/wp-content/uploads/2016/06/ProxMox-Add-Storage.jpg?resize=79%2C150&ssl=1 79w, https://i1.wp.com/www.opensource-osijek.org/wordpress/wp-content/uploads/2016/06/ProxMox-Add-Storage.jpg?resize=157%2C300&ssl=1 157w" sizes="(max-width: 187px) 100vw, 187px" data-recalc-dims="1" />
  </p>

  <p>
    Od gore vidljivih NAS/SAN sustava, neki su razvijani kao redundantni i distribuirani &#8211; poput :
  </p>

  <ul>
    <li>
      <a href="https://en.wikipedia.org/wiki/GlusterFS">GlusterFS</a> ,
    </li>
    <li>
      <strong>RBD</strong> &#8211; CEPH <a href="http://ceph.com/ceph-storage/block-storage/">Rados Block Device</a> &#8211; pogledajte kako integrirati <a href="https://en.wikipedia.org/wiki/Ceph_(software)">CEPH</a> kao visoko distribuirani clusterizirani, redundantni sustav za pohranu podataka ( za virtualke i linux kontejnere ) :  &#8211;> <strong><sub>dokument je u izradi:</sub></strong>  <a href="https://www.opensource-osijek.org/dokuwiki/wiki:knjige:ceph-storage">https://www.opensource-osijek.org/dokuwiki/wiki:knjige:ceph-storage</a>
    </li>
    <li>
      Moguće je koristiti i <a href="https://www.drbd.org/en/">DRBD</a> ili <a href="https://www.linbit.com/en/p/products/drbd9">DRBD9</a> ali kao sloj ispod ili kao mrežnu komponentu (na drugim poslužiteljima), lokalno vidljivu kao <strong>Direktorij </strong>ili  direktno kao <strong>NFS</strong> ili <strong>iSCSI</strong>.
    </li>
  </ul>

  <p>
    &nbsp;
  </p>

  <p>
    &nbsp;
  </p>

  <p>
    &nbsp;
  </p>

  <p>
    <span style="color: #ff0000;"><strong>Osim svega navedenog tu su nam dostupni i deseci drugih naprednih mogućnosti te dodatne mogućnosti optimizacije svakog dijela sustava, prema hardveru ili vašim potrebama.</strong></span>
  </p>

  <p>
    &nbsp;
  </p>

  <p>
    &nbsp;
  </p>

  <h1>
    Podrška
  </h1>

  <p>
    Proxmox VE platforma, iako je razvijena i razvija se prema licenci otvorenog koda te je samim time dostupna svima na korištenje, nudi i komercijalnu podršku u nekoliko modela.
  </p>

  <p>
    &nbsp;
  </p>

  <p>
    Osnovni komercijslni modeli su vidljivi na slici dolje:
  </p>

  <p>
    <img class="alignnone size-full wp-image-2211" src="https://i1.wp.com/www.opensource-osijek.org/wordpress/wp-content/uploads/2016/06/Proxmox-VE-pricing.jpg?resize=1051%2C408&#038;ssl=1" alt="Proxmox VE - pricing" width="1051" height="408" srcset="https://i1.wp.com/www.opensource-osijek.org/wordpress/wp-content/uploads/2016/06/Proxmox-VE-pricing.jpg?w=1051&ssl=1 1051w, https://i1.wp.com/www.opensource-osijek.org/wordpress/wp-content/uploads/2016/06/Proxmox-VE-pricing.jpg?resize=150%2C58&ssl=1 150w, https://i1.wp.com/www.opensource-osijek.org/wordpress/wp-content/uploads/2016/06/Proxmox-VE-pricing.jpg?resize=300%2C116&ssl=1 300w, https://i1.wp.com/www.opensource-osijek.org/wordpress/wp-content/uploads/2016/06/Proxmox-VE-pricing.jpg?resize=768%2C298&ssl=1 768w, https://i1.wp.com/www.opensource-osijek.org/wordpress/wp-content/uploads/2016/06/Proxmox-VE-pricing.jpg?resize=1024%2C398&ssl=1 1024w" sizes="(max-width: 1000px) 100vw, 1000px" data-recalc-dims="1" />
  </p>

  <p>
    &nbsp;
  </p>

  <p>
    Nekako s terminom ovog predavanja dobili smo i tvrtku (našeg partnera) koja je postala partner i distributer Proxmox VE platforme za Hrvatsku:
  </p>

  <p>
    &nbsp;
  </p>

  <p>
    <a href="https://www.proxmox.com/en/partners/reseller/category/croatia"><img class="alignnone size-full wp-image-2212" src="https://i1.wp.com/www.opensource-osijek.org/wordpress/wp-content/uploads/2016/06/suma-informatika-logo_1bf414a8457a9e8760240f8e11afe8251.png?resize=150%2C90&#038;ssl=1" alt="suma-informatika-logo_1bf414a8457a9e8760240f8e11afe825[1]" width="150" height="90" data-recalc-dims="1" /></a>
  </p>

  <p>
    &nbsp;
  </p>

  <p>
    Dakle od sada za komercijalnu podršku za Proxmox VE platformu možete kontaktirati tvtrku:
  </p>

  <p>
    &nbsp;
  </p>

  <p>
    <strong>Suma informatika</strong>
  </p>

  <p>
    Badalićeva 27
  </p>

  <p>
    <strong>1</strong>0000 Zagreb
  </p>

  <p>
    <a href="http://www.suma-informatika.hr/">http://www.suma-informatika.hr/</a>
  </p>

  <p>
    &nbsp;
  </p>

  <p>
    &nbsp;
  </p>
Hrvoje Horvat avatar
Hrvoje Horvat
Hrvoje Horvat mrežni je i sistem inženjer s dugogodišnjim (18+ g.) iskustvom u razvoju, testiranju i implementaciji, od najmanjih do enterprise kategorije IT sustava. Njegova područja rada su od mrežnih protokola do mrežnih servisa, preko standardne mrežne opreme do specijaliziranih komponenti i sustava, preko raznih mrežnih elemenata i sustava za mrežnu pohranu i dijeljenje podataka te platformi za Virtualizaciju, do protokola i sustava za redundanciju te sustava visoke dostupnosti (HA).