Crearea unui cluster de failover de înaltă disponibilitate pe Windows. Cerințe hardware. Instalarea Active Directory

Astăzi, procesele de afaceri ale multor companii sunt complet legate de informații
tehnologii. Odată cu dependența tot mai mare a organizațiilor de munca de calcul
rețelele, disponibilitatea serviciilor în orice moment și sub orice sarcină joacă un rol important
rol. Un computer poate oferi doar un nivel inițial de fiabilitate și
scalabilitate, nivelul maxim poate fi atins prin combinare
un singur sistem de două sau mai multe computere - un cluster.

De ce ai nevoie de un cluster?

Clusterele sunt folosite în organizațiile care au nevoie de 24 de ore și
disponibilitatea neîntreruptă a serviciilor și în cazul în care orice întreruperi în muncă sunt nedorite și
inacceptabil. Sau în cazurile în care există o posibilă creștere a sarcinii, ceea ce poate
nu pot face față serverul principal, apoi suplimentar
gazde care îndeplinesc de obicei alte sarcini. Pentru server de mail, prelucrare
zeci și sute de mii de scrisori pe zi sau un server web care servește
magazine online, utilizarea clusterelor este foarte de dorit. Pentru utilizator
un astfel de sistem rămâne complet transparent - întregul grup de calculatoare va
arata ca un singur server. Folosind mai multe, chiar mai ieftine,
computerele vă permite să obțineți avantaje foarte semnificative față de un singur
și un server rapid. Aceasta este o distribuție uniformă a cererilor primite,
toleranță crescută la erori, deoarece atunci când un element se defectează, sarcina acestuia
preluați alte sisteme, scalabilitate, întreținere convenabilă și înlocuire
noduri de cluster și multe altele. Eșecul unui nod automat
este detectată și încărcarea este redistribuită, toate acestea rămân pentru client
neobservat.

Caracteristici Win2k3

În general, unele clustere sunt concepute pentru a îmbunătăți disponibilitatea datelor,
altele – pentru a asigura performanță maximă. În contextul articolului noi
va fi de interes MPP (Procesare paralelă masivă)— clustere, în
în care aplicații similare rulează pe mai multe computere, oferind
scalabilitatea serviciilor. Există mai multe tehnologii care permit
distribuiți sarcina între mai multe servere: redirecționarea traficului,
traducerea adresei, DNS Round Robin, utilizarea de special
programe
, lucrând la nivel de aplicație, cum ar fi acceleratoarele web. ÎN
Win2k3, spre deosebire de Win2k, suportul pentru clustering este inclus inițial și
sunt acceptate două tipuri de clustere, care diferă în aplicații și specificități
date:

1. clustere NLB (Network Load Balancing).- asigura
scalabilitate și disponibilitate ridicată a serviciilor și aplicațiilor bazate pe protocoale TCP
și UDP, combinând până la 32 de servere cu același set de date într-un singur cluster, activat
rulează aceleași aplicații. Fiecare cerere este executată ca
tranzacție separată. Obișnuit să lucreze cu seturi de schimbare rar
date, cum ar fi WWW, ISA, Terminal Services și alte servicii similare.

2. Clustere de servere– pot uni până la opt noduri, principalele lor
Scopul este de a asigura disponibilitatea aplicației în timpul eșecului. Constă din active și
noduri pasive. Nodul pasiv stă inactiv de cele mai multe ori, jucând un rol
rezerva nodului principal. Pentru aplicații individuale este posibilă personalizarea
niste servere active, repartizând sarcina între ele. Ambele noduri
conectat la un singur depozit de date. Pentru operare este folosit un cluster de servere
Cu volume mari date care se schimbă frecvent (e-mail, fișier și
servere SQL). Mai mult, un astfel de cluster nu poate consta din noduri care rulează sub
gestionarea diferitelor opțiuni Win2k3: Enterprise sau Datacenter ( versiuni webȘi
Clusterele standard de servere nu sunt acceptate).

ÎN Microsoft Application Center 2000(și numai) mai era un fel
cluster - CLB (echilibrarea sarcinii componentelor), oferind oportunitatea
distributie aplicații COM+ între mai multe servere.

clustere NLB

Când utilizați echilibrarea sarcinii, a
un adaptor de rețea virtuală cu propria sa adresă IP și MAC independentă de cea reală.
Această interfață virtuală reprezintă clusterul ca un singur nod, clienți
îl contactează exact adresa virtuală. Toate cererile sunt primite de toată lumea
nodul cluster, dar sunt procesate de unul singur. Se rulează pe toate nodurile
Serviciul de echilibrare a sarcinii în rețea
,
care, folosind un algoritm special care nu necesită schimb de date între
noduri, decide dacă un anumit nod trebuie să proceseze o cerere sau
Nu. Schimb de noduri mesaje ale bătăilor inimii arătându-le
disponibilitate. Dacă gazda nu mai emite bătăile inimii sau apare un nou nod,
nodurile rămase încep proces de convergenţă, din nou
redistribuirea sarcinii. Echilibrarea poate fi implementată în unul din două moduri
moduri:

1) unicast– unicast atunci când în loc de un MAC fizic
Este utilizat MAC-ul adaptorului de cluster virtual. În acest caz, nodurile cluster nu sunt
pot face schimb de date între ele folosind adrese MAC numai prin IP
(sau un al doilea adaptor care nu este asociat cu clusterul);

Doar unul dintre aceste moduri ar trebui utilizat într-un singur cluster.

Poate fi personalizat mai multe clustere NLB pe un adaptor de rețea,
specificarea regulilor specifice pentru porturi. Astfel de grupuri sunt numite virtuale. Al lor
aplicația face posibilă setarea pentru fiecare aplicație, nod sau adresă IP
anumite computere din clusterul principal sau blocați traficul pentru
unele aplicații fără a afecta traficul pentru alte programe care rulează
pe acest nod. Sau, invers, o componentă NLB poate fi legată de mai multe
adaptoare de rețea, care vă vor permite să configurați un număr de clustere independente pe fiecare
nodul. De asemenea, ar trebui să știți că configurați clustere de servere și NLB pe același nod
nu este posibil deoarece funcționează diferit cu dispozitivele de rețea.

Administratorul poate face un fel de configurație hibridă care are
avantajele ambelor metode, de exemplu, prin crearea unui cluster NLB și configurarea replicării
date între noduri. Dar replicarea nu se realizează în mod constant, ci din când în când,
prin urmare, informațiile despre diferite noduri vor diferi pentru un timp.

Să terminăm cu teoria aici, deși putem vorbi despre construirea clusterelor
pentru o lungă perioadă de timp, enumerarea posibilităților și modalităților de a construi, oferind diverse
recomandări și opțiuni pentru implementarea specifică. Să lăsăm toate aceste subtilități și nuanțe
pentru auto-studiu și să trecem la partea practică.

Configurarea unui cluster NLB

Pentru organizarea clusterelor NLB nu este nevoie de software suplimentar, asta e tot
produs folosind instrumentele Win2k3 disponibile. Pentru a crea, întreține și monitoriza
Clusterele NLB folosesc componenta „Manager de echilibrare a sarcinii în rețea”
(Manager de echilibrare a sarcinii în rețea)
, care se află în filă
„Administrare” „Panou de control” (comandă NLBMgr). Din moment ce componenta
„Network Load Balancing” este instalat ca driver de rețea Windows standard,
Instalarea NLB poate fi efectuată și folosind componenta „Conexiuni de rețea”, în
unde este disponibil articolul corespunzător. Dar este mai bine să-l folosești doar pe primul
opțiune, utilizarea simultană a managerului NLB și „Conexiuni de rețea”
poate duce la rezultate imprevizibile.

NLB Manager vă permite să configurați și să gestionați munca dintr-un singur loc simultan
mai multe clustere și noduri.

De asemenea, este posibil să instalați un cluster NLB pe un computer cu o singură rețea
adaptor asociat cu Network Load Balancing, dar acesta
caz, în modul unicast, managerul NLB de pe acest computer nu poate fi
folosit pentru a controla alte noduri, iar nodurile în sine nu pot face schimb
informații unul cu celălalt.

Acum sunăm la dispeceratul NLB. Nu avem încă clustere, deci ce a apărut
fereastra nu conține nicio informație. Selectați „Nou” din meniul „Cluster” și
Începem să completăm câmpurile din fereastra „Parametri cluster”. În câmpul „Setări”.
Parametri IP Cluster" introduceți valoarea adresei IP virtuale a clusterului, masca
subrețea și numele complet. Valoarea adresei MAC virtuale este setată
automat. Chiar mai jos selectăm modul de funcționare al clusterului: unicast sau
multicast. Acordați atenție casetei de selectare „Permiteți controlul de la distanță” - în
toata lumea documente Microsoft recomandă insistent să nu-l folosiți în
evitarea problemelor de securitate. În schimb, ar trebui să utilizați
dispecer sau alte mijloace telecomandă, de exemplu trusa de instrumente
Windows Management (WMI). Dacă decizia de a-l folosi este luată, ar trebui
luați toate măsurile adecvate pentru protejarea rețelei, acoperind suplimentar
firewall porturi UDP 1717 și 2504.

După ce ați completat toate câmpurile, faceți clic pe „Următorul”. În fereastra „Adrese IP Cluster”, când
dacă este necesar, adăugați adrese IP virtuale suplimentare care vor
folosit de acest cluster. În următoarea fereastră „Reguli portului”, puteți
setați echilibrarea sarcinii pentru unul sau pentru un grup de porturi din toate sau
IP selectat prin protocoale UDP sau TCP, precum și blocarea accesului la cluster
anumite porturi (care firewall nu înlocuiește). Cluster implicit
procesează cererile pentru toate porturile (0–65365); Este mai bine să limitezi această listă,
adăugând doar ceea ce este cu adevărat necesar. Deși, dacă nu vrei să te încurci,
poți lăsa totul așa cum este. Apropo, în Win2k implicit tot traficul
direcționat către cluster, a procesat doar nodul care a avut cea mai mare prioritate,
nodurile rămase au fost conectate numai atunci când cel principal a eșuat.

De exemplu, pentru IIS va trebui să activați doar porturile 80 (http) și 443 (https).
Mai mult, puteți face astfel încât, de exemplu, conexiunile protejate să fie procesate
numai anumite servere pe care este instalat certificatul. Pentru adaugare
regulă nouă, faceți clic pe „Adăugați”, în caseta de dialog care apare, introduceți
Adresa IP a gazdei sau dacă regula se aplică tuturor, lăsați caseta de selectare
"Toate". În câmpurile „De la” și „Către” ale intervalului de porturi setăm aceeași valoare -
80. Câmpul cheie este „Modul de filtrare” - aici
precizează cine va procesa această cerere. Există trei câmpuri disponibile care definesc modul
filtrare: „Noduri multiple”, „Nod unic” și „Dezactivați acest interval de porturi”.
Selectarea „Single Node” înseamnă că traficul este direcționat către IP-ul selectat (computer
sau cluster) cu numărul de port specificat va fi procesat de nodul activ,
având indicatorul cu cea mai mică prioritate (mai multe despre asta mai jos). Selectând „Dezactivați...”
înseamnă că un astfel de trafic va fi eliminat de toți membrii clusterului.

În modul de filtrare „Noduri multiple”, puteți specifica în plus opțiunea
determina afinitatea clientului de a direcționa traficul de la un anumit client către
același nod de cluster. Există trei opțiuni: „Niciuna”, „Una” sau „Clasă”
C". Alegerea primei înseamnă că orice solicitare va primi un răspuns arbitrar
nodul. Dar nu ar trebui să-l folosiți dacă selectați Protocolul UDP sau
"Ambii". La selectarea punctelor rămase, asemănarea clienților va fi determinată de
IP specific sau interval de rețea de clasă C.

Deci, pentru regula noastră cu portul 80, să alegem opțiunea
"Noduri multiple - clasa C." Completam regula pentru 443 în același mod, dar folosiți
„Un nod”, astfel încât clientul să primească întotdeauna răspuns de către nodul principal cu cel mai mic
prioritate. Dacă dispecerul detectează o regulă incompatibilă, aceasta se va afișa
mesaj de avertizare, suplimentar în jurnal evenimente Windows va fi introdus
intrarea corespunzătoare.

Apoi, conectați-vă la nodul viitorului cluster introducând numele sau IP-ul real și
Determinăm interfața care va fi conectată la rețeaua cluster. În fereastra Opțiuni
nod" selectați prioritatea din listă, specificați setari de retea, setați inițiala
starea nodului (în rulare, oprit, întrerupt). Prioritate în același timp
este un identificator unic de nod; cu cât numărul este mai mic, cu atât este mai mare prioritatea.
Nodul cu prioritate 1 este serverul master, care primește în primul rând
pachete și acționând ca un manager de rutare.

Caseta de selectare „Salvare stare după repornirea computerului” vă permite
eșecul sau repornirea acestui nod îl va pune în funcțiune automat. După ce faceți clic
Pe „Gata”, o intrare despre noul cluster va apărea în fereastra Manager, în care pentru moment
există un singur nod.
Adăugarea următorului nod este la fel de ușoară. Selectați „Adăugați nod” din meniu sau
„Conectați-vă la existent”, în funcție de computer
se face conexiunea (este deja parte a clusterului sau nu). Apoi în fereastră
indicați numele sau adresa computerului, dacă drepturile de conectare sunt suficiente, nou
nodul va fi conectat la cluster. La început, pictograma de lângă numele lui va fi
diferit, dar când procesul de convergență este finalizat, acesta va fi același ca
primul computer.

Deoarece dispecerul afișează proprietățile nodurilor în momentul conexiunii sale, pt
Pentru a clarifica starea curentă, selectați clusterul și în meniul contextual elementul
"Actualizați". Managerul se va conecta la cluster și va afișa datele actualizate.

După instalare cluster NLB nu uitați să schimbați înregistrarea DNS în
rezoluția numelui arăta acum IP-ul clusterului.

Modificarea încărcării serverului

În această configurație, toate serverele vor fi încărcate uniform (cu excepția
Opțiunea „Un nod”). În unele cazuri, este necesară redistribuirea sarcinii,
plasarea cea mai mare parte a lucrării pe unul dintre noduri (de exemplu, cel mai puternic).
Pentru un cluster, regulile pot fi modificate după ce au fost create selectând
în meniul contextual care apare când faceți clic pe nume, selectați elementul „Proprietăți cluster”.
Toate setările despre care am vorbit mai sus sunt disponibile aici. Articol din meniu
„Proprietățile nodului” oferă puțin mai multe opțiuni. În „Opțiuni nod”
puteți modifica valoarea de prioritate pentru un anumit nod. În „Reguli
pentru porturi" nu puteți adăuga sau șterge o regulă; aceasta este disponibilă doar la nivel
cluster. Dar, alegând să edităm o anumită regulă, avem ocazia
ajustați unele setări. Deci, cu modul de filtrare setat
„Noduri multiple” elementul „Estimarea încărcării” devine disponibil, permițând
redistribuiți sarcina către un anumit nod. Valoarea implicită este bifată
„Egal”, dar în „Estimarea încărcăturii” puteți specifica o valoare de încărcare diferită pentru
nod specific, ca procent din sarcina totala cluster. Dacă modul este activat
filtrarea „Nod unic”, în această fereastră apare un nou parametru „Prioritate”.
prelucrare." Folosind-o, puteți face trafic către un anumit port
va fi procesat mai întâi de un nod al clusterului, iar la altul de către alții
nod.

Înregistrare evenimente

După cum am menționat mai devreme, Network Load Balancing înregistrează toate
acțiunile cluster și modificările în jurnalul de evenimente Windows. Sa ii vedem
selectați „Event Viewer – System”, NLB include mesaje WLBS (de la
Serviciul de echilibrare a încărcăturii Windows, așa cum a fost numit acest serviciu în NT). În plus, în
se afișează fereastra dispecerului Ultimele mesaje, care conține informații despre eroare
și despre toate modificările de configurare. În mod implicit, această informație nu este
este salvat. Pentru ca acesta să fie scris într-un fișier, selectați „Opțiuni ->
Opțiuni de înregistrare”, bifați caseta de selectare „Activați înregistrarea” și specificați un nume
fişier. Fișier nou va fi creat într-un subdirector al contului dvs. în Documente
și Setări.

Configurarea IIS cu replicare

Un cluster este un cluster, dar fără un serviciu nu are sens. Prin urmare, să adăugăm IIS (Internet
Servicii de informare)
. Server IIS incluse în Win2k3, dar să se reducă la
minimizează posibilitatea atacurilor asupra serverului; acesta nu este instalat implicit.

Există două moduri de a instala IIS: prin Panoul de control sau
vrăjitorul de gestionare a rolurilor pentru acest server. Să ne uităm la primul. Să mergem la
„Panou de control - Adăugați sau eliminați programe” ( Panou de control— Adăugați sau
Eliminați programe), selectați „Instalare Componentele Windows» (Adăugați/Eliminați Windows
Componente). Acum accesați elementul „Server de aplicații” și verificați „Servicii”
IIS" este tot ce ai nevoie. În mod implicit, directorul de lucru al serverului este \Inetpub\wwwroot.
Odată instalat, IIS poate scoate documente statice.

Tehnologiile informaționale se dezvoltă rapid, dacă anterior virtualizarea și clusterele erau domeniul marilor organizații, astăzi aceste tehnologii devin chiar disponibile mici afaceri. Virtualizarea vă permite să economisiți semnificativ resursele hardware, dar în același timp impune cerințe mult mai serioase privind toleranța la erori, așa că trebuie luate măsurile necesare pentru a o asigura chiar și în faza de planificare. Una dintre aceste măsuri este crearea cluster de failover.

Să începem cu faptul că termenul tolerant la greșeli neaplicabil în totalitate soluțiilor cluster, a apărut ca urmare a unei traduceri incorecte a termenului cluster de failover. Traducerea corectă este cu failover, deși astăzi se folosește din ce în ce mai mult un alt termen - Valabilitate ridicată, care, în opinia noastră, reflectă cel mai exact esența problemei.

Pentru a înțelege de ce clusterul nu este tolerant la erori, să aruncăm o privire mai atentă asupra designului și schemei sale de funcționare. Să clarificăm imediat faptul că clusterele sunt utilizate nu numai pentru a asigura toleranța la erori; putere de calcul. Cu toate acestea, în cadrul acestui material vom vorbi în mod specific despre clustere cu înaltă disponibilitate.

Schema clasică de cluster conține cel puțin două noduri și stocare partajată, interconectate prin mai multe conexiuni de rețea.

În primul rând, aceasta este rețeaua de servicii cluster pentru transmisia semnalului „puls” (bătăi ale inimii), prin care clusterul monitorizează starea nodurilor sale (indicate cu roșu în diagramă), rețeaua de stocare (SAN, albastru), în solutii low-cost Acesta este cel mai adesea iSCSI printr-o rețea Ethernet separată, dar poate fi și FibreChanell sau alte tehnologii. Pentru a servi clienții, clusterul este conectat la o rețea locală existentă.

Conform schemei de operare, nodurile pot funcționa în modul activ pasiv sau activ-activ. În primul caz, toate cererile clientului sunt deservite de unul dintre noduri, al doilea nod intră în funcțiune numai dacă primul eșuează. A doua opțiune implică procesarea solicitărilor clientului de către ambele noduri, în timp ce este, de asemenea, posibilă efectuarea de echilibrare a sarcinii și creșterea resurselor de calcul prin adăugarea de noi noduri de cluster. Dacă unul dintre noduri eșuează, cererile clientului sunt procesate de nodurile rămase.

Un punct important este că fiecare cerere de client este deservită doar de unul dintre nodurile clusterului și, dacă eșuează, clienților conectați li se va refuza serviciul, dar pot trece imediat la nodurile disponibile rămase. De aceea, o astfel de schemă nu este tolerantă la erori, o defecțiune a nodului provoacă o refuzare a serviciului, dar clientul se poate conecta întotdeauna la un alt nod de lucru, care implementează schema de disponibilitate ridicată a serviciului.

Cititorul atent ar trebui să acorde atenție existenței unui punct de defecțiune în diagrama de mai sus - stocare. Într-adevăr, pentru a obține o disponibilitate ridicată, stocarea trebuie, de asemenea, să fie tolerantă la erori sau foarte disponibilă. Acest lucru poate fi implementat fie prin achiziționarea de modele hardware sau software speciale, inclusiv cele bazate pe software open source.

Dacă iSCSI este utilizat ca stocare, atunci rețeaua de servicii cluster și rețeaua de stocare pot fi combinate. Dar, în același timp, mai avem un punct de eșec - rețeaua, așa că în sistemele critice ar trebui să folosim cel puțin două rețele pentru a accesa SAN. Pe lângă creșterea fiabilității, această abordare vă permite să creșteți debitul, ceea ce este, de asemenea, important.

Este imposibil să nu menționăm soluții software, permițându-vă să creați un cluster de failover pe doar două noduri, folosindu-l ca SAN stocare virtuală. De exemplu, StarWind Virtual SAN, care creează stocare virtuală iSCSI pe baza discuri locale fiecare dintre noduri. Acest lucru vă permite să reduceți costul creării și găzduirii stocării tolerante la erori, dar în același timp crește cerințele pentru performanța rețelei între nodurile cluster, deoarece atunci când scrieți pe disc, toate modificările sunt sincronizate imediat între noduri.

După ce creați un cluster, acesta va apărea în mediu de rețea ca o altă gazdă cu propriul nume și adresă IP. După care va trebui să implementăm roluri foarte disponibile pe acesta. Acestea pot fi servere de fișiere, SQL sau Exchange, precum și alte aplicații care acceptă clustering. Fiecare rol de cluster de failover apare, de asemenea, în rețea ca o gazdă separată pe care o accesează clienții. În același timp, clientul nu are idee care nod își execută cererea în caz de eșec, de exemplu, din cauza eșecului unuia dintre noduri, va trebui doar să repete cererea către serviciu;

În prezent, clusterele sunt din ce în ce mai folosite pentru sistemele de virtualizare în acest caz, mașinile virtuale sunt distribuite manual de către administrator între noduri, ținând cont de resursele lor de calcul. Pentru fiecare mașină virtuală, nodurile disponibile sunt indicate în ordinea descrescătoare a priorității. Acest lucru vă permite să evitați mașinile virtuale care necesită mult resurse care rulează pe noduri slabe. Dacă unul dintre nodurile clusterului se oprește corect, toate mașinile virtuale care rulează pe el sunt transferate către alte noduri fără a se opri sau întrerupe folosind mecanisme de migrare live.

Dacă un nod eșuează, toate mașinile virtuale care rulează pe el vor fi repornite pe alte noduri, conform priorității stabilite.

Pentru a evita încărcarea excesivă a rețelei de stocare și stocare, puteți seta o întârziere de recuperare în setările mașinilor virtuale, astfel încât mașinile virtuale critice să poată fi repornite imediat, cele neesențiale - după ceva timp.

În materialele noastre următoare ne vom uita la implementarea practică a unui cluster de failover bazat pe Hyper-V.

  • Etichete:

Vă rugăm să activați JavaScript pentru a vizualiza

Obiectivul principal al articolului este să arate clar cum să implementezi un cluster de failover MS SQL Server 2012. Materialul este scris și va fi interesant pentru începători. Guru cu experiență și toți cei care sunt deja familiarizați cu această problemă este puțin probabil să găsească ceva nou și util pentru ei înșiși.

Sarcina cu care ne confruntăm este să ne asigurăm funcţionare neîntreruptăși disponibilitate ridicată a bazei de date într-o implementare client-server.

Etapa 1 – Pregătire

Cerințe de bază hardware și software:

  • Disponibilitate a minim 2 noduri (fizice/virtuale), sisteme de stocare
  • DOMNIȘOARĂ Windows Server, DOMNIȘOARĂ. SQL Server Sistem de stocare
  • Sistem de stocare
    1. Disc iSCSI disponibil pentru baze de date
    2. Disc iSCSI disponibil pentru MSDTC
    3. Disc de cvorum

Stand de testare:

  • Windows Server 2012R2 cu roluri AD DS, DNS, DHCP (WS2012R2AD)
  • Stocare iSCSI*
  • 2xWindows Server 2012R2 (pentru cluster WS2012R2C1 și WS2012R2C2)
  • Windows Server 2012R2 cu serviciul server 1C lansat (WS2012R2AC)

*ca opțiune, puteți utiliza Rolul de stocare activat Windows Server 2012R2, soluție software de la StarWind sau real dispozitiv de rețea iSCSI

Tehnic, te poți descurca cu 3 servere combinând toate rolurile necesare pe un controler de domeniu, dar în condiții de teren acest lucru nu este recomandat.

În primul rând, introducem serverele WS2012R2C1 și WS2012R2C2 în domeniu și instalăm rolul „Failover Clustering” pe fiecare dintre ele.
După instalarea rolului, lansați snap-in-ul Failover Cluster Manager și mergeți la Expertul de creare a clusterului unde configuram clusterul nostru de failover: creați Quorum (resursă partajată) și MSDTC (iSCSI).

Etapa 2 - Instalarea MS SQL Server

Pentru instalare avem nevoie distributia instalatiei MS SQL Server. Să lansăm vrăjitorul de instalare și să selectăm opțiunea de a instala o nouă instanță de cluster:

Citim cu atenție și acceptăm acordul de licență:

Primim actualizări disponibile:

Trecem verificarea configurației (sărim Avertisment MSCS):

Selectați opțiunea țintă de instalare:

Selectăm componentele de care avem nevoie (pentru sarcina în cauză sunt suficiente cele de bază):

O altă verificare a configurației instalării:

Verificarea spatiului disponibil:

Selectați un disc pentru locația bazelor de date cluster:

Configurarea interfeței de rețea în cluster (se recomandă să specificați manual adresa):

Specificați detaliile administratorului (puteți crea un utilizator separat pentru MSSQL):

Unul dintre etape importante- această alegere a ordinii de sortare (Collation) după instalare este extrem de problematică de schimbat:

Parametrii de autentificare pe server (în cazul nostru, a fost selectată o opțiune mixtă, deși este mai sigur să folosiți doar autentificarea domeniului):

Selectarea directoarelor de stocare fișiere partajate cluster (în versiunile MS SQL Server 2012 și mai vechi, TempDB poate fi stocat pe fiecare nod și nu poate fi transferat în stocarea partajată):

Încă câteva verificări:



În cele din urmă, începem instalarea (procesul poate dura mult timp):

Configurarea și instalarea nodului de bază este completă, așa cum este indicat de raportul „verde”.

Etapa 3 - adăugarea unui al doilea nod la clusterul MSSQL

Apoi, trebuie să adăugați un al doilea nod la cluster, deoarece Fără el, nu este nevoie să vorbim despre toleranța la erori.
Configurarea și instalarea sunt mult mai ușoare. Pe al doilea server (VM) lansăm asistentul de instalare MS SQL Server:

  • Trecem testul de pornire
  • Introduceți cheia de licență:
  • Citiți și acceptați acordul de licență:
  • Primim actualizări:
  • Trecem teste pentru a îndeplini cerințele pentru instalarea unui nod (avertisment MSCS - skip):

Selectați la ce cluster să adăugați nodul:

Vedem și acceptăm setările de rețea ale instanței cluster:

Specificați utilizatorul și parola (la fel ca în prima etapă):

Din nou teste și proces de instalare:

La finalizare, ar trebui să obținem următoarea imagine:

Felicitări, instalarea este finalizată.

Etapa 4 - verificarea performanței

Să ne asigurăm că totul funcționează așa cum trebuie. Pentru a face acest lucru, accesați snap-inul Failover Cluster Manager:

În momentul de față folosim cel de-al doilea nod (WS2012R2C2 în caz de defecțiune, vom trece la primul nod (WS2012R2C1);
Să încercăm să ne conectăm direct la clusterul de servere MSSQL pentru aceasta vom avea nevoie de orice computer din rețeaua de domeniu cu Management Studio MSSQL instalat. La pornire, specificăm numele clusterului și utilizatorului nostru (sau părăsim autorizarea domeniului).

Deja în etapa de planificare a viitoarei infrastructuri virtuale, ar trebui să vă gândiți să asigurați o disponibilitate ridicată a mașinilor dumneavoastră virtuale. Dacă într-o situație normală indisponibilitatea temporară a unuia dintre servere poate fi totuși acceptabilă, atunci dacă gazda Hyper-V se oprește, o parte semnificativă a infrastructurii va fi inaccesibilă. În legătură cu aceasta, complexitatea administrării crește brusc - opriți sau reporniți gazda în timp de lucru Este aproape imposibil și, în cazul unei defecțiuni hardware sau software, vom ajunge la o urgență la nivel de întreprindere.

Toate acestea pot diminua serios entuziasmul pentru beneficiile virtualizării, dar există o cale de ieșire și constă în crearea unui cluster de înaltă disponibilitate. Am menționat deja că termenul „tolerant la erori” nu este în întregime corect și, prin urmare, astăzi este folosită din ce în ce mai mult o altă caracteristică, care reflectă mai exact starea de fapt - „foarte disponibilă”.

Pentru a crea un sistem complet tolerant la erori, este necesar să se elimine orice puncte de defecțiune, care în majoritatea cazurilor necesită investiții financiare serioase. În același timp, majoritatea situațiilor permit prezența unor puncte de defecțiune dacă eliminarea consecințelor eșecului lor va costa mai puțin decât investiția în infrastructură. De exemplu, puteți abandona stocarea costisitoare tolerantă la erori în favoarea a două servere ieftine cu un număr suficient de coșuri, dintre care unul este configurat ca rezervă la rece, dacă primul server eșuează, pur și simplu rearanjam discurile și îl pornim pe al doilea; .

ÎN acest material vom lua în considerare cea mai simplă configurație a unui cluster de failover, constând din două noduri (noduri) SRV12R2-NODE1 și SRV12R2-NODE2, fiecare dintre acestea rulând sub Control Windows Server 2012 R2. O condiție prealabilă pentru aceste servere este utilizarea procesoarelor de la același producător, doar Intel sau doar AMD, altfel migrarea mașinilor virtuale între noduri va fi imposibilă. Fiecare nod trebuie să fie conectat la două rețele: rețeaua LAN a întreprinderii și rețeaua de stocare Date SAN.

Al doilea condiție prealabilă Pentru a crea un cluster, trebuie să aveți un Active Directory implementat în diagrama noastră, acesta este reprezentat de controlerul de domeniu SRV12R2-DC1;

Stocarea se realizeaza folosind tehnologia iSCSI si poate fi implementata pe orice platforma potrivita, in acest caz este un alt server pe Windows Server 2012 R2 - SRV12R2-STOR. Serverul de stocare poate fi conectat la rețeaua întreprinderii și poate fi membru al unui domeniu, dar aceasta nu este o cerință. Debitul rețelei de stocare trebuie să fie de cel puțin 1 Gbit/s.

Vom presupune că sistemul de operare este deja instalat pe ambele noduri, acestea sunt introduse în domeniu și conexiunile la rețea sunt configurate. Să deschidem Adăugarea de roluri și caracteristici Expertși adăugați un rol Hyper-V.

Următorul pas este adăugarea componentei Clustering de failover.

Pe pagina de configurare a comutatoarelor virtuale, selectați adaptorul de rețea care este conectat la rețeaua întreprinderii.

Migrarea mașinilor virtuale lasa-l oprit.

Lăsăm neschimbați parametrii rămași. Instalarea rolului Hyper-V va necesita o repornire, după care configuram al doilea nod în același mod.

Apoi, să trecem la serverul de stocare, cum să configurați stocarea iSCSI Bazat pe Windows Am vorbit despre Server 2012 în, dar acest lucru nu este important, puteți utiliza orice server țintă iSCSI. Pentru operatie normala cluster, va trebui să creăm cel puțin două discuri virtuale: un disc martor cvorum și un disc pentru stocarea mașinilor virtuale. Discul martor este o resursă de serviciu a clusterului, în acest articol nu vom atinge rolul și mecanismul de funcționare a acestuia este suficient să îi alocați o dimensiune minimă, în cazul nostru 1 GB.

Creați o nouă țintă iSCSI și permiteți accesul la ea de către doi inițiatori, care vor fi nodurile clusterului.

Și potriviți discurile virtuale create în acest scop.

După ce am configurat stocarea, ne vom întoarce la unul dintre noduri și vom conecta discuri din stocare. Rețineți că, dacă serverul de stocare este conectat și la rețeaua locală, atunci când vă conectați la ținta iSCSI, specificați pentru acces retea de stocare.

Inițializam și formatăm discurile conectate.

Apoi mergem la al doilea nod și, de asemenea, conectăm discurile, nu este nevoie să le formatăm, pur și simplu le atribuim aceleași litere și etichete de volum; Acest lucru nu este necesar, dar este recomandabil să faceți acest lucru de dragul uniformității setărilor, atunci când discurile identice de pe toate nodurile au aceleași denumiri, devine mult mai dificil să vă confundați și să faceți o greșeală.

Apoi vom deschide Manager Hyper-Vși să trecem la configurarea comutatoarelor virtuale. Numele lor pe ambele noduri ar trebui să fie coincid complet.

Acum suntem gata să creăm un cluster. Să lansăm echipamentul Manager de cluster de failoverși selectați o acțiune Verificați configurația.

În setările expertului, adăugați nodurile pe care le-am configurat și selectați pentru a rula toate testele.

Verificările necesită un timp considerabil, dacă apar erori, acestea trebuie corectate și verificarea repetată.

Dacă nu sunt găsite erori semnificative, expertul se va finaliza și vă va solicita să creați un cluster pe nodurile selectate.

Cu toate acestea, dacă scanarea produce avertismente, vă sfătuim să studiați raportul și să aflați ce afectează avertismentul și ce trebuie făcut pentru a-l elimina. În cazul nostru, vrăjitorul ne-a avertizat despre lipsa redundanței în conexiunile de rețea ale clusterului în mod implicit, clusterul nu utilizează rețele iSCSI, ceea ce este ușor de remediat ulterior.

La crearea unui cluster, este creat un obiect virtual pentru acesta, care are numele retelei si adresa. Le vom indica în deschidere Expert pentru crearea clusterelor.

Nu vor mai fi întrebări și vrăjitorul ne va spune că clusterul a fost creat, dând în același timp un avertisment despre absența unui disc martor.

Închideți vrăjitorul și extindeți arborele din stânga la nivel Stocare - Discuri, în acțiunile disponibile din dreapta, selectați Adăugați unitateași indicați unitățile conectate în fereastra care se deschide, în cazul nostru sunt două.

Apoi apasa Click dreapta mouse-ul pe obiectul cluster din arborele din stânga și selectați Pași suplimentari - Configurați setările pentru cvorumul clusterului.

În continuare, selectăm secvențial: Selectați Quorum Witness - Configurați Witness Diskși indicați discul creat în aceste scopuri.

Acum să setăm discul de stocare, totul este mult mai simplu cu el, doar faceți clic dreapta pe disc și specificați: Adăugați în cluster spațiu de stocare partajat.

Pentru ca discul să fie utilizat de mai mulți membri ai clusterului simultan, a CSVFS- implementarea clusterului implementată pe NTFS Sistemul de fișiere, care a apărut pentru prima dată în Windows Server 2008 R2 și vă permite să utilizați funcții precum migrarea dinamică (în direct), de exemplu. transferul unei mașini virtuale între nodurile clusterului fără a opri funcționarea acesteia.

Spațiul de stocare partajat devine disponibil pe toate nodurile de cluster din locație C:\ClusterStorage\VolumeN. Vă rugăm să rețineți că acestea nu sunt doar foldere de pe unitatea de sistem, ci puncte de montare pentru volume partajate în cluster.

După ce am terminat cu discurile, să trecem la setările de rețea, pentru aceasta mergem la secțiunea Rețele. Pentru o rețea care este conectată la rețeaua întreprinderii, indicați și Permiteți clienților să se conecteze prin această rețea. Pentru o rețea de stocare, vom pleca Permite clusterului să folosească această rețea, asigurând astfel redundanța necesară a conexiunilor la rețea.

Aceasta completează configurarea clusterului. Pentru a lucra cu mașini virtuale în cluster, ar trebui să utilizați Manager de cluster de failover, dar nu Manager Hyper-V, care este conceput pentru a gestiona mașinile virtuale situate local.

Pentru a crea o mașină virtuală, accesați secțiunea Roluri din meniul cu clic dreapta selectați Mașini virtuale - Creați o mașină virtuală, același lucru se poate face prin panou Acțiuni pe dreapta.

Mai întâi, selectați gazda pe care va fi creată mașina virtuală. Fiecare mașină virtuală rulează pe un anumit nod de cluster, migrând către alte noduri atunci când nodul său se oprește sau eșuează.

După selectarea unui nod, se va deschide Expertul de creare a mașinii virtuale standard, lucrul cu acesta nu este dificil, așa că ne vom opri doar asupra punctelor semnificative. Ca locație a mașinii virtuale Neapărat specificați unul dintre volumele partajate de cluster C:\ClusterStorage\VolumeN.

Aici ar trebui să fie și cel virtual. HDD, puteți utiliza și hard disk-urile virtuale existente, copiendu-le mai întâi în spațiul de stocare partajat.

După ce ați creat mașina virtuală, mergeți la ea Opțiuni iar la un moment dat Procesoare - Compatibilitate bifeaza casuta Transfer către calculator fizic cu o versiune diferită de procesor, aceasta va permite migrarea între noduri cu diferite modele procesoare un singur producator. Migrarea de la Intel la AMD sau invers imposibil.

Apoi du-te la Adaptor de rețea - Accelerare hardwareși asigurați-vă că opțiunile selectate sunt acceptate plăci de rețea toate nodurile cluster sau dezactivați-le.

Nu uitați să configurați acțiunile automate la pornirea și oprirea nodului, când cantitati mari Pentru mașinile virtuale, nu uitați să setați o întârziere de pornire pentru a evita încărcarea excesivă a sistemului.

După ce am terminat cu Parametrii mergi la Proprietăți mașină virtuală și indicați nodurile preferate ale proprietarilor acestui rol în ordine descrescătoare și cu prioritate, mașinile cu prioritate mai mare migrează mai întâi.

Pe marcaj Manipularea eșecului setați numărul de defecțiuni acceptabile pentru o mașină virtuală pe unitatea de timp, amintiți-vă că o defecțiune este considerată nu numai o defecțiune a nodului, ci și pierderea bătăilor inimii mașinii virtuale, de exemplu, înghețarea acesteia. În timpul configurării și testării, este logic să specificați valori mai mari.

De asemenea, configurați Restabilirea plasării, această opțiune vă permite să transferați mașinile virtuale înapoi către proprietarul cel mai preferat atunci când acesta este restabilit la funcționarea normală. Pentru a evita încărcăturile excesive, utilizați opțiunea de recuperare întârziată.

Aceasta completează configurarea mașinii virtuale, putem lansa și lucra cu ea.

Acum este momentul să testați migrarea, pentru a face acest lucru, faceți clic dreapta pe mașină și selectați Mutare - Migrare live - Selectați nodul. Mașina virtuală ar trebui să se deplaseze la nodul selectat fără a se închide.

Cum are loc migrarea într-un mediu de lucru? Să presupunem că trebuie să închidem sau să repornim primul nod pe care rulează în prezent mașina virtuală. După ce a primit o comandă de închidere, nodul inițiază transferul mașinilor virtuale:

Oprirea este suspendată până când toate mașinile virtuale au fost transferate.

Când nodul este restaurat, clusterul, dacă este activat failover-ul, va iniția proces invers, transferând mașina virtuală înapoi proprietarului preferat.

Ce se întâmplă dacă nodul care găzduiește mașinile virtuale se blochează sau repornește? De asemenea, toate mașinile virtuale se vor bloca, dar vor fi repornite imediat pe nodurile de lucru, conform listei de proprietari preferați.

După cum am spus deja, termenul „de siguranță”, care a prins rădăcini în literatura tehnică internă, este incorect și ar fi mai corect să îl traducem prin „cu gestionarea erorilor” sau să folosim conceptul de „înalt disponibilitate”, care reflectă cel mai bine starea de lucruri.

Un cluster Hyper-V nu oferă toleranță la erori mașinilor virtuale, eșecul unui nod are ca rezultat defecțiunea tuturor mașinilor găzduite pe acesta, dar vă permite să oferiți o disponibilitate ridicată pentru serviciile dvs., restabilind automat funcționarea acestora și asigurând un nivel minim; timp posibil doar eu. De asemenea, vă permite să simplificați semnificativ administrarea infrastructurii virtuale, permițându-vă să mutați mașinile virtuale între noduri fără a le întrerupe activitatea.

  • Etichete:

Vă rugăm să activați JavaScript pentru a vizualiza

În ciuda atitudinii ambigue față de Microsoft, trebuie remarcat faptul că compania a făcut accesibile tehnologiilor înalte utilizatori obișnuiți. Într-un fel sau altul, dar situatia actuala Sfera tehnologiei informației a fost nu în ultimul rând determinată de Microsoft.

Soluțiile și produsele Microsoft nu au ocupat întotdeauna imediat poziții la nivelul soluțiilor specializate, dar cele mai importante au devenit totuși treptat lideri în raportul preț/funcționalitate, precum și în ușurința implementării. Un astfel de exemplu sunt clusterele.

Dezvoltarea clusterului de calcul nu este puternică de către Microsoft. Acest lucru este dovedit, printre altele, de faptul că evoluțiile companiei nu au fost incluse în lista Top-500 de supercomputere. Prin urmare, este complet logic ca în linia Windows Server 2012 nu are ediția HPC (High-performance computing).

În plus, având în vedere caracteristicile de calcul de înaltă performanță, Platforma Windows Azure pare mai promițător. Prin urmare, Microsoft și-a concentrat atenția asupra clusterelor de înaltă disponibilitate.

Clustere în Windows.

Suportul pentru cluster a fost implementat pentru prima dată de Microsoft sistem de operareîn Windows NT 4 Server Enterprise Edition sub forma tehnologiei Microsoft Cluster Service (MSCS). În Windows Server 2008, a devenit o caracteristică de clusterizare de failover. În esență, acestea sunt clustere de failover sau clustere foarte disponibile, deși uneori nu sunt numite în mod corect tolerante la erori.

În cazul general, dacă nodul către care este trimisă cererea eșuează, va avea loc o refuz de serviciu, dar serviciile grupate vor reporni automat pe un alt nod, iar sistemul va fi adus într-o stare gata cât mai curând posibil.

Un cluster de înaltă disponibilitate pe Windows include cel puțin două noduri cu sisteme de operare instalate și rolurile corespunzătoare. Nodurile trebuie să fie conectate rețea externăși rețeaua internă necesară pentru schimbul de mesaje de serviciu la o stocare comună a resurselor de serviciu (de exemplu, un disc martor pentru cvorum). În plus, sistemul include și date din aplicațiile grupate. Într-o situație în care serviciile sunt executate doar pe unul dintre noduri, se implementează schema Active-Pasive, adică serviciile sunt executate pe un singur nod, iar al doilea funcționează în modul de așteptare. Când ambele noduri poartă o sarcină utilă, este implementată o schemă Activ-Activ.

De la prima sa implementare, suportul pentru clustere în Windows s-a schimbat semnificativ. A fost implementat suport pentru servicii de fișiere și de rețea, ulterior SQL Server (în sistemul de operare Windows Server 2000), Exchange Server(în Windows Server 2003) și altele servicii standardși roluri, inclusiv Hyper-V (pe sistemul de operare Windows Server 2008). Scalabilitatea a fost îmbunătățită (până la 64 de noduri în Windows Server 2012), iar lista de servicii în cluster a fost extinsă.

Suportul pentru virtualizare, precum și poziționarea Windows Server ca sistem de operare în cloud, au devenit motivul dezvoltării ulterioare a suportului pentru cluster, deoarece densitatea mare de calcul impune cerințe mari privind fiabilitatea și disponibilitatea infrastructurii. Prin urmare, începând cu sistemul de operare Windows Server 2008, cea mai mare parte a îmbunătățirilor se concentrează în acest domeniu.

Sistemul de operare Windows Server 2008 R2 introduce Hyper-V Cluster Shared Volumes (CSV), care permite nodurilor să acceseze un singur sistem de fișiere NTFS la un moment dat. Ca rezultat, mai multe mașini virtuale în cluster pot partaja aceeași adresă LUN și pot migra independent de la gazdă la gazdă.

În Windows Server 2012 în cluster Suport Hyper-V a fost îmbunătățită. A fost adăugată capacitatea de a gestiona prioritățile mașinilor virtuale la nivelul unui întreg cluster, care determină ordinea redistribuirii memoriei, recuperarea mașinilor virtuale în caz de defecțiune a nodului sau migrarea în masă planificată. Capacitățile de monitorizare au fost extinse - dacă un serviciu monitorizat eșuează, acum este posibil să reporniți nu numai serviciul în sine, ci și întreaga mașină virtuală. Este posibilă migrarea către un alt nod, mai puțin ocupat. Au fost implementate și alte inovații, nu mai puțin interesante, legate de clustering.

Clustere în Windows Server 2012.

În primul rând, să ne uităm la inovațiile din tehnologii de bază, care sunt utilizate de clustere sau ajută la extinderea capacităților acestora.

SMB 3.0

Noua versiune a protocolului SMB 3.0 este utilizată pentru schimbul de date în rețea. Acest protocol este solicitat atunci când se efectuează operațiuni de citire, scriere și alte fișiere pe resursele de la distanță. ÎN versiune noua Au fost implementate un număr mare de îmbunătățiri care vă permit să optimizați funcționarea SQL Server, Hyper-V și a clusterelor de fișiere. Vă rugăm să rețineți următoarele actualizări:

  • toleranță transparentă la erori. Această inovație asigură continuitatea operațiunilor. Dacă unul dintre nodurile clusterului de fișiere eșuează, operațiunile în curs sunt transferate automat către un alt nod. Datorită acestei inovații, a devenit posibilă implementarea Scheme activ-activ suportând până la 8 noduri.
  • scalare. Datorită noii implementări a volumelor partajate în cluster (versiunea 2.0), este posibilă accesarea simultană a fișierelor prin toate nodurile clusterului, realizând astfel agregarea lățime de bandă iar echilibrarea sarcinii se efectuează.
  • SMB Direct. A fost implementat suport pentru adaptoarele de rețea cu tehnologie RDMA. Tehnologia RDMA (Remote Direct Memory Access) permite transferul datelor direct în memoria aplicației, eliberând în mod semnificativ procesorul.
  • IMM-uri multicanal. Permite agregarea lățimii de bandă și îmbunătățește rezistența atunci când există mai multe căi de rețea între un server compatibil SMB 3.0 și un client.

Trebuie spus că pentru a utiliza aceste caracteristici, suportul SMB 3.0 trebuie să fie prezent la ambele capete ale conexiunii. Microsoft recomandă utilizarea serverelor și clienților din aceeași generație (în cazul Windows Server 2012, această platformă client este Windows 8). Din păcate, astăzi Windows 7 acceptă doar versiunea SMB 2.1.

Spații de depozitare.

Tehnologia Storage Spaces a fost implementată pentru prima dată în sistemele de operare Windows Server 2012 și Windows 8. A fost implementat suportul pentru noul sistem de fișiere ReFS, care oferă funcții pentru creșterea toleranței la erori. Este posibil să desemnați discuri în pool pentru înlocuirea la cald (în cazul defecțiunii altor medii sau pentru înlocuire rapidă SSD care și-a epuizat resursele). În plus, capabilitățile de reglare fină folosind PowerShell au fost extinse.

În esență, tehnologia Storage Spaces este o implementare software a RAID, îmbunătățită de un numar mare funcții suplimentare. În primul rând, unitățile cu acces direct trebuie puse în comun. În principiu, drive-urile pot fi de orice tip și capacitate, dar pentru organizație funcționare stabilă este necesară o înțelegere clară a principiilor de funcționare ale tehnologiei.

  • simplu (similar cu RAID 0);
  • oglindă (o oglindă cu două căi este analogă cu RAID1, o oglindă cu trei căi este mai mult circuit complex ca RAID 1E)
  • cu paritate (similar cu RAID 5. Această opțiune asigură pierderea minimă de spațiu cu toleranță minimă la erori).

Tehnologia spațiilor de stocare nu este complet nouă. Capacitățile similare au fost implementate de mult timp în Windows Server, de exemplu sub formă de discuri dinamice. Tehnologia Storage Spaces face ca toate aceste funcții să fie mai convenabile și oferă un nou nivel de experiență. Printre alte avantaje ale Spațiilor de stocare, este necesar să se remarce thin provisioning, care face posibilă alocarea unor dimensiuni discurilor virtuale dincolo de cele disponibile în realitate pentru a adăuga ulterior noi unități la pool-ul corespunzător.

Una dintre cele mai provocatoare probleme cu tehnologia Storage Spaces este performanța. De obicei, software Implementări RAID inferior ca performanță opțiunilor hardware. Totuși, dacă vorbim de un server de fișiere, atunci Storage Spaces are la dispoziție un volum mare memorie cu acces aleatorȘi procesor puternic, deci testarea este necesară luând în considerare tipuri variateîncărcături. Din acest punct de vedere, capabilitățile de reglare fină folosind PowerShell sunt de o valoare deosebită.

Tehnologia Spații de stocare elimină nevoia de controlere RAID și sisteme de stocare costisitoare prin mutarea logicii la nivelul sistemului de operare. Această idee își dezvăluie toate meritele și se dovedește a fi destul de atractivă împreună cu o altă inovație.

Scale-Out File Server (SOFS).

O altă inovație este modul de rol de server de fișiere în cluster în Windows Server 2012, care se numește server de fișiere Scale-Out. Acum a fost implementat suport pentru două tipuri de clustering, ale căror nume sunt File Server pentru uz general și Scale-Out File Server (SOFS) pentru datele aplicației. Fiecare tehnologie are propriile sale domenii de aplicare, precum și propriile sale avantaje și dezavantaje.

Un server de fișiere universal este un tip de cluster bine-cunoscut activ-pasiv. SOFS, la rândul său, este un cluster Active-Active, fiind o configurație cu adevărat tolerantă la erori. Pentru a partaja accesul la folderele corespunzătoare, utilizați opțiunea Disponibil continuu.

in afara de asta caracteristici excelente toleranță la erori, aceasta oferă un debit crescut, sub rezerva unui proiect rațional arhitectura de retea. Sistemul de fișiere proxy CSV 2.0 (CSVFS) reduce impactul CHKDSK, permițând utilitarului să efectueze operațiunile necesare în timp ce poate lucra cu volumul de aplicații active. S-a implementat memorarea în cache de citire din CSV. Folosind CSV, este simplu și ușor de implementat și gestionat. Utilizatorul trebuie să creeze un cluster obișnuit, să configureze un volum CSV și să activeze rolul serverului de fișiere în serverul de fișiere Scale-Out pentru modul de date aplicației.

Datorită simplității și funcționalității soluției propuse, s-a format o nouă clasă de echipamente „cluster-in-a-box” (CiB). De obicei, acesta este un șasiu cu două servere blade și matrice de discuri SAS JBOD cu suport pentru spații de stocare. Este important aici ca JBOD-urile SAS să fie cu porturi duale și să existe un HBA SAS pentru a implementa conexiunea încrucișată.

Această organizare de sistem are ca scop în mod special sprijinirea SOFS. Având în vedere că ținta iSCSI este integrată standard în Windows Server 2012 și poate fi, de asemenea, grupată, poate astfel implementa un sistem de stocare „de casă” bazat pe un sistem de operare universal.

Cu toate acestea, rețineți că proprietarul CSV este încă unul dintre noduri, care este responsabil pentru toate operațiunile cu metadate. Cantitățile mari de metadate pot cauza degradarea performanței, așa că scriptul Information Worker nu este recomandat pentru SOFS, în timp ce Hyper-V și SQL Server sunt ideale pentru aceasta, inclusiv prin caracteristicile lor de agregare a lățimii de bandă.

Alte inovații în tehnologiile de clustering Windows.

Mai sus am enumerat doar cele mai importante și majore inovații în domeniul clusterizării în Windows Server 2012. Alte inovații mai mici, însă, nu au apărut întâmplător.

Suportul pentru virtualizare a fost extins prin simplificarea semnificativă a creării clusterelor de invitați (de la mașini virtuale). Spre deosebire de Windows Server 2008 R2, unde acest lucru a necesitat furnizarea unei ținte iSCSI uz comun mașinilor virtuale, sistemul de operare Windows Server 2012 a introdus o caracteristică care vă permite să virtualizați controlerul FC (similar cu adaptoarele de rețea), datorită căreia mașinile virtuale pot accesa direct LUN-ul. O opțiune mai simplă a fost implementată, de asemenea, folosind un comun folderul de rețea SMB 3.0 pentru oaspeții Windows Server 2012.

Una dintre cele importante dar sarcini non-triviale este instalatia actualizări softwareîn cluster. Acest lucru poate necesita repornirea nodurilor, așa că procedura trebuie monitorizată. Sistemul de operare Windows Server 2012 oferă un instrument Cluster-Aware Updating, care funcționează după cum urmează: unul dintre noduri este desemnat ca coordonator și monitorizează actualizările, le descarcă în nodurile rămase și actualizează nodurile unul câte unul, începând cu cele care sunt cel mai puțin încărcate. Datorită acestui fapt, disponibilitatea clusterului este menținută la maximum nivel posibil pe parcursul întregului proces de actualizare.

Există și inovații în managementul cvorumului. De exemplu, a fost implementată capacitatea de a acorda drepturi de vot doar unor noduri. Acest lucru poate fi util atunci când plasați noduri individuale pe un site la distanță, dar este cel mai valoros atunci când implementați noul model de cvorum dinamic. Ideea de bază a unui cvorum dinamic este că un nod care nu mai funcționează și este indisponibil pentru o anumită perioadă de timp din orice motiv își pierde drepturile de vot până la reconectare. Astfel, numărul total de voturi este redus și clusterul rămâne disponibil cât mai mult timp posibil.

Ce este nou în Windows Server 2012 R2.

Sistemul de operare Windows Server 2012 R2 nu este o simplă actualizare pentru Windows Server 2012, ci este un sistem de operare complet nou. Inovațiile implementate în Windows Server 2012 R2 duc unele dintre capabilitățile platformei de server la un nivel cu totul nou. Acest lucru se referă în primul rând la SOFC și Hyper-V.

Mașini virtuale foarte disponibile.

Procedura de creare a clusterelor de invitați a fost simplificată, deoarece este acum posibilă utilizarea stocare partajată VHDX obișnuit, care va fi prezentat ca discuri SAS partajate în interiorul mașinii virtuale. În acest caz, VHDX-ul în sine trebuie să fie localizat pe CSV sau în foldere partajate SMB 3.0. În același timp, în mașini virtuale Pot fi utilizate atât Windows Server 2012 R2, cât și Windows Server 2012 (cu componente de integrare actualizate).

Opțiunea DrainOnShutdown este concepută pentru a salva administratorii de sistem de erori și lucrări inutile. Funcția este activată implicit și în timpul repornirilor sau opririlor programate, transferă proactiv nodul într-un mod de întreținere în care toate rolurile grupate sunt evacuate. Aceasta migrează mașinile virtuale active către alte noduri din clusterul Hyper-V.

De asemenea, în noul sistem de operare Windows Server 2012 R2, Hyper-V monitorizează interfețele de rețea din mașinile virtuale și, dacă apare o problemă, începe procesul de migrare a acestora către o gazdă unde este disponibilă o rețea externă.

Cvorum.

Pe lângă cvorumul dinamic, Windows Server 2012 R2 implementează și un martor (martor) de disc dinamic. Dacă numărul de noduri se modifică, votul său poate fi numărat automat, astfel încât numărul total de voturi să rămână impar. Dacă discul în sine se dovedește a fi indisponibil, vocea sa va fi pur și simplu resetată la zero. Această schemă vă permite să vă bazați complet pe mecanisme automate, abandonând modelele de cvorum.

Fiabilitatea clusterelor situate pe două site-uri a fost crescută. Adesea, cu o astfel de implementare, exact jumătate din noduri sunt situate la fiecare site, astfel încât întreruperile de comunicare între site-uri pot cauza probleme cu formarea cvorumului. Deși cu majoritatea situatii similare Mecanismul de cvorum dinamic face față cu succes în Windows Server 2012 R2 este posibil să se atribuie o prioritate scăzută unuia dintre site-uri, astfel încât în ​​cazul unei eșecuri clusterul să funcționeze întotdeauna pe site-ul principal. Dacă clusterul a fost pornit cu cvorum forțat, atunci când comunicarea cu site-ul la distanță este restabilită, serviciile cluster vor fi repornite în mod automatși întregul cluster va fi din nou unit.

CSV 2.1

Au fost aduse și schimbări semnificative în implementarea CSV. Acum, rolurile proprietarilor de volum sunt distribuite uniform între noduri în mod automat, în conformitate cu modificările numărului lor. Toleranța la erori a CSV a fost crescută datorită faptului că două instanțe ale serviciului server sunt lansate pe fiecare nod de cluster. Unul este folosit pentru a deservi traficul client SMB, celălalt asigură comunicarea între noduri. În acest caz, serviciul este monitorizat, iar în caz de eșec, rolul de proprietar CSV este migrat către alt nod.

O serie de inovații în CSV permit utilizarea mai eficientă a SOFC și a spațiilor de stocare. S-a adăugat suport pentru sistemul de fișiere ReFS, care are o organizare internă mai avansată decât NTFS. Cel mai probabil, acest sistem de fișiere va ocupa treptat o poziție de lider în produsele Microsoft. Windows Server 2012 R2 introduce, de asemenea, un mecanism de deduplicare, care anterior era rezerva unui server de fișiere universal. Activarea deduplicarii dezactivează CSV Block Cache, dar în unele cazuri poate fi destul de eficient. Volumele CSV pot fi create pe spații de stocare cu paritate.

În Windows Server 2012 R2, capacitatea de a combina diferite tipuri de unități are un sens deosebit cu spații pe niveluri. Acum este posibil să creați două niveluri: rapid (pe baza SSD) și de mare capacitate (pe baza hard disk-uri) și la creare disc virtual alocă o anumită sumă din fiecare dintre ele. Apoi, în conformitate cu un anumit program, conținutul discului virtual va fi analizat și plasat în blocuri de 1 MB pe medii mai rapide sau mai lente, în funcție de cerere. O altă utilizare a spațiilor pe mai multe niveluri este implementarea memoriei cache de scriere înapoi pe SSD-uri. În perioadele de încărcare maximă, înregistrarea se realizează rapid unități cu stare solidă, iar mai târziu datele reci sunt mutate pe hard disk-uri mai lente.

Inovațiile legate de CSV și spațiile de stocare sunt cele mai semnificative în Windows Server 2012 R2. Pe baza acestora, puteți implementa nu doar fiabile servere de fișiere, dar sisteme puternice și flexibile de stocare a datelor cu scalabilitate excelentă și toleranță excelentă la erori, oferind utilizatorului o gamă largă de instrumente moderne.