mecanisme qos. Protocoale și metode. Configurarea politicilor QoS

Secțiunea „Consultație” a fost creată pe portalul „Substație digitală”, astfel încât fiecare cititor să poată obține un răspuns la întrebarea sa. Participanții își pot trimite întrebările la: [email protected]. Astăzi ne uităm la următoarea întrebare:

Când despre care vorbim despre comutatoare și transmiterea datelor prin informații Rețele Ethernet Conceptul de QoS (Calitatea Serviciului) apare adesea. Ce este?

Dmitri Steshenko, șeful departamentului de inginerie la TEKVEL, răspunde:

Calitatea serviciului (QoS) se referă la capacitatea infrastructura retelei să ofere servicii îmbunătățite anumitor tipuri de trafic transmis folosind diverse tehnologii.

Calitatea serviciului la al doilea nivel al modelului OSI (link) în cadrul unui element de rețea este asigurată prin utilizarea unui model de serviciu diferențiat (Differentiated Service - DiffServ) și este asigurată de:

  • Clasificarea și marcarea traficului.
  • Managementul congestionării (mecanisme de așteptare).

Trebuie remarcat faptul că acest modelîncepe să funcționeze numai în caz de cozi și supraîncărcări.

Conform standardului IEC 61850 toate procesele de comunicare transferurile de date sunt efectuate prin Tehnologii Ethernet. Această tehnologie definește formatul de cadre Ethernet (cadre), linii de conexiune (mediu de transmisie), semnale electrice și luminoase pornite nivel fizic, protocoalele medii de control al accesului sunt la al doilea nivel al modelului OSI (link). Metodele și tehnologiile de bază Ethernet sunt descrise de familia de protocoale IEEE 802.3.

protocol Ethernet formă pură nu acceptă funcția de prioritizare a traficului, prin urmare, împreună cu protocolul standard IEEE 802.3 Ethernet, organizația IEEE a dezvoltat un standard pentru crearea unei zone locale virtuale VLAN-uri IEEE 802.1q. Standardul IEEE 802.1q prevede inserarea unei etichete VLAN suplimentare de patru octeți în antetul Ethernet al cadrului sursă, care conține eticheta de prioritate IEEE 802.1p Class of Service (CoS) (vezi Figura 1).

Orez. 1. Structura cadrului Ethernet conform standardului IEEE 802.1q

CLASIFICAREA SI MARCAREA TRAFICULUI

De exemplu, comutatoarele PULLNET de nivel 2 din familia AGENT-2 vă permit să distingeți cadrele Ethernet (clasificarea traficului) în funcție de parametrii etichetei IEEE 802.1p Priority. Valorile prioritare în funcție de tipul de trafic sunt prezentate în tabelul de mai jos. Standardul IEC 61850 oferă o prioritate implicită de 4 pentru mesajele GOOSE și eșantioanele de valori SV instantanee.

Tabel 1. Clase de trafic conform standardului IEEE 802.1p.

Biți prioritari

Desemnare

Clasa de prioritate a traficului

NC (controlat prin rețea)

Rețea critică. Trafic de gestionare a rețelei

Multimedia interactiv (video)

CL (Efort controlat)

Controlat. Streaming media

EE (efort excelent)

Prioritate

Standard (Economic)

BE (Cel mai bun efort)

Inferior. Trafic transmis cu maxim efort („pe cât posibil”). Opțiune implicită

Astfel, clasificarea și marcarea traficului rezolvă două probleme:

  • Atribuirea datelor transmise unei anumite clase de trafic.
  • Atribuirea unei priorități corespunzătoare cadrului transmis.

GESTIUNEA CONGENȚIILOR (MECANISME DE COZI)

Congestia apare atunci când tamponurile de ieșire ale echipamentului care transmit traficul depășesc. Principalele mecanisme de apariție a congestiilor (sau, echivalent, congestiilor) sunt agregarea traficului (când viteza traficului de intrare depășește viteza traficului de ieșire) și inconsecvența vitezelor pe interfețe. Gestionarea lățimii de bandă în caz de congestie (congestionare) se realizează folosind un mecanism de așteptare. Cadrele Ethernet sunt plasate în cozi, care sunt procesate în mod ordonat conform unui algoritm specific. De fapt, controlul congestiei este determinarea ordinii în care cadrele ies din interfață (cozi) pe baza priorităților. Dacă nu există supraîncărcare, cozile nu funcționează.

Deoarece cozile nu sunt nesfârșite, ele se pot umple și deveni supraaglomerate. Dacă coada este deja plină, atunci pachetele noi nu intră în ea și sunt aruncate. Acest fenomen se numește pierdere finală. Problema cu pierderea cozii este că, în această situație, comutatorul nu poate să nu arunce cadrul dat, chiar dacă are o prioritate mare. Astfel, este necesar un mecanism care efectuează următoarele două operații:

  • Determinați dacă coada este cu adevărat plină și dacă nu există loc pentru cadre cu prioritate ridicată.
  • Creați o politică conform căreia cadrele cu o prioritate mai mică vor fi eliminate mai întâi și abia apoi cele cu una mai mare.

Prioritizarea este folosită pentru a clasifica cadrele prin alocarea lor la una dintre cozile de ieșire. Eticheta de prioritate IEEE 802.1p pentru atribuirea cozii este definită de utilizator. Switch-urile de nivel 2 ale familiei PULLNET AGENT-2 acceptă 4 cozi prioritare. Tabelul de mai jos arată informatii detaliate prin etichete de prioritate pentru parametrii de coadă setați implicit pe comutatorul PULLNET.

Tabelul 2. Legarea clasei de serviciu (CoS) la coada implicită de redirecționare a datelor.

Valoare prioritară

CoS IEEE 802.1p

IEEE 802.1p

Număr de coadă

Mod implicit

în PULLNET AGENT-2

q0 (prioritatea cea mai scăzută)

q3 (prioritate maximă)

După procesul de clasificare, cadrele pot fi alocate unei anumite cozi (cozi) pe baza etichetei de prioritate CoS.

Cozile de ieșire sunt configurate folosind o schemă de planificare în unul dintre următoarele moduri:

  • Prioritate strictă (SP).
  • Round Robin ponderat (WRR).

Prioritate strictă – Se asigură că aplicațiile sensibile la timp sunt întotdeauna transmise. Prioritate strictă permite traficului sensibil la destinație și la timp să primească cea mai mare prioritate față de datele mai puțin sensibile la timp. Acestea. cadrele din coada cu prioritate ridicată sunt procesate mai întâi. Cadrele Ethernet din următoarea coadă cu cea mai mare prioritate vor începe să fie transmise numai după ce coada cu cea mai mare prioritate este goală. De exemplu, Voice over IP are loc înainte ca traficul FTP sau e-mail (SMTP) să fie redirecționat. Dezavantajul acestei metode este că este posibil ca datele cu prioritate scăzută să nu fie procesate o perioadă lungă de timp.


Orez. 2. Mecanismul de procesare a cozii „Prioritate strictă” atunci când plasează cadre în coadă în conformitate cu setările implicite din comutatoarele PULLNET.

Weighted Round Robin (WRR) – asigură că cerere separată nu va folosi toate resursele de redirecționare disponibile prin modulul de comutare Ethernet. WRR redirecționează toate cozile într-o buclă.

Dacă există mai multe cozi, cadrele pot fi plasate în cozi diferite și servite folosind un Round Robin ponderat (WRR). Valorile de greutate sunt setate în coadă - în comutatoarele AGENT-2 acestea sunt valori de la 1 la 20. Ele joacă rolul de puncte de plecare prin care se determină cu ce probabilitate poate fi aruncat un pachet. Procesul de procesare a cozii se desfășoară în mod circular, începând cu coada cu cea mai mare prioritate. Din fiecare coadă negoală se transmite o anumită cantitate de trafic, proporțional cu coeficientul de greutate atribuit acesteia, după care se face o tranziție la următoarea coadă în ordinea descrescătoare a priorității și așa mai departe în cerc.


Orez. 3. Mecanismul de procesare a cozii „Weighted Round Robin”.

Toate cozile, cu excepția cozilor SP, pot funcționa în cadrul schemei WRR. Cozile SP sunt deservite imediat înaintea cozilor WRR. Dacă fluxul de trafic este minim și cozile SP nu ocupă toată lățimea de bandă alocată portului, atunci cozile WRR împart lățimea de bandă cu cozile SP. În acest caz, partea rămasă a lățimii de bandă este distribuită în conformitate cu coeficienții de ponderare. Acest mecanism combinat „SP+WRR” este disponibil în comutatoarele PULLNET AGENT-2.

QoS este un subiect mare. Înainte de a vorbi despre complexitățile setărilor și despre diferitele abordări ale aplicării regulilor de procesare a traficului, este logic să vă amintiți ce este QoS în general.

Calitatea serviciului (QoS)- tehnologie pentru furnizarea diferitelor clase de trafic cu diferite priorități de serviciu.

În primul rând, este ușor de înțeles că orice prioritizare are sens doar atunci când există o coadă pentru service. Acolo, în coadă, puteți „aluneca” mai întâi, folosind dreapta.
Coada se formează acolo unde este îngustă (de obicei astfel de locuri se numesc „gât de sticlă”, gât de sticlă). Un blocaj tipic este o conexiune la Internet de birou, în care computerele conectate la rețea la o viteză de cel puțin 100 Mbit/sec folosesc toate un canal către furnizor, care rareori depășește 100 Mbit/sec și deseori se ridică la o valoare slabă de 1-2. -10 Mbit/sec. Pentru toti.

În al doilea rând, QoS nu este un panaceu: dacă „gâtul” este prea îngust, atunci tamponul fizic al interfeței depășește adesea, unde sunt plasate toate pachetele care urmează să iasă prin această interfață. Și apoi pachetele nou sosite vor fi distruse, chiar dacă sunt super-necesare. Prin urmare, dacă coada de pe o interfață depășește în medie 20% din dimensiunea maximă (pe routerele Cisco dimensiune maximă coada este de obicei de 128-256 de pachete), există motive să vă gândiți bine la designul rețelei dvs., să stabiliți rute suplimentare sau să extindeți lățimea de bandă către furnizor.

Să înțelegem componentele tehnologiei

(mai departe sub tăietură, sunt multe)

Marcare.În câmpurile antet ale diverselor protocoale de rețea(Ethernet, IP, ATM, MPLS etc.) există câmpuri speciale alocate pentru marcarea traficului. Traficul trebuie marcat pentru o procesare ulterioară mai simplă în cozi.

Ethernet. Câmp Clasă de serviciu (CoS) - 3 biți. Vă permite să împărțiți traficul în 8 fluxuri cu marcaje diferite

IP. Există 2 standarde: vechi și noi. Cel vechi avea un câmp ToS (8 biți), din care erau alocați la rândul lor 3 biți numiți IP Precedence. Acest câmp a fost copiat în câmpul antet CoS Ethernet.
Ulterior a fost definit un nou standard. Câmpul ToS a fost redenumit DiffServ și s-au alocat încă 6 biți pentru câmpul Differential Service Code Point (DSCP), în care de acest tip parametrii de trafic.

Cel mai bine este să etichetați datele aproape de sursa datelor. Din acest motiv, majoritatea telefoanelor IP adaugă în mod independent câmpul DSCP = EF sau CS5 la antetul IP al pachetelor de voce. Multe aplicații marchează, de asemenea, traficul în speranța că pachetele lor vor fi procesate cu prioritate. De exemplu, rețelele peer-to-peer sunt vinovate de acest lucru.

Cozile.

Chiar dacă nu folosim nicio tehnologie de prioritizare, asta nu înseamnă că nu apar cozi. Într-un blocaj, va apărea o coadă în orice caz și va oferi un mecanism standard FIFO (First In First Out). O astfel de coadă, evident, va face posibilă să nu se distrugă imediat pachetele, stocându-le într-un buffer înainte de trimitere, dar nu va oferi nicio preferință, să zicem, pentru traficul vocal.

Dacă doriți să acordați prioritate absolută unei clase dedicate (adică pachetele din această clasă vor fi întotdeauna procesate primele), atunci această tehnologie se numește Cozi prioritare. Toate pachetele din bufferul fizic de ieșire al interfeței vor fi împărțite în 2 cozi logice și pachetele din coada privilegiată vor fi trimise până când aceasta este goală. Abia după aceasta vor începe să fie transmise pachetele din a doua coadă. Această tehnologie este simplă, destul de brută și poate fi considerată depășită, deoarece... procesarea traficului neprioritar va fi oprită în mod constant. Pe routerele Cisco puteți crea
4 cozi cu priorități diferite. Ei mențin o ierarhie strictă: pachetele din cozile mai puțin privilegiate nu vor fi deservite până când toate cozile cu prioritate mai mare nu vor fi goale.

coada echitabila ( Cozi de aşteptare corecte). O tehnologie care permite fiecărei clase de trafic să i se acorde aceleași drepturi. De regulă, nu este folosit, deoarece face puțin în ceea ce privește îmbunătățirea calității serviciilor.

coadă ponderată de echipă ( Cozi de aşteptare ponderate, WFQ). O tehnologie care conferă diferite clase de trafic drepturi diferite (putem spune că „greutatea” diferitelor cozi este diferită), dar deservește simultan toate cozile. „Pe scurt”, arată astfel: toate pachetele sunt împărțite în cozi logice folosind
Câmpul IP Precedență ca criteriu. Același câmp stabilește și prioritatea (cu cât mai mult, cu atât mai bine). Apoi, routerul calculează ce pachet este „mai rapid” de transmis din ce coadă și îl transmite exact.

El calculează acest lucru folosind formula:

DT=(t(i)-t(0))/(1+IPP)

IPP - Valoarea câmpului IP Precedence
t(i) - Timp necesar pentru transmisie reală interfața pachetului. Poate fi calculată ca L/Speed, unde L este lungimea pachetului și Speed ​​​​este viteza de transmisie a interfeței

Această coadă este activată implicit pe toate interfețele routere Cisco, cu excepția interfețelor punct la punct (încapsulare HDLC sau PPP).

WFQ are o serie de dezavantaje: o astfel de coadă utilizează pachete marcate anterior și nu vă permite să determinați în mod independent clasele de trafic și lățimea de bandă alocată. Mai mult, de regulă, nimeni nu mai marchează cu câmpul IP Precedence, deci pachetele rămân nemarcate, adică. toți intră în aceeași coadă.

O evoluție a WFQ a fost o coadă corectă ponderată pe clasă ( Cozi de așteptare corecte ponderate pe clasă, CBWFQ). În această coadă, administratorul însuși definește clasele de trafic, urmând diverse criterii, de exemplu, folosind ACL-uri ca șablon sau analizând anteturile de protocol (vezi NBAR). În continuare, pentru aceste clase
se determină „greutatea” și pachetele cozilor lor sunt deservite proporțional cu greutatea (mai multă greutate - vor fi consumate mai multe pachete din această coadă pe unitatea de timp)

Dar o astfel de coadă nu asigură strict trecerea celor mai importante pachete (de obicei voce sau pachete ale altor aplicații interactive). Prin urmare, a apărut un hibrid de priorități și cozi de așteptare corecte ponderate bazate pe clasă - PQ-CBWFQ, de asemenea cunoscut ca si, Autentificare cu latență scăzută (LLQ). În această tehnologie, puteți seta până la 4 cozi prioritare, clasele rămase sunt servite folosind mecanismul CBWFQ

LLQ este mecanismul cel mai convenabil, flexibil și utilizat frecvent. Dar necesită configurarea claselor, stabilirea politicilor și aplicarea politicilor pe interfață.

Astfel, procesul de furnizare a serviciilor de calitate poate fi împărțit în 2 etape:
Marcare. Mai aproape de surse.
Procesarea pachetelor. Punându-le într-o coadă fizică pe interfață, împărțindu-le în cozi logice și oferindu-le acele cozi logice resurse diferite.

Tehnologia QoS necesită destul de mult resurse și încarcă procesorul destul de semnificativ. Și cu cât se încarcă mai mult, cu atât mai adânc în anteturi trebuie să mergi pentru a clasifica pachetele. Pentru comparație: este mult mai ușor pentru un router să se uite în antetul pachetului IP și să analizeze cei 3 biți IPP acolo, mai degrabă decât să rotească fluxul aproape la nivelul aplicației, determinând ce tip de protocol se află în interior (tehnologia NBAR)

Pentru a simplifica procesarea ulterioară a traficului, precum și pentru a crea așa-numita „graniță de încredere”, în care avem încredere în toate anteturile legate de QoS, putem face următoarele:
1. Pe comutatoarele și routerele de nivel de acces (aproape de mașinile client), capturați pachetele și distribuiți-le pe clasă
2. Ca acțiune de politică, recolorați anteturile în felul dvs. sau transferați valorile antetelor QoS de nivel superior la cele inferioare.

De exemplu, pe router prindem toate pachetele din domeniul WiFi invitat (presupunem că pot exista computere și software pe care nu le gestionăm care pot folosi anteturi QoS non-standard), schimbăm orice antete IP la cele implicite, potrivim anteturile de canal la nivelul antetelor de nivel 3 (DSCP) (CoS),
astfel încât comutatoarele ulterioare să poată prioritiza în mod eficient traficul folosind doar eticheta stratului de legătură.

Configurarea LLQ

Configurarea cozilor constă în configurarea claselor, apoi pentru aceste clase trebuie să determinați parametrii lățimii de bandă și să aplicați întregul design creat la interfață.

Crearea claselor:

clasa-hartă NUME
Meci?

acces-grup Grup de acces
orice Orice pachete
hartă-clasă Harta clasei
cos Clasa IEEE 802.1Q/ISL de valori de prioritate de serviciu/utilizator
adresa-destinație Adresa de destinatie
clasa de aruncare Eliminați identificatorul de comportament
dscp Potriviți DSCP în pachetele IP(v4) și IPv6
curgere Parametrii QoS bazați pe flux
fr-de Potrivire pe bitul DE Frame-releu
fr-dlci Meci pe fr-dlci
interfață de intrare Selectați o interfață de intrare care să se potrivească
ip valori specifice IP
mpls Multi Protocol Label Comutare valori specifice
nu Anulați acest rezultat al meciului
pachet Stratul 3 Lungimea pachetului
precedenta Potriviți prioritate în pachetele IP(v4) și IPv6
protocol Protocol
qos-grup Qos-grup
Sursa adresei Sursa adresei
vlan VLAN-uri care să se potrivească

Pachetele în clase pot fi sortate după diferite atribute, de exemplu, prin specificarea unui ACL ca șablon sau după câmpul DSCP sau prin evidențierea unui protocol specific (tehnologia NBAR este activată)

Creați o politică:

politică-hartă POLITICĂ
clasa NAME1
?

lățime de bandă Lățimea de bandă
comprimare Activați compresia
cădere brusca Aruncă toate pachetele
ButurugaÎnregistrați pachetele IPv4 și ARP
netflow-sampler Acțiune NetFlow
politie Politie
prioritate Prioritate strictă de programare pentru această clasă
limita de coada Pragul maxim de coadă pentru căderea cozii
detectează aleatoriu Activați Detectarea timpurie aleatorie ca politică de eliminare
serviciu-politică Configurați Flow Next
a stabilit Setați valorile QoS
formă Modelarea traficului


Pentru fiecare clasă din poliță, puteți fie aloca o parte prioritară a benzii:

politică-hartă POLITICĂ
clasa NAME1
prioritate?

Kilo biți pe secundă
la sută% din lățimea de bandă totală


și apoi pachetele din această clasă se pot baza întotdeauna pe cel puțin această piesă.

Sau descrieți ce „greutate” are această clasă în cadrul CBWFQ

politică-hartă POLITICĂ
clasa NAME1
lățime de bandă?

Kilo biți pe secundă
la sută% din lățimea de bandă totală
rămas% din lățimea de bandă rămasă


În ambele cazuri, puteți specifica atât o valoare absolută, cât și un procent din întreaga bandă disponibilă

Apare o întrebare rezonabilă: de unde cunoaște routerul întreaga bandă? Răspunsul este simplu: din parametrul lățimii de bandă de pe interfață. Chiar dacă nu este configurat în mod explicit, trebuie să aibă o anumită semnificație. Îl puteți vizualiza cu comanda sh int.

De asemenea, este necesar să rețineți că în mod implicit nu controlați întreaga dungă, ci doar 75%. Pachetele care nu sunt incluse în mod explicit în alte clase ajung în clasa implicită. Această setare pentru clasa implicită poate fi setată în mod explicit

politică-hartă POLITICĂ
clasa clasa implicită
procent de lățime de bandă 10

(UPD, mulțumesc lui OlegD)
Puteți modifica lățimea de bandă maximă disponibilă de la 75% implicit folosind o comandă de pe interfață

lățime-de-bandă-rezervată-max

Routerele monitorizează cu gelozie că administratorul nu oferă accidental mai multă lățime de bandă decât există și înjură astfel de încercări.

Se pare că politica nu va emite cursuri mai mult decât este scris. Cu toate acestea, această situație se va întâmpla numai dacă toate cozile sunt pline. Dacă unul este gol, atunci banda care i-a fost alocată va fi împărțită la cozile pline proporțional cu „greutatea” acesteia.

Toată această structură va funcționa astfel:

Dacă există pachete dintr-o clasă care indică prioritate, atunci routerul se concentrează pe transmiterea acestor pachete. Mai mult, pentru că Pot exista mai multe astfel de cozi prioritare, apoi lățimea de bandă este împărțită între ele proporțional cu procentele specificate.

Odată ce toate pachetele prioritare dispar, este rândul lui CBWFQ. Pentru fiecare număr de timp, proporția de pachete specificată în setarea pentru această clasă este „strânsă” din fiecare coadă. Dacă unele dintre cozi sunt goale, atunci lățimea lor de bandă este împărțită proporțional cu „greutatea” clasei între cozile încărcate.

Aplicație de interfață:

int s0/0
serviciu-politică POLITICA

Dar ce ar trebui să faceți dacă trebuie să reduceți strict pachetele dintr-o clasă care depășesc viteza permisă? La urma urmei, specificarea lățimii de bandă distribuie numai lățimea de bandă între clase atunci când cozile sunt ocupate.

Pentru a rezolva această problemă pentru clasa de trafic din poliță, există o tehnologie

poliție conform-acțiune [acțiune] depășire-acțiune [acțiune]

Vă permite să specificați în mod explicit viteza medie dorită (viteza), „depășirea maximă”, adică cantitatea de date transmise pe unitatea de timp. Cu cât depășirea este mai mare, cu atât viteza reală de transmisie se poate abate de la media dorită. Se mai indică: acţiune pentru trafic normal care nu depăşeşte
viteza specificată și acțiunea pentru traficul care depășește viteza medie. Acțiunile ar putea fi așa

politie 100000 8000 conform-actiune?

cădere brusca aruncarea pachetului
depăşirea-acţiunea acțiune când rata este în conformitate și
conform + depăși explozie
set-clp-transmit setați atm clp și trimiteți-l
set-discard-class-transmit setați discard-class și trimiteți-o
set-dscp-transmit setați dscp și trimiteți-l
set-frde-transmit seteaza FR DE si trimite-l
set-mpls-exp-impunere-transmite setați exp la impunerea etichetei și trimiteți-o
set-mpls-exp-topmost-transmit setați exp pe eticheta cea mai de sus și trimiteți-o
set-prec-transmit rescrieți prioritatea pachetului și trimiteți-l
set-qos-transmit setați qos-group și trimiteți-l
transmite transmite pachetul

Adesea apare și o altă provocare. Să presupunem că trebuie să limităm fluxul care merge către un vecin cu un canal lent.

Pentru a prezice cu exactitate ce pachete vor ajunge la vecin și care vor fi distruse din cauza congestionării canalelor pe partea „lentă”, este necesar să se creeze o politică pe partea „rapidă” care să proceseze cozile în avans și să distrugă pachetele redundante. .

Și aici ne confruntăm cu un lucru foarte important: pentru a rezolva această problemă trebuie să emulăm un canal „lent”. Pentru această emulare, nu este suficient doar să împrăștiați pachetele în cozi, trebuie, de asemenea, să emulați tamponul fizic al interfeței „lente”. Fiecare interfață are o rată de transmisie a pachetelor. Acestea. Fiecare interfață poate transmite nu mai mult de N pachete pe unitate de timp. De obicei, tamponul interfeței fizice este proiectat pentru a asigura funcționarea „autonomă” a interfeței pentru mai multe unități de timp. Prin urmare, tamponul fizic al, să zicem, GigabitEthernet va fi de zeci de ori mai mare decât o interfață serială.

Ce e în neregulă cu a-ți aminti multe? Să aruncăm o privire mai atentă la ceea ce se va întâmpla dacă tamponul de pe partea de expediere rapidă este semnificativ mai mare decât tamponul de recepție.

Pentru simplitate, lăsați să existe 1 coadă. Pe partea „rapidă” simulăm o viteză scăzută de transmisie. Aceasta înseamnă că pachetele care intră sub incidența politicii noastre vor începe să se acumuleze în coadă. Deoarece Deoarece bufferul fizic este mare, coada logică va fi impresionantă. Unele aplicații (care funcționează prin TCP) vor primi o notificare cu întârziere că unele pachete nu au fost primite și vor aștepta mult timp marime mare ferestre, încărcând partea receptorului. Acest lucru se va întâmpla în cazul ideal când viteza de transmisie este egală sau mai mică decât viteza de recepție. Dar interfața laterală de recepție în sine poate fi încărcată cu alte pachete
iar apoi coada mică de pe partea de primire nu va putea găzdui toate pachetele transmise acestuia din centru. Vor începe pierderi, ceea ce va presupune transmisii suplimentare, dar în buffer-ul de transmisie va exista în continuare o „coadă” solidă de pachete acumulate anterior care vor fi transmise „inactiv”, deoarece partea de primire nu a așteptat pachetul anterior, ceea ce înseamnă că cele ulterioare vor fi pur și simplu ignorate.

Prin urmare, pentru a rezolva corect problema reducerii vitezei de transmisie la un vecin lent, tamponul fizic trebuie, de asemenea, limitat.

Acest lucru este realizat de o echipă

forma medie

Ei bine, acum cel mai interesant lucru: ce se întâmplă dacă, pe lângă emularea unui buffer fizic, trebuie să creez cozi logice în interiorul acestuia? De exemplu, acordați prioritate vocii?

Pentru aceasta se creează o așa-numită politică imbricată, care se aplică în interiorul celei principale și împarte în cozi logice ceea ce intră în ea din cea părinte.

Este timpul să ne uităm la un exemplu minunat bazat pe imaginea de mai sus.

Să presupunem că vom crea canale de voce stabile prin Internet între CO și Remote. Pentru simplitate, lăsați rețeaua de la distanță (172.16.1.0/24) să aibă comunicație doar cu CO (10.0.0.0/8). Viteza interfeței pe Remote este de 1 Mbit/s și 25% din această viteză este alocată pentru traficul vocal.

Apoi, mai întâi trebuie să selectăm o clasă de trafic prioritară pe ambele părți și să creăm o politică pentru această clasă. În CO vom crea suplimentar o clasă care descrie traficul dintre birouri

clasa-hartă RTP
potriviți protocolul rtp

Harta politicilor RTP
clasa RTP
procent de prioritate 25

Lista de acces IP extinsă CO_REMOTE
permis ip 10.0.0.0 0.255.255.255 172.16.1.0 0.0.0.255

Harta clasei CO_REMOTE
potrivește lista de acces CO_REMOTE


Pe Remote vom face lucrurile diferit: chiar dacă nu putem folosi NBAR din cauza hardware-ului mort, atunci putem descrie doar în mod explicit porturile pentru RTP

IP access-list RTP extins
permis udp 172.16.1.0 0.0.0.255 interval 16384 32768 10.0.0.0 0.255.255.255 interval 16384 32768

Harta clasei RTP
se potrivesc cu lista de acces RTP

QoS cu hartă de politici
clasa RTP
procent de prioritate 25

politică-hartă QoS
clasa CO_REMOTE
forma medie 1000000
serviciu-politică RTP


și aplicați politica pe interfață

int g0/0
QoS de ieșire a politicii de serviciu

Pe Remote, setați parametrul de lățime de bandă (în kbit/sec) pentru a se potrivi cu viteza interfeței. Permiteți-mi să vă reamintesc că din acest parametru se va lua în considerare 25%. Și aplicați politica.

int s0/0
lățime de bandă 1000
QoS de ieșire a politicii de serviciu

Povestea nu ar fi completă dacă nu am acoperi capacitățile comutatoarelor. Este clar că comutatoarele pure L2 nu sunt capabile să caute atât de adânc în pachete și să le împartă în clase conform acelorași criterii.

Pe L2/3 mai inteligent comută pe interfețele direcționate (adică fie pe interfața vlan, fie dacă portul este scos din al doilea nivel cu comanda fără switchport) se folosește același design care funcționează pe routere, iar dacă portul sau întregul switch funcționează în modul L2 (adevărat pentru modelele 2950/60), atunci numai indicația poliției poate fi folosită pentru clasa de trafic, iar prioritatea sau lățimea de bandă sunt nu este disponibil.

În plus, viermele se răspândește adesea prin porturile necesare funcționării (TCP/135,445,80 etc. Închiderea acestor porturi de pe router ar fi nechibzuită, așa că este mai uman să faci asta:

1. Colectați statistici privind traficul în rețea. Fie prin NetFlow, fie prin NBAR, fie prin SNMP.

2. Identificăm profilul traficului normal, i.e. Conform statisticilor, în medie, Protocolul HTTP nu ocupă mai mult de 70%, ICMP - nu mai mult de 5% etc. Un astfel de profil poate fi creat fie manual, fie folosind statisticile acumulate de NBAR. Mai mult, puteți chiar să creați automat clase, politici și să le aplicați pe interfață
echipă autoqos :)

3. În continuare, puteți limita lățimea de bandă pentru traficul de rețea atipic. Dacă luăm brusc o infecție port non-standard, nu vor fi probleme mari pentru gateway: pe o interfață ocupată, infecția nu va ocupa mai mult decât partea alocată.

4. După ce a creat designul ( hartă-clasă - hartă-politică - politică-serviciu) puteți răspunde rapid la apariția unei explozii atipice de trafic creând manual o clasă pentru aceasta și limitând sever lățimea de bandă pentru această clasă.

Nu există nicio persoană care să nu fi citit măcar o dată câteva întrebări frecvente pe Windows XP. Și dacă da, atunci toată lumea știe că există un serviciu de calitate a serviciului atât de dăunător - QoS pe scurt. Este foarte recomandat să-l dezactivați atunci când vă configurați sistemul, deoarece limitează lățimea de bandă a rețelei cu 20% în mod implicit, iar această problemă pare să existe și în Windows 2000.

Acestea sunt liniile:

"Î: Cum să dezactivați complet serviciul QoS (Calitatea Serviciului)? Cum se configurează? Este adevărat că limitează viteza rețelei? R: Într-adevăr, în mod implicit, Quality of Service rezervă 20% din capacitatea canalului pentru nevoile sale (orice canal - chiar și un modem 14400, chiar și un gigabit Ethernet). Mai mult, chiar dacă eliminați serviciul QoS Packet Scheduler din conexiunea Proprietăți, acest canal nu este eliberat. Puteți elibera un canal sau pur și simplu puteți configura QoS aici. Lansați aplicația Politica de grup (gpedit.msc). În Politica de grup, găsiți Politica computerelor locale și faceți clic pe Șabloane administrative. Selectați Network - QoS Packet Sheduler. Activați Limitați lățimea de bandă rezervabilă. Acum reducem limita lățimii de bandă cu 20% la 0% sau pur și simplu o dezactivăm. Dacă doriți, puteți configura și alți parametri QoS aici. Pentru a activa modificările, trebuie doar să reporniți".

20% este, desigur, mult. Într-adevăr, Microsoft este Mazda. Declarațiile de acest fel se plimbă de la Întrebări frecvente la Întrebări frecvente, de la forum la forum, de la media la media și sunt folosite în tot felul de „ajustări” - programe pentru „ajustarea” Windows XP (apropo, deschideți „ Politicile de grup" Și " Politicile locale securitate”, și nici o singură „ajustare” nu se poate compara cu ele în ceea ce privește multitudinea de opțiuni de personalizare). Declarațiile nefundamentate de acest fel trebuie dezmințite cu atenție, ceea ce vom face acum folosind abordarea sistemelor. Adică, vom studia temeinic problematica, bazându-ne pe surse primare oficiale.

Ce este o rețea cu servicii de calitate?

Să acceptăm următoarea definiție simplificată a unui sistem de rețea. Aplicațiile rulează și rulează pe gazde și comunică între ele. Aplicațiile trimit date sistem de operare pentru transmiterea prin rețea. Odată ce datele sunt transferate în sistemul de operare, acestea devin trafic de rețea.

Serviciul de rețea QoS se bazează pe capacitatea rețelei de a procesa acest trafic într-un mod care asigură îndeplinirea anumitor solicitări ale aplicației. Acest lucru necesită un mecanism fundamental de procesare a traficului de rețea care poate identifica traficul eligibil pentru un tratament special și dreptul de a controla aceste mecanisme.

Funcționalitate QoS este conceput pentru a satisface două entități de rețea: aplicații de rețeași administratorii de rețea. Ei au adesea dezacorduri. Administratorul de rețea limitează resursele utilizate de o anumită aplicație, în timp ce, în același timp, aplicația încearcă să prindă cât mai mult posibil resursele rețelei. Interesele acestora pot fi aliniate, ținând cont de faptul că administratorul de rețea joacă un rol dominant în raport cu toate aplicațiile și utilizatorii.

Parametrii de bază QoS

Aplicațiile diferite au cerințe diferite pentru gestionarea traficului lor de rețea. Aplicațiile sunt mai mult sau mai puțin tolerante la întârzieri și pierderi de trafic. Aceste cerințe și-au găsit aplicație în următorii parametri legați de QoS:

Lățimea de bandă - viteza cu care traficul generat de o aplicație trebuie transmis prin rețea
- Latență - întârzierea pe care o poate tolera o aplicație în livrarea unui pachet de date.
- Jitter - modificați timpul de întârziere.
- Pierdere - procentul de date pierdute.

Dacă ar fi disponibile resurse infinite de rețea, atunci tot traficul aplicației ar putea fi transmis la viteza necesară, cu latență zero, variație de latență zero și pierdere zero. Cu toate acestea, resursele de rețea nu sunt nelimitate.

Mecanismul QoS controlează alocarea resurselor de rețea către traficul aplicației pentru a îndeplini cerințele de transmisie.

Resurse QoS fundamentale și mecanisme de procesare a traficului

Rețelele care conectează gazde folosesc o varietate de dispozitive de rețea inclusiv adaptoare de rețea gazdă, routere, comutatoare și hub-uri. Fiecare dintre ele are interfețe de rețea. Fiecare interfață de rețea poate primi și transmite trafic la o rată finită. Dacă viteza cu care traficul este trimis către o interfață este mai rapidă decât viteza cu care interfața redirecționează traficul în continuare, atunci apare congestie.

Dispozitivele de rețea pot gestiona condițiile de congestie punând în coadă traficul în memoria dispozitivului (buffer) până când congestionarea trece. În alte cazuri, echipamentele de rețea pot respinge traficul pentru a reduce congestionarea. Ca rezultat, aplicațiile se confruntă cu modificări ale latenței (pe măsură ce traficul este stocat în cozi pe interfețe) sau pierderi de trafic.

Abilitatea interfețe de rețea redirecționarea traficului și disponibilitatea memoriei pentru stocarea traficului în dispozitivele de rețea (până când traficul nu mai poate fi trimis) constituie resursele fundamentale necesare pentru Furnizare QoS pentru fluxurile de trafic de aplicații.

Distribuția resurselor QoS pe dispozitivele din rețea

Dispozitivele care acceptă QoS folosesc în mod inteligent resursele de rețea pentru a transmite trafic. Adică, traficul de la aplicații mai tolerante la latență este pus în coadă (stocat într-un buffer în memorie), în timp ce traficul de la aplicațiile critice la latență este transmis.

Pentru a îndeplini această sarcină, dispozitivul de rețea trebuie să identifice traficul prin clasificarea pachetelor și, de asemenea, să aibă cozi și mecanisme pentru deservirea acestora.

Mecanism de procesare a traficului

Mecanismul de procesare a traficului include:

802.1p
- Servicii diferențiate per-hop-behaviors (diffserv PHB).
- Servicii integrate (intserv).
- bancomat etc.

Majoritatea rețelelor locale se bazează pe tehnologia IEEE 802, inclusiv Ethernet, token-ring etc. 802.1p este un mecanism de procesare a traficului pentru a sprijini QoS în astfel de rețele.

802.1p definește un câmp (nivelul 2 în modelul de rețea OSI) în antetul pachetului 802 care poate transporta una dintre cele opt valori de prioritate. De regulă, gazdele sau routerele, atunci când trimiteți trafic către o rețea locală, marchează fiecare pachet trimis, atribuindu-i o anumită valoare de prioritate. Dispozitivele de rețea, cum ar fi comutatoarele, podurile și hub-urile sunt de așteptat să proceseze pachetele în mod corespunzător folosind mecanisme de așteptare. Domeniul de aplicare al 802.1p este limitat la rețeaua locală (LAN). Odată ce pachetul traversează rețeaua locală (prin OSI Layer 3), prioritatea 802.1p este eliminată.

Diffserv este un mecanism de nivel 3. Acesta definește un câmp în antetul de nivel 3 al pachetelor IP numit diffserv codepoint (DSCP).

Intserv este o întreagă gamă de servicii care definește un serviciu garantat și un serviciu care gestionează descărcările. Un serviciu garantat promite să transporte o anumită cantitate de trafic cu o latență măsurabilă și limitată. Serviciul care gestionează descărcarea acceptă să transporte o parte din trafic cu „apare o congestie ușoară a rețelei”. Acestea sunt servicii cuantificabile în sensul că sunt definite pentru a oferi QoS măsurabil unei anumite cantități de trafic.

Deoarece Tehnologia ATM fragmentează pachetele în celule relativ mici, poate oferi o latență foarte scăzută. Dacă un pachet trebuie trimis urgent, interfața ATM poate fi întotdeauna eliberată pentru transmisie atât timp cât este nevoie pentru a trimite o celulă.

QoS are multe mecanisme mai complexe care fac ca această tehnologie să funcționeze. Să notăm doar unul punct important: Pentru ca QoS să funcționeze, sunt necesare suport pentru această tehnologie și configurație adecvată pe toată durata transmisiei, de la punctul de început până la punctul final.

Pentru claritate, luați în considerare fig. 1.

Acceptăm următoarele:

Toate routerele sunt implicate în transmiterea protocoalelor necesare.
- O sesiune QoS care necesită 64 Kbps este inițiată între gazda A și gazda B.
- O altă sesiune care necesită 64 Kbps este inițiată între Gazda A și Gazda D.
- Pentru a simplifica diagrama, presupunem că routerele sunt configurate astfel încât să poată rezerva toate resursele rețelei.

În cazul nostru, o solicitare pentru o rezervare de 64 Kbps ar ajunge la trei routere pe calea de date dintre Gazda A și Gazda B. O altă solicitare pentru 64 Kbps ar ajunge la trei routere între Gazda A și Gazda D. Routerele ar onora aceste solicitări de rezervare a resurselor deoarece nu depăşesc maximul. Dacă, în schimb, fiecare dintre gazdele B și C ar iniția simultan o sesiune QoS de 64 Kbps cu gazda A, atunci routerul care deservește aceste gazde (B și C) ar refuza una dintre conexiuni.

Acum să presupunem că administratorul de rețea dezactivează procesarea QoS în cele trei routere din aval care deservesc gazdele B, C, D, E. În acest caz, cererile de resurse de până la 128 Kbps ar fi satisfăcute indiferent de locația gazdei implicate în conexiune. Cu toate acestea, asigurarea calității ar fi scăzută, deoarece traficul către o gazdă ar pune în pericol traficul către alta. Calitatea serviciului ar putea fi menținută dacă routerul superior a limitat toate solicitările la 64 Kbps, dar acest lucru ar duce la o utilizare ineficientă a resurselor rețelei.

Pe de altă parte, capacitatea tuturor conexiuni de retea ar putea fi crescută la 128 Kbps. Dar lățimea de bandă crescută va fi utilizată numai atunci când gazdele B și C (sau D și E) solicită simultan resurse. Dacă nu este cazul, atunci resursele de rețea vor fi din nou utilizate ineficient.

Componente Microsoft QoS

Windows 98 conține numai componente QoS la nivel de utilizator, inclusiv:

Componentele aplicației.
- API GQoS (parte a Winsock 2).
- Furnizor de servicii QoS.

Sistemul de operare Windows 2000/XP/2003 conține tot ceea ce este descris mai sus și următoarele componente:

Furnizor de servicii de protocol de rezervare a resurselor (Rsvpsp.dll) și servicii RSVP (Rsvp.exe) și QoS ACS. Nu este utilizat în Windows XP, 2003. Gestionarea traficului (Traffic.dll).
- Clasificator generic de pachete (Msgpc.sys). Clasificatorul de pachete determină clasa de serviciu căreia îi aparține pachetul. În acest caz, pachetul va fi plasat în coada corespunzătoare. Cozile sunt gestionate de QoS Packet Scheduler.
- QoS Packet Scheduler (Psched.sys). Definește parametrii QoS pentru un anumit flux de date. Traficul este marcat cu o anumită valoare de prioritate. Programatorul de pachete QoS determină programarea cozii pentru fiecare pachet și gestionează cererile concurente între pachetele din coadă care trebuie să acceseze rețeaua în același timp.

Diagrama din Fig. 2 ilustrează stiva de protocoale, componentele Windows și interacțiunea acestora pe gazdă. Elementele care au fost utilizate în Windows 2000, dar nu sunt utilizate în Windows XP/2003, nu sunt prezentate în diagramă.

Aplicațiile sunt în partea de sus a stivei. Ei pot ști sau nu despre QoS. Pentru a valorifica întreaga putere a QoS, Microsoft recomandă utilizarea apelurilor API QoS generice în aplicațiile dvs. Acest lucru este deosebit de important pentru aplicațiile care necesită garanții de servicii de înaltă calitate. Unele utilitare pot fi folosite pentru a invoca QoS în numele aplicațiilor care nu cunosc QoS. Acestea funcționează prin intermediul API-ului de gestionare a traficului. De exemplu, NetMeeting utilizează API-ul GQoS. Dar pentru astfel de aplicații calitatea nu este garantată.

Ultimul cui

Punctele teoretice de mai sus nu oferă un răspuns clar la întrebarea unde se îndreaptă notorii 20% (pe care, remarc, nimeni nu a măsurat-o încă cu precizie). Pe baza celor de mai sus, acest lucru nu ar trebui să se întâmple. Dar oponenții au prezentat un nou argument: sistemul QoS este bun, dar implementarea este strâmbă. Prin urmare, 20% sunt încă „grași”. Aparent, problema l-a afectat și pe gigantul software, deoarece a respins separat astfel de inventii cu destul de mult timp în urmă.

Cu toate acestea, vom acorda cuvântul dezvoltatorilor și vom prezenta punctele selectate din articolul „316666 - Îmbunătățirile și comportamentul calității serviciului Windows XP (QoS)” în limba rusă literară:

„Sută la sută din lățimea de bandă a rețelei este disponibilă pentru distribuție între toate programele, cu excepția cazului în care un program solicită în mod explicit lățime de bandă prioritară. Această lățime de bandă „rezervată” este disponibilă pentru alte programe, cu excepția cazului în care programul care a solicitat-o ​​nu trimite date.

În mod implicit, programele pot rezerva până la 20% din viteza conexiunii principale pe fiecare interfață de computer. Dacă programul care a rezervat lățimea de bandă nu trimite suficiente date pentru a le utiliza pe toate, partea neutilizată a lățimii de bandă rezervată este disponibilă pentru alte fluxuri de date.

Au existat afirmații în diferite articole tehnice și grupuri de știri conform cărora Windows XP își rezervă întotdeauna 20% din lățimea de bandă disponibilă pentru QoS. Aceste afirmații sunt incorecte.”

Dacă acum cineva încă mănâncă 20% din lățimea de bandă, ei bine, vă pot sfătui să continuați să utilizați tot felul de ajustări și curbe drivere de rețea. Nici nu va fi atât de mult să „îngrași”.

Nu există nicio persoană care să nu fi citit măcar o dată câteva întrebări frecvente pe Windows XP. Și dacă da, atunci toată lumea știe că există un serviciu de calitate a serviciului atât de dăunător - QoS pe scurt. Este foarte recomandat să-l dezactivați atunci când vă configurați sistemul, deoarece limitează lățimea de bandă a rețelei cu 20% în mod implicit, iar această problemă pare să existe și în Windows 2000.

Acestea sunt liniile:

Î: Cum pot dezactiva complet serviciul QoS (Calitatea Serviciului)? Cum se configurează? Este adevărat că limitează viteza rețelei?
R: Într-adevăr, în mod implicit, Quality of Service rezervă 20% din capacitatea canalului pentru nevoile sale (orice canal - chiar și un modem 14400, chiar și un gigabit Ethernet). Mai mult, chiar dacă eliminați serviciul QoS Packet Scheduler din conexiunea Proprietăți, acest canal nu este eliberat. Puteți elibera un canal sau pur și simplu puteți configura QoS aici. Lansați aplicația Politica de grup (gpedit.msc). În Politica de grup, găsiți Politica computerelor locale și faceți clic pe Șabloane administrative. Selectați Network - QoS Packet Sheduler. Activați Limitați lățimea de bandă rezervabilă. Acum coborâm limita lățimii de bandă cu 20% la 0% sau pur și simplu o dezactivăm. Dacă doriți, puteți configura și alți parametri QoS aici. Pentru a activa modificările efectuate, tot ce trebuie să faceți este să reporniți.

20% este, desigur, mult. Într-adevăr, Microsoft este Mazda. Declarațiile de acest fel rătăcesc de la Întrebări frecvente la Întrebări frecvente, de la forum la forum, de la media la media, sunt folosite în tot felul de „ajustări” - programe pentru „ajustarea” Windows XP (apropo, deschideți „Politici de grup” și „Local Politici de securitate”, și nici un singur tweaker nu se poate compara cu acestea în ceea ce privește multitudinea de opțiuni de personalizare). Acuzațiile nefondate de acest fel trebuie expuse cu atenție, ceea ce vom face acum, folosind o abordare sistematică. Adică, vom studia temeinic problematica, bazându-ne pe surse primare oficiale.

Ce este o rețea cu servicii de calitate?

Să acceptăm următoarea definiție simplificată a unui sistem de rețea. Aplicațiile rulează și rulează pe gazde și comunică între ele. Aplicațiile trimit date către sistemul de operare pentru a le transmite prin rețea. Odată ce datele sunt transferate în sistemul de operare, acestea devin trafic de rețea.

QoS de rețea se bazează pe capacitatea rețelei de a procesa acest trafic într-un mod care asigură îndeplinirea anumitor solicitări ale aplicației. Acest lucru necesită un mecanism fundamental de procesare a traficului de rețea care poate identifica traficul eligibil pentru un tratament special și dreptul de a controla aceste mecanisme.

Funcționalitatea QoS este concepută pentru a satisface două părți interesate de rețea: aplicațiile de rețea și administratorii de rețea. Ei au adesea dezacorduri. Administratorul de rețea limitează resursele utilizate de o anumită aplicație, în timp ce aplicația încearcă să preia cât mai multe resurse de rețea. Interesele acestora pot fi aliniate, ținând cont de faptul că administratorul de rețea joacă un rol dominant în raport cu toate aplicațiile și utilizatorii.

Parametrii de bază QoS

Aplicațiile diferite au cerințe diferite pentru gestionarea traficului lor de rețea. Aplicațiile sunt mai mult sau mai puțin tolerante la întârzieri și pierderi de trafic. Aceste cerințe și-au găsit aplicație în următorii parametri legați de QoS:

  • Lățimea de bandă - viteza cu care traficul generat de o aplicație trebuie transmis prin rețea;
  • Latență - întârzierea pe care o poate tolera o aplicație în livrarea unui pachet de date;
  • Jitter - modificați timpul de întârziere;
  • Pierdere - procentul de date pierdute.

Dacă ar fi disponibile resurse infinite de rețea, atunci tot traficul aplicației ar putea fi transmis la viteza necesară, cu latență zero, variație de latență zero și pierdere zero. Cu toate acestea, resursele de rețea nu sunt nelimitate.

Mecanismul QoS controlează alocarea resurselor de rețea către traficul aplicației pentru a îndeplini cerințele de transmisie.

Resurse QoS fundamentale și mecanisme de procesare a traficului

Rețelele care conectează gazde folosesc o varietate de dispozitive de rețea, inclusiv adaptoare de rețea gazdă, routere, comutatoare și hub-uri. Fiecare dintre ele are interfețe de rețea. Fiecare interfață de rețea poate primi și transmite trafic la o rată finită. Dacă viteza cu care traficul este trimis către o interfață este mai rapidă decât viteza cu care interfața redirecționează traficul în continuare, atunci apare congestie.

Dispozitivele din rețea pot gestiona condițiile de congestie punând în coadă traficul în memoria (buffer) a dispozitivului până când trece congestionarea. În alte cazuri, echipamentele de rețea pot respinge traficul pentru a reduce congestionarea. Ca rezultat, aplicațiile se confruntă cu modificări ale latenței (pe măsură ce traficul este stocat în cozi pe interfețe) sau pierderi de trafic.

Capacitatea interfețelor de rețea de a redirecționa traficul și disponibilitatea memoriei pentru a stoca traficul în dispozitivele de rețea (până când traficul nu mai poate fi trimis) constituie resursele fundamentale necesare pentru a asigura QoS pentru fluxurile de trafic ale aplicațiilor.

Distribuția resurselor QoS pe dispozitivele din rețea

Dispozitivele care acceptă QoS folosesc în mod inteligent resursele de rețea pentru a transmite trafic. Adică, traficul de la aplicații mai tolerante la latență este pus în coadă (stocat într-un buffer în memorie), în timp ce traficul de la aplicațiile critice la latență este transmis.

Pentru a îndeplini această sarcină, dispozitivul de rețea trebuie să identifice traficul prin clasificarea pachetelor și, de asemenea, să aibă cozi și mecanisme pentru deservirea acestora.

Mecanism de procesare a traficului

Mecanismul de procesare a traficului include:

  • 802,1p;
  • Servicii diferențiate per-hop-behaviors (diffserv PHB);
  • Servicii integrate (intserv);
  • ATM, etc.

Majoritatea rețelelor locale se bazează pe tehnologia IEEE 802, inclusiv Ethernet, token-ring etc. 802.1p este un mecanism de procesare a traficului pentru a sprijini QoS în astfel de rețele.

802.1p definește un câmp (nivelul 2 în modelul de rețea OSI) în antetul pachetului 802 care poate transporta una dintre cele opt valori de prioritate. De regulă, gazdele sau routerele, atunci când trimiteți trafic către o rețea locală, marchează fiecare pachet trimis, atribuindu-i o anumită valoare de prioritate. Dispozitivele de rețea, cum ar fi comutatoarele, podurile și hub-urile sunt de așteptat să proceseze pachetele în mod corespunzător folosind mecanisme de așteptare. Domeniul de aplicare al 802.1p este limitat la rețeaua locală (LAN). Odată ce pachetul traversează rețeaua locală (prin OSI Layer 3), prioritatea 802.1p este eliminată.

Diffserv este un mecanism de nivel 3. Acesta definește un câmp în antetul de nivel 3 al pachetelor IP numit diffserv codepoint (DSCP).

Intserv este o întreagă gamă de servicii care definește un serviciu garantat și un serviciu care gestionează descărcările. Un serviciu garantat promite să transporte o anumită cantitate de trafic cu o latență măsurabilă și limitată. Serviciul care gestionează descărcarea acceptă să transporte o parte din trafic cu „apare o congestie ușoară a rețelei”. Acestea sunt servicii cuantificabile în sensul că sunt definite pentru a oferi QoS măsurabil unei anumite cantități de trafic.

Deoarece tehnologia ATM fragmentează pachetele în celule relativ mici, poate oferi o latență foarte scăzută. Dacă un pachet trebuie trimis urgent, interfața ATM poate fi întotdeauna eliberată pentru transmisie atât timp cât este nevoie pentru a trimite o celulă.

QoS are multe mecanisme mai complexe care fac ca această tehnologie să funcționeze. Să remarcăm doar un punct important: pentru ca QoS să funcționeze, suportul pentru această tehnologie și configurația adecvată sunt necesare pe tot parcursul transmisiei de la punctul de început până la punctul final.