Calcul distribuit. Calcul distribuit voluntar - cum să ajutați știința fără a face nimic

Posibile rezultate benefice ale utilizării calculului paralel:

1) Creșterea vitezei de numărare, adică a efectua aceeași cantitate de muncă în mai puțin timp (interesant, în primul rând, pentru sarcini cu limite de timp).

2) Creșterea debitului, adică a face mai multă muncă în același timp (interesant, în primul rând, pentru sarcini care conțin cantități mari de date).

3) Creșterea puterii, adică rezolvarea problemelor de volum mai mare (interesant, în primul rând, pentru problemele în care modelele nu sunt suficient de detaliate).

Rezultate benefice indicate poate sa fi de neatins simultan, folosind același set de metode și tehnologii.

Conceptul de paralelism al calculelor înseamnă în primul rând simultaneitatea lor, adică utilizarea simultană a diferitelor dispozitive de calcul (procesoare, nuclee etc.) pentru a le efectua. Simultaneitatea execuției în sine poate fi utilizată în diferite moduri. Deci, de exemplu, 1) același calcul poate fi efectuat simultan cu părți ale aceluiași set de date separat (de exemplu, probleme meteorologice, rețele distribuite în probleme de transport, sisteme de control distribuite în general); 2) pot fi efectuate simultan diferite calcule pe un set de date (de exemplu, problema cu mai multe corpuri din dinamica moleculară sau astrofizică); 3) diverse calcule pot forma o conductă, în care fiecare computer primește date în părți, le prelucrează și le transferă către următorul computer (de exemplu, implementarea internă a operațiunilor pe numere reale în procesoare).

Pentru ca calculele să fie efectuate într-o manieră paralelă/distribuită, ele trebuie să fie traduse într-o formă potrivită pentru o astfel de execuție - paralelizare. Alegerea unui model de paralelizare specific depinde de natura problemei în cauză; calcule scalare, ale căror părți individuale trebuie executate reciproc succesiv, nu pot fi paralelizate.

Poveste

În 1973, John Schoch și John Hupp de la Centrul de Cercetare Xerox PARC din California au scris un program care rula în rețeaua locală PARC noaptea și forța computerele care rulează să efectueze calcule.

În 1978, matematicianul sovietic Viktor Glushkov a lucrat la problema calculului distribuit macro-pipeline. El a propus o serie de principii pentru distribuirea muncii între procesoare.

În ianuarie 1996, a fost lansat proiectul GIMPS de căutare a numerelor prime Mersenne, folosind și computerele utilizatorilor obișnuiți ca o rețea de calculatoare voluntară.

Pe 28 ianuarie 1997 a fost lansată competiția RSA Data Security pentru a rezolva problema hacking-ului folosind o metodă simplă de căutare a cheii de criptare a informațiilor pe 56 de biți RC5. Datorită unei bune pregătiri tehnice și organizatorice, proiectul, organizat de comunitatea non-profit distributed.net, a devenit rapid cunoscut.

Pe 17 mai 1999, SETI@home a fost lansat pe baza Grid, iar la începutul anului 2002, Universitatea din California din Berkeley a finalizat dezvoltarea platformei deschise BOINC (Berkeley Open Infrastructure for Network Computing), dezvoltată din aprilie 2000, inițial pentru SETI@Home, dar primul de pe platforma BOINC a devenit proiectul Predictor@home lansat pe 9 iunie 2004.

Calculează managementul locurilor de muncă

Problema distribuirii diverselor sarcini de calcul în cadrul unui sistem distribuit se referă la problema luării deciziilor în condiții de incertitudine. Această problemă este luată în considerare în teoria deciziei și teoria incertitudinii.

Sisteme de operare distribuite

Un sistem de operare distribuit, prin distribuția dinamică și automată a lucrărilor pe diferite mașini de sistem pentru procesare, forțează un set de mașini conectate în rețea să proceseze informații în paralel. Utilizatorul unui sistem de operare distribuit, în general, nu are informații despre mașina pe care este efectuată munca sa.

Un sistem de operare distribuit există ca un singur sistem de operare pe un sistem computerizat. Fiecare computer dintr-o rețea care rulează un sistem de operare distribuit îndeplinește o parte din funcțiile acestui sistem de operare global. Un sistem de operare distribuit reunește toate computerele din rețea în sensul că acestea lucrează în strânsă cooperare între ele pentru a utiliza eficient toate resursele rețelei de calculatoare.

Ca rezultat, un sistem de operare de rețea poate fi considerat ca o colecție de sisteme de operare ale computerelor individuale care alcătuiesc rețeaua. Diferite computere din rețea pot rula aceleași sisteme de operare sau diferite. De exemplu, toate computerele dintr-o rețea pot rula același sistem de operare UNIX. O opțiune mai realistă este o rețea care rulează diferite sisteme de operare, de exemplu, unele computere rulează UNIX, altele rulează NetWare, iar restul rulează Windows NT și Windows 98. Toate aceste sisteme de operare funcționează independent unele de altele, în sensul că fiecare ia decizii independente cu privire la crearea și terminarea propriilor procese și gestionarea resurselor locale. Dar, în orice caz, sistemele de operare ale calculatoarelor care operează într-o rețea trebuie să includă un set de protocoale de comunicare convenit de comun acord pentru organizarea interacțiunii proceselor care rulează pe diferite computere din rețea și partajarea resurselor acestor computere între utilizatorii rețelei.

Dacă sistemul de operare al unui computer individual îi permite să funcționeze într-o rețea și poate să-și partajeze resursele și/sau să folosească resursele altor computere din rețea, atunci un astfel de sistem de operare al unui computer individual este numit și sistem de operare de rețea.

Astfel, termenul „sistem de operare în rețea” este folosit în două sensuri: ca un set de sisteme de operare pentru toate computerele din rețea și ca sistem de operare al unui computer individual capabil să lucreze în rețea. Din această definiție rezultă că sistemele de operare precum Windows NT, NetWare, Solaris, HP-UX sunt sisteme de operare în rețea, deoarece toate au caracteristici care permit utilizatorilor să lucreze în rețea.

Legături și note

Articolul folosește materiale de pe Wikipedia.

Literatură deschisă

  • Calcul paralel și distribuit: metode numerice / D.P. Bertsekas, J.N. Tsitsiklis. – Prentice-Hall, 1989; Athena Scientific, 1997. – Mod de acces: .]

De mai bine de șaisprezece ani, fiecare utilizator are o bună oportunitate de a contribui la dezvoltarea științei. Nu sunt necesare donații bănești sau chiar interes profesional pentru subiectul de cercetare ales. Singurul lucru care contează este ce trăsături de caracter are o persoană și modul în care computerele moderne îi sunt la dispoziție. Cu o combinație de succes a acestor factori, apar noduri fiabile ale rețelelor de calcul distribuite - unul dintre cele mai puternice instrumente pentru prelucrarea datelor computerizate.

Datorită eforturilor comune ale utilizatorilor obișnuiți, s-au făcut multe descoperiri semnificative. Numai în ultimii trei ani au găsit 53 de pulsari, iar ultimii șapte au fost găsiți destul de recent - la sfârșitul lunii august 2012. Rezultatele cercetărilor efectuate sunt utilizate în dezvoltarea de medicamente pentru tratamentul diabetului de tip 2, bolile Alzheimer și Parkinson și alte boli grave. Pe baza muncii efectuate au fost publicate sute de articole științifice.

Supercalculatoare și rețele distribuite

Supercomputerele puternice sunt o picătură în ocean. Nu există atât de multe mașini care să fie o sursă de mândrie pentru țări întregi și să ocupe primele rânduri ale clasamentului TOP 500 și nu sunt suficiente pentru toată lumea. Pentru a avea acces la un supercomputer, trebuie mai întâi să justificați necesitatea sarcinii alese, iar apoi, dacă argumentele sunt convingătoare, să așteptați la coadă și să aveți timp să optimizați codul pentru execuție pe o arhitectură unică de supercomputer.

„Așadar, dacă Crysis nu alergă pentru mine”, a recunoscut prietenul meu Vladimir cu o simplitate fără pricepere, „dar în 1974 computerul meu ar putea controla o escadrilă de sateliți militari!”

Nu am obiectat, puterea computerelor moderne face plăcere doar producătorilor de jocuri pe calculator și creatorilor de sisteme de operare monstruoase. 9 din 10 utilizatori încarcă procesorul cu 40% pe zi. Restul timpului este o agitare fără sens de răcitoare de aer, în timp ce un exemplu de geniu uman de patru gigaherți joacă rolul unui centru media.

Cei care sunt chinuiți de conștiința lor pentru utilizarea irațională a puterii au organizat pe planeta noastră ceva ca un club pentru iubitorii de eficiență PC 100%. Proiectul hacker SETI, pentru cancer și SIDA, precum și multe alte proiecte umanitare și morale, inclusiv obținerea celui mai mare număr prim.

Să presupunem că nu crezi în extratereștri până la primul litru și consideri că medicamentele sunt contrare adevăratei esențe a „Mamei Natură”. Mai mult, nici nu vă pasă de noii divizori pentru numerele Fermat. Dar nu-ți pierde speranța. Există zeci de alte proiecte distribuite în lume, dintre care unele sunt dezvoltate de hackeri pentru hackeri (RainbowCrack), vă oferă bani buni (GIMPS) și chiar amenință cu dispariția parțială a umanității (LHC@home). Alegerea dintre ele este doar o chestiune de gust și preferințe personale.

Calcul distribuit par niște jocuri plictisitoare pentru matematicieni. Până când cineva începe să calculeze pe computerul tău un model al unui război nuclear local în țările lumii a treia. Sau să dezvolte noi arme bacteriologice sub pretextul unui leac pentru cancer. Există, de asemenea, proiecte foarte populare care strigă clar „suntem periculoși!”, dar în spatele cuvintelor generale ale creatorilor „oh, cât de util este și nu ai nimic de pierdut”, este greu să discernești adevăratele obiective ale cercetării. . A ști dinainte - și a fi pregătit pentru consecințe - este responsabilitatea ta directă. În caz contrar, există șanse mari ca milioane de lemmings să împingă roata istoriei în abis.

Predicția climei

Un proiect care încearcă să spargă bazele teoriei haosului în o mie de bucăți crocante și să prezică vremea cu 50 de ani înainte. Predicțiile se bazează nu pe „noi metode revoluționare de prognoză care folosesc supercalculatoare și magia șamanilor indieni”, ci pe cele mai vechi teorii și scheme. Adică, în același mod în care se prezică vremea acum. Astfel, proiectul își propune 2 obiective: în primul rând, să stabilească acuratețea și eficacitatea metodelor utilizate în prezent; în al doilea rând, dacă tehnicile sunt eficiente, preziceți vremea pentru cea mai lungă perioadă.

Participanții, ca de obicei, vor trebui să descarce programul, simulând diferite condiții meteorologice de pe Pământ. Dintre rezultatele obținute, vor fi selectate mai întâi cele care sunt cele mai în concordanță cu rezultatele din trecut, înainte de 2000, iar pe baza acestora se va construi un model de schimbări climatice în viitor.

Cerințe:În timpul funcționării, programul ocupă aproximativ 50 Megaocteți de memorie pentru a salva date, veți avea nevoie de 500 MB pe hard disk; Ca bonus, aș dori să remarc interactivitatea lucrării - veți putea vedea un model tridimensional al Pământului și veți putea urmări schimbările climatice cu proprii dumneavoastră ochi.

Rezultat: o sarcină similară va dura o mie de ani unui supercomputer, iar participarea ta modestă în zece ani va ajuta la prezicerea diferitelor fenomene meteorologice dăunătoare cu o acuratețe incredibilă. Ei bine, în plus, vei îngropa o secțiune uriașă a matematicii moderne care afirmă imposibilitatea predicțiilor pe termen lung.

LHC@home

Dacă te grăbești să aduci sfârșitul lumii pe Pământ mai aproape, acest proiect este pentru tine. Proiectul modelează procesele care vor avea loc într-o clădire aflată în prezent în construcție în Elveția. LHC (Ciocnitorul mare de hadroni) - cel mai mare accelerator de particule din lume. Într-un accelerator lung de aproximativ 27 de kilometri, aceștia plănuiesc să ciocnească doi protoni pentru a demonstra experimental existența unui anumit boson Higgs. Unii experți și membri ai publicului și-au exprimat îngrijorarea că există o probabilitate diferită de zero ca experimentele efectuate la ciocnitor să scape de sub control și să se dezvolte o reacție în lanț.
o reacție care, în anumite condiții, ar putea distruge teoretic întreaga planetă. Punctul de vedere al susținătorilor scenariilor catastrofale legate de muncă LHC prezentate pe site-ul web http://www.risk-evaluation-forum.org/anon1.htm.

Dacă credeți că puteți muri pentru cauza anihilării întregului univers, atunci alăturați-vă nouă. Ideea este că de la LHC Ei plănuiesc să primească până la 15 petaocteți de date anual. Chiar acum puteți ajuta la începerea procesării acestor date descărcând programul SixTrack, în care modele se deplasează de-a lungul inelului LHC particule pentru a studia stabilitatea orbitelor lor. Rezultatele executiei programului SixTrack sunt foarte importante, ele determină cum va funcționa cel mai mare proiect științific din lume, ale cărui activități pot revoluționa fizica sau pot trimite galaxia noastră în anti-spațiu.

Cerințe: nesemnificativ.

Rezultat: dovezi ale unor teorii științifice; dezintegrarea la nivel scăzut a universului.

Proiectarea acceleratorului de particule distribuite Muon1

În cazul improbabil al unui test reușit LHC, omenirea va distruge cu siguranță Muon1. Până în 2015 este planificat să se construiască primul din lume Fabrica de neutrinilaborator pentru generarea particulelor de neutrini. Neutrinii sunt cele mai comune particule din univers. Pătrunde aproape orice obiect fără a reduce semnificativ viteza. Se știe că 10 14 neutrini trec prin corpul uman în fiecare secundă. Înțelegerea naturii neutrinilor va oferi omenirii cheia pentru a dezvălui istoria originii întregului univers.

Pentru a genera neutrini se plănuiește să se utilizeze ciocnitorul de muoni- un accelerator, datorită căruia va fi posibilă obținerea celor mai mari energii de coliziune a particulelor realizate vreodată de om. Comparativ cu el LHC- o jucărie pentru o grădiniță. Va fi eficient? Muon1și ce fel de rezultate ar trebui să fie așteptate de la noul colider va fi decis de computerul dumneavoastră dacă acesta se alătură proiectului. Ce calcule specifice face programul client este clar doar pentru un specialist în domeniul fizicii cuantice. Cu toate acestea, nu vă înșelați - rezultatele sunt foarte importante.

Cerințe: Pentium III-500 cu 64 MB de memorie.

Rezultat: Poate că tu vei fi cel care va da impuls finanțării unuia dintre cele mai ambițioase proiecte din istoria omenirii.

RainbowCrack

În timp ce majoritatea proiectelor de securitate informatică se ocupă de metode obositoare, aproape inutile de a distruge sistemele de criptare, RainbowCrack creează o bază de date cu toate tipurile posibile de parole și hashurile corespunzătoare acestora folosind toți algoritmii de hashing obișnuiți din lume. De obicei, versiunea hash a parolei este stocată în domeniul public și se știe din ce algoritm a fost obținut acest hash (de exemplu, MD5), dar conversia inversă este considerată o operație prea complexă, necesitând în general căutarea prin toate combinațiile posibile. - aceasta este baza pentru securitatea multor sisteme moderne. Dacă ați sortat tabelele hash și corespunzătoare
parole - obținem un sistem care, folosind o căutare rapidă binară într-un tabel, poate obține o conversie inversă hash-to-parolă pentru orice algoritm de hashing existent.

Acum, proiectul a creat sute de gigabytes din toate parolele posibile, care permit, cu o probabilitate de aproximativ 99%, să se găsească în câteva minute o conversie inversă de la un hash la orice parolă de până la 7 caractere (nu doar litere, ci de asemenea numere și multe caractere speciale), criptate folosind algoritmi LanMan(autorizare în Windows), NT LanMan(autorizare în Windows NT, inclusiv domeniile de rețea), MD2, MD4, MD5, SHA1, RIPEMD-160, Cisco PIX(majoritatea routerelor) MySQL 3.23, MySQL SHA1.

Toți participanții la proiect au posibilitatea de a utiliza acum sistemul de decriptare a parolei rezultat sub forma unui serviciu online - frecvența de utilizare a serviciului de către un participant este nelimitată, dar perioada de valabilitate a fiecărui cont este limitată. Pentru a prelungi timpul de acces, participanții sunt încurajați să calculeze noi tabele care cresc numărul de algoritmi acceptați și combinații de parole. De obicei, calculul tabelului durează de la câteva zile la o săptămână de timp de procesor (2 GHz) - pentru fiecare tabel, timpul de acces este extins cu 2 săptămâni.

Cerințe: 640 Megabytes pe hard disk, trafic de ieșire - aproximativ 3 Gigabytes pe lună. Aproape că nu necesită trafic de intrare, timp CPU sau axe specifice.

Rezultat: Este un caz rar când lucrezi, cel mai probabil, pentru tine și folosești rezultatul în afaceri.

În trecutul recent, au fost create clustere de calcul speciale pentru calcule științifice, dar puterea lor nu este nelimitată și nu este în mod constant suficientă pentru a procesa toate datele. În consecință, oamenii de știință au fost nevoiți să caute acces la noi resurse de calcul. În loc să cumpărăm încă un computer scump, am luat o cale alternativă și am început să folosim computerele utilizatorilor obișnuiți, pe care le-au donat gratuit pentru calcule în numele științei.

La început, această idee părea nepromițătoare, deoarece la mijlocul anilor 90, când au început să apară primele rețele de calcul distribuite în forma lor actuală, frecvențele procesoarelor abia depășeau pragul de 100 MHz, internetul era rar, iar accesul la un foarte mare numărul de computere nu era discutabil.

Cu toate acestea, dezvoltarea World Wide Web și creșterea performanței procesorului în deplină concordanță cu legea lui Moore a condus la faptul că acum rețelele distribuite concurează pe picior de egalitate cu supercalculatoarele de top și, spre deosebire de acestea, acestea sunt în mod constant îmbunătățite și nu costa nici un ban.

Dacă te uiți la schimbările din rețelele distribuite din ultimii câțiva ani, poți observa imediat câteva puncte cheie.

Probabil cel mai important pas și care nu a fost încă pe deplin dezvăluit a fost trecerea la GPU computing, care în unele cazuri accelerează calculele cu un ordin de mărime. Un rol semnificativ l-au jucat și optimizarea algoritmilor de calcul pentru procesoarele multi-core, capacitatea de a efectua simultan calcule pe CPU și GPU, suportul pentru calcul pe 64 de biți, apariția clienților pentru console de jocuri, suport pentru sisteme de operare alternative. (Mac OS X, Linux), răspândirea rapidă a Internetului și, ceea ce este important, o simplificare vizibilă a clienților care nu mai necesită utilizatorilor să execute calcule prin linia de comandă.

Comparație cu supercalculatoarele

Rețelele de calcul distribuite sunt deja numite supercalculatoare virtuale, iar prefixul „virtual” este mai degrabă folosit aici pentru a le diferenția de supercalculatoarele clasice, deoarece ambele tipuri de sisteme de calcul sunt aproape la același nivel în ceea ce privește viteza de operare.

În octombrie 2012, proiectul Folding@home recrutase 219 mii de procesoare, 20 mii GPU-uri, 16 mii console PlayStation 3, iar capacitatea sa totală era de 3,7 petaFLOPS (putere maximă de 6 petaFLOPS a fost înregistrată în noiembrie 2011) . Conform datelor pentru aceeași lună, performanța BOINC (toate proiectele incluse în această rețea) este de 6,6 petaFLOPS (la data publicării materialului - 7,4 petaFLOPS, conform site-ului oficial, dar această cifră este calculată numai pentru ultimele 24 de ore).

Dacă aceste sisteme de calcul virtuale sunt plasate în lista de supercomputere, ele se vor strânge între a treia și a patra linie a ratingului, vizibil înaintea celui mai apropiat concurent (performanța SuperMUC, în prezent pe locul patru, este de 3,1 petaFLOPS).

Pentru a ajunge pe primul loc, Boinc ar trebui să fie de aproximativ trei ori mai rapid, deoarece Sequoia (în prezent cel mai rapid supercomputer din lume) are un rating de 20,1 petaFLOPS. Având în vedere că acest computer a devenit complet operațional abia în această vară, putem presupune că sistemele de calcul distribuite vor putea avansa în câțiva ani, chiar și ținând cont de apariția unor noi supercomputere.

Principalele domenii de cercetare

Fără îndoială, calculul distribuit a devenit deja un fenomen larg răspândit, prin urmare, printre ele puteți găsi proiecte care rezolvă aproape orice problemă științifică. Cu toate acestea, cele mai populare proiecte sunt axate pe rezolvarea unei game destul de restrânse de probleme. În primul rând, aceasta este medicina (cercetarea proteinelor și căutarea medicamentelor), predicția climei, explorarea spațiului (căutarea semnalelor extraterestre, modele corecte ale universului, exoplanete), testarea teoriilor matematice și fizice.

Cum să vă conectați la o rețea de calcul distribuită

Dacă decideți că găsirea de remedii pentru boli incurabile sau prezicerea schimbărilor climei Pământului sunt sarcini demne de a le dedica computerul, atunci donarea voluntară a puterii de calcul la oricare dintre aceste proiecte nu este deloc dificilă.

Cel mai simplu mod de a face acest lucru este să descărcați clientul BOINC și să rulați Expertul Add New Project. La unul dintre pași va trebui să vă înregistrați (ceea ce se poate face direct în program), asta sunt toate dificultățile. Dacă întâmpinați dificultăți în alegerea unui anumit proiect, puteți specifica mai multe simultan, iar acestea vor fi numărate pe rând.

În mod implicit, BOINC folosește tot timpul disponibil de calculator, dar își setează calculele la cea mai mică prioritate, astfel încât clientul să folosească resursele CPU ultimul.

În ceea ce privește memoria, conceptul de prioritate nu se aplică aici și, deoarece pe procesoarele cu mai multe nuclee, BOINC rulează mai multe copii de calcule simultan, fiecare dintre acestea putând ocupa câteva sute de megaocteți în memorie (astfel de volume nu sunt necesare pentru toate proiectele), apoi în jocuri și alte aplicații solicitante, toate Este mai bine să întrerupeți calculele, care pot fi făcute direct în client.

Mai multe reglaje pot fi făcute în opțiunile BOINC, indicând programului orele de utilizare a computerului, perioada de inactivitate a PC-ului după care pot fi pornite calculele, precum și cantitatea de putere a procesorului (în procente) disponibilă clientului .

Puncte pentru participare

Majoritatea proiectelor acordă puncte pentru participare. Numărul lor depinde direct de complexitatea calculelor, prin urmare, cu cât computerul este mai productiv și cu cât este folosit mai mult, cu atât se acordă mai multe puncte. Fiecare utilizator are propria sa pagină de statistici, unde își poate vizualiza clasamentul individual și pe echipe în clasamentul general (echipa implicită este țara specificată în timpul înregistrării).

Boinc nu este o rețea distribuită în sensul tradițional, ci mai degrabă un intermediar între proiecte și utilizatori. Boinc a fost dezvoltat inițial ca client pentru SETI@home, dar acum poate fi folosit pentru a se conecta la alte zeci de proiecte.

Cel mai puternic proiect de studiere a climei Pământului. Angajat în modelarea condițiilor meteorologice ale viitorului (până în 2080), ținând cont de diverse date de intrare. În prezent are câteva milioane de combinații calculate. Proiectul a fost lansat în 2003.

Proiectul caută unde gravitaționale, a căror existență nu a fost încă dovedită, dar prezența lor a fost prezisă teoretic de Einstein în urmă cu aproape un secol.

Pentru a detecta undele gravitaționale, sunt procesate date de la radiotelescoape și sateliți speciali care observă stelele neutronice în rotație (pulsari). Pe parcursul existenței proiectului, au fost descoperite peste trei duzini de astfel de obiecte.

Rezultatele testului, publicat în iulie 2012, indică faptul că nici cei mai sensibili senzori ai undelor gravitaționale nu au reușit încă să le detecteze prezența, dar proiectul își continuă activitatea, analizând date noi și așteptând punerea în funcțiune a unor instrumente mai precise.

Einstein@home a fost lansat în 2005 și are în prezent o putere de calcul de aproximativ 0,5 petaFLOPS.

Unul dintre cele mai populare proiecte medicale implicate în proiectarea și studiul virtual al proprietăților noilor proteine, care pot contribui la descoperirea unor medicamente pentru bolile incurabile în prezent.

Proiectul a început în 2005 și, în octombrie 2011, puterea sa de calcul era de aproximativ 60 teraFLOPS (0,06 petaFLOPS)

Poate cel mai popular proiect de calcul distribuit. În ceea ce privește puterea de calcul, este deja comparabilă cu toate proiectele incluse în BOINC. Face aproape același lucru ca Rosetta@home, adică. studiind proprietățile proteinelor și, de la lansare, peste o sută de lucrări științifice au fost publicate datorită acesteia.

Proiectul a reușit să obțină o putere mare atât datorită unui început timpuriu (2000), cât și datorită lansării unui client foarte productiv pentru PlayStation 3 (2007), precum și optimizării calculelor pentru procesoare multi-core și plăci video, care efectuează calcule, de regulă, de câteva ori mai eficiente decât cele mai noi procesoare.

Unul dintre veteranii calculatoarelor distribuite. Lansate în 1999, și astfel, după decenii de căutare a semnalelor extraterestre în temnițele laboratoarelor științifice, computerele obișnuite s-au alăturat și ele la decodarea undelor radio cosmice.

În ciuda celor treisprezece ani de experiență, proiectul nu a primit încă un rezultat comparabil în scandal cu semnalul „Wow!”. , înregistrată în 1975. S-au găsit însă mai multe puncte pe cer - candidate pentru o scanare mai amănunțită, datorită intensității crescute a semnalelor pe fondul zgomotului normal. Puterea de calcul a proiectului este de aproximativ 0,5 petaFLOPS.

Un proiect interesant al cărui scop este crearea unui motor de căutare bazat pe principiul rețelelor de calcul distribuite.

Sarcina principală a unui client care rulează pe un PC este indexarea paginilor. Spre deosebire de alte tipuri de calculatoare distribuite, Majestic-12 are cerințe foarte modeste de putere de procesare a computerului, dar consumă foarte mult trafic.

În octombrie 2009, Majestic-12 a indexat un trilion de pagini. Google a atins aceeași cifră nu cu mult mai devreme - în iulie 2008.

Proiectul este conceput pentru a facilita spargerea parolelor. În loc să încerce milioane de combinații de fiecare dată pentru o anumită secvență de caractere, RainbowCrack generează hash-uri ale fiecărei parole folosind diferite metode și le stochează în tabele speciale, de unde orice parolă poate fi recuperată mult mai rapid folosind acest hash.

În prezent, tabelele RainbowCrack ocupă deja sute de gigaocteți și vă permit să găsiți în câteva minute orice parolă de până la șapte caractere (formată din litere, cifre și alte simboluri), criptată folosind mai mulți algoritmi diferiți (LanMan, MD5, SHA1 etc. ).

Un proiect de creare a inteligenței artificiale capabilă să perceapă și să prelucreze informații în formă lingvistică.

Proiectul este încă în curs de dezvoltare și este conceput pentru a căuta exoplanete, inclusiv cele terestre.

Un proiect de căutare a strategiilor optime pentru detectarea asteroizilor care trec aproape de Pământ.

Redarea animației 3D este o sarcină care necesită foarte multe resurse, așa că există un loc pentru aceasta în calculul distribuit. În timp ce Burp este în stadiul Beta, aceasta înseamnă că scenele încărcate pentru randare nu vor fi neapărat trimise cuiva ca sarcină sau pot fi emise cu întârziere, dar după o lansare completă, redarea tuturor proiectelor primite este garantată.

Un proiect de reconstrucție a unui model tridimensional al galaxiei noastre, permițându-ne să învățăm istoria formării Căii Lactee.

În plus, sunt calculate procesele de ciocnire și fuziune a galaxiilor.

Proiectul creează modele virtuale ale Universului și apoi compară proprietățile acestora cu proprietățile Universului observabil pentru a găsi cel mai potrivit model. Datele rezultate pot fi apoi folosite pentru a planifica noi cercetări și experimente astrofizice și pentru a se pregăti mai bine pentru analiza datelor care provin de la cele mai recente misiuni spațiale.

Proiectul caută cea mai bună opțiune pentru moleculele organice pentru a crea un nou tip de panouri solare, precum și membranele polimerice optime pentru crearea bateriilor de combustibil.

După cum sugerează și numele, aceste provocări și viitoarele se concentrează pe cercetarea surselor alternative de energie curată.

Proiect pentru calcularea configurațiilor magnetice ale nanoelementelor cilindrice. Este interesant pentru că acesta este singurul proiect de un nivel atât de înalt lansat în Ucraina (dezvoltat și susținut de un angajat al Institutului de Fizică și Tehnologie Donețk).

Acum că aproape fiecare persoană are acasă un computer personal, iar unii au mai multe, este posibil să se realizeze un calcul distribuit eficient.

Despre procesor și resurse.

Să ne gândim la ce face computerul nostru când îl folosim? Inima computerului este CPU. El este cel care efectuează toate operațiile matematice și logice.
La urma urmei, fiecare joc pe calculator, fiecare film este o secvență de operații de schimburi, adăugiri și transferuri de biți individuali (aceasta este cea mai mică informație dintr-un computer). Cu cât un procesor poate efectua mai multe operații pe secundă, cu atât este mai rapid. Aproape toate jocurile pe calculator folosesc 100% resurse CPU, de exemplu. Procesorul oferă viteză maximă jocului. Dar lucrurile stau diferit cu vizionarea de filme, editarea documentelor etc. De exemplu, un film nu trebuie să folosească întreaga resursă a procesorului, are nevoie doar de atât de mult din această „resursă”, astfel încât atunci când vizionează utilizatorul să nu vadă „sărituri” și întinderi. Pe computerele moderne, vizionarea unui film folosește doar 10-15% din procesor. Și editarea documentelor este și mai mică - 1-4 la sută. Se dovedește. că de cele mai multe ori procesorul este inactiv. Și tocmai această parte nefolosită a timpului și a resurselor sale poate fi folosită pentru calculul distribuit.

Ce este calculul distribuit?

În linii mari, acesta este procesul de împărțire a unui calcul mare, care necesită un computer puternic, în multe fragmente mici și de a furniza aceste fragmente pentru procesarea de către multe computere obișnuite. Programul ajută la implementarea acestui lucru BOINC (Berkeley Open Infrastructure for Network Computing- un sistem deschis pentru calcul distribuit la Universitatea din Berkeley ( multumesc lor pentru FreeBSD =)))
Când rulați BOINC pe computer, se întâmplă următoarele:

1. Computerul dumneavoastră solicită o listă de instrucțiuni de la server. În plus, instrucțiunile depind de capacitățile computerului dvs. De exemplu, serverul nu va emite instrucțiuni care necesită prea multă RAM de la computer.
2. Computerul dvs. descarcă programul și datele pentru calcule.
3. Computerul începe calculele.
4. Computerul dvs. generează fișiere de calcul de ieșire.
5. Computerul dumneavoastră transmite rezultatele către serverul principal și solicită date pentru un nou calcul. Ciclul se repetă din nou.

Mai mult, BOINC lucrează cu prioritate minimă. Aceasta înseamnă că primește ultimele resurse ale procesorului, adică. dacă niciun program nu are nevoie de ele. Astfel, din cauza acesteia, performanța sistemului nu se deteriorează (sau se îmbunătățește =)).
Pentru a vă prezenta sistemul BOINC, mai rămâne un singur lucru de spus:
Diverși oameni de știință - inventează noi medicamente pentru oameni, studiază boli, explorează spațiul în căutarea inteligenței extraterestre, studiază undele gravitaționale de la pulsari îndepărtați și alți cercetători - necesită centre de calcul costisitoare (la scara unui întreg institut) de calcule și procesare a datelor. . Programul BOINC vă oferă oportunitatea de a ajuta cercetătorii să-și rezolve problemele.
Puteți descărca BOINC și puteți afla informații despre proiecte și realizări la boinc.berkeley.edu

La ce proiecte pot participa?

  • Climateprediction.net: - studiul schimbărilor climatice.
  • http://einstein.phys.uwm.edu/ : căutarea impulsurilor gravitaționale emise de pulsari.
  • http://lhcathome.cern.ch/ : îmbunătățirea acceleratorului de particule CERN LHC