LA CLOCHE

Il y en a qui ont lu cette news avant vous.
Abonnez-vous pour recevoir les derniers articles.
E-mail
Nom
Nom de famille
Aimeriez-vous lire The Bell
Pas de spam

À PROPOS DE PDOK NBYE HCE OE NAPAP
YMY DEMBEN LMBUPET H DPNBYOYI HUMPCHYSI.

1. CHEDEOIE

NOPZYE Y ChBU YNEAF H MPLBMSHOPC UEFY OEULPMSHLP Linux NBYYO, U RTBLFYUEULY CHUEZDB UCHPVPDOSHCHN RTPGEUUPTPN. fBLTSE NOPZYE UMSCHYBMY P UYUFENBI, CH LPFPTSCHI NBYYOSCH PVIEDEOSAPHUS CH PYO UHRETLPNRSHAFET. OP TEBMSHOP NBMP LFP RTPVPCHBM RTPCHPDYFSH FBLIE LURETYNEOFSHCH X UEVS À PROPOS DE TBVPFE YMY DPNB. dBCHBKFE RPRTPVKHEN CHNEUFE UPVTBFSH OEPPMSHYPK LMBUFET. rPUFTPYCH LMBUFET CHSC UNPCEFE TEBMSHOP HULPTYFSH CHSHCHRPMOOOEOYE YUBUFY BDBYu. obrtynet LPNRYMSGYA YMY PDOCHTENEOOHA TBVPFKH OEULPMSHLYI TEUKHTUPENLYI RTPGEUUPCH. h LFPC UFBFSH S RPUFBTBAUSH TBUULBBFSH CHBN LBL NPTsOP VE PUPVSCHI KHUYMYK PVYAEDEOYFSH NBYYOSCH UCHPEK MPLBMSHOPK UEFY CH EDYOSCHK LMBUFET À PROPOS DE VBE MOSIX.

2. LBL, UFP et ZDE.

MOSIX - LFP RBFYU DMS SDTB Linux U LPNRMELFPN HFYMYF, LPFPTSHK RPCHPMSEF RTPGEUUBN U CHBYEK NBYYOSCH RETEIPDYFSH (NYZTYTPCHBFSH) À PROPOS DE DTHZYE HHMSCH MPLBMSHOPK UEFY. CHЪSFSH EZP NPTsOP RP BDTEUKH HTTP://www.mosix.cs.huji.ac.il B TBURTPUFTBOSEPHUS BY CH YUIDDOSCHI LPDBI RPD MYGEOJEK GPL. RBFUY UHEEUFCHHAF DMS CHUEI SDETH YUUFBVMSHOPK CHEFLY Linux.

3. HUFBOPCHLB RTPZTBNNOPZP PVEUREYEOIS.

h OBYUBME HUFBOPCHLY IPYUH RPTELPNEODPCHBFSH CHBN ЪBVYTBFSH U HMB MOSIX OE FPMSHLP EZP, OP Y UPRKHFUFCHHAEYE HFYMYFSCH - mproc, mexec Y DT.
h BTIYCHE MOSIX EUFSH HUFBOCHPUOSCHK ULTYRF mosix_install. OBVHDSHFA Ch Pvsbfemshopn RPTSDLE TBRBRBCHBFSh Yuipdosche LPDSh SDTB Ch /usr/SRC/Linux-*.*.*, Obrtynnnet LBBM with-h /usr/src/linux-2.2.13 dbmhulbeph mosix_install y. ENH UCHPK NEOEDTSET ЪBZTKHЪLY (LILO), RHFSH L YUIPDOILBN SDTB Y KHTPCHOY BRHULP.
RTH OBUFTPCLE SDTB CHLMAYUFE PRHYY CONFIG_MOSIX, CONFIG_BINFMT_ELF ET CONFIG_PROC_FS. CHUE LFY PRGYY RPDTPVOP PRYUBOSCH CH THLPCHPDUFCHE RP HUFBOPCLE MOSIX.
HUFFBOCHYMIE ? oX UFP CE - RETEZTHTSBKFE CHBY Linux U OPCHSHCHN SDTPN, OBCHBOIE LPFPTPZP PYUEOSH VHDEF RPIPTS À PROPOS de mosix-2.2.13.

4. OBUFTPKLB

JOBYUBMSHOP HUFBOCHMEOOOSCHK MOSIX UCHETIEOOOP OE OBEF, LBLIE X CHBU NBYOSCH CH UEFY Y U LEN ENH UPEDEOSFUS. OH B OBUFTBYCHBEFUUS FFP PYUEOSH RTPUFP. eUMY CHS FPMSHLP RPUFBCHYMY mosix Y EUMY CHBY DYUFTYVHFICH - SuSE YMY RedHat - UPCNEUFYNSCHK, FP ЪBIPDYFE CH LBFBMPZ /etc/rc.d/init.d Y DBCHBKFE LPNBODH mosix start. RTY RETCHPN ЪBRHULE FFPF ULTYRF RTPUYF CHBU OBUFTPYFSH MOSIX Y ЪBRHULBEF FELUFPCHSHCHK TEBLFPPT DMS UPDBOYS JBKMB /etc/mosix.map, CH LPFPTPN OBIPDIFUS URYUPL HIMPCH CHBYEZP. fHDB RTPRYUSCHCHBEN : CH UMHYUBE, EUMY H CHBU CHUEZP DCHE-FTY NBYYOSCH Y YI IP-BDTEUB UMEDHAF
DTHZ ЪB DTHZPN RP OPNETBGYY RYYEN FBL :



1 10.152.1.1 5

ZDE RETCHSHCHK RBTBNEFT PVPOBYUBEF OPNET OBYUBMSHOPZP HMB, CHFPTPK - IP BDTEU RETCHPZP HMB Y RPUMEDOYK - LPMYUEUFCHP HHMPCH U FELHEEPK. f.E. UEKYUBU X OBU H LMBUPETE PMHYUBEFUS RSFSH HHMPCH, IP BDTEUB LPFPTSCHK BLBOYUYCHBAFUS ENVIRON 1, 2, 3, 4 Y 5.
yMY DTHZPK RTYNET :

OPNET HMB IP LPMYUEUFCHP HHMPH U FELHEESP
______________________________________
1 10.152.1.1 1
2 10.150.1.55 2
4 10.150.1.223 1

h FFK LPOJYZHTBGYY NS RPMHYUN UMEDHAEIK TBULMBD :
IP 1-PZP HMB 10.150.1.1
IP 2-PZP HMB 10.150.1.55
IP 3-PZP HMB 10.150.1.56
IP 4-PZP HMB 10.150.1.223
FERETSH OHTSOP À PROPOS DE CHUEI NBYOBI VHDHEEZP LMBUFETB HUFBOPCHYFSH MOSIX Y UPDBFSH CHEDE PDYOBLPCHSCK LPOZHYZHTBGIPOOSCHK JBKM /etc/mosix.map .

FERETSh RPUME RETEBRHULB mosix CHBYB NBYOB HCE VKhDEF TBVPFBFSH H LMBUPETE, UFP NPTsOP HCHYDEFSH ЪBRHUFYCH NPOYFPT LPNBODPK mon. h UMHYUBE, EUMY CHSH HCHYDYFE CH NPOYFPTE FPMSHLP UCHPA NBYYOKH YMY CHPPVEE OE HCHYDYFE OILPZP, FP, LBL ZPCHPTYFUS - OBDP TSCHFSH. ULPTEE CHUEZP X CBU PYVLB YNEOOP H /etc/mosix.map.
OH CHPF, HCHYDYMY, OP OE RPVEDYMY. uFP dbmshye ? b DBMSHYE PYUEOSH RTPUFP :-) - OHTSOP UPVTBFSH HFIMYFSCH DMS TBVPFSCH U YNEOEOOOSCHN /proc Ú RBLEFB mproc. ч ЮБУФОПУФЙ Ч ЬФПН РБЛЕФЕ ЙДЕФ ОЕРМПИБС НПДЙЖЙЛБГЙС top - mtop, Ч ЛПФПТЩК ДПВБЧЙМЙ ЧПЪНПЦОПУФШ ПФПВТБЦЕОЙС ХЪМБ(node), УПТФЙТПЧЛЙ РП ХЪМБН, РЕТЕОПУБ РТПГЕУУБ У ФЕЛХЭЕЗП ХЪМБ ОБ ДТХЗПК Й ХУФБОПЧМЕОЙС НЙОЙНБМШОПК ЪБЗТХЪЛЙ РТПГЕУУПТБ ХЪМБ, РПУМЕ ЛПФПТПК РТПГЕУУЩ ОБЮЙОБАФ НЙЗТЙТПЧБФШ ОБ ДТХЗЙЕ MOSIX - ХЪМЩ .
ъБРХУЛБЕН mtop, ЧЩВЙТБЕН РПОТБЧЙЧЫЙКУС ОЕ УРСЭЙК РТПГЕУУ (ТЕЛПНЕОДХА ЪБРХУФЙФШ bzip) Й УНЕМП ДБЧЙН ЛМБЧЙЫХ "g" ОБ ЧБЫЕК ЛМБЧЙБФХТЕ, РПУМЕ ЮЕЗП ЧЧПДЙН ОБ ЪБРТПУ PID ЧЩВТБООПЗП Ч ЛБЮЕУФЧЕ ЦЕТФЧЩ РТПГЕУУБ Й ЪБФЕН - ОПНЕТ ХЪМБ, ЛХДБ НЩ ИПФЙН ЕЗП ПФРТБЧЙФШ. b XCE RPUME LFPZP CHOYNBFEMSHOP RPUNPFTYFE À PROPOS DE TEEKHMSHFBFSCH, PFPVTTBTSBENSCHE LPNBODPK mon - FB NBYOB DPMTSOB OBYUBFSH VTBFSH À PROPOS DE UEVS OBZTHЪLH CHSHCHVTBOOPZP RTPGEUUB.
b UWUFCHEOOP mtop - H RPME #N PFPVTBTSBFS OPNET HMB, ICI SUR CHSCRPMOSEPHUS.
OP LFP EEE OE CHUE - CHEDSH CHBN RTBCHDB OE IPYUEFUS PFRTBCHMSFSH À PROPOS DE DTHZYE HHMSCH RTPGEUUSCH CHTHYuOHA ? NOUVEAU OE BIPFEMPUSH. x MOSIX EUFSH OERMPIBS CHUFTPEOOBS VBMBOUYTPCHLB CHOKHFTY LMBUFETB, LPFPTBS RPCHPMSEF VPMEE-NEOE TBCHOPNETOP TBURTEDEMSFSH OBZTH'LH À PROPOS DE CHUE KHMSCH. OH B CHPF ЪDEUSH OBN RTYDEFUS RPFTHDYFUS. dms OBYUBMB S TBUULBTSH, LBL UDEMBFSH FPOLHA OBUFTPCLH (réglage) DMS DHHI HHMPH LMBUFETB ? H RTPGEUUE LPFPTPK MOSIX RPMHYUBEF YOZHPTNBGYA P ULPTPPUFSI RTPGEUUPTPCH Y UEFY :
BRPNOYFE TB Y OBCHUEZDB - réglage NPTsOP CHSHCHRPMOSFSH FPMSHLP Ch monomode. yOBYUE ChSCH MYVP RPMHYUFE OE UPCHUEN LPTTELFOSHCHK TEHMSHFBF, MYVP CHBYB NBYYOB NPCEF RTPUFP ЪBCHYUOHFSH.
yFBL, CHSHCHRPMOSEN tune. rPUME RETECHPDB PRETBGYPOOPK UYUFENSCH H monomode OBRTYNET LPNBODPK init 1 YMYY init S BRHULBEN ULTYRF prep_tune,LPFPTSCHK RPDOYNEF SEFECHSE
YOFETJEKUSCH Y BRHUFYF MOSIX. RPUMA ьfpzp à propos de PDOPK Yu NBOO KOBRCHULBEN TUNE, ChFPDINE ONH DTHZPZP HMB DMS Obtpkly Tsen Tehmshfbfb DPMCOSHDBTPHA OHPDOMA<ХЪЕМ>À PROPOS DE DTHZPN HYME. uPVUFCHEOOP PRETBGYA RTYDEFUS RPCHFPTYFSH À PROPOS DE DTHZPN HJME LPNBODPK tune -a<ХЪЕМ>. rPUME RPDPVOPZP FAOIOZB CH CHBYEK UYUFENE DPMTSEO RPSCHIFUS ZHBKM /etc/overheads, UPDETTSBEIK YOZHPTNBGYA DMS MOSIX CH CHYDE OELLYI YUYUMPCHSHCHI DBOOSCHI. h UMHYUBE, EUMY RP LBLYN-FP RTYUYOBN tune OE UNPZ UDEMBFSH EZP, RTPUFP ULPRYTHKFE Y FELHEESP LBFBMPZB ZhBKM mosix.cost H /etc/overheads. fp RPNPCEF ;-).
rTY FAOOYOSE LMBUFETB Y VPMEE YUEN DCHHI NBYYO OHTSOP YURPMSHЪPCHBFSH HFYMYFH, LPFPTBS FBLCE RPUFBCHMSEFUS U MOSIX - tune_kernel. dBOOBS HFYMYFB RPCHPMSEF
CHBN H VPMEE RTPUFPN Y RTCHSHCHUOPN CHYDE OBUFTPIFSH LMBUFET, PFCHEFYCH À PROPOS DE OEULPMSHLP CHPRTPPUCH Y RTPCHEDS FAOIOZ U DCHNS NBYOBNY LMBUFETB.
LUFBFY, RP UPVUFCHEOOPNKh PRSHCHFKH NPZKh ULBBFSH, UFP RTY OBUFTPKLE LMBUFETB S TELPNEODHA CHBN OE ЪBZTHTSBFSH UEFSH, B OBPVPTPF - RTYPUFBOPCHYFSH CHUE BLFYCHOSCHE PRETBGYK CH MPBMSHOP.

5. hRTBCHMEOYE LMBUFETPN

dMS HRTBCHMEOYS HHMPN LMBUFETB UHEEUFCHHEF OEPPMSHYPK OBVPT LPNBOD, UTEDY LPFPTSCHI :

mosctl - LPOFTPMSH OBD HIMPN. rPCHPMSEF YЪNEOSFSH RBTBNEFTSHCH HMB - FBLIE, blocage LBL, séjour, séjour, délai Y F.D
dBCHBKFE TBUUNPFTYN OEULPMSHLP RBTBNEFTCH LFPK HFYMYFSCH :
rester - RPCHPMSEF PUFBOBCHMYCHBFSH NYZTBGYA RTPGEUUPCH À PROPOS DE DTHZYE HIMSCH U FELHEEK NBYOSCH. pFNEOSEFUS RBTBNEFTPN nostay YMY -stay
Je reste - BRTEEBEF FPMSHLP MPLBMSHOSHCHN RTPGEUUBN NYZTBGYA, B RTPGEUUSCH U DTHZYI NBYYO NPZHF RTPDPMTSBFSH FFP DEMBFSH. pFNEOSEFUS RBTBNEFTPN nolstay YMYY -lstay.
bloquer - BRTEEBEF HDBMEOOSHCHN / ZPUFECHSHCHN RTPGEUUBN CHSHCHRPMOSFUS À PROPOS DE FFPN LUI. pFNEOSEFUS RBTBNEFTPN noblock YMY -block.
apporter - CHPCHTBEBEF PVTBFOP CHUE RTPGEUUSCH U FELHEEZP HMB CHSHCHRPMOSENSCHE À PROPOS DE DTHZYI NBYYOBI LMBUFETB. ffpf RBTBNEFT NPTSEF OE UTBVBFHCHBFSH, RPLB NYZTYTPCHBCHYYK RTPGEUU OE RPMKHYUYF RTETSCHCHBOYE PF UYUFENSCH.
Régler le délai HUFBOBCHMYCHBEF CHTENS, RPUME LPFPTPZP RTPGEUU OBJOBEF NYZTYTPCHBFSH.
CHEDSH UZMBUIFEUSH - CH UMHYUBE, EUMY CHTENS CHSHCHRPMOEOIS RTPGEUUB NEOSHIE UELHODSCH UNSCHUM RETEOPUIFSH EZP À PROPOS DE DTHZYE NBYYOSCH UEFY YUYUEBEF. yNEOOP FFP CHTENS Y CHCHUFBCHMSEFUS HFYMYFPK mosctl U RBTBNEFTPN setdecay. rTYNET :
mosctl setdecay 1 500 200
HUFBOBCHMYCHBEF CHTENS RETEIPDB À PROPOS DE DTHZYE HHMSCH 500 NYMMYUELHOD CH UMHYUBE, EUMY RTPGEUU BRHEEO LBL lent Y 200 NYMYUELHOD DMS rapide RTPGEUUPCH. pVTBFIFE CHOYNBOYE, UFP RBTBNEFT lent CHUEZDB DPMTSEO VSHFSH VPMSHIE YMI TBCHEO RBTBNEFTKh rapide.

mosrun - BRHULBEF RTYMPSEOYE CH LMBUPET. OBRTYNET mosrun -e -j5 make JBRHUFYF make OB 5-PN XHME LMBUFETB, RTY LFPN CHUE EZP DPUETOIE RTPGEUUSCH VHDHF FBLCE CHSHCHRPMOSFUS OB 5-PN XME. rTBCHDB ЪDEUSH EUFSH PYO OABOU, RTY YUEN DPCHPMSHOP UHEEUFCHEOOOSCHK :
CH UMHYUBE, EUMY DPUETOYE RTPGEUUSCH CHSHCHRPMOSAFUS VSHCHUFTEE YUEN HUFBOPCMEOOOBS HFYMYFPK mosctl ЪBDETSLB (délai) FP RTPGEUU OE VHDEF NYZTYTPCHBFSH À PROPOS DE DTHZYE HHMSCH LMBUFETB. X mosrun EEE DPCHPMSHOP NOPZP TBMYUOSCHI YOFETEUOSCHI RBTBNEFTCH, OP RPDTPVOP HOBFSH
P OYI CHSCH UNPTSFE Y THLPCHPDUFCHB RP LFPK HFIYMYFE. (manmosrun)

lun - ЛБЛ НЩ ХЦЕ ЪОБЕН, ЬФП НПОЙФПТ ЛМБУФЕТБ, ЛПФПТЩК Ч РУЕЧДПЗТБЖЙЮЕУЛПН ЧЙДЕ ПФПВТБЦБЕФ ЪБЗТХЪЛХ ЛБЦДПЗП ТБВПЮЕЗП ХЪМБ ЧБЫЕЗП ЛМБУФЕТБ, ЛПМЙЮЕУФЧП УЧПВПДОПК Й ЪБОСФПК РБНСФЙ ХЪМПЧ Й ЧЩДБЕФ НОПЗП ДТХЗПК, ОЕ НЕОЕЕ ЙОФЕТЕУОПК ЙОЖПТНБГЙЙ.

mtop - NPDYZHYGYTPCHBOOBS DMS YURPMSH'CHBOYS OB HHMBI LMBUFETB CHETUYS LPNBODSCH haut. pFPVTTBTSBEF À PROPOS DE LTBOE DYOBNYUEULHA YOZHPTNBGYA P RTPGEUUBI, BRHEEOOSCHI À PROPOS DE DBOOPN KHME, Y KHMBI, LHDB NYZTYTPCHBMY CHBY RPGEUUSCH.

députés - FPCE NPDYZHYGYTPCHBOOBS CHETUYS LPNBODSCH ps. dPVBCHMEOP EEE PDOP RPME - OPNET HMB, À PROPOS DE LPFPTSCHK NYZTYTPCHBM RTPGEUU.

CHPF À PROPOS DE NPK CHZMSD Y CHUE PUOPCHOSHE HFIMYFSHCH. À PROPOS DE UBNPN DEME LPOEIOP NPTsOP PVPKFYUSH DBTSE VOYI. OBRTYNET JURPMSHJHS DMS LPOFTPMS OBD LMBUFETPN /proc/mosix.
fBN LTPNE FPZP, YuFP NPTsOP OBKFY PUOPCHOKHA YOZHPTNBGYA P OBUFTPKLBI HMB, RTPGEUUBI BRHEOOOSCHI U DTHZYI HHMPCH Y F.D.,B FBLCE RPNEOSFSH YUBUFSH RBTBNEFTCH.

6. LURETENEOFYPUIS.

l UPTSBMEOYA, NOE OE HDBMPUSH BUFBCHYFSH CHSHCHRPMOSFUS LBLLPK-FP PYO RTPGEUU PDOCHTENEOOP À PROPOS DE OEULPMSHLYI HMBBI. nBLUYNKHN, YuEZP S DPUFYZ H RTPGEUUE LLURETYNEOPCH U LMBUFETPN-YURPMSHЪPCHBOYE DMS CHSHCHRPMOEOIS TEUKHTUPENLYI RTPGEUUPCH À PROPOS DE DTHZPN KHME.
dBCHBKFE TBUUNPFTYN PYO Y RTYNETCH :
dPRHUFYN, UFP X OBU H LMBUPETE TBVPFBAF DCHE NBYOSCH (DCHB HMB), PYO Y LPFPTSHI U OPNETPN 1 (366 Celeron), DTHZPK - U OPNETPN 5 (PIII450). LURETYNEOPHYTPCHBFSH NSCH VKHDEN À PROPOS DE 5-PN LUI. 1-K HEM H FFP CHTENS RTPUFBYCHBM. ;-)
йФБЛ, ЪБРХУЛБЕН ОБ 5-Н ХЪМЕ ХФЙМЙФХ crark ДМС РПДВПТБ РБТПМС Л rar БТИЙЧХ.еУМЙ ЛФП ЙЪ ЧБУ РТПВПЧБМ ТБВПФБФШ У РПДПВОЩНЙ ХФЙМЙФБНЙ, ФП ПО ДПМЦЕО ЪОБФШ, ЮФП РТПГЕУУ РПДВПТБ РБТПМС "ЛХЫБЕФ" ДП 99 РТПГЕОФПЧ РТПГЕУУПТБ. oX UFP CE - RPUME BRHULB NSCH OBVMADBEN, UFP RTPGEUU PUFBEFUS À PROPOS DE LFPN, 5-PN XHME. tBKHNOP - CHEDSH YNEOOP X FFPZP HMB RTPYCHPDYFEMSHOPUFSH RTECHSHCHYBEF 1-K HEM RPYUFY H DCHB TBB.
dBMEE NSC RTPUFP ЪBRHUFYMY UVPTLH kde 2.0. unNPFTYN FBVMYGHH RTPGEUUPCH Y CHYDYN, UFP crark HUREYOP NYZTYTPCHBM À PROPOS DE 1-K HEM, PUCHPPVPDYCH RTPGEUUPT Y RBNSFSH (DB, DB - RBNSFSH FPYuOP FBLCE PUCHPPVPTSDBEFUS) Marque DMS. b LBL FPMSHLP marque BLPOYUYM UCHPA TBVPPHH - crark CHETOHMUS PVTBFOP, À PROPOS DE TPDOPC ENH 5-K HEM.
YOFETEWOSCHK JZHELF RPMHYUBEFUS, EUMY crark BRHUlbfsh À PROPOS DE VPMEE NEDMEOOPN 1-N HYME.
fBN NSCH OBVMADBEN RTBLFYUEULY RTPFYCHPRMPTSOSCHK TEEKHMSHFBF - RTPGEUU UTBYH-TSE NYZTYTHEF OB 5-K, VPMEE VSHCHUFTSHCHK HEM. RTY LFPN PO CHPCHTBEBEFUS PVTBFOP, LPZDB IPSYO RSFPZP LPNRSHAFETTB OBYUYOBEF LBLIE-FP DECUFCHYS U UYUFENPK.

7. YURPMSH'CHBOYE

dBCHBKFE CH LPOGE TBVETENUS, BYUEN Y LBL NSCH NPTSEN YURPMSHЪCHBFSH LMBUFET CH UCHPEK RPCHUEDOECHOPC TSYOY.
дМС ОБЮБМБ ОХЦОП ТБЪ Й ОБЧУЕЗДБ ЪБРПНОЙФШ - ЛМБУФЕТ ЧЩЗПДЕО ФПМШЛП Ч ФПН УМХЮБЕ, ЛПЗДБ Ч ЧБЫЕК УЕФЙ ЕУФШ ЬООПЕ ЛПМЙЮЕУФЧП НБЫЙО, ЛПФПТЩЕ ЮБУФЕОШЛП РТПУФБЙЧБАФ Й ЧЩ ИПФЙФЕ ЙУРПМШЪПЧБФШ ЙИ ТЕУХТУЩ ОБРТЙНЕТ ДМС УВПТЛЙ KDE ЙМЙ ДМС МАВЩИ УЕТШЕЪОЩИ РТПГЕУУПЧ. CHEDSH VMBZPDBTS LMBUFETH YЪ 10 NBYYO NPTsOP PDOCHTENEOOP
LPNRYMYTPCHBFSH DP 10 FTSEMSHCHI RTPZTBNN À PROPOS DE FPN-CE C++. yMY RPDVYTBFSH LBLPK-FP RBTPMSh,
OE RTELTBEBS OY À PROPOS DE UELHODH LFPZP RTPGEUUB OEBCHYUYNP PF OBZTHЪLY À PROPOS DE CHBY LPNRSHAFET.
dB Y CHPPVEE - FFP RTPUFP YOFETEUOP ;-).

8. bblmayueoye

h BLMAYUEOYE IPYUKH ULBBFSH, YuFP Ch FFK UVBFSHOE OE TBUUNPFTEOSHCHUE ChPNPTSOPUFY MOSIX, F.L. S RTPUFP DP OYI EEE OE DPVTBMUS. eUMY DPVETHUSH - TsDYFE RTPPDPMTSEOIS. :-)

centre de presse

Création d'un cluster basé sur Windows 2000/2003. Pas à pas

Un cluster est un groupe de deux serveurs ou plus qui fonctionnent ensemble pour assurer la disponibilité d'un ensemble d'applications ou de services et sont perçus par le client comme une entité unique. Les nœuds de cluster sont interconnectés à l'aide de matériel réseau, de ressources partagées et de logiciels de serveur.

Microsoft Windows 2000/2003 prend en charge deux technologies de clustering : les clusters d'équilibrage de charge réseau et les clusters de serveurs.

Dans le premier cas (clusters d'équilibrage de charge), l'équilibrage de charge réseau rend les services et les applications hautement fiables et évolutifs en combinant jusqu'à 32 serveurs dans un seul cluster. Dans ce cas, les demandes des clients sont réparties entre les nœuds du cluster de manière transparente. Lorsqu'un nœud tombe en panne, le cluster modifie automatiquement sa configuration et bascule le client vers l'un des nœuds disponibles. Ce mode de configuration de cluster est également appelé mode actif-actif, où une seule application s'exécute sur plusieurs nœuds.

Le cluster de serveurs répartit sa charge entre les serveurs du cluster, chaque serveur portant sa propre charge. Si un nœud du cluster tombe en panne, les applications et les services configurés pour s'exécuter dans le cluster sont redémarrés de manière transparente sur l'un des nœuds libres. Les clusters de serveurs utilisent des disques partagés pour communiquer au sein du cluster et fournir un accès transparent aux applications et services du cluster. Ils nécessitent un matériel spécial, mais cette technologie offre un niveau de fiabilité très élevé car le cluster lui-même ne présente aucun point de défaillance unique. Ce mode de configuration du cluster est également appelé mode actif-passif. Une application dans un cluster s'exécute sur un nœud unique avec des données partagées situées sur un stockage externe.

L'approche cluster pour organiser un réseau interne offre les avantages suivants :

Haute disponibilité Autrement dit, si un service ou une application tombe en panne sur un nœud d'un cluster configuré pour fonctionner ensemble dans un cluster, le logiciel du cluster permet à cette application d'être redémarrée sur un autre nœud. Dans le même temps, les utilisateurs subiront un court délai lors de certaines opérations, ou ils ne remarqueront pas du tout une panne de serveur. Évolutivité Pour les applications s'exécutant dans un cluster, ajouter des serveurs au cluster signifie augmenter les capacités : tolérance aux pannes, équilibrage de charge, etc. entre les nœuds en cluster et supprimez la charge des nœuds pour la maintenance préventive.

Dans cet article, je vais essayer de rassembler mon expérience dans la création de systèmes de cluster basés sur Windows et de donner un petit guide étape par étape pour créer un cluster de serveurs à deux nœuds avec un stockage de données partagé.

Logiciels requis

  • Microsoft Windows 2000 Advanced (Datacenter) Server ou Microsoft Windows 2003 Server Enterprise Edition installé sur tous les serveurs du cluster.
  • Service DNS installé. Je vais vous expliquer un peu. Si vous construisez un cluster basé sur deux contrôleurs de domaine, il est beaucoup plus pratique d'utiliser le service DNS, que vous avez de toute façon configuré lorsque vous avez créé l'Active Directory. Si vous créez un cluster basé sur deux serveurs membres d'un domaine Windows NT, vous devrez soit utiliser WINS, soit faire correspondre les noms et adresses des machines dans le fichier hosts.
  • Terminal Services pour la gestion des serveurs à distance. Pas nécessairement, mais si vous avez Terminal Services, il est pratique de gérer les serveurs depuis votre lieu de travail.

Exigences matérielles

  • Le meilleur choix de matériel pour un nœud de cluster est basé sur la liste de compatibilité matérielle (HCL) du service de cluster. Microsoft recommande de tester la compatibilité du matériel avec les services de cluster.
  • En conséquence, vous aurez besoin de deux serveurs avec deux adaptateurs réseau ; Adaptateur SCSI avec une interface externe pour connecter un tableau de données externe.
  • Baie externe dotée de deux interfaces externes. Chacun des nœuds du cluster est connecté à l'une des interfaces.

Commentaire: pour créer un cluster à deux nœuds, il n'est pas nécessaire d'avoir deux serveurs absolument identiques. Après une panne sur le premier serveur, vous aurez un peu de temps pour analyser et rétablir le fonctionnement du nœud principal. Le deuxième nœud travaillera pour la fiabilité du système dans son ensemble. Cependant, cela ne signifie pas que le deuxième serveur sera inactif. Les deux nœuds du cluster peuvent sereinement vaquer à leurs occupations, résoudre différents problèmes. Mais nous pouvons configurer une certaine ressource critique pour travailler dans un cluster, augmentant sa tolérance aux pannes (cette ressource).

Configuration requise pour les paramètres réseau

  • Nom NetBIOS unique pour le cluster.
  • Cinq adresses IP statiques uniques. Deux pour les adaptateurs réseau par réseau de cluster, deux pour les adaptateurs réseau par réseau et un pour le cluster.
  • Compte de domaine pour le service de cluster.
  • Tous les nœuds de cluster doivent être soit un serveur membre du domaine, soit des contrôleurs de domaine.
  • Chaque serveur doit avoir deux adaptateurs réseau. L'un pour la connexion à un réseau commun (réseau public), le second pour l'échange de données entre les nœuds du cluster (réseau privé).

Commentaire: Selon les recommandations de Microsoft, votre serveur doit disposer de deux adaptateurs réseau, un pour le réseau général, le second pour l'échange de données au sein du cluster. Est-il possible de construire un cluster sur une interface - probablement oui, mais je ne l'ai pas essayé.

Installation d'un cluster

Lors de la conception d'un cluster, vous devez comprendre qu'en utilisant le même réseau physique pour la communication du cluster et le LAN, vous augmentez le taux d'échec de l'ensemble du système. Par conséquent, il est hautement souhaitable que l'échange de données de cluster utilise un sous-réseau alloué en tant qu'élément de réseau physique séparé. Et pour le réseau local, vous devez utiliser un sous-réseau différent. Ainsi, vous augmentez la fiabilité de l'ensemble du système dans son ensemble.

Dans le cas de la construction d'un cluster à deux nœuds, un commutateur est utilisé par un réseau commun. Deux serveurs de cluster peuvent être connectés directement avec un câble croisé, comme illustré sur la figure.

L'installation d'un cluster à 2 nœuds peut être divisée en 5 étapes

  • Installation et configuration de nœuds dans un cluster.
  • Installation et configuration d'une ressource partagée.
  • Vérifiez la configuration du disque.
  • Configuration du premier nœud de cluster.
  • Configuration du deuxième nœud du cluster.

Ce guide étape par étape vous aidera à éviter les erreurs lors de l'installation et à gagner beaucoup de temps. Alors, commençons.

Installation et configuration des nœuds

Nous allons simplifier un peu la tâche. Étant donné que tous les nœuds du cluster doivent être soit des membres du domaine, soit des contrôleurs de domaine, nous ferons du 1er nœud du cluster le détenteur racine du répertoire AD (Active Directory), et le service DNS s'exécutera dessus. Le 2e nœud du cluster sera un contrôleur de domaine complet.

Je suis prêt à ignorer l'installation du système d'exploitation, estimant que vous ne devriez pas avoir de problèmes avec cela. Mais je voudrais expliquer la configuration des périphériques réseau.

Paramètres réseau

Avant de commencer l'installation du cluster et d'Active Directory, vous devez terminer les paramètres réseau. Je voudrais diviser tous les paramètres réseau en 4 étapes. Pour résoudre les noms sur le réseau, il est souhaitable d'avoir un serveur DNS avec des enregistrements préexistants sur les serveurs du cluster.

Chaque serveur dispose de deux cartes réseau. Une carte réseau servira à échanger des données entre les nœuds du cluster, la seconde fonctionnera pour les clients de notre réseau. En conséquence, le premier s'appellera Private Cluster Connection, le second s'appellera Public Cluster Connection.

Les paramètres de la carte réseau pour l'un et l'autre serveur sont identiques. En conséquence, je vais montrer comment configurer l'adaptateur réseau et donner une plaque avec les paramètres réseau des 4 adaptateurs réseau sur les deux nœuds du cluster. Pour configurer la carte réseau, suivez ces étapes :

  • Favoris réseau → Propriétés
  • Connexion au cluster privé → Propriétés → Configurer → Avancé

    Ce point nécessite quelques explications. Le fait est que selon les fortes recommandations de Microsoft, tous les adaptateurs réseau des nœuds de cluster doivent être réglés sur la vitesse optimale de l'adaptateur, comme indiqué dans la figure suivante.

  • Protocole Internet (TCP/IP) → Propriétés → Utilisez l'IP suivante : 192.168.30.1

    (Pour le deuxième hôte, utilisez 192.168.30.2). Saisissez le masque de sous-réseau 255.255.255.252 . Utilisez 192.168.100.1 comme adresse de serveur DNS pour les deux hôtes.

  • De plus, dans l'onglet Avancé → WINS, sélectionnez NetBIOS désactivé sur TCP/IP. Pour les paramètres des cartes réseau du réseau public (Public), omettez cet élément.
  • Faites de même avec la carte réseau pour le réseau local de connexion au cluster public. Utilisez les adresses indiquées dans le tableau. La seule différence dans la configuration des deux cartes réseau est que la connexion au cluster public ne nécessite pas la désactivation de WINS - NetBIOS sur TCP/IP.

Utilisez le tableau suivant pour configurer tous les adaptateurs réseau sur les nœuds de cluster :

Nouer Nom de réseau adresse IP MASQUE Serveur dns
1 Connexion au cluster public 192.168.100.1 255.255.255.0 192.168.100.1
1 Connexion au cluster privé 192.168.30.1 255.255.255.252 192.168.100.1
2 Connexion au cluster public 192.168.100.2 255.255.255.0 192.168.100.1
3 Connexion au cluster privé 192.168.30.2 255.255.255.252 192.168.100.1

Installation d'Active Directory

Comme mon article n'a pas pour but de parler de l'installation d'Active Directory, j'omettrai ce point. Il y a beaucoup de recommandations et de livres écrits à ce sujet. Choisissez un nom de domaine comme mycompany.ru, installez Active Directory sur le premier nœud, ajoutez le deuxième nœud au domaine en tant que contrôleur de domaine. Lorsque vous avez terminé, vérifiez les configurations de votre serveur, Active Directory.

Installation d'un compte d'utilisateur de cluster

  • Démarrer → Programmes → Outils d'administration → Utilisateurs et ordinateurs Active Directory
  • Ajoutez un nouvel utilisateur, par exemple ClusterService.
  • Cochez les cases suivantes : L'utilisateur ne peut pas modifier le mot de passe et Le mot de passe n'expire jamais .
  • Ajoutez également cet utilisateur au groupe des administrateurs et donnez-lui les droits Se connecter en tant que service (les droits sont attribués dans la politique de sécurité locale et Stratégie de sécurité du contrôleur de domaine).

Configuration d'un tableau de données externe

Pour configurer un tableau de données externe dans un cluster, rappelez-vous qu'avant d'installer le service de cluster sur les nœuds, vous devez d'abord configurer les disques sur le tableau externe, puis installer le service de cluster d'abord sur le premier nœud, puis seulement sur le second . Si vous violez l'ordre d'installation, vous échouerez et vous n'atteindrez pas l'objectif. Peut-il être réparé, probablement oui. Lorsqu'une erreur se produit, vous aurez le temps de corriger les paramètres. Mais Microsoft est une chose si mystérieuse que vous ne savez pas du tout sur quel type de râteau vous marcherez. Il est plus facile d'avoir des instructions étape par étape sous les yeux et de ne pas oublier d'appuyer sur les boutons. Étape par étape, la configuration d'une baie externe ressemble à ceci :

  1. Les deux serveurs doivent être éteints, la matrice externe allumée, connectée aux deux serveurs.
  2. Allumez le premier serveur. Nous avons accès à la baie de disques.
  3. Nous vérifions que la matrice de disques externes a été créée en tant que Basic. Si ce n'est pas le cas, nous transférerons le disque à l'aide de l'option Revenir au disque de base.
  4. Nous créons une petite partition sur un lecteur externe via Gestion de l'ordinateur → Gestion des disques. Selon les recommandations de Microsoft, il devrait être d'au moins 50 Mo. Je recommande de créer une partition de 500 Mo. ou un peu plus. C'est tout à fait suffisant pour accueillir des données groupées. La partition doit être formatée en NTFS.
  5. Sur les deux nœuds du cluster, cette partition sera nommée avec la même lettre, par exemple Q. En conséquence, lors de la création d'une partition sur le premier serveur, sélectionnez l'élément Attribuez la lettre de lecteur suivante - Q.
  6. Vous pouvez marquer le reste du disque comme vous le souhaitez. Bien sûr, il est hautement souhaitable d'utiliser le système de fichiers NTFS. Par exemple, lors de la configuration des services DNS, WINS, les principales bases de données de service seront transférées sur un disque partagé (pas le volume système Q, mais le second que vous avez créé). Et pour des raisons de sécurité, il vous sera plus pratique d'utiliser des volumes NTFS.
  7. Fermez la gestion des disques et vérifiez l'accès à la partition nouvellement créée. Par exemple, vous pouvez créer un fichier texte test.txt dessus, l'écrire et le supprimer. Si tout s'est bien passé, nous en avons terminé avec la configuration de la baie externe sur le premier nœud.
  8. Maintenant, éteignez le premier serveur. Le tableau externe doit être activé. Nous allumons le deuxième serveur et vérifions l'accès à la partition créée. Nous vérifions également que la lettre affectée à la première section est identique à celle que nous avons choisie, c'est-à-dire Q.

Ceci termine la configuration de la baie externe.

Installation du logiciel de service de cluster

Configuration du premier nœud du cluster

Avant de commencer l'installation de Cluster Service Software, tous les nœuds de cluster doivent être éteints, toutes les baies externes doivent être allumées. Passons à la configuration du premier nœud. La baie externe est en place, le premier serveur est en place. L'ensemble du processus d'installation s'effectue à l'aide de l'assistant de configuration du service de cluster :


Configuration du deuxième nœud du cluster

Pour installer et configurer le deuxième nœud de cluster, le premier nœud doit être activé et tous les lecteurs réseau doivent être activés. La procédure de configuration du deuxième nœud est très similaire à celle que j'ai décrite ci-dessus. Cependant, il y a quelques changements mineurs. Pour ce faire, utilisez les instructions suivantes :

  1. Dans la boîte de dialogue Créer ou rejoindre un cluster, sélectionnez Le deuxième ou le nœud suivant du cluster et cliquez sur suivant.
  2. Entrez le nom du cluster que nous avons défini précédemment (dans l'exemple, il s'agit de MyCluster) et cliquez sur suivant.
  3. Après avoir connecté le deuxième nœud au cluster, l'assistant de configuration du service de cluster récupère automatiquement tous les paramètres du nœud principal. Pour démarrer le service de cluster, utilisez le nom que nous avons créé précédemment.
  4. Entrez le mot de passe de votre compte et cliquez sur suivant.
  5. Dans la boîte de dialogue suivante, cliquez sur Terminer pour terminer l'installation.
  6. Le service de cluster sera démarré sur le deuxième nœud.
  7. Fermez la fenêtre Ajout/Suppression de programmes.

Pour installer des nœuds de cluster supplémentaires, suivez les mêmes instructions.

Post-scriptum, merci

Afin de ne pas se confondre avec toutes les étapes d'installation d'un cluster, je vais donner un petit tableau qui reflète toutes les étapes principales.

Marcher Nœud 1 Nœud 2 Baie externe

Tout d'abord, décidez quels composants et ressources seront nécessaires. Vous aurez besoin d'un nœud maître, d'au moins une douzaine de nœuds de calcul identiques, d'un commutateur Ethernet, d'une unité de distribution d'alimentation et d'un rack. Déterminez la quantité de câblage et de refroidissement, ainsi que la quantité d'espace dont vous avez besoin. Décidez également quelles adresses IP vous souhaitez utiliser pour les nœuds, quels logiciels vous installerez et quelles technologies seront nécessaires pour créer une puissance de calcul parallèle (plus d'informations ci-dessous).

  • Bien que le matériel soit cher, tous les logiciels de cet article sont gratuits et la plupart sont open source.
  • Si vous voulez savoir à quelle vitesse votre supercalculateur pourrait théoriquement être, utilisez cet outil :

Montez les nœuds. Vous devrez créer des hôtes ou acheter des serveurs pré-construits.

  • Choisissez des châssis de serveur qui optimisent l'utilisation de l'espace et de l'énergie, ainsi qu'un refroidissement efficace.
  • Ou vous pouvez "recycler" une douzaine de serveurs usagés, quelques-uns obsolètes - et même si leur poids dépasse le poids total des composants, vous économiserez une quantité décente. Tous les processeurs, cartes réseau et cartes mères doivent être identiques pour que les ordinateurs fonctionnent bien ensemble. Bien sûr, n'oubliez pas la RAM et les disques durs pour chaque nœud, et au moins un lecteur optique pour le nœud maître.
  • Installez les serveurs dans le rack. Commencez par le bas pour que le rack ne soit pas surchargé en haut. Vous aurez besoin de l'aide d'un ami - les serveurs assemblés peuvent être très lourds et il est assez difficile de les mettre dans les cellules sur lesquelles ils sont supportés dans le rack.

    Installez un commutateur Ethernet à côté du rack. Cela vaut la peine de configurer le commutateur immédiatement : définissez la taille de la trame jumbo sur 9 000 octets, définissez l'adresse IP statique que vous avez choisie à l'étape 1 et désactivez les protocoles inutiles tels que SMTP.

    Installez une unité de distribution d'alimentation (PDU ou Power Distribution Unit). En fonction de la charge maximale des nœuds de votre réseau, vous aurez peut-être besoin de 220 volts pour un ordinateur hautes performances.

  • Lorsque tout est réglé, passez à la configuration. Linux est en fait le système incontournable pour les clusters hautes performances (HPC) - non seulement il est idéal pour le calcul scientifique, mais vous n'avez pas non plus à payer pour installer un système sur des centaines, voire des milliers de nœuds. Imaginez combien il en coûterait pour installer Windows sur tous les nœuds !

    • Commencez par installer le dernier BIOS de la carte mère et le logiciel du fournisseur, qui doivent être les mêmes pour tous les serveurs.
    • Installez votre distribution Linux préférée sur tous les nœuds et la distribution GUI sur le nœud maître. Systèmes populaires : CentOS, OpenSuse, Scientific Linux, RedHat et SLES.
    • L'auteur recommande fortement d'utiliser Rocks Cluster Distribution. En plus d'installer tous les logiciels et outils nécessaires pour le cluster, Rocks fournit une excellente méthode pour "porter" rapidement plusieurs copies du système sur des serveurs similaires à l'aide du démarrage PXE et de la procédure "Kick Start" de Red Hat.
  • Installez l'interface de transmission de messages, le gestionnaire de ressources et les autres bibliothèques requises. Si vous n'avez pas installé Rocks à l'étape précédente, vous devrez installer manuellement le logiciel requis pour configurer la logique de calcul parallèle.

    • Pour commencer, vous aurez besoin d'un système bash portable, tel que Torque Resource Manager, qui vous permet de diviser et de répartir les tâches sur plusieurs machines.
    • Ajoutez Maui Cluster Scheduler à Torque pour terminer l'installation.
    • Ensuite, vous devez configurer une interface de transmission de messages, qui est nécessaire pour que les processus individuels de chaque nœud individuel partagent des données. OpenMP est l'option la plus simple.
    • N'oubliez pas les bibliothèques mathématiques multithread et les compilateurs qui "assembleront" vos programmes pour l'informatique distribuée. Ai-je déjà dit que vous deviez simplement installer Rocks ?
  • Connectez les ordinateurs au réseau. Le nœud maître envoie des tâches de calcul aux nœuds esclaves, qui à leur tour doivent renvoyer le résultat et s'envoyer également des messages. Et plus tôt cela arrive, mieux c'est.

    • Utilisez un réseau Ethernet privé pour connecter tous les nœuds d'un cluster.
    • Le nœud maître peut également servir de serveur NFS, PXE, DHCP, TFTP et NTP lorsqu'il est connecté à Ethernet.
    • Vous devez séparer ce réseau du réseau public pour vous assurer que les paquets ne se chevauchent pas avec d'autres sur le LAN.
  • Testez le cluster. La dernière chose que vous devriez faire avant de donner aux utilisateurs l'accès à la puissance de calcul est de tester les performances. Le benchmark HPL (High Performance Lynpack) est une option populaire pour mesurer la vitesse de calcul dans un cluster. Vous devez compiler le logiciel à partir de la source avec le plus haut degré d'optimisation que votre compilateur permet pour l'architecture que vous avez choisie.

    • Vous devez, bien sûr, compiler avec tous les paramètres d'optimisation possibles disponibles pour la plate-forme que vous avez choisie. Par exemple, si vous utilisez un processeur AMD, compilez en Open64 avec un niveau d'optimisation de -0.
    • Comparez vos résultats avec TOP500.org pour comparer votre cluster avec les 500 supercalculateurs les plus rapides au monde !
  • Introduction

    Un cluster de serveurs est un groupe de serveurs indépendants gérés par le service de cluster qui fonctionnent ensemble comme un système unique. Les clusters de serveurs sont créés en réunissant plusieurs serveurs Windows® 2000 Advanced Server et Windows 2000 Datacenter Server pour fournir une disponibilité, une évolutivité et une gérabilité élevées pour les ressources et les applications.

    La tâche d'un cluster de serveurs est de fournir aux utilisateurs un accès continu aux applications et aux ressources en cas de pannes matérielles ou logicielles ou d'arrêts planifiés d'équipements. Si l'un des serveurs du cluster devient indisponible en raison d'une panne ou d'un arrêt pour maintenance, les ressources d'informations et les applications sont redistribuées entre les nœuds de cluster disponibles restants.

    Pour les systèmes de cluster, l'utilisation du terme " la haute disponibilité" est préférable à l'utilisation du terme " tolérance aux pannes" parce que les technologies de tolérance aux pannes nécessitent un niveau plus élevé de résilience matérielle et de mécanismes de récupération. En règle générale, les serveurs tolérants aux pannes utilisent un degré élevé de redondance matérielle, ainsi que des logiciels spécialisés qui permettent une récupération presque immédiate en cas de défaillance logicielle ou matérielle unique. Ces solutions sont nettement plus coûteuses que l'utilisation des technologies de cluster, car les organisations sont obligées de payer trop cher pour du matériel supplémentaire qui est inactif la plupart du temps et n'est utilisé qu'en cas de panne. Les serveurs tolérants aux pannes sont utilisés pour les applications à forte valeur transactionnelle telles que les centres de traitement des paiements, les guichets automatiques ou les bourses.

    Bien qu'il ne soit pas garanti que le service de cluster s'exécute sans interruption, il offre un haut niveau de disponibilité suffisant pour exécuter la plupart des applications critiques. Le service de cluster peut surveiller le fonctionnement des applications et des ressources, en reconnaissant automatiquement l'état des pannes et en récupérant le système après leur résolution. Cela permet une gestion plus flexible de la charge de travail au sein du cluster et améliore la disponibilité globale du système.

    Principaux avantages de l'utilisation du service de cluster :

    • La haute disponibilité. En cas de défaillance d'un nœud, le service de cluster transfère le contrôle des ressources, telles que les disques durs et les adresses réseau, au nœud de cluster actif. Lorsqu'une défaillance logicielle ou matérielle se produit, le logiciel du cluster redémarre l'application défaillante sur le nœud actif ou transfère la totalité de la charge du nœud défaillant vers les nœuds actifs restants. Dans ce cas, les utilisateurs peuvent ne remarquer qu'un court délai de service.
    • Retour après annulation. Le service de cluster redistribue automatiquement la charge de travail sur le cluster lorsqu'un nœud défaillant redevient disponible.
    • Contrôlabilité. L'administrateur de cluster est un composant logiciel enfichable que vous pouvez utiliser pour gérer le cluster en tant que système unique, ainsi que pour gérer les applications. L'administrateur de cluster fournit une vue transparente de la façon dont les applications s'exécutent comme si elles s'exécutaient sur le même serveur. Vous pouvez déplacer des applications vers différents serveurs au sein d'un cluster en faisant glisser et en déposant des objets de cluster. De la même manière, vous pouvez déplacer des données. Cette méthode peut être utilisée pour répartir manuellement la charge de travail des serveurs, ainsi que pour décharger le serveur puis l'arrêter à des fins de maintenance planifiée. De plus, l'administrateur de cluster vous permet de surveiller à distance l'état du cluster, de tous ses nœuds et ressources.
    • Évolutivité. Pour garantir que les performances du cluster peuvent toujours suivre les demandes croissantes, le service de cluster est conçu pour évoluer. Si les performances globales du cluster deviennent insuffisantes pour gérer la charge générée par les applications en cluster, des nœuds supplémentaires peuvent être ajoutés au cluster.

    Ce document fournit des instructions pour installer le service de cluster sur des serveurs exécutant Windows 2000 Advanced Server et Windows 2000 Datacenter Server et décrit comment installer le service de cluster sur des serveurs de nœud de cluster. Ce guide ne couvre pas l'installation et la configuration des applications en cluster, mais vous guide uniquement à travers le processus d'installation d'un cluster simple à deux nœuds.

    Configuration système requise pour la création d'un cluster de serveurs

    Les listes de contrôle suivantes vous aideront à préparer l'installation. Des instructions d'installation étape par étape seront fournies plus loin après ces listes.

    Logiciels requis

    • Système d'exploitation Microsoft Windows 2000 Advanced Server ou Windows 2000 Datacenter Server installé sur tous les serveurs du cluster.
    • Un service de résolution de noms installé tel que Domain Naming System (DNS), Windows Internet Naming System (WINS), HOSTS, etc.
    • Terminal Server pour l'administration à distance du cluster. Cette exigence n'est pas obligatoire, mais est recommandée uniquement pour assurer la commodité de la gestion du cluster.

    Exigences matérielles

    • La configuration matérielle requise pour un nœud de cluster est la même que celle requise pour l'installation des systèmes d'exploitation Windows 2000 Advanced Server ou Windows 2000 Datacenter Server. Ces exigences peuvent être trouvées sur la page de recherche Annuaire Microsoft.
    • Le matériel du cluster doit être certifié et répertorié dans la liste de compatibilité matérielle (HCL) du service de cluster Microsoft. La dernière version de cette liste se trouve sur la page de recherche Liste de compatibilité matérielle Windows 2000 Annuaire Microsoft en sélectionnant la catégorie de recherche "Cluster".

    Deux ordinateurs qualifiés HCL, chacun avec :

    • Un disque dur avec une partition système amorçable et Windows 2000 Advanced Server ou Windows 2000 Datacenter Server installé. Ce disque ne doit pas être connecté au bus de stockage partagé décrit ci-dessous.
    • Canal optique séparé des périphériques de contrôleur PCI (Fiber Channel) ou SCSI pour connecter un périphérique de stockage partagé externe. Ce contrôleur doit être présent en plus du contrôleur de disque de démarrage.
    • Deux cartes réseau PCI installées sur chaque ordinateur du cluster.
    • Le périphérique de stockage sur disque externe répertorié dans la HCL qui est attaché à tous les nœuds du cluster. Il agira comme un disque de cluster. Une configuration utilisant des matrices RAID matérielles est recommandée.
    • Câbles pour connecter un périphérique de stockage partagé à tous les ordinateurs. Reportez-vous à la documentation du fabricant pour obtenir des instructions sur la configuration des périphériques de stockage. Si vous vous connectez à un bus SCSI, vous pouvez vous reporter à l'annexe A pour plus d'informations.
    • Tout le matériel des ordinateurs du cluster doit être complètement identique. Cela simplifiera le processus de configuration et vous évitera d'éventuels problèmes de compatibilité.

    Exigences de configuration réseau

    • Nom NetBIOS unique pour le cluster.
    • Cinq adresses IP statiques uniques : deux pour les cartes réseau privées, deux pour les cartes réseau publiques et une pour le cluster.
    • Compte de domaine pour le service de cluster (tous les nœuds de cluster doivent être membres du même domaine)
    • Chaque nœud doit avoir deux adaptateurs réseau - un pour la connexion au réseau public, un pour la communication intra-cluster des nœuds. Une configuration utilisant une seule carte réseau pour se connecter à un réseau public et privé en même temps n'est pas prise en charge. Une carte réseau distincte pour le réseau privé est nécessaire pour se conformer aux exigences HCL.

    Configuration requise pour les disques de stockage partagés

    • Tous les disques de stockage partagés, y compris le disque quorum, doivent être physiquement connectés au bus partagé.
    • Tous les disques connectés au bus partagé doivent être disponibles pour chaque nœud. Cela peut être vérifié lors de la phase d'installation et de configuration de l'adaptateur hôte. Reportez-vous à la documentation du fabricant de l'adaptateur pour obtenir des instructions détaillées.
    • Les périphériques SCSI doivent se voir attribuer des numéros d'identification SCSI uniques cibles et les terminaisons sur le bus SCSI doivent être correctement terminées, conformément aux instructions du fabricant. une
    • Tous les disques de stockage partagés doivent être configurés en tant que disques de base (non dynamiques)
    • Toutes les partitions sur les disques de stockage partagés doivent être formatées avec le système de fichiers NTFS.

    Il est fortement recommandé que tous les disques de stockage partagés soient configurés dans des matrices RAID matérielles. Bien que cela ne soit pas obligatoire, la création de configurations RAID tolérantes aux pannes est essentielle pour se protéger contre les pannes de disque.

    Installation d'un cluster

    Présentation générale de l'installation

    Au cours du processus d'installation, certains nœuds seront arrêtés et d'autres redémarrés. Ceci est nécessaire pour garantir l'intégrité des données situées sur des disques connectés au bus commun d'un périphérique de stockage externe. La corruption des données peut se produire lorsque plusieurs nœuds tentent simultanément d'écrire sur le même lecteur qui n'est pas protégé par le logiciel du cluster.

    Le tableau 1 vous aidera à déterminer quels nœuds et périphériques de stockage doivent être activés pour chaque étape de l'installation.

    Ce guide décrit comment créer un cluster à deux nœuds. Toutefois, si vous configurez un cluster avec plus de deux nœuds, vous pouvez utiliser la valeur de la colonne "Nœud 2" pour déterminer l'état des nœuds restants.

    Tableau 1. Séquence d'activation des périphériques lors de l'installation du cluster

    Marcher Nœud 1 Nœud 2 périphérique de stockage Commentaire
    Réglage des paramètres réseau Sur Sur À l'arrêt Assurez-vous que tous les périphériques de stockage connectés au bus partagé sont éteints. Allumez tous les nœuds.
    Configurer des Drive partagés Sur À l'arrêt Sur Désactivez tous les nœuds. Allumez le périphérique de stockage partagé, puis allumez le premier nœud.
    Vérification de la configuration des Drive partagés À l'arrêt Sur Sur Éteignez le premier nœud, allumez le deuxième nœud. Répétez l'opération pour les nœuds 3 et 4 si nécessaire.
    Configuration du premier nœud Sur À l'arrêt Sur Éteignez tous les nœuds ; allumez le premier nœud.
    Configuration du deuxième nœud Sur Sur Sur Après avoir configuré avec succès le premier nœud, mettez le deuxième nœud sous tension. Répétez l'opération pour les nœuds 3 et 4 si nécessaire.
    Terminer l'installation Sur Sur Sur À ce stade, tous les nœuds doivent être activés.

    Avant d'installer le logiciel du cluster, vous devez effectuer les étapes suivantes :

    • Installez Windows 2000 Advanced Server ou Windows 2000 Datacenter Server sur chaque ordinateur du cluster.
    • Configurez les paramètres réseau.
    • Configurez des lecteurs de stockage partagés.

    Effectuez ces étapes sur chaque nœud du cluster avant d'installer le service de cluster sur le premier nœud.

    Pour configurer le service de cluster sur un serveur exécutant Windows 2000, votre compte doit disposer de droits d'administration sur chaque nœud. Tous les nœuds de cluster doivent être des serveurs membres ou des contrôleurs du même domaine en même temps. L'utilisation mixte de serveurs membres et de contrôleurs de domaine dans un cluster n'est pas autorisée.

    Installation du système d'exploitation Windows 2000

    Pour installer Windows 2000 sur chaque nœud de cluster, reportez-vous à la documentation fournie avec votre système d'exploitation.

    Ce document utilise la structure de nommage du manuel "Guide pas à pas d'une infrastructure commune pour le déploiement de Windows 2000 Server". Cependant, vous pouvez utiliser n'importe quel nom.

    Vous devez être connecté avec un compte administrateur avant de commencer l'installation du service de cluster.

    Configuration des paramètres réseau

    Noter:À ce stade de l'installation, éteignez tous les périphériques de stockage partagés, puis allumez tous les nœuds. Vous devez empêcher plusieurs nœuds d'accéder au stockage partagé en même temps jusqu'à ce que le service de cluster soit installé sur au moins un des nœuds et que ce nœud soit sous tension.

    Chaque nœud doit avoir au moins deux adaptateurs réseau installés - un pour se connecter au réseau public et un pour se connecter au réseau privé des nœuds du cluster.

    L'adaptateur de réseau de réseau privé assure la communication entre les nœuds, la communication de l'état actuel du cluster et la gestion du cluster. L'adaptateur de réseau public de chaque nœud connecte le cluster au réseau public des ordinateurs clients.

    Assurez-vous que tous les adaptateurs réseau sont physiquement connectés correctement : les adaptateurs réseau privés sont uniquement connectés à d'autres adaptateurs réseau privés et les adaptateurs réseau publics sont connectés aux commutateurs de réseau public. Le schéma de connexion est illustré à la figure 1. Effectuez cette vérification sur chaque nœud du cluster avant de procéder à la configuration des disques de stockage partagés.

    Figure 1 : exemple de cluster à deux nœuds

    Configuration d'une carte réseau privée

    Effectuez ces étapes sur le premier nœud de votre cluster.

    1. Mon environnement réseau et sélectionnez la commande Propriétés.
    2. Faites un clic droit sur l'icône.

    Noter: Quelle carte réseau desservira le réseau privé et laquelle le réseau public dépend de la connexion physique des câbles réseau. Dans ce document, nous supposerons que le premier adaptateur (Connexion au réseau local) est connecté au réseau public et que le deuxième adaptateur (Connexion au réseau local 2) est connecté au réseau privé du cluster. Dans votre cas, ce n'est peut-être pas le cas.

    1. État. Fenêtre État de la connexion au réseau local 2 affiche l'état de la connexion et sa vitesse. Si la connexion est déconnectée, vérifiez les câbles et la connexion correcte. Corrigez le problème avant de continuer. Cliquez sur le bouton proche.
    2. Faites à nouveau un clic droit sur l'icône Connexion réseau 2, sélectionnez une commande Propriétés et appuyez sur le bouton Régler.
    3. Sélectionner l'onglet En outre. La fenêtre illustrée à la figure 2 s'affiche.
    4. Pour les cartes réseau de réseau privé, la vitesse doit être définie manuellement au lieu de la valeur par défaut. Spécifiez la vitesse de votre réseau dans la liste déroulante. Ne pas utiliser de valeurs "Détection automatique" ou "Sélection automatique" pour sélectionner la vitesse, car certaines cartes réseau peuvent abandonner des paquets lors de la détermination de la vitesse de connexion. Pour définir la vitesse de la carte réseau, spécifiez la valeur réelle du paramètre Type de connexion ou La rapidité.

    Figure 2 : Paramètres avancés de l'adaptateur réseau

    Tous les adaptateurs réseau d'un cluster connecté au même réseau doivent être configurés de la même manière et utiliser les mêmes valeurs de paramètre mode recto-verso, contrôle de flux, Type de connexion, etc. Même si différents nœuds utilisent différents équipements réseau, les valeurs de ces paramètres doivent être les mêmes.

    1. Sélectionner Protocole Internet (TCP/IP) dans la liste des composants utilisés par la connexion.
    2. Cliquez sur le bouton Propriétés.
    3. Réglez le commutateur sur Utilisez l'adresse IP suivante et entrez l'adresse 10.1.1.1 . (Pour le deuxième nœud, utilisez l'adresse 10.1.1.2 ).
    4. Définissez le masque de sous-réseau : 255.0.0.0 .
    5. Cliquez sur le bouton En outre et sélectionnez l'onglet GAGNE. Réglez la valeur du commutateur sur la position Désactiver NetBIOS sur TCP/IP. Cliquez sur D'ACCORD pour revenir au menu précédent. Suivez cette étape uniquement pour la carte réseau privée.

    Votre boîte de dialogue doit ressembler à la figure 3.

    Figure 3 : Adresse IP de connexion au réseau privé

    Configuration d'une carte réseau publique

    Noter: Si un serveur DHCP s'exécute sur un réseau public, une adresse IP pour l'adaptateur de réseau public peut être attribuée automatiquement. Cependant, cette méthode n'est pas recommandée pour les adaptateurs de nœud de cluster. Nous vous recommandons vivement d'attribuer des adresses IP permanentes à toutes les cartes réseau hôtes publiques et privées. Sinon, si le serveur DHCP tombe en panne, l'accès aux nœuds du cluster peut ne pas être possible. Si vous êtes obligé d'utiliser DHCP pour les adaptateurs de réseau public, utilisez des baux d'adresse longs pour vous assurer que l'adresse attribuée dynamiquement reste valide même si le serveur DHCP devient temporairement indisponible. Attribuez toujours des adresses IP permanentes aux adaptateurs de réseau privé. N'oubliez pas que le service de cluster ne peut reconnaître qu'une seule interface réseau par sous-réseau. Si vous avez besoin d'aide pour attribuer des adresses réseau dans Windows 2000, consultez l'aide intégrée du système d'exploitation.

    Renommer les connexions réseau

    Pour plus de clarté, nous vous recommandons de modifier les noms de vos connexions réseau. Par exemple, vous pouvez changer le nom de la connexion Connexion réseau 2 sur le . Cette méthode vous aidera à identifier plus facilement les réseaux et à attribuer correctement leurs rôles.

    1. Faites un clic droit sur l'icône 2.
    2. Dans le menu contextuel, sélectionnez la commande Renommer.
    3. Entrer Connexion à un réseau de cluster privé dans le champ de texte et appuyez sur la touche ENTRER.
    4. Répétez les étapes 1 à 3 et modifiez le nom de la connexion connexion LAN sur le Connexion à un réseau public.

    Figure 4 : Connexions réseau renommées

    1. Les connexions réseau renommées doivent ressembler à la figure 4. Fermer la fenêtre Réseau et accès réseau à distance. Les nouveaux noms de connexion réseau sont automatiquement répliqués sur les autres nœuds du cluster lorsqu'ils sont mis sous tension.

    Vérification des connexions réseau et des résolutions de noms

    Pour vérifier que le matériel réseau configuré fonctionne, procédez comme suit pour tous les adaptateurs réseau de chaque hôte. Pour ce faire, vous devez connaître les adresses IP de toutes les cartes réseau du cluster. Vous pouvez obtenir ces informations en exécutant la commande ipconfig sur chaque nœud :

    1. Cliquez sur le bouton Commencer, sélectionner une équipe Courir et tapez la commande commande dans une fenêtre de texte. Cliquez sur D'ACCORD.
    2. Composer une équipe ipconfig /all et appuyez sur la touche ENTRER. Vous verrez des informations sur le paramètre de protocole IP pour chaque adaptateur réseau sur la machine locale.
    3. Si vous n'avez pas encore de fenêtre de ligne de commande ouverte, suivez l'étape 1.
    4. Composer une équipe ping adresse IPadresse IP est l'adresse IP de la carte réseau correspondante sur l'autre hôte. Supposons par exemple que les adaptateurs réseau aient les adresses IP suivantes :
    Numéro de nœud Nom de la connexion réseau Adresse IP de la carte réseau
    1 Connexion au réseau public 172.16.12.12
    1 Connexion à un réseau de cluster privé 10.1.1.1
    2 Connexion au réseau public 172.16.12.14
    2 Connexion à un réseau de cluster privé 10.1.1.2

    Dans cet exemple, vous devez exécuter les commandes ping 172.16.12.14 et ping 10.1.1.2 du nœud 1, et exécuter les commandes ping 172.16.12.12 et ping 10.1.1.1 du nœud 2.

    Pour vérifier la résolution du nom, exécutez la commande ping, en utilisant le nom de l'ordinateur comme argument au lieu de son adresse IP. Par exemple, pour vérifier la résolution de nom pour le premier nœud de cluster nommé hq-res-dc01, exécutez la commande ping hq-res-dc01 depuis n'importe quel ordinateur client.

    Vérification de l'appartenance au domaine

    Tous les nœuds du cluster doivent être membres du même domaine et doivent pouvoir se mettre en réseau avec le contrôleur de domaine et le serveur DNS. Les nœuds peuvent être configurés en tant que serveurs membres de domaine ou en tant que contrôleurs du même domaine. Si vous décidez de faire de l'un des nœuds un contrôleur de domaine, tous les autres nœuds du cluster doivent également être configurés en tant que contrôleurs de domaine du même domaine. Ce guide suppose que tous les nœuds sont des contrôleurs de domaine.

    Noter: Pour obtenir des liens vers une documentation supplémentaire sur la configuration des domaines, des services DNS et DHCP dans Windows 2000, consultez Ressources associéesà la fin de ce document.

    1. Clic-droit Mon ordinateur et sélectionnez la commande Propriétés.
    2. Sélectionner l'onglet Identification du réseau. Dans la boîte de dialogue Propriétés du système Vous verrez le nom complet de l'ordinateur et du domaine. Dans notre exemple, le domaine s'appelle reskit.com.
    3. Si vous avez configuré le nœud en tant que serveur membre, vous pouvez le joindre au domaine à ce stade. Cliquez sur le bouton Propriétés et suivez les instructions pour joindre l'ordinateur au domaine.
    4. fermer les fenêtres Propriétés du système et Mon ordinateur.

    Créer un compte de service de cluster

    Pour le service de cluster, vous devez créer un compte de domaine distinct sous lequel il s'exécutera. Le programme d'installation vous demandera d'entrer des informations d'identification pour le service de cluster, de sorte qu'un compte doit être créé avant que le service puisse être installé. Le compte ne doit appartenir à aucun utilisateur de domaine et doit être utilisé exclusivement pour exécuter le service de cluster.

    1. Cliquez sur le bouton Commencer, sélectionnez une commande Programmes / Gestion, démarrez le composant logiciel enfichable.
    2. Développer la catégorie reskit.com s'il n'est pas déjà déployé
    3. Sélectionnez dans la liste Utilisateurs.
    4. Faites un clic droit sur Utilisateurs, sélectionnez dans le menu contextuel Créer, sélectionner Utilisateur.
    5. Entrez un nom pour le compte de service de cluster, comme illustré à la figure 5, puis cliquez sur Plus loin.

    Figure 5 : Ajout d'un utilisateur de cluster

    1. Vérifie les boites Empêcher l'utilisateur de changer de mot de passe et Le mot de passe n'expire pas. Cliquez sur le bouton Plus loin et bouton Prêt pour créer un utilisateur.

    Noter: Si votre stratégie de sécurité administrative n'autorise pas l'utilisation de mots de passe qui n'expirent jamais, vous devrez mettre à jour le mot de passe et configurer le service de cluster sur chaque nœud avant qu'il n'expire.

    1. Clic droit sur l'utilisateur Groupe dans la barre d'outils de droite Utilisateurs et ordinateurs Active Directory.
    2. Dans le menu contextuel, sélectionnez la commande Ajouter des membres à un groupe.
    3. Choisissez un groupe Administrateurs et appuyez sur D'ACCORD. Le nouveau compte dispose désormais de privilèges d'administrateur sur l'ordinateur local.
    4. fermer le composant logiciel enfichable Utilisateurs et ordinateurs Active Directory.

    Configuration des lecteurs de stockage partagé

    Avertissement: Assurez-vous qu'au moins un des nœuds de cluster exécute Windows 2000 Advanced Server ou Windows 2000 Datacenter Server et que le service de cluster est configuré et en cours d'exécution. Ce n'est qu'alors que vous pourrez démarrer le système d'exploitation Windows 2000 sur les nœuds restants. Si ces conditions ne sont pas remplies, les disques du cluster peuvent être endommagés.

    Pour commencer à configurer les disques de stockage partagés, éteignez tous les nœuds. Après cela, allumez le périphérique de stockage partagé, puis allumez le nœud 1.

    Disque de quorum

    Le disque quorum est utilisé pour stocker les points de contrôle et restaurer les fichiers journaux de la base de données du cluster, assurant la gestion du cluster. Nous formulons les recommandations suivantes pour la création d'un disque quorum :

    • Créez une petite partition (d'au moins 50 Mo) à utiliser comme disque quorum. Nous recommandons généralement de créer un disque quorum de 500 Mo.
    • Allouez un disque distinct pour la ressource quorum. Étant donné que l'ensemble du cluster échouera si le disque quorum tombe en panne, nous vous recommandons vivement d'utiliser une matrice RAID matérielle.

    Lors de l'installation du service de cluster, vous devrez attribuer une lettre de lecteur au quorum. Dans notre exemple, nous utiliserons la lettre Q.

    Configuration des lecteurs de stockage partagé

    1. Clic-droit Mon ordinateur, sélectionnez une commande Contrôler. Développez la catégorie dans la fenêtre qui s'ouvre. périphériques de stockage.
    2. Choisissez une équipe Gestion de disque.
    3. Assurez-vous que tous les disques de stockage partagés sont formatés avec NTFS et ont le statut De base. Si vous connectez un nouveau disque, il démarrera automatiquement Assistant de signature et de mise à jour de disque. Lorsque l'assistant démarre, cliquez sur le bouton Rafraîchir, pour continuer son travail, après quoi le disque sera défini comme Dynamique. Pour convertir un disque en disque de base, faites un clic droit sur Disque#(où # - le numéro du disque avec lequel vous travaillez) et sélectionnez la commande Revenir au disque de base.

    Zone de clic droit Pas allouéà côté du disque correspondant.

    1. Choisissez une équipe Créer une rubrique
    2. va commencer Assistant de partition. Double-cliquez sur le bouton Plus loin.
    3. Entrez la taille de partition souhaitée en mégaoctets et cliquez sur le bouton Plus loin.
    4. Cliquez sur le bouton Plus loin, en acceptant la lettre de lecteur par défaut
    5. Cliquez sur le bouton Plus loin pour formater et créer une partition.

    Attribuer des lettres de lecteur

    Une fois le bus de données, les disques et les partitions de stockage partagé configurés, vous devez attribuer des lettres de lecteur à toutes les partitions sur tous les disques du cluster.

    Noter: Les points de montage sont une fonctionnalité du système de fichiers qui vous permet de monter un système de fichiers à l'aide de répertoires existants sans attribuer de lettre de lecteur. Les points de montage ne sont pas pris en charge par les clusters. Tout lecteur externe utilisé comme ressource de cluster doit être partitionné en partitions NTFS, et ces partitions doivent se voir attribuer des lettres de lecteur.

    1. Cliquez avec le bouton droit sur la partition souhaitée et sélectionnez la commande Modifier la lettre de lecteur et le chemin d'accès au lecteur.
    2. Choisissez une nouvelle lettre de lecteur.
    3. Répétez les étapes 1 et 2 pour tous les disques de stockage partagés.

    Figure 6 : partitions de disque avec des lettres attribuées

    1. A la fin de la procédure, la fenêtre d'accrochage Gestion d'ordinateur devrait ressembler à la figure 6. Fermez le bouton-pression Gestion d'ordinateur.
    1. Cliquez sur le bouton Commencer, sélectionner Programmes / Standard, et exécutez le programme Carnet".
    2. Tapez quelques mots et enregistrez le fichier avec un nom test.txt en choisissant la commande Enregistrer sous du menu Dossier. proche Carnet.
    3. Double-cliquez sur l'icône Mes documents.
    4. Clic droit sur le fichier test.txt et dans le menu contextuel sélectionnez la commande Copie.
    5. Ferme la fenêtre.
    6. ouvert Mon ordinateur.
    7. Double-cliquez sur la partition de disque du périphérique de stockage partagé.
    8. Faites un clic droit et sélectionnez la commande Insérer.
    9. Une copie du fichier doit apparaître sur le lecteur de stockage partagé test.txt.
    10. Double-cliquez sur le fichier test.txt pour l'ouvrir à partir d'un lecteur de stockage partagé. Fermez le fichier.
    11. Sélectionnez le fichier et appuyez sur la touche Suppr pour supprimer le fichier du disque du cluster.

    Répétez la procédure pour tous les disques du cluster afin de vous assurer qu'ils sont accessibles depuis le premier nœud.

    Maintenant, éteignez le premier nœud, allumez le deuxième nœud et répétez les étapes de la section Vérification du fonctionnement et du partage des disques. Effectuez les mêmes étapes sur tous les nœuds supplémentaires. Une fois que vous avez vérifié que tous les nœuds peuvent lire et écrire des informations sur les disques de stockage partagés, désactivez tous les nœuds sauf le premier et passez à la section suivante.

    Aujourd'hui, les processus commerciaux de nombreuses entreprises sont entièrement liés à l'information
    les technologies. Avec la dépendance croissante des organisations au travail de l'informatique
    réseaux, la disponibilité des services à tout moment et sous n'importe quelle charge joue un grand rôle
    rôle. Un ordinateur ne peut fournir qu'un niveau initial de fiabilité et
    évolutivité, le niveau maximum peut être atteint en combinant dans
    un seul système de deux ordinateurs ou plus - un cluster.

    A quoi sert un cluster ?

    Les clusters sont utilisés dans les organisations qui ont besoin 24 heures sur 24 et
    disponibilité ininterrompue des services et lorsque toute interruption de fonctionnement est indésirable et
    ne sont pas permis. Ou dans les cas où une surtension de charge est possible, avec laquelle
    le serveur principal ne peut pas faire face, puis supplémentaires
    hôtes qui effectuent généralement d'autres tâches. Pour un serveur de messagerie qui gère
    des dizaines et des centaines de milliers de lettres par jour, ou un serveur web servant
    achats en ligne, l'utilisation de clusters est hautement souhaitable. Pour l'utilisateur
    un tel système reste complètement transparent - l'ensemble du groupe d'ordinateurs sera
    ressembler à un serveur. L'utilisation de plusieurs, même moins chers,
    ordinateurs vous permet d'obtenir des avantages très significatifs par rapport à un seul
    et serveur rapide. Il s'agit d'une répartition uniforme des demandes entrantes,
    augmentation de la tolérance aux pannes, car lorsqu'un élément sort, sa charge
    ramasser d'autres systèmes, évolutivité, maintenance et remplacement pratiques
    nœuds de cluster, et bien plus encore. Défaillance d'un nœud automatiquement
    est détecté et la charge est redistribuée, pour le client tout cela restera
    inaperçu.

    Caractéristiques de Win2k3

    De manière générale, certains clusters sont conçus pour augmenter la disponibilité des données,
    d'autres sont pour des performances maximales. Dans le cadre de l'article, nous
    sera intéressé MPP (traitement parallèle massif)- groupes,
    où le même type d'applications s'exécutent sur plusieurs ordinateurs, fournissant
    évolutivité des services. Il existe plusieurs technologies qui
    répartir la charge sur plusieurs serveurs : redirection du trafic,
    traduction d'adresse, Round Robin DNS, utilisation spéciale
    programmes
    fonctionnant au niveau de la couche application, comme les accélérateurs Web. À
    Win2k3, contrairement à Win2k, la prise en charge du clustering est intégrée et
    deux types de clusters sont pris en charge, différant par les applications et les spécificités
    Les données:

    1. Clusters NLB (équilibrage de charge réseau)- apporter
    évolutivité et haute disponibilité des services et applications basés sur les protocoles TCP
    et UDP, combinant en un cluster jusqu'à 32 serveurs avec le même ensemble de données, sur
    qui exécutent les mêmes applications. Chaque requête est exécutée comme
    opération distincte. Ils sont habitués à travailler avec des ensembles de changements rarement
    données telles que WWW, ISA, services de terminaux et autres services similaires.

    2. Grappes de serveurs– peut combiner jusqu'à huit nœuds, leur principal
    la tâche est d'assurer la disponibilité des applications en cas de panne. Composé d'actifs et
    nœuds passifs. Le nœud passif est inactif la plupart du temps, jouant le rôle
    réserve du nœud principal. Pour les applications individuelles, il est possible de personnaliser
    plusieurs serveurs actifs, répartissant la charge entre eux. Les deux nœuds
    connecté à un seul entrepôt de données. Le cluster de serveurs est utilisé pour le travail
    avec de gros volumes de données changeant fréquemment (courrier, fichier et
    serveurs SQL). De plus, un tel cluster ne peut être constitué de nœuds fonctionnant sous
    gestion des différentes variantes de Win2k3 : Enterprise ou Datacenter (Web et
    Les clusters de serveurs standard ne sont pas pris en charge).

    À Centre d'applications Microsoft 2000(et seulement) il y avait une autre sorte
    groupe - CLB (Équilibrage de la charge des composants), offrant la possibilité
    distribution des applications COM+ sur plusieurs serveurs.

    Grappes NLB

    Lors de l'utilisation de l'équilibrage de charge, chacun des hôtes crée
    une carte réseau virtuelle avec sa propre adresse IP et MAC indépendante.
    Cette interface virtuelle représente le cluster comme un nœud unique, les clients
    l'adresser sur l'adresse virtuelle. Toutes les demandes sont reçues par chaque
    nœud de cluster, mais sont traités par un seul. Fonctionne sur tous les nœuds
    Service d'équilibrage de charge réseau
    ,
    qui, en utilisant un algorithme spécial qui ne nécessite pas d'échange de données entre
    nœuds, décide si un nœud particulier doit traiter une demande ou
    non. Les nœuds sont échangés messages de battement de coeur leur montrant
    disponibilité. Si un hôte cesse d'émettre une pulsation ou qu'un nouveau nœud apparaît,
    les autres nœuds démarrent processus de convergence, un nouveau
    redistribuer la charge. L'équilibrage peut être mis en œuvre de deux manières
    modes :

    1) monodiffusion- unicast quand au lieu d'un MAC physique
    le MAC de l'adaptateur virtuel du cluster est utilisé. Dans ce cas, les nœuds du cluster ne sont pas
    peuvent communiquer entre eux en utilisant des adresses MAC uniquement sur IP
    (ou un second adaptateur non associé au cluster) ;

    Un seul de ces modes doit être utilisé dans le même cluster.

    Peut être personnalisé plusieurs clusters NLB sur une carte réseau,
    spécifiant des règles spécifiques pour les ports. De tels clusters sont appelés virtuels. Leur
    application vous permet de définir pour chaque application, hôte ou adresse IP
    ordinateurs spécifiques dans le cluster principal, ou bloquer le trafic pour
    certaines applications sans affecter le trafic pour d'autres programmes en cours d'exécution
    sur ce nœud. Ou, à l'inverse, un composant NLB peut être lié à plusieurs
    adaptateurs réseau, ce qui vous permettra de configurer un certain nombre de clusters indépendants sur chaque
    nœud. Vous devez également savoir que la configuration des clusters de serveurs et de NLB sur le même nœud
    n'est pas possible car ils fonctionnent différemment avec les périphériques réseau.

    L'administrateur peut faire une sorte de configuration hybride qui a
    les avantages des deux méthodes, par exemple en créant un cluster NLB et en configurant la réplication
    données entre les nœuds. Mais la réplication n'est pas effectuée en permanence, mais de temps en temps,
    par conséquent, les informations sur les différents nœuds seront différentes pendant un certain temps.

    Finissons avec la théorie, même si vous pouvez parler de construction de clusters
    pendant longtemps, énumérant les possibilités et les moyens de construire, donnant diverses
    recommandations et options pour une mise en œuvre spécifique. Laissons toutes ces subtilités et nuances
    pour l'auto-apprentissage et passer à la partie pratique.

    Configuration d'un cluster NLB

    Pour Organisations du cluster NLB aucun logiciel supplémentaire requis
    produit par les moyens disponibles de Win2k3. Pour créer, maintenir et surveiller
    Les clusters NLB utilisent le composant Gestionnaire d'équilibrage de charge réseau
    (Gestionnaire d'équilibrage de charge réseau)
    , qui se trouve dans l'onglet
    "Administration" "Panneau de configuration" (commande NLBMgr). Puisque le composant
    "Network Load Balancing" est installé en tant que pilote réseau Windows standard,
    Vous pouvez également installer NLB à l'aide du composant Connexions réseau, dans
    où l'article correspondant est disponible. Mais il vaut mieux n'utiliser que le premier
    option, activation simultanée du gestionnaire NLB et "Connexions réseau"
    peut conduire à des résultats imprévisibles.

    NLB Manager vous permet de configurer et de gérer le travail à partir d'un seul endroit à la fois
    plusieurs clusters et nœuds.

    Il est également possible d'installer un cluster NLB sur un ordinateur avec un réseau
    adaptateur associé au composant d'équilibrage de charge réseau, mais celui-ci
    En cas de mode monodiffusion, le gestionnaire NLB sur cet ordinateur ne peut pas être
    utilisé pour contrôler d'autres nœuds, et les nœuds eux-mêmes ne peuvent pas échanger
    les uns avec les autres informations.

    Nous appelons maintenant le répartiteur NLB. Nous n'avons pas encore de clusters, donc l'apparition
    la fenêtre ne contient aucune information. Sélectionnez "Nouveau" dans le menu "Cluster" et
    nous commençons à remplir les champs de la fenêtre "Paramètres du cluster". Dans le champ "Paramètres"
    Cluster IP settings" entrez la valeur de l'adresse IP virtuelle du cluster, le masque
    sous-réseau et nom complet. La valeur de l'adresse MAC virtuelle est définie
    automatiquement. Un peu plus bas nous sélectionnons le mode de fonctionnement du cluster : unicast ou
    multidiffusion. Faites attention à la case à cocher "Autoriser le contrôle à distance" - dans
    dans tous les documents, Microsoft recommande fortement de ne pas l'utiliser pendant
    éviter les problèmes de sécurité. Au lieu de cela, vous devez appliquer
    répartiteur ou d'autres outils de contrôle à distance, tels qu'une boîte à outils
    Gestion Windows (WMI). Si la décision de l'utiliser est prise, alors
    prendre toutes les mesures appropriées pour protéger le réseau, couvrant
    ports UDP 1717 et 2504 du pare-feu.

    Après avoir rempli tous les champs, cliquez sur "Suivant". Dans la fenêtre "Adresses IP du cluster", lorsque
    nécessaire, nous ajoutons des adresses IP virtuelles supplémentaires qui seront
    utilisé par ce cluster. Dans la fenêtre suivante Port Rules, vous pouvez
    définir l'équilibrage de charge pour un ou pour un groupe de ports de tous ou
    IP sélectionnée via les protocoles UDP ou TCP, ainsi que bloquer l'accès au cluster
    certains ports (qu'un pare-feu ne remplace pas). Grappe par défaut
    traite les requêtes pour tous les ports (0-65365) ; il vaut mieux limiter cette liste,
    n'ajoutant que ceux qui sont vraiment nécessaires. Bien que, s'il n'y a pas envie de déconner,
    vous pouvez tout laisser tel quel. Au fait, dans Win2k, par défaut, tout le trafic
    dirigé vers le cluster, traité uniquement le nœud qui avait la priorité la plus élevée,
    les nœuds restants n'étaient connectés que lorsque le nœud principal était défaillant.

    Par exemple, pour IIS, il vous suffit d'activer les ports 80 (http) et 443 (https).
    De plus, vous pouvez faire en sorte que, par exemple, le processus de connexion sécurisé
    uniquement des serveurs spécifiques sur lesquels le certificat est installé. Pour ajouter
    nouvelle règle, cliquez sur "Ajouter", dans la boîte de dialogue qui apparaît, saisissez
    L'adresse IP du nœud, ou si la règle s'applique à tout le monde, alors laissez la case à cocher
    "Tout". Dans les champs "De" et "Vers" de la plage de ports, définissez la même valeur -
    80. Le champ clé est "Mode de filtrage" - ici
    précise qui traitera cette demande. Il y a trois champs qui définissent le mode
    filtrage : "Nœuds multiples", "Nœud unique" et "Désactiver cette plage de ports".
    La sélection de "Single Host" signifie que le trafic dirigé vers l'adresse IP sélectionnée (ordinateur
    ou cluster) avec le numéro de port spécifié sera traité par le nœud actif,
    ayant l'indicateur de priorité le plus bas (plus d'informations à ce sujet ci-dessous). Sélection "Désactiver..."
    signifie que ce trafic sera abandonné par tous les membres du cluster.

    Dans le mode de filtrage "Nœuds multiples", vous pouvez également spécifier l'option
    définitions d'affinité client pour diriger le trafic d'un client donné vers
    le même nœud de cluster. Il y a trois options : "Aucun", "Unique" ou "Classe
    C". Choisir la première signifie que toute demande recevra une réponse arbitraire
    nœud. Mais vous ne devez pas l'utiliser si le protocole UDP est sélectionné dans la règle ou
    "Tous les deux". Lors du choix d'autres articles, la similitude des clients sera déterminée par
    plage de réseau IP ou de classe C spécifique.

    Ainsi, pour notre règle avec le 80e port, nous opterons pour l'option
    "Nœuds multiples - Classe C". La règle pour 443 est remplie de la même manière, mais nous utilisons
    "Noeud unique", de sorte que le client est toujours répondu par le nœud principal avec le plus bas
    priorité. Si le répartiteur trouve une règle incompatible, il affichera
    message d'avertissement, en plus du journal des événements Windows sera ajouté
    entrée correspondante.

    Ensuite, on se connecte au nœud du futur cluster en saisissant son nom ou son adresse IP réelle, et
    définir l'interface qui sera connectée au réseau du cluster. Dans la fenêtre Options
    nœud "sélectionnez une priorité dans la liste, spécifiez les paramètres réseau, définissez le
    état du nœud (en cours d'exécution, arrêté, en pause). Priorité à la fois
    est l'identifiant unique du nœud ; Plus le nombre est faible, plus la priorité est élevée.
    Le nœud de priorité 1 est le serveur maître qui reçoit en premier
    paquets et agissant en tant que gestionnaire de routage.

    La case à cocher "Conserver l'état après le redémarrage de l'ordinateur" permet, au cas où
    l'échec ou le redémarrage de ce nœud le mettra automatiquement en ligne. Après avoir appuyé
    sur "Terminer" dans la fenêtre du gestionnaire, une entrée apparaîtra sur le nouveau cluster, dans lequel jusqu'à présent
    il y a un nœud.
    Le nœud suivant est également facile à ajouter. Sélectionnez "Ajouter un nœud" dans le menu ou
    "Se connecter à l'existant", selon l'ordinateur
    une connexion est établie (il est déjà membre du cluster ou non). Puis à la fenêtre
    indiquez le nom ou l'adresse de l'ordinateur, s'il y a suffisamment de droits pour se connecter, un nouveau
    le nœud sera connecté au cluster. La première fois que l'icône à côté de son nom sera
    diffèrent, mais lorsque le processus de convergence sera terminé, ce sera le même que celui de
    premier ordinateur.

    Comme le répartiteur affiche les propriétés des nœuds au moment de sa connexion, par
    clarification de l'état actuel, sélectionnez le cluster et dans le menu contextuel sélectionnez
    "Mise à jour". Le gestionnaire se connectera au cluster et affichera les données mises à jour.

    Après l'installation cluster NLB n'oubliez pas de changer l'enregistrement DNS en
    la résolution de nom s'affiche désormais sur l'adresse IP du cluster.

    Modifier la charge du serveur

    Dans cette configuration, tous les serveurs seront chargés uniformément (à l'exception de
    option "Un nœud"). Dans certains cas, il est nécessaire de redistribuer la charge,
    la majeure partie du travail est affectée à l'un des nœuds (par exemple, le plus puissant).
    Pour un cluster, les règles peuvent être modifiées après leur création en sélectionnant
    menu contextuel qui apparaît lorsque vous cliquez sur le nom, l'élément "Propriétés du cluster".
    Tous les paramètres dont nous avons parlé ci-dessus sont disponibles ici. Élément du menu
    "Node Properties" fournit quelques options supplémentaires. Dans "Options de nœud"
    vous pouvez modifier la valeur de priorité d'un nœud particulier. Dans "Règles
    pour les ports" vous ne pouvez pas ajouter ou supprimer une règle, elle n'est disponible qu'au niveau
    groupe. Mais, en choisissant de modifier une règle spécifique, nous avons la possibilité
    régler certains paramètres. Ainsi, avec le mode de filtrage défini
    « Nœuds multiples », l'élément « Estimation de la charge » devient disponible, vous permettant de
    redistribuer la charge sur un nœud spécifique. Coché par défaut
    "Égal", mais dans "Estimation de la charge", vous pouvez spécifier une valeur différente de la charge sur
    nœud spécifique, sous forme de pourcentage de la charge totale du cluster. Si le mode est activé
    filtrage "Un nœud", un nouveau paramètre "Priorité" apparaît dans cette fenêtre.
    En traitement". En l'utilisant, vous pouvez faire en sorte que le trafic vers un port spécifique
    sera traité d'abord par un nœud du cluster, et à un autre - par d'autres
    nœud.

    Journalisation des événements

    Comme déjà mentionné, le composant Network Load Balancing enregistre tout
    actions et modifications du cluster dans le journal des événements Windows. De les voir
    sélectionnez "Observateur d'événements - Système", NLB inclut les messages WLBS (de
    Service d'équilibrage de charge Windows, car ce service était appelé dans NT). D'ailleurs, dans
    la fenêtre du répartiteur affiche les derniers messages contenant des informations sur les erreurs
    et tout changement de configuration. Par défaut, ces informations ne sont pas
    est sauvé. Pour l'écrire dans un fichier, sélectionnez "Options -\u003e
    Options de journalisation", cochez la case "Activer la journalisation" et spécifiez un nom
    dossier. Le nouveau fichier sera créé dans le sous-répertoire Documents de votre compte
    et paramètres.

    Configurer IIS avec réplication

    Un cluster est un cluster, mais sans service, cela n'a aucun sens. Alors ajoutons IIS (Internet
    services d'information)
    . Le serveur IIS est inclus avec Win2k3, mais pour le réduire à
    pour minimiser la possibilité d'attaques sur le serveur, il n'est pas installé par défaut.

    Il existe deux manières d'installer IIS : via le "Panneau de configuration" ou
    assistant de gestion des rôles pour ce serveur. Considérons le premier. Aller à
    "Panneau de configuration - Ajouter ou supprimer des programmes" (Panneau de configuration - Ajouter ou
    Supprimer des programmes), sélectionnez "Installer les composants Windows" (Ajouter/Supprimer Windows
    Composants). Allez maintenant à l'élément "Application Server" et marquez dans les "Services
    IIS" suffit. Par défaut, le répertoire de travail du serveur est \Inetpub\wwwroot.
    Une fois installé, IIS peut afficher des documents statiques.

    LA CLOCHE

    Il y en a qui ont lu cette news avant vous.
    Abonnez-vous pour recevoir les derniers articles.
    E-mail
    Nom
    Nom de famille
    Aimeriez-vous lire The Bell
    Pas de spam