En suksesshistorie for et virtualiseringsprosjekt på serveren

Westminster College nylig avsluttede virtualiseringsprosjekt er den andre delen av det som begynte for en god stund tilbake som en ad hoc måte å pensjonere noen kritisk aldrende servere på. Serverne var fortsatt vertskap for webapplikasjoner som vi var i ferd med å utfase; som sådan ønsket vi ikke å kjøpe nye servere og distribuere disse tjenestene fullstendig, så vi satte på plass et par VMware ESX (3 & 3.5) servere og brukte PlateSpins fysisk-til-virtuelle (P2V) programvare for å fjerne potensialet av maskinvarefeil fra ligningen.

Jeg begynner i begynnelsen

I begynnelsen av 2007, kort tid etter ankomst til Westminster College, ble det klart at planen min om å fase ut en eksisterende portalsøknad skulle ta mye lenger tid enn jeg hadde håpet. De støttede tjenestene var sammenvevd i mange forskjellige prosesser; Tre år senere kjører vi fortsatt en av applikasjonene i produksjonen, men den er den siste. Støtter denne portalen applikasjonen var et par virkelig, gamle servere som var godt forbi utløpsdatoen for garantien. På toppen av det var helt omplassering av portalsøknaden en av de siste tingene jeg ønsket å gjøre siden den bare ble holdbart sammen, og menneskene som hadde implementert løsningen var for lengst borte og hadde bare etterlatt seg grunnleggende dokumentasjon. Jeg ønsket også å redusere antall servere vi kjørte i vårt lille datasenter; til og med de eldre serverne kjørte med bare en brøkdel av kapasiteten, men måtte fortsatt skiftes ut på en slags syklus og kobles til stikkontakter som bruker strøm.

Ønsket om å flytte til nyere maskinvare uten å bryte banken, redusere det elektriske forbruket og ikke å måtte omdisponere alle våre eksisterende tjenester førte til fase 1-virtualisering. Når vi hadde den løsningen på plass, kjørte vi i den konfigurasjonen en stund. Over tid virtualiserte vi også en rekke nyere servere, også ved hjelp av P2V-metoden. Da nye tjenester ble brakt på nettet, distribuerte vi dem vanligvis på en av de virtuelle vertene.

Vertene var enkle containere for å huse virtuelle maskiner og var ikke koblet til et SAN; all lagring var lokal. Når det er sagt, dette var Westminsters første skritt inn i VMware, og de oppnådde de nødvendige målene den gangen.

Videre til neste trinn

Gjennom årene har jeg blitt en stor tro på mottoet "virtualiser alt når det er mulig". Den store suksessen med den første fasen førte til at jeg bestemte meg for å utvide virtualiseringen for å omfatte alt vi kunne, men jeg ville gjøre det på en mye mer robust måte.

Vårt første forsøk implementerte ikke tilgjengelighetsmetoder, noe som var bra for formålet, men da vi flyttet inn i "virtualiser alt" -modus, trengte vi SAN-støttede ESX-servere og litt mer robusthet. For å oppnå tilgjengelighetsmålene våre, ønsket vi å sørge for at vi ikke hadde noen eneste feilpunkter. For det formål er alt overflødig, og vi har distribuert flere servere enn det som er nødvendig for å støtte våre nåværende virtuelle arbeidsmengder. Vi har rom for vekst, som vi vil trenge.

Igjen, vi er et lite miljø, så arkitekturen er ganske enkel, men det er det vi har:

  • En EMC AX4 SAN - iSCSI, doble kontroller, 12 x 300 GB SAS + 12 x 750 GB SATA. Helt og 100% overflødig.
  • 3 x Dell M600 bladservere, 2 x 2, 66 GHz Quad Core Intel Xeon-prosessorer, 32 GB RAM hver, 6 NIC-er (chassis inneholder 6 x Dell M6220-brytere - 1 for hver NIC på hver server)
    • 2 x NIC-er for front-end tilkobling
    • 2 x NIC-er for tilkobling til AX4 (iSCSI)
      • Hver av disse er koblet til en egen Ethernet-bryter.
      • Hver NIC kobles til en annen lagringsprosessor på AX4.
      • Hver lagringstilkobling ligger på et annet fysisk nettverkskort.
    • 1 x NIC for vMotion
    • 1 x NIC for feiltoleranse
Vi kjører 28 virtuelle maskiner på tvers av disse tre vertene. Av prosesseringsressursene vi har i denne tre vertsklyngen bruker vi i gjennomsnitt omtrent 10% av datakraften som er tilgjengelig for oss ( figur A ), så det er god plass til vekst, og vi har ingen bekymringer for ytelse hvis en av de fysiske vertene svikter. På RAM-siden bruker vi litt over 30% av det totale RAM-kortet som er tilgjengelig i klyngen, men jeg tror vi kan få det ned ved å være mer oppmerksom på hvordan individuelle virtuelle maskiner er utstyrt ( figur B ). Figur A

Vi bruker omtrent 10% av databehandlingsressursene våre. (Klikk på bildet for å forstørre.)
Figur B

Vi bruker litt over 30% av RAM-ressursene til klyngen. (Klikk på bildet for å forstørre.)

I figur A og B må du merke deg at det er to perioder der vi opplevde et problem med vCenter som påvirket statistikkinnsamling. Selv om hver maskin har 32 GB RAM, har en av våre verter Dells RAM RAID-evne slått på, noe som hjelper til med å beskytte verten i tilfelle et RAM-problem. Som et resultat rapporterer den serveren bare 24 GB tilgjengelig RAM. På grunn av at det er redundans på vertsnivå, deaktiverer vi denne funksjonen under et vedlikeholdsvindu for å få fordelen med hele 32 GB RAM.

I figur C vil du se et blikk på hele infrastrukturen. 50 og 51 er ganske enkelt interne identifikatorer. Figur C

Hele ESX-miljøet. (Klikk på bildet for å forstørre.)

I sommer vil vi gjøre noen endringer i miljøet for å øke den totale tilgjengeligheten, inkludert:

  • En overføring fra vårt enkeltserver (fysiske) Exchange 2007-system til et multi-server (virtuelt) Exchange 2010-miljø. Den eneste tjenesten som vil forbli fysisk, er enhetlige meldinger.
  • Vi bruker SharePoint for mange ting, inkludert nettstedet vårt publikum vender. Vårt eksisterende SharePoint-miljø består av to servere: en dedikert databaseserver og MOSS-serveren som kjører de andre komponentene. Når vi utforsker SharePoint 2010, vil vi sannsynligvis migrere fra den fysiske SharePoint-infrastrukturen også.

Selv om jeg må legge til flere ESX-verter for å støtte nyere initiativer (selv om jeg ikke tror jeg vil), er tilgjengelighetsfordelene for store til å ignorere.

Virtualiseringsprosjektet på Westminster overskred alle de opprinnelige målene mine. Vi har veldig lett for å forlenge levetiden til aldrende applikasjoner, redusere strømforbruket, øke tilgjengeligheten og gjøre en enorm bukke i budsjettet for utskifting av utstyr i datasenteret.

Vil du følge med på Scott Lowes innlegg på TechRepublic?

  • Registrer deg automatisk på nyhetsbrevet Servere og lagring
  • Abonner på RSS-feed for servere og lagring
  • Følg Scott Lowe på Twitter

© Copyright 2021 | pepebotifarra.com