Kan du få tak i den rare, virtuelle verdenen som datacentre skaleres opp og oppskalerer?

For å skalere opp eller å skalere ressursene i sentrum? Det var spørsmålet. Men nå kan det komme et større skifte på måten serverleverandører takler problemet, sier Clive Longbottom.

I begynnelsen var datamaskinen, og datamaskinen var en hovedramme. Det representerte en oppskaleringstilnærming, hvor arbeidsmengder ble kjørt på et sett med svært definerte ressurser. Så kom den vanlige serveren med høyt volum.

Til å begynne med kjørte en enkelt applikasjon på hver fysisk server med høyt volum, men først klynging og deretter virtualisering skapte en skaleringsmetode, der behovet for flere ressurser blir håndtert bare ved å kaste flere servere, lagring og nettverk på problemet.

Denne tilnærmingen antok at arbeidsmengder trengte et standard sett med ressurser - og utdeler mangler ble tydelige når det gjaldt visse arbeidsmengder som krevde mer innstilling av tilgjengelige ressurser, for eksempel CPU, nettverk, lagring og input / output (I / O ).

Alderen for ren oppskalering passerte for en tid tilbake, og hastverket etter ren oppskalering ser ut til å være slutt, så hva neste? Foto: Shutterstock

Det er et sted i en IT-arkitektur for begge tilnærminger, men det kan være en større endring i måten serverleverandører takler problemet.

La oss starte med Cisco. I 2009 lanserte Cisco sin Unified Computing System (UCS) -arkitektur - en modularisert tilnærming til Intel-basert databehandling.

Ved å kombinere rackmonterte kniver med topp-of-rack nettverkskomponenter og lagring, sammen med VMware-virtualisering, BMC-systemadministrasjon og et Microsoft Windows-operativsystem, er UCS rettet mot høyspesifikke Windows-baserte arbeidsmengder.

Med andre ord, UCS var egentlig en oppskalingsarkitektur - en slags hovedramme bygd fra maskinvarebyggesteiner til lavere pris.

Dell, HP, IBM, Oracle og SGI har alle gjort noe lignende, basert på enten modulære datacentre-komponenter eller containerbaserte systemer. I begge tilfeller kan systemene deres være innstilt for å gi visse egenskaper, og håndtere forskjellige arbeidsmengder på forskjellige måter - igjen, mer av et kjennetegn på et oppskalingssystem enn en skaleringsmetode med høyt volum.

Servere, lagrings- og nettverksutstyr er konstruert av rack, rad eller container for å gi et større utvalg av arbeidsmengder enn det som kan tilbys gjennom bare å sette sammen en samling av individuelle ressurser. Å aktivere virtualisering og privat skybasert elastisitet øker utnyttelsesgraden og reduserer energikostnadene.

Imidlertid er det en synergi mellom oppskalering og utskalering. Sluttbrukerorganisasjoner trenger å vite at bruk av en modularisert tilnærming for å kjøpe inn forhåndsbefolkede stativer ikke betyr at hvis eller når de går tom for en bestemt ressurs - CPU, lagring, nettverk eller I / O - de ikke trenger å kjøpe et annet fullt system for å gi inkrementelle ressurser.

Her er det også her virtualisering kommer inn. Flere ressurser kan brukes som frittstående komponenter som kan utnyttes av det eksisterende hovedsystemet gjennom administrasjonsprogramvaren og brukes etter behov.

Denne tilnærmingen er en nødvendighet hvis den nye oppskalingen skal fungere. Løftet om høye volum-servere og virtualisering har vært den essensielle kommodittiseringen av datacentre, med de forskjellige komponentene som utgjør IT-plattformen til individuelt lave kostnader. Hvis en komponent mislykkes, er erstatning billig og enkelt.

Denne tilnærmingen fungerer bra i en ren skala-ut arkitektur, men ...

© Copyright 2021 | pepebotifarra.com