Redundans (datacenter)

Den redundans, der anvendes til datacentrene, betyder, at basistjenesterne og systemerne vil have duplikater (udstyr, links, strøm og stier, data, software ...) for at garantere funktionaliteterne i tilfælde af, at en af ​​disse komponenter mangler. ' ville vise sig at være defekt. I dag  opnås "høj tilgængelighed " i det væsentlige af redundansen på niveauet for hele økosystemet vist i figuren. Uptime Institute- organisationen   klassificerer datacentre i fire niveauer: TIER I, II, III og IV. Disse niveauer svarer til et vist antal garantier for den type udstyr, der indsættes i datacentret for at sikre dets redundans.

Datacentrets udvikling

Med hensyn til information teknologi (IT), katastrofer varierer i type og omfang. De spænder fra nedlukning af små virksomheder til fuldstændig nedlukning af datacentre. Dette kan skyldes forstyrrelser af naturlig oprindelse eller menneskelige fejl, der spænder fra hardwarefejl, en forstyrrelse af netværket til større anerkendte begivenheder såsom en brand eller en oversvømmelse.

Derfor, med den voksende kompleksitet af IT- infrastrukturen , er katastrofegendannelse blevet et nøglekrav for mange organisationer. Disaster Recovery-løsninger implementeres for at hjælpe systemet med at modstå katastrofer ved at etablere og vedligeholde et eksternt backup-system ved hjælp af geografisk mangfoldighed. Nogle organisationer har tendens til at etablere et eller flere sikkerhedskopieringssteder, der er vært for it-ressourcer for at afbøde udfald, der kan påvirke deres forretningsfunktioner og kritiske tjenester. I tilfælde af en katastrofe erstatter backup-systemet hurtigt produktionssystemet og gendanner systemdata for at sikre, at ingen eller mindre data går tabt. Således fortsætter systemet uden afbrydelse, der sikrer kontinuiteten i kritiske tjenester og genoptager normal drift efter genopretning. Derfor er målet med at replikere backup-webstedets netværksinfrastruktur at give høj tilgængelighed og sikre, at kritiske tjenester fortsat fungerer under enhver begivenhed eller afbrydelse. Evnen til at komme sig efter en katastrofe kræver effektiv planlægning og validerede løsninger.

Gendannelse af datacentret fra en fejl

Mål

Den datacenter har typisk titusinder af netværksenheder og koster millioner af dollars til at bygge og vedligeholde. I et sådant stort netværk er hovedårsagerne til fejl hardware / softwarefejl og menneskelige fejl. Disse fejl kan forårsage betydelig forringelse i ydelsen af ​​netværkstjenester, der kører på datacenternetværket. Derfor er det afgørende at levere alle de bedste fremgangsmåder inden for design og redundans for at maksimere tilgængeligheden og levere bedre ydeevne i datacentret.

Typer skak

Netværksfejl

Internettet er forretningens hjerne, da det er, hvor alle kritiske datacenterprocesser finder sted. Kun via ISP-netværk vil datacentret være forbundet til Internettet. I dag vender store virksomheder og indholdsudbydere, der er afhængige af Internettet, til multi-homing. En tilgang til at opnå modstandsdygtighed over for serviceforstyrrelser og forbedre ydeevnen ved at vælge den bedst mulige udbyder til overførsler til forskellige destinationer. Multi-homing defineres simpelthen som et kundenetværk (eller ISP), der har mere end et eksternt link, enten til en enkelt internetudbyder eller til udbydere. Kunden har generelt sit eget AS (autonome system) og annoncerer sine adressepræfikser gennem alle sine opstrømsudbydere, der bruger BGP .

Enhedsfejl

Netværks tilgængelighedskrav er genstand for duplikering af netværkselementer. Målet er at slippe af med et enkelt fejlpunkt, hvilket betyder, at fejl i en hvilken som helst komponent i netværket (en router , en switch , en fysisk server, der grupperer flere virtuelle maskiner), får hele netværket til at fungere. Forskellige mekanismer med høj tilgængelighed, såsom klyngeprotokoller, standard gateway redundansprotokoller er designet til at omgå dette problem.

Standard gatewayredundans

Virtual Router Redundancy Protocol (VRRP ) og Hot Standby Router Protocol (HSRP ) er routerredundansprotokoller designet til at øge standard gatewaytilgængelighed på det samme undernet. Denne pålidelighed opnås ved at dele en virtuel routers IP-adresse mellem flere fysiske routere for at give en fejltolerant gateway og gennemsigtig failover i tilfælde af en fysisk routersvigt. Problemet med disse protokoller er manglen på belastningsbalancering, som kan blive genstand for yderligere undersøgelse i fremtiden.

Klynge

Cluster er en fejltolerancemekanisme, der løser serverfejl ved effektivt at migrere virtuelle maskiner (VM'er), der er hostet på den mislykkede server, til en ny placering. I dag foretrækker cloudtjenesteudbydere det virtuelle datacenter (VDC) som en enhed for ressourceallokering frem for fysiske datacentre, fordi de ressourcer, der tildeles til VDC'er, hurtigt kan justeres ud fra lejernes behov. VDCs-arkitekturen giver skalerbarhed ved at distribuere al tilstand af virtuel til fysisk kortlægning, routing og båndbreddereservation på tværs af serverhypervisorer. VDC-tildelingsalgoritmen grupperer først servernetværket i forskellige klynger. Gruppering foretages med hopoptællingen som en metric. En server kan tilhøre flere klynger, f.eks. en klynge med to spring, en klynge med fire spring og hele netværket. Når en fejlhændelse rapporteres, forsøger algoritmen at finde anmodninger, hvis routingsstier passerer gennem den mislykkede server. For disse berørte rutestier tildeles nye stier. Vi gør dette, inden vi forsøger at omfordele berørte virtuelle maskiner (linje 2-7). Derefter deallokerer båndbredderne på stierne, som forbinder den mislykkede server til andre servere, der er vært for andre virtuelle maskiner i samme VDC (linje 9-10). For at omfordele VM'en forsøger vi at finde en server i samme klynge, hvor VDC er hostet. Vi foretrækker den samme klynge for at minimere transmissionsforsinkelsen, og vi tildeler disse ressourcer på denne server og er vært for VM (linje 11). Hvis en sådan server ikke er tilgængelig i den aktuelle klynge, flytter vi til en højere klynge.

Strømsvigt

Der er flere strømkomponenter i et datacenter, og hver af dem repræsenterer et svigtpunkt: standbygenerator og automatisk overførselsafbryder (ATS), uafbrydelig strømforsyning ( UPS ) og strømfordelingsenhed ( PDU ). For at øge pålideligheden af ​​disse kritiske strømkomponenter og give et miljø med høj tilgængelighed er implementering af servere med to strømforsyninger en almindelig praksis. I en “perfekt” installation, såsom et Tier 4-datacenter, er der to helt uafhængige strømstier. Hver sti og elementerne i stien skal kunne understøtte 100% af den samlede belastning af datacentret. Dette repræsenterer ægte 2N redundans. 2N redundans betyder, at der ikke er et enkelt fejlpunkt, der vil afbryde driften af ​​datacenterudstyr. Serverne er normalt installeret og drives med begge PDU'er. Når begge strømforsyninger er aktive, deler de dobbelte strømforsyninger serverbelastningen med ca. 50% hver. Den eneste måde at implementere det sikkert på er aldrig at overstige 40% af en PDUs nominelle værdi for at undgå kaskadefyldt overbelastning i tilfælde af en PDU-fejl. Endelig skal du proaktivt overvåge og styre belastningsniveauerne på alle PDU'er og alle andre elementer i strømstien.

Datareplikering

Den replikering af data er en effektiv metode til at opnå høj tilgængelighed og data holdbarhed i datacentre. Datareplikering er en teknik designet til at replikere data på tværs af to eller flere lagringsknuder, der er knyttet til forskellige stativer i et datacenter. En sådan redundans sikrer, at mindst en kopi af data er tilgængelig til kontinuerlig drift i tilfælde af rackafbrydelsesfejl eller rackstrømsvigt. At vælge et datareplikeringsdesign er imidlertid kompliceret ved at holde kopierne så tæt synkroniserede som muligt og bruge så lidt båndbredde som muligt. Opdatering af alle kopier synkront giver høj modstandsdygtighed over for datatab, men har dårlig skriveydelse og resulterer i høje netværksomkostninger. Den båndbredde netværk og latenstid er to faktorer, der begrænser data replikation. Hvis den tilgængelige båndbredde ikke er tilstrækkelig, står meddelelser i kø i netværksbuffere, og derfor tager læsning og skrivning til den eksterne fysiske lagervolumen længere tid. bemærker, at en lang responstid kan være acceptabel for batchapplikationer, men ikke for kritiske applikationer såsom onlinetransaktioner. Latency øges, hvis antallet af switche / routere / links i meddelelseskommunikationsstien øges, og også når en switch er overbelastet. Vi bemærker, at ekstern spejling kræver ultra-lav ventetid og høj kapacitet.

SDN-baseret datareplikering

Software-definerede netværksarkitekturer (SDN) , hvor kontrolplanet afkobles fra dataplanet, bliver populære, fordi brugerne kan kontrollere styringen af ​​routing og ressourceforbrug intelligent. Et væsentligt element i SDN er, at det eksplicit forbinder netværksstyring med de funktionelle krav i hver applikation. En SDN-kompatibel switch (f.eks. OpenFlow) videresender trafik i dataplanet i henhold til kontrolplanets regler, der kører på en separat controller. SDN muliggør dynamisk trafikflowhåndtering, hvilket gør det let at replikere lagerdata med lav båndbredde og lav latens mellem datacentre. Vi betragter et multi-routet datacenternetværk som vist i figur 2. Netværket består af sammenkoblede switche i tre lag: Top of Rack (ToR), aggregatet og kernen, som vist i figur 2. figur. Figuren viser også bælgene, replikationsværten (som initierer replikeringsoperationen), det primære sted, hvor den primære kopi af data er gemt på en server, og det backup-sted, hvor sikkerhedskopien af ​​data er gemt på en server. En replikeringshandling genererer to strømme, den ene strøm mellem værten og den primære server og den anden strømning mellem værten og sikkerhedskopieringsserveren.

Geo-replikering

Geo-replikering er processen med at opbevare kopier af data i geografisk spredte datacentre for bedre tilgængelighed og fejltolerance. Det kendetegn ved geografisk replikering er den høje latenstid mellem datacentre, som varierer meget afhængigt af placeringen af ​​datacentrene. Valget af datacentre til at implementere en skyapplikation har således en direkte indvirkning på den observerbare responstid.

Databaser spredt over flere datacentre

Webudbydere har brugt NoSQL- datalagre til at give skalerbarhed og tilgængelighed for globalt distribuerede data på bekostning af transaktionsgarantier. For nylig har store webtjenesteudbydere som Google henvendt sig til bygning af lagringssystemer, der tilbyder ACID-transaktionsgarantier for globalt distribuerede data. For eksempel bruger det nye Spanner-system to-fasetag og to-faselåsning til at give generel atomicitet og isolering. distribuerede data, der kører oven på Paxos for at give fejltolerant logreplikering. Det er muligt at give de samme ACID- transaktionsgarantier til cross-center-databaser, men med færre kommunikationsudløsere mellem datacentre sammenlignet med et system, der bruger logreplikering, såsom Spanner, ved hjælp af en mere effektiv arkitektur.

Webstedsredundans

Geo-redundans løser sårbarhederne i kollokeret overflødigt udstyr ved geografisk at adskille backup-udstyret for at reducere sandsynligheden for, at begivenheder såsom strømafbrydelser gør beregningsressourcer utilgængelige. Løsningen er at dele arbejdsbyrden med de andre sider. Denne konfiguration kaldes Hot. Disse er failover-websteder konfigureret som en aktiv-aktiv klynge. I denne konfiguration er hvert sted aktivt for bestemte applikationer og fungerer i standby for applikationer, der ikke er aktive der. Denne konfiguration skaber modstandsdygtighed på siteniveau og muliggør failover i datacenter. {quote | Dette præsenterer "en nøglemulighed for at reducere omkostningerne ved cloud-servicecentre" ved at eliminere "dyr infrastruktur, såsom generatorer og uafbrydelige elsystemer, ved at gøre det muligt for hele datacentre at fungere. 'mislykkes}.

Referencer

  1. Hadeel 2016
  2. Zhang 2013
  3. Greenberg 2008
  4. Hu 2011
  5. Gill 2011
  6. Mit 2012
  7. Akella 2003
  8. Kamoun 2009
  9. Pavlikt 2014
  10. Krishna 2013
  11. Julius 2008
  12. Zhao 2011
  13. Weatherspoon 2009
  14. Ji 2003
  15. Patterson 2002
  16. McKeown 2008
  17. Kanagavelu 2013
  18. Zakhary 2016
  19. Mahmoud 2013
  20. Brotherton 2014

Bibliografi

  • (da) Weatherspoon, Hakim og Ganesh, Lakshmi og Marian, Tudor og Balakrishnan, Mahesh og Birman, Ken, “  Røg og spejle: Reflekterende filer på en geografisk fjern placering uden tab af ydeevne.  " , USENIX ,2009( læs online )
  • (da) Ji, Minwen og Veitch, Alistair C og Wilkes, John og andre, ”  Seneca: fjernspejling færdig skriv.  " , USENIX ,2003( læs online )
  • (da) Patterson, Hugo og Manley, Stephen og Federwisch, Mike og Hitz, Dave og Kleiman, Steve og Owara, Shane, “  filsystembaseret asynkron spejling til katastrofegendannelse.  " , USENIX ,2002( læs online )
  • (en) McKeown, Nick og Anderson, Tom og Balakrishnan, Hari og Parulkar, Guru og Peterson, Larry og Rexford, Jennifer og Shenker, Scott og Turner, Jonathan, ”  OpenFlow: muliggør innovation i campusnetværk.  " , ACM ,2008( læs online )
  • (en) Zakhary, Victor og Nawab, Faisal og Agrawal, Divyakant og El Abbadi, Amr, "  Db-risk: The game of global database placement  " , ACM ,2016( læs online )
  • (da) Mahmoud, Hatem og Nawab, Faisal og Pucher, Alexander og Agrawal, Divyakant og El Abbadi, Amr, “  Multi-datacenter-databaser med lav latens ved hjælp af replikeret commit.  " , VLDB ,2013( læs online )
  • (en) Al-Essa, Hadeel A og Abdulbaki, Abdulrahman A, “  Disaster Recovery Datacenter's Architecture on Network Replication Solution.  " , IEEE ,2016( læs online )
  • (da) Zhang, Dongyan og Zhang, Tao, “  En sikkerhedskopieringsmetode til multikanal og realtidskatastrofe baseret på P2P-streaming.  " , IEEE ,2013( læs online )
  • (en) Brotherton, HM og Dietz, J Eric, “  Datacenterredundans.  " , IEEE ,2014( læs online )
  • (da) Pavlik, Jakub og Komarek, Ales og Sobeslav, Vladimir og Horalek, Josef, “  Gateway redundancy protocols.  " , IEEE ,2014( læs online )
  • (da) Kamoun, Faouzi, “  Virtualisering af datacenteret uden at gå på kompromis med serverens ydeevne.  " , ACM ,2009( læs online )
  • (da) Joshi, Sagar C og Sivalingam, Krishna M, “  Om fejltolerance i virtualiseringsarkitekturer i datacenternetværk.  " , IEEE ,2013( læs online )
  • (da) Julius Neudorfer, “  Forøger servere med dobbelt strømforsyning redundans?.  " , IEEE ,2008( læs online )
  • (da) Greenberg, Albert og Hamilton, James og Maltz, David A og Patel, Parveen, ”  Omkostningerne ved en sky: forskningsproblemer i datacenternetværk.  " , ACM ,2008( læs online )
  • (da) Hu, Chengchen og Yang, Mu og Zheng, Kai og Chen, Kai og Zhang, Xin og Liu, Bin og Guan, Xiaohong, “  Konfigurerer automatisk netværkslaget af datacentre til cloud computing.  " , IEEE ,2011( læs online )
  • (da) Gill, Phillipa og Jain, Navendu og Nagappan, Nachiappan, ”  Forståelse af netværksfejl i datacentre: måling, analyse og implikationer.  " , ACM ,2011( læs online )
  • (da) Ma, Xingyu og Hu, Chengchen og Chen, Kai og Zhang, Che og Zhang, Hongtao og Zheng, Kai og Chen, Yan og Sun, Xianda, “  Fejltolerant adressekonfiguration for datacenternetværk med defekte enheder.  " , IEEE ,2012( læs online )
  • (en) Akella, Aditya og Maggs, Bruce og Seshan, Srinivasan og Shaikh, anne og Sitaraman, Ramesh, ”  En målebaseret analyse af multihoming.  " , ACM ,2003( læs online )
  • (da) Kanagavelu, Renuga og Lee, Bu Sung og Miguel, Rodel Felipe og Mingjie, Luke Ng og andre, “  Softwaredefineret netværksbaseret adaptiv routing til datareplikering i datacentre.  " , IEEE ,2013( læs online )