De exascale supercomputere ( exascale computing på engelsk) er computer -type supercomputer arbejde ifølge en arkitektur massivt parallelle , og hvis computerkraft over 10 18 flops . Maskinen nedbryder de opgaver, der skal udføres, i millioner af underopgaver, som hver udføres derefter samtidigt af en processor .
Der er ingen Exascale- maskine i 2020. For at nå dette niveau skal it-systemer have en fuldstændig eftersyn af, hvordan man tackler udfordringer inden for forskellige områder.
Et løb om magt er i gang med programmer i USA, Europa, Kina og Japan. De første leverancer med denne computerkapacitet annonceres i 2021 af Cray .
Den exaflopiske supercomputers missioner vil være orienteret mod forskning og udvikling af flere spørgsmål i vores samfund.
Den supercomputer exascale ( exascale computing ) er supercomputere ( High-Performance Computing eller HPC ) med en regnekraft af størrelsesordenen 10 18 flops (en exaflop = en milliard milliard operationer i floating point per sekund). Disse maskiner er en samling af stærkt forbundne mikroprocessorer , som hver især er kendetegnet ved en høj urfrekvens og består af flere computerkerner. For at designe højtydende supercomputere spiller producenter samtidigt på antallet af mikroprocessorer, antallet af kerner, urfrekvensen og tilknytningen af grafikprocessorer . Den grundlæggende idé bag HPC er parallel computing, der involverer distribution af flere segmenter af en kompleks ligning på tværs af flere processorer for at beregne dem samtidigt. En supercomputer består af tusinder af noder, hvor en node er den grundlæggende byggesten, der består af en samling af flere mikroprocessorer. En høj computing kapacitet kræver plads opbevaring overensstemmelse hermed nå petabytes (ti petabyte Summit af IBM for eksempel). Ud over tophastighed har de også brug for et softwaremiljø , der letter dets effektive og produktive brug.
Forsknings- og udviklingsomkostningerne til oprettelse af et exaflopisk computersystem er blevet estimeret af mange eksperter til mere end en milliard amerikanske dollars med en årlig driftsomkostning på flere titusinder af millioner dollars.
De to vigtigste anvendelser af supercomputere er High Performance Computing ( CHP ) og kompleks dataanalyse . Oprindeligt var brugen af supercomputere begrænset til visse specielle applikationer såsom enkle simuleringer , teknik , olie og gas på grund af de enorme omkostninger ved HPC-systemer. Derefter udvidede den sig til forskellige områder som datamining, klimaforskning, sundhed, bilindustri , fysik , astrofysik , beregningsvæskemekanik og molekylær nanoteknologi . Disse fremtidige midler vil gøre det muligt at finde opdagelser på tværs af et bredt spektrum af videnskabelige områder for at hjælpe os med at forbedre vores forståelse af den verden, vi lever i.
Fremskridt i forståelsen af visse videnskabelige problemer er ofte forbundet med udviklingen af datalogi . Funktioner, der er bedre end petascale-systemer, hjælper forskere med at designe modeller og køre simuleringer af komplekse problemer. Den numeriske simulering er en væsentlig proces med videnskabelig forskning, der supplerer teori og eksperiment. Det er også en interessent i design- og produktionscyklusser i mange industrisektorer. Disse maskiner tillader tværfagligt design og optimering, hvilket reducerer prototypetid og omkostninger .
Ledere som USA, Kina, Europa og Japan konkurrerer med hinanden om de mest kraftfulde maskiner. Spørgsmålene vedrører suverænitetspolitikken og individuel og kollektiv sikkerhed. Energipolitikker, forebyggelse af naturlige risici og forsvar er baseret på bidrag fra simulering og højtydende computing.
Den CMOS ( Complementary Metal Oxide Semiconductor ) aktiveret kredsløbsydeevne mikroelektroniske vokse eksponentielt ved en konstant pris. Afslutningen på en spektakulær eksponentiel vækst i ydelse af en enkelt processor markerer afslutningen på den enkelte processors dominans inden for computing. Sekventiel databehandling giver plads til parallelisme.
Selvom højtydende computing har nydt godt af de samme fremskridt med halvleder som grundlæggende databehandling, er den varige ydeevne for HPC-systemer forbedret hurtigere på grund af øget systemstørrelse og parallelisme. Antallet af kerner i systemet forventes at nå flere millioner beregningskerner.
I 1980'erne dominerede vektorsupercomputering højtydende computing, hvilket fremgår af de navngivne systemer med samme navn designet af Seymour Cray . I 1990'erne oplevede stigningen i behandlingen massivt parallel (MPP: Massively Parallel Processing ) og multiprocessor med delt hukommelse (SMP: Shared Memory Multiprocessors ) fremstillet af Thinking Machines Corporation , Silicon Graphics og andre. Til gengæld dominerede produktklynger ( Intel / AMD x86) og processorer, der var specielt designet (som BlueGene fra IBM ) 2000'erne . I løbet af det næste årti blev disse klynger suppleret med beregningsacceleratorer i form af Intel- coprocessorer og Nvidia- grafikbehandlingsenheder ( GPU'er ) ; de inkluderer også forbindelser med høj hastighed og lav latenstid (som Infiniband ). Storage Area Networks ( SAN'er ) bruges til vedvarende datalagring, hvor lokale diske på hver node kun bruges til midlertidige filer. Dette hardwareøkosystem er primært optimeret til ydeevne snarere end til minimale omkostninger. På toppen af klyngens hardware , Linux giver systemet tjenester, suppleret med parallelle filsystemer (såsom Lustre ) og batch opgavestyringsprogrammer (såsom PBS og Slurm ) til styring af parallelle job. MPI og OpenMP bruges til parallelisme mellem noder og internoder, optimerede biblioteker og værktøjer (såsom CUDA og OpenCL ) til brug som en coprocessor. Digitale biblioteker (såsom LAPACK og PETSc) og domænespecifikke biblioteker fuldender softwarestakken . Applikationer er generelt udviklet i FORTRAN , C eller C ++ .
Der er to typer arkitektoniske design:
Det globale løb om at opbygge stadig større og mere magtfulde supercomputere har gennem årene ført til oprettelsen af en overflod af forskellige arkitekturer og har resulteret i forskellige "revolutioner". Dette løb er blevet optaget gennem årene i TOP500 Supercomputer List , hvor de mest magtfulde supercomputere, der hidtil er bygget, rangeres efter maksimal floating point-ydeevne ( TOP500- webstedet ). Generelt måles hastigheden på supercomputere og sammenlignes i FLOPS , ikke MIPS (millioner instruktioner pr. Sekund), som computere til almindelige formål. For at udtrykke et computersystems overordnede ydeevne bruger vi Linpack- benchmarket, der gør det muligt at estimere den hastighed, hvormed computeren løser numeriske problemer . Denne reference bruges i vid udstrækning i industrien. FLOPS-målingen citeres enten på basis af en processors teoretiske floating point-ydeevne (“ Rpeak ” i TOP500- listerne ) eller ved afledningen af Linpack-benchmarket (“Rmax” i TOP500-listen).
Linpacks ydeevne giver en indikation for nogle virkelige problemer, men matcher ikke nødvendigvis behandlingskravene til mange andre supercomputer-arbejdsbelastninger, som f.eks. Kan kræve båndbreddeovervejelse eller endda I / O- systemer .
For at nå Exascale- niveauet vil it-systemer have brug for en fuldstændig eftersyn af, hvordan man kan tackle udfordringer inden for områderne omkostninger, strøm, beregningseffektivitet, modstandsdygtighed og fejltolerance, dataflytning gennem netværket og endelig programmeringsmodeller.
Siden 1990'erne er den hurtige vækst i mikroprocessorens ydeevne muliggjort af tre vigtige teknologiske drivere: skalering af hastigheden af transistorer, mikroarkitekturteknikker og cachehukommelser . Omkring 2004 stoppede chips med at accelerere, da termiske begrænsninger stoppede frekvensskalering (også kendt som Dennard-skalering). Fremskridt inden for miniaturisering er sat til tjeneste for massiv parallelisme . For at øge effekten af supercomputere er tendensen mod multiplikation af computerkerner i processorer .
Til arkitekturen af en computerknude foretrækker nogle brugen af grafikprocessorer ( GPU ), som normalt bruges til realistisk gengivelse af videospil . Kraften i disse processorer er baseret på brugen af flere hundrede beregningskerner organiseret efter en forenklet arkitektur, SIMD (for Single Instruction Multiple Data ), hvor alle enhederne udfører den samme opgave parallelt, men på forskellige data. Andre stoler i stedet på paralleliteten af et stort antal generalistkerner - hundrede pr. Processor - hvis ydeevne vil blive forstærket ved tilføjelse af såkaldte "vektor" -enheder, der fungerer på registre på 512 bits i stedet for 64. sædvanligvis. Otte gange flere beregninger udføres således pr. Cyklus. Denne nye arkitektur foreslået af Intel blev kaldt “MIC” ( mange integrerede kerner ). GPU'er eller MIC'er spiller således rollen som beregningsaccelerator og forbedrer energieffektiviteten .
National Strategic Computing Initiative (NSCI) foreslår strategiske forskningsakser, den første er at fremskynde leveringen af et exascale- computersystem . Dette kan opnås på grundlag af den løbende udvikling af teknologi transistorer CMOS og nyere teknologier som fotonik til silicium og integration 3D hukommelse . Fremkomsten af en højtydende lavspændingsenhed kunne lette de begrænsninger på energi og varme, der begrænser databehandling.
I Exascale- beregningsregimet forventes energiomkostningerne ved at flytte data mellem hukommelse og FPU-rørledningen at overstige omkostningerne ved en flydende punktoperation . Dette kræver energieffektiv, lav latenstid og høj båndbreddeforbindelser for at muliggøre dataudveksling mellem processorer. Flere funktioner som hukommelser og sammenkoblinger skal integreres i en enkelt elektronisk komponent . Målet er at reducere den fysiske afstand mellem komponenterne og sikre, at beregningselementerne fuldt ud udnytter den fysiske lokalitet med lageret .
HukommelseAt minimere dataflytning og reducere strømforbruget afhænger også af nye hukommelsesteknologier, herunder processorhukommelse, stablet hukommelse og ikke-flygtige hukommelsesmetoder .
Den SRAM kan integreres med en logisk CMOS høj ydeevne, hvilket muliggør mere omkostningseffektiv integration af store mængder logisk hukommelse i forhold til DRAM og flash på samme chip .
SamtrafikDen kommunikation netværk af en supercomputer forbinder tusindvis af noder. For de exaflopiske maskiner vil det være nødvendigt denne gang at forbinde dem ti gange flere noder end de petaflopiske maskiner. Den måde, hvorpå disse IT-elementer er forbundet med hinanden ( netværkstopologi ) har en stærk indflydelse på mange ydeevneegenskaber. Der er mange mulige topologier til opbygning af parallelle systemer, såsom torus, det klassiske træ eller Dragonfly . For at være effektiv i Exascale skal kommunikationen udføres helt autonomt uden at involvere kernerne i processorer dedikeret til beregningerne. Udfordringen er at udvikle nye arkitekturer af sammenkoblingsnetværk, der er tæt integreret med computernoder.
KølingDen elektriske energi, der forbruges af en computer, omdannes stort set til varme ( Joule-effekt ), hvilket kræver installation af kølesystemer, som også er energiintensive. Den kølingsinfrastruktur er typisk konstrueret til at operere ved de maksimale kræfter indsat HPC-systemer. Designere skal innovere for at designe mere effektive systemer.
Ideelt set ville systemer være homøostatiske og tilpasse sig hardware- og softwarefejl uden menneskelig indgriben og fortsætte med at fungere, indtil antallet af fejl bliver for stort til at opfylde præstationsmål, da mislykkede komponenter periodisk udskiftes., HPC-systemet nedbrydes aldrig til det punkt, at brugerne bemærker.
Med stigningen i kompleksitet og antal noder i HPC-systemer over tid er sandsynligheden for applikationer, der oplever runtime-fejl, steget dramatisk. Exaflopic-maskiner, der vil indeholde flere millioner computerkerner, vil blive udsat for flere fejl i timen. Systemisk modstandsdygtighed over for regelmæssige komponentfejl vil være afgørende.
Hardwarefejl, også kendt som permanente fejl, afhænger af en anden afbødningsstrategi end softwarefejl . Disse fejl kan delvist korrigeres ved at inkorporere overflødige komponenter eller reservekomponenter. For eksempel at opbygge yderligere kerner, der forbliver inaktive, men som kan bestilles til at erstatte enhver svigtende processor.
Fejlfrekvens refererer til forbigående fejl, der påvirker den gennemsnitlige tid mellem applikationsafbrydelser. Den gennemsnitlige tid til at identificere (MTTI) er enhver fejl, der kræver korrigerende handling af fejl fra oppositionens applikation, der er skjult for applikationen af en elastisk mekanisme i hardware eller software.
Alle kontrolpunktsbaserede protokoller er afhængige af periodisk registrering af systemets kørende tilstand og genstart fra en tidligere fejlfri tilstand efter forekomsten af en fejl.
Daniel Dauwe, Sudeep Pasricha, Anthony A. Maciejewski og Howard Jay Siegel tilbyder en sammenligning af fire HPC-modstandsdygtighedsprotokoller, der bruger kontrolpunkter:
Kontrolpunkt og genstartKontrolpunktet er den fleksibilitetsteknik, der mest bruges af HPC'er. Den består i at bemærke tilstanden for alle programmer, der kører på en lagerenhed (såsom det parallelle filsystem). Dette gøres ved at lukke systemet ned med jævne mellemrum.
Kontrolpunkt på flere niveauerDa forskellige typer fejl kan påvirke et computersystem på forskellige måder, kræver ikke alle fejl genstart af systemet fra et kontrolpunkt. Multilevel Checkpointing udnytter dette ved at give flere niveauer af checkpoint. Hvert niveau giver en afvejning mellem det tidspunkt, det tager at kontrollere, genstarte og sværhedsgraden af det fiasko, som systemet kan genoptage computeren med.
BeskedlogføringDenne teknik består i at registrere de meddelelser, der sendes mellem processer for at generere optagelser af udførelsen af programmerne, der distribueres over alle systemets minder. I tilfælde af en fiasko vil dette give den mislykkede node mulighed for at bruge de meddelelser, der er gemt i hukommelsen på en anden node til gendannelse. Denne metode har fordelen ved at reducere genberegningstiden og spare energi, fordi kun den mislykkede node er aktiv, resten af systemet kan forblive inaktivt, indtil det gendannes.
RedundansTeknikken til redundans bruges til at forbedre et systems pålidelighed. Denne metode kan implementeres på hardware- eller softwareniveau, og det gør det muligt at lave flere kopier af det samme stykke kode. Ulempen er fortsat brugen af yderligere ressourcer.
Den parallelitet har forårsaget en revolution i computerens ydeevne. Dette blev introduceret i 1990'erne og er stadig under udvikling for at adressere målrettede Exascale- computersystemer .
Med flere millioner computerkerner vil udfordringen være at parallelisere beregningerne til det ekstreme, det vil sige at opdele dem i et meget stort antal delberegninger, der udføres af processorkerne. Det vil være nødvendigt at fordele opgaverne ligeligt mellem kernerne for at gøre det muligt for maskinerne at være effektive. Dette stiller spørgsmål med hensyn til programmering, der kræver en ny tilgang til parallel effektprogrammering med lav effekt for at opnå massiv ydeevne. Der er behov for mere udtryksfulde programmeringsmodeller, der kan håndtere denne proces og forenkle udviklerens indsats, mens de understøtter dynamisk og finkornet parallelitet. Programmering af fremtidige massivt parallelle og heterogene systemer vil ikke være trivielt, og programmeringsmodeller og eksekveringssystemer skal tilpasses og redesignes i overensstemmelse hermed.
Forskere Usman Ashraf, Fathy Alburaei Eassa, Aiiad Ahmad Albeshri og Abdullah Algarni præsenterer en hybrid MPI + OMP + CUDA (MOC), en ny massiv parallel programmeringsmodel til store heterogene klyngesystemer . De annoncerer "en asymptotisk acceleration på op til 30% -40% sammenlignet med de bedste implementeringer på heterogene multiprocessorer og accelererede Nvidia GPU'er " .
ECOSCALE-projektet sigter mod at tilvejebringe en holistisk tilgang til en ny energieffektiv heterogen hierarkisk arkitektur, et hybrid MPI + OpenCL- programmeringsmiljø og et eksekveringssystem til exscale- maskiner .
Siden november 2017, de 500 hurtigste supercomputere i verden, der kører på Linux- baserede operativsystemer .
Exaflopic-maskiner, der vil indeholde flere millioner computerkerner, vil blive udsat for flere fejl i timen. Softwaren skal derfor være i stand til at distribuere de opgaver, der skal udføres så godt som muligt mellem alle computerkernerne, samtidig med at dataflytning reduceres til et minimum. De bliver også nødt til at gemme dataene under udførelsen af beregningerne, så de ikke går tabt, hvis en komponent i maskinen fejler.
Applikationerne, der har mange udvekslinger eller synkroniseringer mellem deres underopgaver, siges at være finkornede , det vil sige finkornede , de der tværtimod har få udvekslinger og synkroniseringer kaldes grovkornede , det vil sige grove kornet. Exascale computing vil kræve en stor efterspørgsel efter algoritmer på mindst to områder: behovet for at øge mængderne af lokale data for at udføre beregninger effektivt og behovet for at opnå meget højere niveauer af finkornet parallelitet, da disse systemer understøtter et stigende antal af instruktionstråde . Som et resultat skal parallelle algoritmer tilpasse sig dette miljø, og nye algoritmer og implementeringer skal udvikles for at udnytte beregningsfunktionerne i den nye hardware.
Ny design af software og operativsystemer skal understøtte styring af heterogene ressourcer og hukommelseshierarkier , der ikke er cache- konsistente , give applikationer og udførelse mere kontrol over jobplanlægningspolitikker og administrere jobplanlægningspolitikker. Globale navneområder . De bør også demonstrere mere præcise målinger, forudsigelses- og kontrolmekanismer til energistyring, så planlæggere kan kortlægge beregninger til funktionsspecifikke acceleratorer og styre termiske kuverter og energiprofiler for applikationer.
Der skal opstå et samarbejde mellem specialister i anvendt matematik, der udvikler digitale computerværktøjer, og computerforskere, der specialiserer sig i højtydende computing, der designer software for at gøre det muligt at udnytte materialegenskaberne i disse nye massivt parallelle arkitekturer bedst muligt.
Nye programmeringssprog og modeller ud over C og FORTRAN vil være nyttige. Den programmering funktioner findes i Chapel og X10 har allerede haft en indirekte effekt på eksisterende program modeller (såsom OpenMP ). Sidstnævnte udnyttede extensions for de følgende eksempler: opgave parallelitet, acceleratorer og tråd affinitet . Det specifikke sprog for feltet ( DSL ) ( Domain Specific Language ) er specialiseret i et bestemt applikationsdomæne, hvilket repræsenterer en måde at udvide den eksisterende tungebase på. Integrerede DSLs er en pragmatisk måde at udnytte de avancerede analyse- og transformation kapaciteter af compilere til standard sprog .
Den belastning fordeling er en udfordring at overveje. Belastningsbalanceringsenheden fordeler behandlingsbelastningen blandt de tilgængelige computersystemer, så behandlingsarbejdet er afsluttet på kortest mulig tid. Den load balancing kan implementeres med software, hardware eller en kombination af begge dele.
En betydelig udvikling af modellen, et redesign af algoritmen og en genimplementering af videnskabelige applikationer, understøttet af en eller flere programmeringsmodeller tilpasset exscale , vil være nødvendigt for at udnytte kraften i exascale- arkitekturer . Disse vil være systemer baseret på en homogen eller heterogen arkitektur. Derfor har vi brug for en adaptiv hybrid programmeringsmodel, der kan håndtere både homogene og heterogene arkitektursystemer.
Den petaflopiske supercomputer Titan blev introduceret i 2012 på Oak Ridge National Laboratories med et forbrug på ni megawatt (MW) og en teoretisk spidseffekt på 27 petaFLOPS genererede en årlig elregning på cirka ni millioner dollars. Meget høje omkostninger inklusive installation og vedligeholdelse af infrastruktur er ved at blive dominerende faktorer i de samlede ejeromkostninger ( TCO ) for en supercomputer. Disse platformers energiomkostninger i løbet af deres brugstid, typisk tre til fem år, kunne konkurrere med deres anskaffelsesomkostninger.
Effektforbrugseffektivitet (PUE) er et veletableret mål for evaluering af datacenters energieffektivitet . Intuitivt måler PUE den brøkdel af energi, der leveres til et anlæg, der driver faktisk it-udstyr. Derfor skal alle faktorer, der påvirker energiforbruget, behandles for at gøre et datacenter mere energieffektivt og derfor reducere dets PUE-værdi: køleinfrastrukturen ( P- køling ); HPC-systemer implementeret til ressourcehåndtering og applikationsplanlægning og optimering ( P IT ); strømtab som følge af elektrisk distribution og konvertering ( P elektriske tab ); og forskellige energiforbrug P misc .
Disse fund er også begyndt at påvirke design og implementering af HPC'er for at reducere deres PUE.
En Exascale supercomputer med den samme teknologi som på petaflop-maskiner ville føre til et maksimalt forbrug på mere end 100 MW med en øjeblikkelig konsekvens af omkostningerne ved styring og levering. Den krævede effekt af Exascale-computing på snesevis af megawatt gør styring af strømforbrug meget vanskeligere sammenlignet med systemer, der understøtter mange mindre job.
For at designe exaflopiske maskiner skal den største udfordring tages op, nemlig at kunne reducere de høje energiforbrugsomkostninger på disse platforme. HPC-pionerer som det amerikanske Department of Energy (US DoE), Intel, IBM og AMD har indstillet en maksimal strømforbrugsgrænse for en Exascale- maskine i intervallet 25-30 MW . For eksempel med et målenergiforbrug på 20 MW , ville en energieffektivitet på ~ 20 pJ / Op være påkrævet.
For at nå det forventede effektmål er det nødvendigt at have en væsentlig forbedring af computersystemets energieffektivitet , drevet af en ændring i både hardwaredesignet og integrationsprocessen.
Selvom den globale konkurrence om lederskab inden for avanceret databehandling og dataanalyse fortsætter med programmer i USA, Europa, Kina og Japan; der er aktivt internationalt samarbejde. International Exascale Software Project (IESP) er et eksempel på dette inden for avanceret computing. Med finansiering fra regeringerne i Japan, EU og USA samt bidrag fra industriens interessenter blev IESP oprettet for at muliggøre forskning inden for videnskab og teknik i ultrahøj opløsning og dataintensiv indtil 2020. IESP's internationale team har udviklet sig en plan for et fælles beregningsmiljø for petascale / exascale- systemer .
USA har været en mangeårig international leder inden for forskning, udvikling og brug af højtydende computing (HPC). En række aktiviteter blev født i 2016 på rækkefølgen af National Strategic Computing Initiative (NSCI), hvoraf det vigtigste er exascale computing- initiativet (ECI). Det ledes af US Department of Energy (DoE), som er et partnerskab mellem Office of Science og National Nuclear Security Administration (NNSA). Målet er at fremskynde forsknings-, udviklings-, erhvervelses- og implementeringsprojekter med henblik på at tilvejebringe computerkapacitet i exascale til sine laboratorier fra begyndelsen til midten af 2020'erne .
ECI tager sig af forberedelsen af IT-installationer og erhvervelsen af tre forskellige exascale- systemer :
I 2015 var den kinesiske supercomputer Tianhe-2 ifølge TOP500- placeringen den hurtigste i verden. Den indeholder 16.000 noder. Hver node har to Intel Xeon-processorer og tre Intel Xeon Phi- coprocessorer , en proprietær højhastighedsforbindelse kaldet "TH Express-2". Det er designet af National University of Defense Technology (NUDT).
I 2010 trådte Tianhe-1 i tjeneste. Han udfører en række forskellige opgaver såsom olieefterforskning, avanceret udstyrsproduktion, biologisk medicin og animationsdesign og betjener næsten 1.000 klienter.
Ifølge den nationale plan for den næste generation af højtydende computere, vil Kina udvikle et computer exascale løbet af 13 th periode af femårsplan (2016-2020). "Tianjin Binhai New Zone-regeringen, National University of Defense Technology (NUDT) og Tianjin National Supercomputer Center arbejder på projektet, og navnet på supercomputeren vil være Tianhe-3," sagde Liao Xiangke., Direktøren for datalogi. NUDT-skolen. De nye maskiner vil have en computerhastighed to hundrede gange hurtigere og en lagerkapacitet hundrede gange den for Tianhe-1.
Det Europa-Kommissionen og 22 europæiske lande har erklæret, at de agter at forene deres indsats i udviklingen af HPC-teknologier og infrastruktur gennem en europæisk forskningsprojekt kaldet ”H2020”. Dette understøtter tre projekter, der beskæftiger sig med exascale og postexascale teknologier :
Kombinationen af disse tre projekter sigter mod at dække hele billedet af en HPC Exascale- maskine inden 2020.
I Maj 2019, Fujitsu og den japanske forskningsinstitut Riken meddelt, at udformningen af den post-K supercomputer er afsluttet, til levering i 2021. Det nye system vil indeholde en 512-bit ARMv8 -ASVE- baseret A64FX processor. Dette er en højtydende processor designet og udviklet af Fujitsu til exascale- systemer . Den chippen er baseret på en ARM8 design. Denne processor udstyrer et stort flertal af smartphones og huser 48 processorkerner suppleret med fire kerner dedikeret til input-output og interfaces. Det kan håndtere op til 32 GB af hukommelse per chip. Systemet vil være udstyret med en processor pr. Node og 384 noder pr. Rack eller en petaflop pr. Rack. Hele systemet vil bestå af over 150.000 noder. Post-K skulle lykkes omkring 2021 med K-computeren, som har udstyret sidenseptember 2012Riken Research Institute i Kobe .
AMD Research, Advanced Micro Devices , Department of Electrical and Computer Engineering og University of Wisconsin-Madison leverer en omfattende undersøgelse af en arkitektur, der kan bruges til at opbygge exascale- systemer : “A Conceptual Exascale Node Architecture (ENA), som er computerblok til en exascale supercomputer . ENA består af en Exascale Heterogene Processor (EHP) kombineret med et avanceret hukommelsessystem. EHP leverer accelereret højtydende behandlingsenhed ( CPU + GPU ), en integreret 3D-hukommelse med bred båndbredde og massiv brug af stabelmatricer og chipteknologier for at imødekomme kravene i it- exscale så afbalanceret.
En Exascale Node Architecture (ENA) som den vigtigste byggesten for exascale- maskiner . ENA opfylder kravene til beregning af exascale gennem:
Telekommunikation og internetafspillere som GAFA (Google, Apple, Facebook og Amazon) er forpligtet til at administrere en gigantisk mængde data dagligt. Stærkt knyttet til Cloud og Big Data i deres store datacentre finder computere med høj ydeevne sin plads i behandlingen af disse massive data.
Den numeriske simulering af driften af et atomvåben kan foretages ved hjælp af en supercomputer eller få certifikater og vurderinger for at sikre, at landets nukleare lagre er sikre, sikre og pålidelige.
Den computer exascale accelerere kræftforskningen ved at hjælpe forskere forstå de grundlæggende molekylære centrale protein interaktioner og automatisere analyse af oplysninger fra millioner af kræftpatienter registre for at bestemme optimale behandlingsstrategier. Det vil også give læger mulighed for at forudsige de rigtige behandlinger for patienten ved at modellere lægemiddelresponser.
I biologien vil det være muligt at simulere i detaljer funktionen af levende cellers membraner for bedre at forstå, hvordan stoffer kommer ind i cellen og virker. Den genomsekvensering dag kræver en operation og opbevaring af massive mængder af genetiske data. Den exascale computing vil være en nødvendig udvikling for at støtte igangværende forskningsindsats af biologer, beregningsmæssige. At holde trit med genereringen af eksperimentelle data for at muliggøre nye multifysiske modeller i flere skalaer af komplekse biologiske processer. Datalogi vil fortsætte med at udvikle sig og i sidste ende forvandle biologi fra en observationsvidenskab til en kvantitativ videnskab.
Mere generelt dækker de biologiske og biomedicinske udfordringer annotering og sammenligning af sekvenser, forudsigelse af proteinstruktur; molekylære simuleringer og proteinmaskiner; metaboliske veje og regulerende netværk; helcellemodeller og organer og organismer, miljøer og økologier.
Computermodeller af astrofysiske fænomener , i tidsmæssige og rumlige skalaer så forskellige som dannelsen af det planetariske system , stjernedynamik , opførelsen af sorte huller , galaktisk dannelse og interaktionen mellem baryonisk og formodet mørkt stof har givet indsigt. Nye perspektiver på teorier og supplerede eksperimentelle data.
Den kosmologi , de fysik med høj energi og astrofysik er en del af videnskaben, som søger at forstå udviklingen af universet, de love, der styrer skabelsen og opførsel af stof. De er afhængige af avancerede computermodeller, så den exaflopiske supercomputer vil være en accelerator i disse forskellige undersøgelser.
HPC'er gør det muligt gennem modellering og simulering at reproducere eksperimenter, der ikke kan udføres i laboratoriet, når de er farlige, dyre, langvarige eller meget komplekse. Numerisk simulering har gjort det muligt for Cummins at bygge bedre dieselmotorer hurtigere og billigere, Goodyear til at designe sikrere dæk meget hurtigere, Boeing til at bygge mere brændstofeffektive fly og Procter & Gamble til at skabe bedre materialer til indenlandske produkter.
Målet er at lette og tilskynde SMV'ers adgang til HPC for at sætte dem i stand til at simulere mere globale fænomener, begrænse eller erstatte eksperimenter, forkorte testfasen eller behandle overflod og heterogene data. Brugen af højtydende computing bruges til SMV'ers konkurrenceevne.
Den kernefusion kunne være et vigtigt energikilde. For at udløse reaktionen i en atomreaktor vil en af de største udfordringer være at begrænse varmen frigivet af fænomenet godt i midten af maskinen. Fænomenerne er komplekse og kræver et sæt matematiske ligninger, der genererer en stor mængde data, der skal behandles. Numeriske simuleringer med exaflopiske supercomputere gør det muligt at tage et vigtigt skridt i denne retning.
Den solenergi vil blive gjort mere effektive takket være opdagelsen af materialer, der konverterer mere effektivt sollys til elektricitet.
Den vindenergi gennem prædiktive simulering kapacitet valideret designcyklussen, gør det muligt for industrien at reducere udviklingstiden motorer og effektive møller.
Forståelsen af klimaforandringerne og fortid, nutid og fremtid er en af de store videnskabelige udfordringer i det XXI th århundrede. I denne søgen er simulering blevet et uundværligt værktøj. Denne tilgang gør det muligt bedre at forstå de mekanismer, der regulerer klimaet og dermed lave prognoser på tidsskalaer, der spænder fra sæson til flere århundreder, i tilfælde af klimaforandringsscenarier.
I 2018 var prognosen på fem dage lige så nøjagtig som den fire-dages prognose ti år tidligere. Denne bemærkelsesværdige forbedring er mulig med en computerkraft på ca. fem petaFLOPS. Disse prognoser giver regeringer, offentlige og private sektorer mulighed for at planlægge og beskytte mennesker eller ejendom. Dette sparer milliarder af dollars i besparelser hvert år.
Europa har været i spidsen for globale vejrudsigter på mellemlang rækkevidde siden 1980'erne. Det Forenede Kongeriges meteorologiske kontor og Météo-France har supercomputere, der er klassificeret i TOP500 . Météo-France planlægger en supercomputer i slutningen af 2020 på Sequana XH2000-platformen, udviklet af Bull (et datterselskab af Atos- gruppen ) med en teoretisk computerkraft på 20,78 petaFLOPS.
Exaflopic-vejrudsigtsmodeller vil være i stand til mere præcist og hurtigt at forudsige timing og bane for alvorlige vejrhændelser såsom orkaner. Dette vil være muligt takket være en meget højere rumlig opløsning ved at inkorporere flere fysiske elementer og ved at assimilere flere observationsdata. Disse fremskridt er væsentlige for f.eks. At give tilstrækkelig tid til evakuering og beskyttelsesforanstaltninger.
Et af målene er at udvikle en referencearkitektur i de kommende år, der gør det muligt for globale vejr- og klimamodeller at fungere med en vandret opløsning på 1 km med en strømningshastighed på 1 SYPD (de bedste forudsigelsescentre i 2018 kører simuleringer på en rumlig opløsning på 10 til 15 km ). Dårligt gengivet eller endog fraværende i eksisterende klimamodeller kan der tages højde for små fænomener, som alligevel spiller en vigtig rolle.
: dokument brugt som kilde til denne artikel.