Videó: A nagy IKARUS (November 2024)
Visszatekintve a heti ISC 17 szuperszámítógépes konferenciára, úgy tűnik, hogy a szuperszámítógépes világ néhány nagy frissítést fog látni az elkövetkező néhány évben, ám a világ leggyorsabb szuperszámítógépeinek kétszer évente megjelenő Top 500 listájának frissítése nem különbözött nagyban az előző verzió.
A világ leggyorsabb számítógépei továbbra is a két hatalmas kínai gép, amelyek néhány évig felül vannak a listán: Sunway TaihuLight számítógép a kínai Wuxi Nemzeti Szuperszámítógépes Központtól, több mint 93 petaflopi tartós teljesítményű Linpack (93 ezer billió lebegőpontos). műveletek másodpercenként); és a Tianhe-2 számítógép Kína Nemzeti Szuper Számítógépes Központjából, a Guangzhou-ban, több mint 33, 8 petaflop tartós teljesítménnyel. Ezek hatalmas különbséggel továbbra is a leggyorsabbak.
Az új harmadik a Piz Daint rendszer, amelyet a svájci Nemzeti Szuperszámítógép-központ készített, amely egy Cray rendszer, amely Intel-t használ
Ez lecsökkenti az USA felső rendszerét - a Titan rendszert az Oak Ridge Nemzeti Laboratóriumban - a negyedik helyre, és ez húsz év alatt először történik, amikor az első három rendszerben nincs amerikai rendszer. A lista többi része változatlan marad: az Egyesült Államok továbbra is az öt a tíz legjobbnak, a Japán pedig a kettő.
Még ha a leggyorsabb számítógépes lista sem sokat változott, máshol is vannak nagy változások. A Green 500 leghatékonyabb rendszerek listáján a tíz közül kilenc változott. A tetején a Tsubame 3.0 rendszer, a Tokiói Technológiai Intézet módosított HPE ICE XA rendszere, amely a Xeon E5-2680v4 14 magon, az Omni-Path összeköttetésen és az Nvidia Tesla P100-on alapszik, amely wattonként 14, 1 gigaflopot tesz lehetővé. Ez egy hatalmas ugrás az Nvidia DGX Saturn V-jétől, amely a cég DGX-1 platformon és a P100 chipeken alapul, amely a novemberi listán volt az első, de ezúttal a tizedik helyen, 9, 5 gigaflop / Watt-on. A P100 az első tíz Green500 rendszer közül kilenc.
A 10 gigaflops / watt törése nagy ügy, mert azt jelenti, hogy egy hipotetikus exaflop rendszer, amelyet a mai technológiával építettek, 100 megawatt (MW) alatti energiát fogyasztana. Ez még mindig túl sok - a cél 20-30 MW egy exaflop rendszer számára, amelyet a kutatók reménykednek látni a következő öt évben -, de ez hatalmas lépés előre.
Az Top 500 listájához hasonlóan csak kisebb jelentőségű változások történtek a különböző referenciaértékekkel rendelkező hasonló listákon, például a nagy teljesítményű konjugált színátmenetek (HPCG) viszonyítási alapon, ahol a gépek általában elméleti csúcsteljesítményüknek csak 1-10 százalékát látják, és ahol a felső rendszer - ebben az esetben a Riken K gép - kevesebb, mint 1 petaflop szállít. A TaihuLight és a Piz Daint rendszerek is felkerültek ebbe a listába. Amikor a kutatók egy exaflop gépről beszélnek, inkább a Linpack referenciát értik, ám a HPCG valószínűbb lehet a valós teljesítmény szempontjából.
A GPU számítástechnika gyorsítóként történő megjelenése - szinte mindig az Nvidia GPU processzorokat, például a P100-at használva - volt a legszembetűnőbb változás ezekben a listákban az elmúlt években, majd az Intel saját gyorsítójának, a sokmagos Xeon Phi-nak (beleértve a a Knights Landing legújabb verziója). A jelenlegi Top 500 lista 91 rendszert tartalmaz, amelyek gyorsítókat vagy társprocesszorokat használnak, köztük 74 Nvidia GPU-val és 17 Xeon Phi-vel (további három mindkettőt használva); az egyikben AMD Radeon GPU van gyorsítóként, a másikban pedig a PEZY Computing, a japán beszállító sokmagos processzorát használják. További 13 rendszer most használja a Xeon Phi-t (Knights Landing) fő feldolgozó egységként.
De a szuperszámítógépek nagyobb változásai még mindig a láthatáron vannak, amikor megfigyelhetjük ezeket a koncepciókat szem előtt tartva tervezett nagyobb rendszereket. Példa erre az új MareNostrum 4 a barcelonai szuperszámítógépes központban, amely a Top 500 listájába lépett a 13. számmal. Ahogy eddig telepítve volt, ez egy Lenovo rendszer, amely a Xeon közelgő Skylake-SP verzióján alapul (hivatalosan a Xeon Platinum 8160 24 -core processzor). Érdekes itt a következő kilenc évre tervezett három új "feltörekvő technológia" klaszter, köztük az IBM Power 9 processzorokkal és az Nvidia GPU-kkal felszerelt fürt, amely 1, 5 Petaflops feletti csúcsfeldolgozási képességgel rendelkezik; egy második a Xeon Phi Knights Hill változatán alapul; és egy harmadik a Fujitsu által tervezett 64 bites ARMv8 processzorokra épül.
Ezeket a fogalmakat számos más nagy szuperszámítógépes projektben is alkalmazzák, nevezetesen az Egyesült Államok Energiaügyi Minisztériuma által támogatott CORAL együttműködés részeként, az Argonne Oak Ridge-ben és a Lawrence Livermore National Labs-ban. Először az Oak Ridge csúcstalálkozójának kell lennie, amely az IBM Power 9 processzorokat és az Nvidia Volta GPU-kat fogja használni, és 150–300 csúcspontú petaflopi továbbítására szolgál; Ezt követte Sierra a Lawrence Livermore-nál, és úgy alakították ki, hogy több mint 100 csúcspontú petaflopi legyen.
Ezután meg kell látnunk az Argonne Nemzeti Laboratóriumban az Aurora szuperszámítógépet, amely a Xeon Phi Knights Hill verzióján alapszik és amelyet Cray épített, és amelynek célja, hogy 180 csúcspontot biztosítson. A CORAL rendszereknek működniük kell és
Időközben a kínai és a japán csoport is fejlesztéseket tervezett, többnyire egyedi architektúrák felhasználásával. Érdekesnek kell lennie.
Egy még nagyobb váltás kissé távolabb tűnik: a gépi tanulás felé való elmozdulás, általában maga a processzoron belül, tömegesen párhuzamos feldolgozó egységeken. Míg a Linpack szám a 64 bites vagy kettős pontosságú teljesítményre utal, vannak olyan alkalmazási osztályok - beleértve sok mély neurális hálózat alapú alkalmazást is -, amelyek jobban működnek az egy- vagy akár félig pontosságú számításokkal. Az új processzorok kihasználják ezt, például az Nvidia nemrégiben kiadott Volta V100 bejelentését és a Xeon Phi Knights Mill közelgő verzióját. A kiállításon az Intel elmondta, hogy a negyedik negyedévben gyártásra kerülő verzió új utasításkészletekkel rendelkezik az „alacsony pontosságú számítástechnika számára”, nevezetesen Quad Fused Multiply Add (QFMA) és Quad Virtuális Neurális Hálózati Utasítás (QVNNI)..
Feltételezem, hogy ezeket a fogalmakat más architektúrákra is lehetne alkalmazni, például a Google TPU-jára vagy az Intel FPGA-jára és a Nervana chipekre.
Még abban az esetben is, ha nem látunk nagy változásokat ebben az évben, jövőre számíthatunk még többre. Az exascale (1000 teraflops) gép fogalma még mindig szem előtt tartott, bár valószínűleg számos még nagyobb változtatást von maga után.