Itthon Előre gondolkodás Az alternatív architektúrák szabályozzák a szuperszámítógépet?

Az alternatív architektúrák szabályozzák a szuperszámítógépet?

Videó: Szélrózsa Band - Mindig csak Rólad énekelnék (November 2024)

Videó: Szélrózsa Band - Mindig csak Rólad énekelnék (November 2024)
Anonim

Az utóbbi években érdekes új megközelítéseket láthattunk a nagy teljesítményű számítástechnika területén, különös tekintettel a hagyományos nagyprocesszoroktól való elmozdulásra és az x86-os CPU-k klaszterei felé gyorsítókkal vagy társprocesszorokkal, hogy bizonyos típusú számításokat felgyorsítsunk. A múlt heti szuperszámítógépes show-ból kiindulva láttuk, hogy az Intel arra törekszik, hogy integrálja Xeon Phi koprocesszort a hagyományos Xeon szerver processzorral, hogy megkönnyítse a programozást; Az Nvidia bemutatja a Tesla GPU gyorsító új verzióját; és a Micron egy nagyon különféle processzort támogat, még speciálisabb számítástechnikához. És mindez abban az időben történt, amikor a gyorsítók és a társprocesszorok uralják a világ leggyorsabb számítógépeinek Top 500 listáját, és néhány szakértő arra késztette, hogy a meglévő referenciaértékek túl nagy súlyt fektessenek ezekre a processzorokra.

Az Nvidia a Tesla gyorsítótábláival, a GPU-k nagy csoportjaival, az Intel vagy az AMD főprocesszorához csatlakoztatott nagy GPU-fürtjeivel kívánta megmutatni sikereit. Az ilyen chipeket sokféle rendszerben használják, beleértve a Titan rendszert az Oak Ridge Nemzeti Laboratóriumban és az új Piz Daint rendszert a Svájci Nemzeti Szuperszámítógépes Számítástechnikai Központban. Még ennél is érdekesebb, hogy a Tesla táblák a világ leghatékonyabb szuperszámítógépeinek legújabb Green 500 listáján szereplő tíz legfontosabb rendszerben vannak. Mindezek a rendszerek az Intel Xeons-ot is használják, kivéve az AMD Opteron-alapú Titan-ot, amely a világ második leggyorsabb rendszere az Top 500-ban, de jóval alacsonyabban helyezkedik el a Green 500 listán.

Ezenkívül az Nvidia bejelentette az IBM-vel való partnerséget, hogy a Tesla gyorsítókat az IBM Power architektúrán alapuló rendszerekben kínálja. Az IBM már régóta elismeri sorozatteljesítményét, és a PowerG processzorokon alapuló BlueGene / Q rendszere a Sequoia rendszert működteti többek között a Lawrence Livermore Nemzeti Laboratóriumban és a Mira rendszert az Argonne Nemzeti Laboratóriumban. Ha az IBM és az Nvidia együttműködik, a jövőben érdekes rendszereket hozhat.

A kiállításon a cég bejelentette a Tesla K40-et, a GPU gyorsítólap következő generációját. A cég szerint 1, 4 teraflops kettős pontosságú teljesítményt, 12 GB memóriát (288 GBps sávszélesség) és egy GPU Boost funkciót kínál, amely lehetővé teszi bizonyos helyzetekben gyorsabb órajel-sebességű futtatást. Ez egy frissítés a meglévő Tesla K20 sorozathoz képest, ugyanazzal az alapvető GPU-kialakítással, amely a 28 nm-es technológián készül.

Más kezdeményezések között szerepel a GPU programozásának megkönnyítésére szolgáló módszerek, köztük a CUDA 6, amely most támogatja az egységes memóriát, lehetővé téve a fejlesztőknek, hogy a memóriát egyetlen készletként közelítsék meg, annak ellenére, hogy a CPU és a GPU memória külön marad. A vállalat támogatja az OpenACC-t is, a fordító irányelvek szabványos gyűjteményét, amely megmondja a rendszernek, hogy a program mely részeit (C / C ++ és Fortran nyelven írva) le lehet tölteni a CPU-ból egy gyorsítóba a teljesítmény fokozása érdekében.

Az Intel megközelítése, amelyet sok integrált mag (MIC) architektúrájának nevez, nagyon eltérő. Több kicsi x86 magot egyesít egyetlen chipen, a Xeon Phi néven. Az elmúlt években az Intel azt állította, hogy mindegyik x86s megkönnyíti a programozást, bár egyértelmű, hogy a fejlesztőknek továbbra is közvetlenül az architektúrát kell megcélozniuk. A Xeon Phi jelenlegi verzióját, a Knights Corner elnevezésű programot gyorsítóként, a tradicionálisabb Xeon E szerver chipekkel együtt fejlesztették ki, és számos felső rendszer használja, beleértve a kínai Tianhe-2-t (amely jelenleg a leggyorsabb rendszer). és a Stampede rendszer a Texasi Egyetemen található Advanced Computing Centernél.

A kiállításon az Intel bejelentette a Knights Landing elnevezésű új verziót, amely önálló CPU-ként is működni fog, amely belefér a szokásos rack architektúrába és közvetlenül az operációs rendszert futtatja anélkül, hogy host processzort (például Xeon E) igényelne. Ez nagyon fontos lehet a Xeon Phi vonzerejének szélesítése szempontjából, különösen a munkaállomások piacán. Ezt ismét úgy tervezték, hogy megkönnyítse a szoftverfejlesztők számára, hogy egyetlen CPU-ként tekintsék meg. A Knights Landing önálló CPU-ként és PCI Express kártyaként is elérhető lesz, amely illeszkedik a meglévő rendszerekbe, a Knights Corner frissítéseként.

A Knights Landing-ben más jelentős változások is vannak, ideértve a „memória közel” hozzáadását, a DRAM-ot, amelyet a csomagban kínálnak a CPU-val, és így sokkal nagyobb sávszélességet képes biztosítani, mint a hagyományos DDR memória, amelyet a A busz. (Ez is gyorsabb, de közel sem annyira.) Ez nem az első lépés ebbe az irányba; Az IBM évek óta emlegeti a beágyazott DRAM-ot a Power architektúrájában, és maga az Intel maga is beágyazott DRAM-ot helyez el grafikáira a Haswell Core család Iris Pro verzióiban. Ugyanakkor azt hiszem, hogy az elkövetkező években sokkal több erőfeszítést fogunk tenni ebben az irányban.

Időközben az egyik legérdekesebb megközelítés a Microntól származik, amely bejelentette egy új gyorsítót, az úgynevezett Automata Processor-ot, amelynek célja elsősorban az összetett, strukturálatlan adatproblémák kezelése.

A Micron ezt úgy határozta meg, hogy egy tízezer-millió feldolgozó elemből álló szövetet kínál, amely összekapcsolódik az egyes feladatok megoldása érdekében. A vállalat, a DRAM és a NAND memória egyik legnagyobb gyártója szerint ez memóriaalapú feldolgozást fog alkalmazni komplex számítási kihívások megoldására olyan területeken, mint a hálózati biztonság, a bioinformatika, a képfeldolgozás és az analitika. A Micron kezdetben egy automata processzort terjeszt egy PCI-Express kártyára, hogy a fejlesztők dolgozzanak vele, de a vállalat azt tervezi, hogy a processzorokat szabványos memóriamodulokon, más néven DIMM-ekként, vagy önálló chipeként fogja eladni a beágyazott rendszerek számára. Bizonyos értelemben ez úgy hangzik, mint a terepen programozható kapu tömbök (FPGA), amelyek úgy vannak hangolva, hogy bizonyos mintákat illesztő alkalmazásokat oldjanak meg.

A vállalat szerint a Georgia Tech, a Missouri Egyetem és a Virginia Egyetem közreműködésével új alkalmazásokat dolgoz ki az Automata számára. Noha a társaság nem jelentette be a végtermékek dátumát, a szoftverfejlesztő készlet a szimulációs eszközökkel együtt várhatóan jövőre jelenik meg.

Az automata úgy hangzik, mint egy folyamatban lévő munka, és valószínűleg még túl korai tudni, hogy az alkalmazások milyen szélesek, de érdekes megközelítés.

Összességében látjuk a nagy teljesítményű számítástechnika fejlődését. Nem sok évvel ezelőtt a leggyorsabb számítógépek többnyire csak hatalmas számú standard szerverprocesszor volt. Valójában az IBM Blue Gene rendszerek és a Sparc-alapú rendszerek (például a japán RIKEN Számítástechnikai Intézet K számítógépe, amely a Fujitsu Sparc processzorokat használja) továbbra is a piac nagy részét teszik ki, ideértve a 10 leggyorsabb ötből is. rendszerek a világon. Az utóbbi években azonban a lendület a koprocesszor felé haladt, mivel a Teslat és az utóbbi időben a Xeon Phi gyorsítókat használó rendszerek tették ki az újabb rendszerek részét. E rendszerek fejlesztésével, új partnerségekkel, jobb szoftverrel és néhány új megközelítéssel a szuperszámítógép-piac a jövőben nagyon eltérő lehet.

Az alternatív architektúrák szabályozzák a szuperszámítógépet?