Videó: ИгроСториз: Стоит ли ненавидеть NVIDIA? Все об RTX, рейтрейсинге и конских ценниках на видеокарты (December 2024)
Az Nvidia GPU technológiai konferenciáján a múlt héten meglepődve láttam, hogy a grafika és a GPU technológia mennyire halad előre - az asztalon és a mobil eszközökön -, és hogy az embereknek hogyan kell változtatniuk a szoftverírás módját annak érdekében, hogy kihasználják azt.
A nagy lépés a heterogén szoftverek felé irányul, olyan programok felé, amelyek egyszerre használhatják a hagyományos mikroprocesszoros CPU-t és a GPU-t is. Ez nem új koncepció - mind az Nvidia, mind az AMD egy ideje beszélnek erről -, de a két fél közelebb kerül egymáshoz.
Az AMD megközelítése az volt, hogy elősegítse az úgynevezett "gyorsított feldolgozó egységeket", amelyek egyetlen meghajtón kombinálják a GPU-kat és a CPU-kat, és az úgynevezett "heterogén rendszer-architektúrát". Az elmúlt években elősegítette a HSA-t, és tavaly 21 másik társasággal létrehozta a HSA Alapítványt, hogy nyílt szabványokat dolgozzon ki a heterogén számítástechnika területén.
Az Nvidia megközelítése nagyon eltérő volt, a CUDA platformjaira koncentrálva, amelyek szoftvereket írnak a GPU-kra, és a Tesla GPU-k verziójára, amelyeket most a szuperszámítógépekben használnak, mint például az Oak Ridge National Laboratory Titan szuperszámítógépe. Ilyen rendszerekben egy meglehetősen összetett szoftver kezeli, hogy mi működik a számítógépes processzoron és mi működik a GPU-n.
Jen-Hsun Huang, az Nvidia vezérigazgatója, megnyitva a vitaindítót, elmondta: "A vizuális számítástechnika hatékony és egyedülálló médium. Az elmúlt 20 évben ez a médium átalakította a számítógépet információs és termelékenységi számítógépről kreativitás, kifejezés és felfedezés egyikévé..” A következő néhány évben meg kell mondania, hogy ez az átalakulás fennsíkot ér-e el, vagy ha valóban, csak most kezdődik."
Ahogy az várható volt, Huang sokat beszélt bevezetőjében arról, hogy miként növekszik a CUDA-n alapuló GPU számítástechnika. A társaság 430 millió CUDA-kompatibilis GPU-t és 1, 6 millió CUDA-programcsomag letöltést szállított; Az Nvidia GPU-kat ma már 50 szuperszámítógépen használják szerte a világon. Például, mondta: a Titan a közelmúltban elvégezte a világ legnagyobb szilárdanyagok mechanikai szimulációját, 40 millió CUDA processzor felhasználásával 10 tartós teljesítményű petaflopi elérésére. Azt is mondta, hogy a GPU számítástechnika sok potenciállal rendelkezik a "nagy adat" alkalmazásokban.
Huang Shazam képviselőjét hozta fel, hogy beszélt arról, hogy a vállalat miként használja a GPU-kat a nagyszámú felhasználó zenéjének és hangjának összehangolására. Huang aztán megemlítette, hogy a Cortexica nevû vállalat hasonló technológiát alkalmaz a vizuális kereséshez.
A legfontosabb, hogy a vállalat új ütemtervet mutatott be GPU motorjának, amelyet mind a GeForce játéktermékeiben, mind a Tesla sorozatában használtak. A GPU jelenlegi architektúrája "Kepler", az elmúlt évben szállított. A következő, „Maxwell” néven ismert változat a következő évben várható. Nagyon fontos lépés a heterogén számítástechnika felé, ha hozzáadunk egy „egységes virtuális memória” architektúrát, vagyis a CPU és a GPU látni fogja a rendszer összes memóriáját.
Ez azért fontos, mert a GPU számítástechnika egyik legnagyobb szűk keresztmetszete az adatok mozgatása a fő memória rendszerek és a grafikus memória között, és mivel a mindkét típusú processzort használó szoftver írása nehéz volt. (Az AMD hasonló funkciót jelentett be a Kaveri processzorával kapcsolatban, ennek az év végén esedékes. Kicsit tisztázatlan vagyok, hogy ez működik-e a CPU-gyártók közvetlen támogatása nélkül, de minden bizonnyal ez a megközelítés többet fog látni előre menni.)
2015-re Huang megígért egy újabb, „Volta” nevű verziót, amely elfoglalja a grafikus memóriát, és közvetlenül a GPU tetejére rakja, drasztikusan növelve a memória sávszélességét körülbelül egy terabyte / másodpercre. Összehasonlításképpen: a Kepler teljes maximális sávszélessége körülbelül 192 gigabájt / másodperc.
Számos vállalat, köztük az Intel is, beszélt a memória egymásra rakásáról a processzor tetején, ám a memória és a processzor összekapcsolása, amely átvezető szilícium vias néven ismert technikát használ, összetett. Tudomásom szerint a Volta az első olyan viszonylag mainstream processzor, amely bejelentette, hogy rendelkezik ezzel a funkcióval.
A mobil ütemtervnek ugyanazok a funkciói vannak. A cég nemrégiben bejelentette Tegra 4 ("Wayne" elnevezésű) és Tegra 4i (kódnév "Grey") processzorokat. A "Logan", amely 2014-ben készül gyártásra, hozzáadja az első CUDA-kompatibilis grafikát a Tegra sorozathoz. Ezt 2015-ben követi a "Parker", amely a Maxwell GPU technológiát ötvözi a cég első egyedülálló CPU alaptervével, egy 64 bites ARM processzorral, amelyet Project Denver néven ismernek. (Vegye figyelembe, hogy míg a két processzor megosztja a GPU-t, a tényleges grafikus magok száma valószínűleg sokkal kisebb egy mobil processzorban, mint az asztali verziókban.)
Ez érdekes lehet mind az egységes memória architektúra miatt, mind pedig azért, mert a 3D FinFET tranzisztorok segítségével készülnek. Az Intel ezt a technikát használja 22 nanométeres processzoraiban, és a hosszú távú Nvidia gyártó partnere, a Taiwan Semiconductor Manufacturing Corp. és a rivális Globalfoundries azt mondta, hogy jövőre valamikor rendelkeznek FinFETS-szel. A tömegtermelés valószínűleg 2015-ben kezdődik.
"Öt év múlva 100-szor növelik a Tegra teljesítményét" - ígérte Huang.
Természetesen a nagy kérdés az, hogy mire használjuk fel a számítógép teljesítményét. Nagyon könnyű látnom a nagy teljesítményű számítástechnikai és a „nagy adat” alkalmazásokat - ezek folyamatosan növekednek, és könnyen használhatják a GPU-k párhuzamos számítási funkcióit. Az Nvidia ezeket a funkciókat számos különféle módszerrel kínálja, többek között a Tesla táblákon keresztül munkaállomásokhoz és szuperszámítógépekhez; GRID CPU szerver virtualizációs technológiája vállalati szerverek számára; és egy új GRID Virtual Computing Appliance (VCA), egy 4U alváz Xeon processzorokkal, Kepler-alapú GPU-kkal és memóriával, amelyek az osztályokra irányulnak.
És természetesen a játékok több grafikát fognak használni, és így minden generáció valósághűbbé válik. A kijelzők mérete és felbontása növekszik, és az emberek több grafikát akarnak. Huang bemutatta a cég új, csúcskategóriájú asztali grafikus kártyáját, a Titan nevű valós idejű óceánszimulációt. Ezenkívül demourálta a Faceworks-et, egy 3D beszélő fejet (neve Ira) (fent), amelyet az USC Kreatív Technológiai Intézetével hoztak létre.
Különösen érdekes ezen szolgáltatások mindegyikének mobilra helyezése. Nem vagyok teljesen biztos abban, hogy valóban szükségem van-e egy csúcskategóriás asztali GPU-ra egy mobil eszközön - elvégre egy öt hüvelykes képernyőn az 1, 980-tól 1 080-ig elégnek tűnik - de nem kétséges, hogy az emberek felhasználást fognak találni rá. Az egyik aggodalom az, hogy túl sok energiát fog felhasználni, de Huang szerint Logan nem lenne nagyobb, mint egy fillért. Mindenesetre érdeklődik, hogy az emberek mit fognak csinálni ilyen nagy teljesítménygel.
Összességében az Nvidia, akárcsak az AMD, a folytatott grafikai fejlesztésekre, az egységes memóriára és a CPU és a GPU programozásának heterogén megközelítésére fogad. Az AMD szerint nyílt szabványokkal működik, míg az Nvidia rámutat a CUDA sikereire, különösen a nagy teljesítményű arénában. És természetesen ott van az Intel, amelynek grafikája mind az AMD, mind az Nvidia elmarad, ám továbbra is uralja a PC CPU területét. Saját szoftverkészlettel is rendelkezik. A különböző megközelítéseknek ezt érdekes területré kell tenniük.