Videó: The Extreme Physics Pushing Moore’s Law to the Next Level (December 2024)
Néhány évente vannak történetek arról, hogy a Moore-törvény - az az elképzelés, hogy egy adott területen a tranzisztorok száma körülbelül kétévenként megduplázódik - haldoklik. Az ilyen történetek évtizedek óta állnak fenn, de néhány évente továbbra is látunk új zsetonokat, több tranzisztorral, nagyjából a menetrend szerint.
Például februárban az Intel bevezette a 4, 3 milliárd milliárd tranzisztor chipet, az úgynevezett Xeon E7v2 vagy Ivytown-t egy 541 négyzet milliméteres szerszámmal 22 nm-es eljárásának felhasználásával. Egy évtizeddel ezelőtt az Intel csúcskategóriájú Xeon, Gallatin néven ismert, 130 nm-es chip volt, 82 millió tranzisztorral, 555 négyzet milliméteres szerszámmal. Ez nem egészen az, hogy lépést tartson a kétévenkénti megduplázódással, de közel van.
Természetesen ez nem azt jelenti, hogy örökké folytatni fogja a munkát, sőt, a chipgyártás nagy változásokon megy keresztül, amelyek mind a chipek gyártását, mind a kialakítását érintik, és mindezek tartós hatást gyakorolnak a felhasználókra.
Nyilvánvaló, hogy hosszú ideje egyértelmű volt, hogy az órasebesség nem gyorsabb. Végül is az Intel 2004-ben vezetett be a Pentium chipeket, amelyek frekvenciája 3, 6 GHz volt; Ma a cég csúcskategóriájú Core i7 3, 5 GHz-en működik, maximális turbósebessége 3, 9 GHz. (Természetesen vannak olyan emberek, akik túlzáknak, de mindig így volt.)
Ehelyett a tervezők úgy reagáltak, hogy további magokat adtak hozzá a chipekhez, és megnövelték az egyes magok hatékonyságát. Manapság még a legalacsonyabb szintű chip, amelyet asztali vagy laptophoz beszerezhet, egy kétmagos chip, és a négymagos verzió gyakori. Még a telefonokban is nagyon sok négymagos és még okta-magos alkatrészt látunk.
Ez nagyszerű, ha több alkalmazást futtat egyszerre (többfeladatosítás), vagy olyan alkalmazásokhoz, amelyek valóban kihasználhatják a több mag és szálat, de a legtöbb alkalmazás még mindig nem teszi meg. A fejlesztők - különösen azok, akik fejlesztői eszközöket készítenek - sok időt töltöttek annak érdekében, hogy az alkalmazások jobban működjenek több maggal, de továbbra is sok alkalmazás van, amelyek elsősorban az egyszálú teljesítménytől függnek.
Ezenkívül a processzorfejlesztők sokkal több grafikus magot és más speciális magot (például videókat kódoló vagy dekódoló, vagy adatok titkosító vagy dekódoló elemét) helyeznek egy alkalmazásprocesszorba, az ipar nagy részében heterogén feldolgozásnak. Az AMD, a Qualcomm és a MediaTek egyaránt támogatta ezt a koncepciót, amely bizonyos dolgok szempontjából sok értelmet jelent. Ez természetesen elősegíti az integrációt - miközben a chipek kisebbek és kevésbé energiaigényesek; és úgy tűnik, hogy tökéletes értelme van a mobil processzoroknak - például a big.LITTLE megközelítésnek, amelyet az ARM alkalmazott, ahol egyesíti a hatalmasabb, de erősebb energiát igénylő magokat azokkal, amelyek csak kevés energiát vesznek igénybe. Sokak számára nagy ügy az, ha kevesebb energiát fogyasztó chipeket kapunk ugyanarra a teljesítményre - és ezért az olyan mobil eszközök, amelyek hosszabb ideig tartanak az akkumulátor töltésével.
Óriási számú mag használata - legyen az grafikus vagy speciális x86-os mag - minden bizonnyal óriási hatással van a nagy teljesítményű számítástechnikára, ahol olyan dolgok, mint az Nvidia Tesla táblái vagy az Intel Xeon Phi (Knight's Corner), óriási hatással vannak. Valójában a legtöbb top szuperszámítógép manapság használja ezen megközelítések egyikét. De továbbra is csak bizonyos típusú felhasználásokra működik, elsősorban olyan alkalmazásokra, amelyek elsősorban a SIMD (egyetlen utasítás, több adat) parancsokat használó alkalmazások számára működnek. Egyébként ez a megközelítés nem működik.
És nem csak az, hogy a chipek nem tudnak gyorsabban futni. A gyártás oldalán más akadályok is vannak, hogy több tranzisztort tegyenek egy szerszámra. Az elmúlt évtizedben mindenféle új forgácsgyártási technikát látottunk, a szilícium, az oxigén és az alumínium hagyományos keverékéből az olyan új technikák felé haladva, mint például a "feszített szilícium" (ahol a mérnökök kinyújtják a szilícium atomokat), felváltva a kapuk magas K / fém kapu anyagokkal, és a legutóbb a hagyományos sík kapukról a 3D-s kapukra, FinFET vagy „TriGate” néven ismertek az Intel szóhasználatában. Az első két technikát ma már minden fejlett chipgyártó alkalmazza, az öntödék az Intel 2012-es bevezetését követően a következő évben tervezik a FinFET-ek bevezetését.
Az egyik alternatíva az FD-SOI (teljesen kimerült szilikon-szigetelő), ez az eljárás különösen az ST Microelectronics által kifejlesztett módszer, amely vékony szigetelőréteget használ a szilícium-szubsztrátum és a csatorna között az apró tranzisztorok jobb elektromos vezérlése érdekében. elmélet jobb teljesítményt és alacsonyabb teljesítményt nyújt. De eddig úgy tűnik, hogy a FinFET-eknek nem állnak majdnem a nagy gyártók lendületét.
Az utóbbi időben az Intel sokat tett arról, hogy milyen messze van a chipmaker gyártásában, és valóban körülbelül két évvel ezelőtt elkezdte Core mikroprocesszorának a 22 nm-es folyamatban a TriGate technológiával történő szállítását, és a második felében 14 nm-es termékeket tervez szállítani. ebben az évben. Eközben a nagy forgácsöntödék idén később a hagyományos sík tranzisztorok felhasználásával 20 nm-es termelést terveznek, 14 vagy 16 nm-es termékekkel, a következő évre tervezett FinFET-ekkel.
Az Intel olyan diákat mutat be, amelyek megmutatják, milyen messze van a chipek sűrűségén, mint például ez az elemző napja óta:
Az öntödék azonban nem értenek egyet. Itt van egy csúszka a TSMC legutóbbi befektetői felhívásáról, amely szerint a jövőre pótolni tudja a rést.
Nyilvánvaló, hogy csak az idő fogja megmutatni.
Időközben nehezebb lesz a sablon méretének elérése a hagyományos litográfiai eszközökkel, amelyeket a vonalak szilícium chipbe történő maratására használnak. A mélyedéses litográfia, amelyet az ipar évek óta használ, elérte a korlátját, így a gyártók most a "dupla mintázathoz" vagy még több átadáshoz fordulnak a finomabb méretek elérése érdekében. Noha az utóbbi időben kismértékű előrelépést tapasztaltunk, a régóta várt lépés a szélsőséges ultraibolya (EUV) litográfia felé, amelynek finomabb irányítást kell kínálnia, évekig távol van.
A FinFET-ek és a többszörös mintázat elősegítik a chipek következő generációját, de növekvő költségekkel. Valójában számos elemző azt állítja, hogy a termelés tranzisztoronkénti költsége 20 nm-en nem javulhat a 28 nm-en belüli költséghez képest, mivel szükség van a kettős mintázatra. És az olyan új struktúrák, mint a FinFET, valószínűleg szintén drágábbak lesznek, legalábbis az elején.
Ennek eredményeként sok chipmaker még egzotikusabb módszereket keres a sűrűség javítására, még akkor is, ha a hagyományos Moore-törvény technikák nem működnek.
A NAND flash memória a legfejlettebb technológiát használja, így a hagyományos vízszintes méretezés komoly problémákat vet fel. A megoldás függőleges NAND karakterláncok létrehozása. Az egyes memóriacellák nem lesznek kisebbek, de mivel oly sok egymásra tehetsz egymást - ugyanazon a hordozón -, sokkal nagyobb sűrűséget kapsz ugyanabban a lábnyomban. Például egy 16 rétegű 3D NAND chip, amelyet egy 40 nm-es eljárással gyártanak, nagyjából egyenértékű lenne a hagyományos 2D NAND chippel, amelyet egy 10 nm-es eljárással állítottak elő (a jelenleg alkalmazott legfejlettebb eljárás a 16 nm). A Samsung szerint már gyártja a V-NAND (vertikális-NAND) készüléket, a Toshiba és a SanDisk pedig követi azt, amit p-BiCS-nek hív. A Micron és az SK Hynix szintén fejleszti a 3D NAND-ot, de úgy tűnik, hogy a következő két évre a standard 2D NAND-re összpontosítanak.
Vegye figyelembe, hogy ez nem ugyanaz, mint a 3D chipek egymásra rakása. A DRAM memória szintén megüti a méretező falat, de eltérő architektúrájú, amelyben minden egyes cellában egy tranzisztorra és egy kondenzátorra van szükség. A megoldás itt az, hogy több gyártott DRAM memória chipet egymásra helyezzen, furatokat fúrjon át az aljzatokon, majd összekapcsolja azokat átmenő-szilícium-vias (TSV) néven ismert technológiával. A végeredmény ugyanaz - nagyobb sűrűség egy kisebb lábnyomban -, de inkább fejlett csomagolási folyamat, mint új gyártási folyamat. Az iparág azt tervezi, hogy ugyanazt a technikát használja a memória rakására a logika tetején, nemcsak a lábnyom csökkentésére, hanem a teljesítmény javítására és az energiafogyasztás csökkentésére is. Az egyik nagy figyelmet szentelő megoldás a Micron hibrid memóriakocka. Végül a 3D chip-halmozást felhasználhatjuk olyan erőteljes mobil chipek létrehozására, amelyek egyetlen csomagban ötvözik a CPU-kat, a memóriát, az érzékelőket és más alkatrészeket, ám ezeknek az úgynevezett heterogén gyártásnak, tesztelésnek és működésnek még sok kérdése van. 3D-s halmok.
De a technika új generációja, amelyről a chipgyártók beszélték, sokkal egzotikusabbnak tűnnek. A chipkonferenciákon sokat hallatsz a DSA-ról (Directed Self Assembly, DSA), amelyben az új anyagok ténylegesen összeállnak az alapvető tranzisztor mintázatba - legalább egy chip egy rétegére. Kicsit úgy hangzik, mint a tudományos fantastika, de ismerek számos kutatót, akik szerint ez valójában egyáltalán nem messze van.
Eközben más kutatók új anyagok osztályát vizsgálják - a hagyományosabb gyártási stílusokban III-V félvezetőknek hívják őket; míg mások a FinFET-ek kiegészítésére vagy cseréjére különféle félvezető szerkezeteket, például nanoszálakat vizsgálnak.
A költségek csökkentésének másik módja az, hogy tranzisztorokat készítsenek nagyobb ostyán. Az iparág ezen átalakulásokon ment keresztül, mielőtt körülbelül egy évtizeddel ezelőtt a 200 mm-es ostyákról a 300 mm-es ostyákra (átmérője kb. 12 hüvelyk) lett volna. Most sok a beszéd a 450 mm-es ostyákra való áttérésről, amikor a legtöbb nagy ostyagyártó és az eszközszállító konzorciumot hoz létre a szükséges technológiák áttekintésére. Egy ilyen átmenetnek csökkentenie kell a gyártási költségeket, de magas tőkeköltségeket kell viselnie, mivel új gyárakra és a forgácskészítő eszközök új generációjára lesz szükség. Az Intelnek Arizonában van egy gyára, amely képes lenne 450 mm-es gyártásra, de késleltette az eszközök megrendelését, és sok szerszámgyártó is késlelteti kínálatát, valószínűsítve, hogy a 450 mm-es ostya első valódi előállítása csak Legkorábban 2019 vagy 2020.
Úgy tűnik, hogy mindez egyre nehezebb és drágább. De ez volt a helyzet a félvezetőgyártásban a kezdetektől. A nagy kérdés mindig az, hogy a teljesítmény javítása és az extra sűrűség megéri-e a gyártás többletköltségeit.
ISSCC: Moore törvényének kiterjesztése
A Moore-törvény kiterjesztése volt a legfontosabb téma a múlt hónapban zajló Nemzetközi Solid State Circuits (ISSCC) konferencián. Mark Horowitz, a Stanfordi Egyetem professzora és a Rambus alapítója megjegyezte, hogy ma mindenben számítástechnikánk az az oka, hogy a számítástechnika olcsóbb lett, Moore törvénye és Dennard méretezési szabályai miatt. Ez arra a várakozásra vezetett, hogy a számítástechnikai eszközök egyre olcsóbbak, kisebbek és erősebbek lesznek. (Stanford a cpudb.stanford.edu webhelyen ábrázolta a processzorok teljesítményét az idő múlásával).
De megjegyezte, hogy a mikroprocesszorok órájának frekvenciája 2005 körül megállt a méretezésnél, mivel az energia sűrűsége problémát vált. A mérnökök egy valódi teljesítménykorlátot értek el - mivel nem tudták a forgácsot melegebbé tenni, tehát most minden számítási rendszer korlátozott teljesítményű. Mint megjegyezte, az energiaméretezés - az áramellátási feszültség - nagyon lassan változik.
Az iparág első szándéka e probléma megoldására a technológia megváltoztatása. "Sajnos nem vagyok optimista, hogy olyan technológiát fogunk találni, amely felváltja a CMOS számítástechnikáját" - mondta mind a műszaki, mind a gazdasági problémákra. A másodpercenkénti műveletek növekedésének egyetlen módja tehát az, hogy csökkentik az egy műveletre eső energiát - mondta, és ezért azt sugallja, hogy ezért van ma mindenki többmagos processzorok, még a mobiltelefonjukban is. De a probléma az, hogy nem szabad folyamatosan hozzáadni a magokat, mert gyorsan elér egy olyan pontot, amely csökkenti a megtérülést a teljesítmény energiája és a meghalási terület szempontjából. A CPU-tervezők egy ideje tudtak erről, és hosszú ideje optimalizálták a CPU-kat.
Horowitz szerint nem szabad elfelejteni az emlék által felhasznált energiát. Előadásában megmutatta egy aktuális, azonosítatlan 8 magos processzor energiabontását, amelyben a CPU-magok az energia kb. 50% -át és az on-die memória (L1, L2 és L3 gyorsítótárak) a másik 50% -át használják fel.. Ez nem foglalja magában a külső DRAM rendszermemóriát sem, amely a teljes rendszerfogyasztás 25% -ának felel meg.
Sokan beszélnek speciális hardverek (például ASIC-ok) használatáról, amelyek ezerszor jobbak lehetnek üzemi energiamennyiségben, mint egy általános célú CPU. De amint azt Horowitz megjegyezte, a hatékonyság itt részben azért jön, mert olyan speciális alkalmazásokhoz (például modemfeldolgozáshoz, képfeldolgozáshoz, video-tömörítéshez és dekompresszióhoz) használják, amelyek alapvetően nem nagyon férnek hozzá a memóriához. Ezért segíti annyira az energiát - nemcsak a hardvertől, hanem az algoritmus sokkal korlátozottabb helyre történő áthelyezéséről.
A rossz hír az, hogy ez azt jelenti, hogy az építhető alkalmazások korlátozottak. A jó hír az, hogy előállíthat egy általánosabb motort, amely képes kezelni az ilyen típusú alkalmazásokat "nagy lokalitással", ami azt jelenti, hogy nem kell memóriájukhoz hozzáférniük. Erre a Magasan Helyi Számítási Modellre és a rajta futtatható "stencil alkalmazásokra" hivatkozik. Ez természetesen új programozási modellt igényel. A Stanford kifejlesztett egy domain-specifikus nyelvet, egy fordítót, amely felépítheti ezeket a stencil alkalmazásokat és futtathatja azokat FPGA és ASIC fájlokon.
Az ISSCC konferencián Ming-Kai Tsai, a MediaTek elnöke és vezérigazgatója elmondta, hogy az 1990-es évek eleje óta az emberek azt kérdezték, mennyi ideig marad fenn Moore-törvény. De amint Gordon Moore az ISSCC-ben 2003-ban mondta: "Nincs exponenciális örökre. De örökké késleltethetjük." Az ipar nagy munkát végzett a Moore-törvény többé-kevésbé fenntartásáért - mondta. A tranzisztor költsége folytatta történelmi csökkenését. 100 gramm rizs (kb. 10 cent) árán 1980-ban csak 100 tranzisztort lehetett vásárolni, 2013-ra pedig 5 millió tranzisztort lehet vásárolni.
Tsai szerint a mobil eszközök elérték a mennyezetet, mert a processzorok nem tudnak hatékonyan működni 3 GHz-nél nagyobb sebességgel, és az akkumulátor technológiája sokat nem javult. A MediaTek többmagos CPU-k és heterogén multiprocessing (HMP) használatával foglalkozik ezzel a problémával. Szerinte a vállalat 2013-ban mutatta be az első valódi 8 magos HMP processzort, és a hét elején bejelentette, hogy egy négymagos processzort használ a PTP (Performance, Thermal and Power) technológiájával, hogy tovább növelje a teljesítményt és csökkentse az energiafogyasztást. Arról is beszélt, hogy a kapcsolatok gyorsan haladnak. Számos olyan mobil alkalmazás, amely korábban lehetetlen volt, most életképes a WLAN és a WWAN hálózatok ezen javulása miatt - mondta.
A MediaTek a HSA Alapítvány részeként a "Cloud 2.0" technológiáin dolgozik, beleértve a vezeték nélküli töltési megoldásokat, a "Aster" SoC hordozható készülékeket (csak 5, 4x6, 6 milliméter méretű) és heterogén rendszereket. A Cloud 2.0-t Tsai szerint sokkal több eszköz - különösen hordható - jellemzi, sokkal több rádióval; 2030-ra személyenként több mint 100 rádió.
A Cloud 2.0 nagy kihívása az energia és a sávszélesség lesz - mondta Tsai. Az elsőnek innovatív integrált rendszerekre, hardver- és szoftvermegoldásokra van szüksége; jobb akkumulátor-technológia; és az energiaszedés valamilyen formája. A második megköveteli a rendelkezésre álló spektrum, az adaptív hálózatok és a megbízhatóbb összeköttetések hatékonyabb felhasználását.
Bármi történjen a forgácskészítéssel, az új alkalmazásokhoz és új döntésekhez vezethet, amelyekkel a chipek készítői, a terméktervezők és a végső felhasználók is szembesülnek.