Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz MiklosSaS #98 üzenetére

    Az AMD tudna fejleszteni erősebb egyszálú teljesítményt is. Ez csak a tranzisztorokon múlik, és a cache szervezésen. A dolog ennél sokkal komplexebb, amit az átlag user már nem lát. Moore törvénye és Dennard skálázási szabálya vitte előre a fejlesztéseket több mint 30 éven keresztül. Moore törvénye még mindig él, de a Dennard scaling megfeneklett. Ez azt jelenti, hogy a teljesítmény skálázásának legkönnyebb módja előtt bezárult egy ajtó. Ez már mindenkit érint, mindenki reagál rá a fejlesztésekkel, csak nem mindenki ugyanolyan gyorsan. Az út persze nem ért véget, de más irány kell. Első opció, hogy figyelembe veszik a gyártók a Pollack-féle skálázási szabályt (ami a gyártástechnológiától való függetlenség hatására örök érvényű). Ez azt jelenti, hogy jelentősen butítják a processzormagokat, ezzel jelentősen visszavetve az egyszálú teljesítményt, ám eközben növelhetik a többszálú tempót, hiszen a butított processzormagokból több fér el ugyanakkora tranyóbudget mellett. Tulajdonképpen amikor véget ért az egymagos processzorok korszaka pár éve, akkor a gyártókat ez a szabály mentette ki a szarból, és egy ideje minden processzor homogén többmagos. A Pollack-féle skálázási szabály aránylag nagy játszóteret ad a throughput teljesítmény skálázására, vagyis ezen a ponton a processzorok teljesítménye akár meg is duplázható, ám ott van a kontra oldalon, hogy ehhez az egyszálú teljesítmény felezése szükséges. Nyilván valamilyen szinten ezzel lehet játszani, de a helyzet az, hogy egy bizonyos szint alá az egyszálú teljesítményt senki sem vinné. Itt jön a másik út, ami a már egy ideje lebeg a gyártók szeme előtt, de a Sony/Toshiba/IBM Cell processzorának megjelenéséig senki sem hitte, hogy járható. Ez a rendszer viszont bebizonyította, hogy a Pollack-féle skálázás mellett a heterogén módon programozható lapkák is alternatívák lehetnek a Dennard scaling becsődölése idején. Ilyenkor kezdődött el az Intelnél Larrabee fejlesztése, és az AMD is ekkor kezdte a kutakodást egy GPU-fejlesztő után. A dolog egyszerű. A GPU nagymértékben párhuzamos munkavégzésre készült, így amellett lehet egy lapkába jó throughput teljesítményt pakolni, hogy megölnéd a processzormagok egyszálú teljesítményét. Mára kiderült, hogy mindenki ezt az irányt részesíti előnyben.

    Az APU-knak sokkal nagyobb a jelentőségük, mint ahogy látszik. A skálázást biztosítják a fejlesztők számára. Aztán ezt vagy kihasználják, és a programok gyorsabbak lesznek, vagy maradnak az ingyen ebédnél és az egyszálú kódoknál, és akkor 2030-ra talán jön valami gyártástechnológiai áttörés.
    A gyártók egyértelműen döntöttek. Az AMD esetében a legnagyobb fejlesztéseket az integrált GPU kapja az új APU-kban. Az Intel esetében se számíts a processzorteljesítmény növekedésére. Ellenben az integrált GPU-t brutális pénzek beletömésével próbálják kigyúrni, mert erről az oldalról biztosítható a skálázás. Majd meglátod, hogy a következő két generáció hogyan fejlődik. A processzor oldaláról a lapkák csak kiegészítéseket kapnak az utasításkészlet szempontjából. Ezek egy része az integrált GPU-val való jobb összedolgozást is jelentik. Ami óriási fejlődés előtt áll, azok az integrált GPU-k. Az Intel a Haswellbe négyszer több vektoros shadert rak, mint amennyi ma van a Sandy-ben. Ellenben a processzormagokhoz alig nyúlnak. Az AMD a Kaveribe már GNC architektúrát rak, ami a shaderek számában nem nagy előrelépés a Llanóhoz képest, de olyan képességeket ad a rendszernek, amire nagy szükségük van a fejlesztőknek.

Új hozzászólás Aktív témák