Hirdetés

Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Viktor77 #85 üzenetére

    Az IGP, mint a jövő megoldása kisarkított. Az tény, hogy a homogén többmagos processzorok olyan korlátokat ostromolnak, amit anno az egymagosok. A skálázásnak a fizika törvényei gátat vetnek. Ennek van egy szóban bonyolult leírása: Pollack's Rule
    Ezt a szabályt példákkal tarkítva nagyon egyszerűen meg lehet érteni. Megpróbálom felvázolni egy gyakorlati példával a mai igények szerint. Van egy négymagos processzorod x tranyószámmal, x fogyasztással, x egyszálú teljesítménnyel, x összesített teljesítménnyel, és x teljesítmény/watt mutatóval. Most ne emeljünk ki gyártót, mert az architektúra jellemzői rontják az általános vizsgálatát a szabálynak. Egyszerűen x processzor x képességekkel.
    Ha ugyanazon a gyártástechnológián maradsz, és nem növeled a tranyószámot, illetve a fogyasztást, akkor attól még tervezhetsz 8 magos processzort. Ilyenkor a méret, a fogyasztás, és a tranyószám megegyezik, de a teljesítmény már nem. Például az egyszálú teljesítmény 30%-kal csökkent, vagyis egy mag a 8 magos egységben a 4 magos egység 70%-ára képes teljesítményben. Az összesített teljesítmény azonban már változik, így ott már nőtt a számítási teljesítmény méghozzá nem is kevéssel. És ugyanígy jobb lett a teljesítmény/watt mutató is. Ez alapvetően a Larrabee koncepciója, mellyel az Intel a dark silicon jelenségre reagált. Na most a gyártók észrevették, hogy az egyszálú teljesítmény még mindig számít, márpedig, ha homogén többmagos processzorral akarják a dark silicon jelenséget elfedni, akkor Atom, vagy Bobcat kategóriás magok kellenek. Nyilván megoldás, mert az összesített teljesítmény jelentősen nőne, de mégsem tetszene mindenkinek. Itt jön elő a magok keverése. Nem kötelező homogén többmagos processzorral előhozakodni, így lehet akár heterogén is. Pár mag a késleltetésre van optimalizálva, míg a GPU-rész a throughput teljesítményre. Ezzel megtarthatod a viszonylag magas egyszálú teljesítményt miközben magas throughput tempót is kapsz a GPU-val. Ezért ez a fene nagy integráció mindenkinél, mert a dark silicon létező probléma, anno a Pentium 4 karrierjét és magát a koncepciót szépen derékba törte, persze az Intel naiv is volt, hogy a fizika törvényeivel akart versenyt futni, de ez most lényegtelen, mert gyorsan reagáltak a megváltozott helyzetre. Most ugyanaz a probléma, csak a többmagos processzorok futnak limitbe. A megoldást egyelőre a heterogén rendszerekben látják a cégek. Nyilván a programozói szokásokat jóval egyszerűbb megváltoztatni, mint a fizika törvényeit legyőzni. Ebből a szempontból logikus a váltás. Az persze tény, hogy még csak a kezdetén vagyunk ennek. Jórészt az integráció a GPU beépítését jelenti valamilyen kommunikációs csatornával a CPU-hoz. Itt az OS szintjén kell fejlesztés még (itt főleg GPU-s MMU támogatásra kell gondolni, ahogy a procinak is van MMU-ja), illetve olyan CPU-t és GPU-t kell összevonni, melyek egyrészt technikailag kiegészítik egymást (ami az egyiknek a gyengéje, az a másiknak az erőssége és fordítva), valamint a GPU esetében fontos, hogy képes legyen címfordításra az x86AMD64 címtartományán belül. Ezenkívül a teljesen koherens memória megosztása is alap. Szerintem nem mondok azzal meglepőt, hogy ezek a projektek szinte mindenkinél készülnek. Az AMD-nél a Bulldozer és a GCN architektúra társul, az Intelnél a mostani CPU-k, és a Larrabee, az NV-nél a Kepler architektúra és a Denver CPU-magok ARMv8-cal. Még az ARM is úgy tervezte az új generációs MALI IGP-t, hogy megfeleljen pár fentebb leírt igénynek az ARM magokhoz társítva.
    Az amit az AMD csinál egyáltalán nem egyedi dolog. Azért vannak ők kiemelve, mert a fúziós szempontok alapján az elsők. Itt ugye arra kell gondolni, hogy 2011 elején rakták le az első APU-t, míg a többiek még váratnak magukra, de például tavasszal az Intel is megkezdi ezt az ösvényt az Ivy Bridge termékekkel. A ZiiLabs még ennek a koncepciónak az élmenője, mondjuk úgy, hogy ARM-os szinten. Ők nem sokkal az AMD után rakták le az asztalra az első StemCelles SoC-ot. Persze ha nem nézzük szigorúan a PC-t, vagy a konzumer mobil szintet, akkor a PS3 Cell procija is heterogén többmagos egység. Általánosan az IBM-Sony-Toshiba trió a koncepció élharcosa. Voltak is olyan háttérbeszédek, hogy a Cell sarkalta az AMD-t erre, illetve az Intelt a Larrabee fejlesztésére. Ebben lehet valami, bár szerintem az igazat sosem tudjuk meg. Az biztos, hogy a Cell teljesítménye sokkoló volt akkor a fogyasztáshoz mérten, így ha a gyártók elméletben játszottak is a heterogén chipek gondolatával, a Cell példája adhatta meg ennek a lökést, mivel bizonyította, hogy működik. Az már más kérdés, hogy a Cellre a világ nem volt felkészülve. Itt majd a programozási szokásokkal lesznek parák. A programozók számára a helyzet bonyolódik, de mint mondtam a fizika törvényeivel szembe menni veszélyesebb.

  • Abu85

    HÁZIGAZDA

    válasz Viktor77 #92 üzenetére

    Definiálni kell a mag fogalmát, és el lehet dönteni, hogy mag, vagy nem mag. Én hajlok afelé, hogy egy modul az egy mag, de van ráció abban, hogy két mag, mert mindkét szál dedikáltan megkapja az összes feldolgozóegységet, így képes két teljesen független mag tulajdonságait ötvözni. Itt az a kérdés, hogy mi a mag definíciója.

  • Oliverda

    félisten

    válasz Viktor77 #92 üzenetére

    Mivel nincs konkrét meghatározás vagy szabvány arra, hogy mit takar vagy mit jelent egyetlen mag, ezért erre nem lehet egyértelmű választ adni. Nincs sehol kőbe vésve, hogy mit kell tartalmazzon egy egység, hogy azt magnak lehessen nevezni. Ettől fogva pedig már csak nézőpont és értelmezés kérdése az egész, amit le is írtam a linkelt tesztben. Az egész magos kérdése kezd elavulttá válni. Inkább végrehajtószálakkal érdemes már kalkulálni, ahogy már említettem is.

  • MZperX75

    addikt

    válasz Viktor77 #85 üzenetére

    Ez most hogy jön ide?(nézőpont kérdése, nem magos,hanem modulos.)

Új hozzászólás Aktív témák