Keresés

Új hozzászólás Aktív témák

  • wad

    tag

    válasz dezz #59 üzenetére

    "Ne csak full párhuzamos végrehajtásra gondolj,"

    Pedig ez az egyetlen, amiben újdonságot mutathat ez a fene nagy fúzió. Minden másra eddig is nagyszerűen tudtam használni a GPU + CPU párost.

    "de azért nem elhanyagolható,"

    De, 10 %-os teljesítménynövekedés általában pont elhanyagolható. Cserében van némi overhead, mert a CPU és a GPU azért csak külön memóriatartományon dolgozik, azokat egyesíteni is kell. A plusz programozási munkáról nem is beszélve. Ja, és még szegény procit is leterhelem kvázi feleslegesen, aztán nem fogok tudni aknakeresőzni a háttérben.

    A nullától függetlenül, amiben igazad lehet, a csíkkal kapcsolatban igazán az érdekelne, hogy miért nem ugyanott kezdődik a kettő. Nem azt akarják mutatni, hogy még a Moore-nál is gyorsabban fejlődik ez az architektúra? Akkor legalább a kiindulásnak ugyanannak kéne lennie.

  • wad

    tag

    válasz dezz #53 üzenetére

    "Az az értelme, hogy a GPU-k a viszonylag egyszerűbb algoritmusokat szeretik"

    Ha az egyszerű alatt a kevés elágazást érted, akkor igaz. De ez nem válasz arra, hogy hogyan van elképzelve az APU-n belüli CPU és GPU párhuzamos kihasználása. A legtöbb algoritmus esetén haszontalan az ilyen típusú párhuzamosítás.

    "Ez viszont értelmetlen, mert 1-1 CPU mag a ugyanúgy SIMD"

    A CPU magok szervezése, ami MIMD, nem a magok magukban. És igaz, a compute unitok szervezése is MIMD, a bennük lévő skaláris processzorokat akartam írni. Egyébként az SSE vektorutasításai valóban lehetőséget adnak a CPU GPU-szerű programozására, ezen alapul az Intel OpenCL drivere. De 4 mag még SSE-vel sincs sehol - egy SIMD párhuzamosított kód esetén - a GPU-khoz képest. Mi értelme, tehát?

    Visszatérve a csíkhoz: nekem határozottan úgy tűnik, hogy 2005-nél a közepe nullán van. Ha mégis van valami epszilonnyi értéke, akkor is teljesen abszurd GFLOPS-ban.

  • wad

    tag

    Több dolgot nem teljesen értek. Ha sikerül egy algoritmust SIMD architektúrára párhuzamosítani, semmi értelme azt az egy-két nagyságrenddel lassabb CPU-n is futtatni a GPU mellett, akkor sem, ha össze vannak integrálva. A GPU-s futás mellett, persze csinálhatok tök mást a CPU-n, de egységes vektorprocesszorként kezelni őket értelmetlen.

    Ebből kifolyólag nem látom értelmét egy közös cache-nek, ha a CPU és a GPU más adatokon más utasításokat hajt végre. A jelenlegi szisztéma szerint ráadásul szeparált címtartományon dolgoznak (ami APU esetén tényleg teljesen értelmetlen, és gyermekbetegségnek tekinthető).

    "A cél viszont egyértelmű: logikailag el kell fedni a CPU és a GPU közötti különbséget."

    Ez nem lehetséges, amíg a GPU compute uniktok SIMD-ek, a CPU magok pedig MIMD-ek. Ha pedig ez változik, az már nem beszélhetünk GPU-ról és CPU-ról.

  • wad

    tag

    válasz O_L_I #8 üzenetére

    Moore törvénye eredetileg tranzisztorszámra vonatkozott, de aztán még egy rakat dologra kiterjesztették ("akkor illesszünk erre is exponenciálist" alapon). Az a diagram ettől függetlenül egy különösen pofátlan szemfényvesztés: kezdjük ott, hogy mintha a kék görbének (bármi is legyen az) 2005-ben 0 lenne az értéke, ami két ok miatt érdekes

    1. nem lehet tisztán exponenciális függvény, mint Moore jóslata
    2. 2005-ben 0 GFLOPS-nál kicsit gyorsabb processzorok voltak már.

Új hozzászólás Aktív témák

Hirdetés