Keresés

Hirdetés

Új hozzászólás Aktív témák

  • válasz Petykemano #15477 üzenetére

    Azért ez ennél sokkal bonyolultabb és ne nyeld be a marketing választ. :D
    Persze hogy azt mondja az NV amíg nem tudják, hogy nem jó semmire... aztán meg ők lesznek a legnagyobb úttörői a technológiának. Nem ez lenne az első ilyen eset.

    Van abban ráció, hogy pl amíg a GPU compute kódot számol, addig pl mellette párhuzamosan a memóriába töltsd a következő képhez szükséges adatokat... mivel teljesen más részeit használják a GPU-nak.
    Stb stb.
    Tehát nem csak buborékokról van szó, hanem arról is azért hogy a GPU több részegységét egyszerre lehessen dolgoztatni "függetlenül", vagyis növekedjen a kihasználása a benne lévő képességeknek egyszerre egyidőben.

    [ Szerkesztve ]

    Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m

  • gbors

    nagyúr

    válasz Petykemano #15477 üzenetére

    Azért nagyon viccesek ezek az eszmefuttatások, mert jellemzően kiindulnak egy valós alapról (ie. hogy az nVidia GPU-k jobban kihasználják a részegységeiket, több az FPS / tranyó, stb.), aztán ráépítenek egypár erősen fals, de legalábbis ellenőrizhetetlen állítást - jelen esetben azt, hogy náluk ez már annyira jó, hogy nem is igazán lehet rajta javítani. Amiért nem lehet egyértelműen rásütni, hogy baromság, az pont az, amit az AMD-nél mérnek - ha ott 10-20%-ot javul a teljesítmény, akkor az eleve magasabb kihasználtsági szintről induló nVidia esetében mennyi a potenciál? És valóban mennyi értelme van foglalkozni vele?

    Itt két alapvetően eltérő irány van:
    a) Az nVidiás csávónak van igaza, a GPU-k optimálishoz közelítően használják ki a számítási erőforrásokat, és az AMD a saját (nem túl komoly) hatékonytalanságát fedi el az aszinkron compute-tal
    b) Nagyon komoly a kihasználtsági deficit mindkét oldalon, de annyira nem egyszerű hozzáférni ezekhez a szunnyadó erőforrásokhoz, mint ahogy a kezdeti hurráoptimizmus sugallta

    Én majdnem biztos vagyok benne, hogy a b) a valóság, viszont az nVidia ki fog tartani az a) mellett, amíg az üzleti érdekük azt sugallja, vagy legalábbis nem lesz megcáfolhatatlan bizonyíték a b)-re.

    Az aszinkron compute egyébként elvileg nem csak a buborékokat használja ki, hanem az adott ciklusban le nem foglalt ALU-kat is, vagy még inkább a le nem foglalt ALU-tömböket, sajnos a lehetséges granularitásról fogalmam sincs. Ez utóbbiban bőven van potenciál, viszont ütemezés szempontjából egy rémálom lehet - az sem kizárt, hogy ha elég jó a hardveres ütemező egy ilyen feladatra, akkor az arra fordított tranzisztorkeretből érdemesebb további ALU-kat építeni. Végső soron a VLIW5-nek hasonló volt a filozófiája.

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

Új hozzászólás Aktív témák