Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Loha #104 üzenetére

    Csak ott működik a leghatékonyabban. Ez egy nagyon fontos szempont minden termék tervezésénél. De szerintem a limitre való határolást pont az AMD-nek nem kell magyarázni, mert ők álltak elő először olyan hardverrel, ami sosem megy a limit alá 1 wattnál nagyobb fogyasztáskülönbséggel. Ez önmagáért beszél. Évek óta ezt akarják elérni.

  • Abu85

    HÁZIGAZDA

    válasz p87 #99 üzenetére

    Mert a hőlimit alacsonyabb lesz, és átparaméterezés nélkül a kártyába betöltött profil nem úgy működik, ahogy kellene. Ez nem fizikai probléma, hanem beállítás kérdése. A PowerTune-t az AMD 90°C fölé paraméterezte. Ha ezt a profilt rárakod egy 70°C-os limitre, akkor lassulás lesz az eredménye még sokkal jobb hűtővel is. Aki hűtőt cserélt, annak azért gyorsult, mert a kártya hőmérséklete nem javult sokat. Egyszerűen igyekszik a rendszer elérni a 90°C fölötti hőmérsékletet, hogy ideálisan működhessen.

    Igazából ezek azért alakulnak így, mert már rég nem a nyers fogyasztás a probléma. Az úgyis limitálva van. Az a legfőbb mérnöki feladat, hogy a kártya sosem fogyasszon lényegesen kevesebbet a limitnél. A Hawaii 1 wattra kerül ettől maximum, ami kiváló.

  • Abu85

    HÁZIGAZDA

    válasz p87 #97 üzenetére

    A VGA-t tervezték erre a hőfokra. Azért mennek fel a hőmérsékletre kialakított boostokkal 80°C fölé, mert az áramkörök működésének ez az ideális. És nagyjából 93-95°C-on érhető el a legjobb hatékonyság.
    Ezt már kipróbálták a gyártók is. Tehát, ha lecserélik a hűtést, és annyival jobb lesz a hőelvezetés, hogy a kártya 94°C helyett 70°C-on működhet, akkor ugyanazokkal paraméterezésekkel 5-9%-ot esik a hardver teljesítménye. Csak azért, mert a jobb hűtő nem engedi, hogy az ideális hőmérsékleti tartományban üzemeljen. Éppen ezért itt a hűtőcsere nem olyan egyszerű, mint korábban, mert az okozhat gyorsulást és lassulást is.
    Ki kell dolgozni, hogy a különböző megcélzott hőmérsékleteken milyen paraméterezés az ideális a megcélzott teljesítmény eléréséhez.

  • Abu85

    HÁZIGAZDA

    válasz Atom_Anti #92 üzenetére

    De bejön, csak nagyon messze vagyunk tőle. Nem tudom, hogy a különböző fórumokon megtaláltad-e a Nixxes előadását, de ők leírták, hogy ma egy cikluson belül nagyjából az ALU-k fele kihasználatlan. És ezzel nem tudnak mit tenni, mert még szénné optimalizált kóddal sem javul a helyzet. Jelen pillanatban ott tartunk, hogy iszonyatosan rosszul használjuk ki a mai modern GPU-architektúrákat, még akkor is, ha a világ legjobban optimalizált kódjának tűnik az egész program.

    A Mantle mellett az adott GPU biztos nem megy majd "alapórajelen". A StarSwarm demóban a DX11-es kóddal 1 GHz-en futott az R9 290X, míg Mantle-lel már csak 700-750 MHz körül. Nagyjából ezt az órajelszintet várhatjuk a Mantle játékokban. Ugyanígy a többi GPU sem fog a magórajelen futni. Talán a legkisebbek.

  • Abu85

    HÁZIGAZDA

    válasz Atom_Anti #89 üzenetére

    Mutattak már teljesítménymérést. Igaz nem az AMD, hanem az Oxide a StarSwarm demóból. Az az eredmény azt mutatja, hogy kb. mennyit lehet kihozni az API-ból.
    Repi azért vár az eredményekkel, mert még dolgoznak. Ezt nehéz szimulálni, mert mondjuk gyorsítanak az API-val 30-50%-ot, akkor abból még lejön annyi, amennyivel az adott GPU alacsonyabb magórajelen üzemel, és ezt nem lehet megsaccolni. Tehát tudják, hogy milyen gyorsulást akarnak kihozni az API-ból, de azt már nem tudják megmondani, hogy azt a kódot, milyen órajelen futtatják majd a termékek. Ezért nem akar Repi mondani semmit, mert van egy elég nagy ismeretlen az egyenletben.

  • Abu85

    HÁZIGAZDA

    Mondjuk a multinál megjegyzendő, hogy két menet között 20 fps különbség is lehet ugyanazon a rendszeren. Azért ez nem mindegy. Nem véletlen, hogy a legtöbb teszt inkább a single-re van kihegyezve, mert ott ugyanazzal a rendszerrel legalább stabil az eredmény.

  • Abu85

    HÁZIGAZDA

    válasz Loha #72 üzenetére

    Ez kösz MS effektus. Azért kérnek a fejlesztők az AMD-től API-t, mert a DX/OGL nem úgy működik, ahogy egy modern GPU-architektúra.
    Mondok egy tök egyszerű példát egy égető problémára:
    Az occlusion query ugyan a GPU-n működik, de az adatot, amit erre építve generál a rendszer a CPU olvashatja. A CPU-nak tehát meg kell várnia a GPU adatait az egyszerűsített leképzésből, és onnan meg tudja állapítani, hogy mi látszik és mi nem. Na most ez azért gáz, mert számos olyan szituáció lesz, hogy mire ezt a CPU megmondja már esélyes, hogy kész lesz a frame az extra számolással is.
    A Mantle-nél az occlusion query adatokat a GPU direkten visszaírhatja magának, és azt rajzolja ki csak, ami látszik.

  • Abu85

    HÁZIGAZDA

    válasz Loha #57 üzenetére

    Attól, hogy GPU-limitesnek tűnik valami, még nem biztos, hogy az API jól használja a hardvert.

    Például a DX11-ben eléggé problémás, hogy van egy rakás slotod, ami a regiszter az API shader ISA-jában. Ha bekötsz egy slotot, akkor rengeteg driverhülyülés kell ahhoz, hogy a rendszer a textúraadatokat egy olyan adatstruktúrába építse fel, amit a hardver megért. Eközben a GCN és például a Kepler is már pointerekkel működik és megkeresheted a textúraadatokat, amikből kialakul egy megfelelő adatstruktúra. Csak ezzel rengeteget lehet nyerni, mert úgy működteted a hardvert, ahogy azt tervezték.

    Vagy a memóriaallokációnál létrehozható egy olyan terület, amit újra lehet hasznosítani. A DX11-ben ezt nem teheted meg, mert nem éred el direkten a memóriát. Az API mindenre külön erőforrást kreál.

  • Abu85

    HÁZIGAZDA

    válasz Egon #50 üzenetére

    Az a baj, hogy nem sok van. Azért néz ki a BF4 ilyen csodálatosan, mert Repi egy zseni. Nem elég, hogy szarráinstancingeli, de még a particle rendszert is berakja a tiled lighting fázisba. Egyszerűen zseniális ötletei vannak, de eközben ő is érzi, hogy hónapokat küzd azért, hogy ez legalább ennyire működjön, mint most.
    Ezért mondta el, hogy lehet, hogy a Mantle-t nehezebb implementálni, de sokkal hamarabb eléred a performance targetet, mert az API teljesítménye jól meghatározható előre. A DirectX-re ez már nem igaz.

    Az egyetlen dolog, ami érthetetlen, hogy erre a Microsoft miért nem figyel. Repi nem szeptemberben beszélt először, hogy elégedetlen, hanem legalább öt éve folyamatosan ezt mondja mindenhol. És nem a gyártóknál kezdett a low-level API-ra való igényének leadásával.

  • Abu85

    HÁZIGAZDA

    válasz Egon #43 üzenetére

    Teljesen mindegy az API felhasználói megítélése. A fejlesztők kérték a fejlesztők használják. Ők tudják, hogy miért igényelték ezt. Tudják, hogy az MS sajnos leállt a DX hardver közelibbé tételével, és azt is, hogy a Longs Peak kódnevű OpenGL projekt jó eséllyel már nem fut. Tehát a választás az volt, hogy butítják a PC-s játékokat, vagy kilobbiznak egy low-level API-t valamelyik gyártótól.
    Az a legfőbb gond, hogy a DX10 megjelenésével nagy előrelépésnek számított, hogy az API tudott framenként ~2000 rajzolási parancsot egy komplex játékban eléggé hatékonyan. Eltelt 5 év, a CPU-k tempója nőtt, és a DX11.2 tud ~2000 rajzolási parancsot framenként egy komplex játékban. Láthatod tök jól lépdelünk előre. :D És a PS4/X1 tud 60-70k-t is, de akár elmehetnek 90k-ig.

  • Abu85

    HÁZIGAZDA

    válasz rudi #36 üzenetére

    Jason és Chris Kingsley a vezető programozók a cégen belül. Attól, hogy cégvezetők (nyilván ők az alapítók), még nem feltétlenül vérbeli üzletemberek. John Carmack is az ID vezére és PR embere volt.

    (#39) Egon: Kétségtelenül. Le is írtam a cikkben, hogy erre egy validátor réteg lesz. Azért Repi nem csak az AMD-től kért low-level API-t. Az Intelt és az NV-t is megkörnyékezte, csak ők nem akarták megcsinálni. Pontosan tudják, hogy kontrollt adni a programozók kezébe egyszerre áldás és átok. Az AMD is csak azért csinálta meg a Mantle-t, mert a két konzol miatt úgyis mindenki megtanulja a GCN-t. Ha nem lenne a konzolban ilyen hardver, akkor ma a Mantle sem létezne, mert az AMD is magasnak ítélné a kockázatokat.

  • Abu85

    HÁZIGAZDA

    válasz Egon #30 üzenetére

    Ha rosszul csinálod, akkor lehetséges, hiszen még nincs teljesen kész a kódvalidátor. Ezt a verziót csak az éri el, aki részt vett az API fejlesztésében, mert ez még nem "hülyebiztos" rendszer. Majd a publikus verziónál már teljes lesz a kódvalidátor, így nagyon nagy hatékonysággal meg tudja mondani a fejlesztőkörnyezet, hogy az adott kód csinál-e olyat, amit nem szabadna.
    Például ma még simán megsemmisíti a program a GPU által aktuálisan használt erőforrásokat, ha ezt kéred tőle, és talán a validátor nem is jelzi, hogy ez egy gond. Na erre figyelni kell.

  • Abu85

    HÁZIGAZDA

    válasz VaniliásRönk #23 üzenetére

    Még nem fut az early adopter program, így csak azok érik el az API-t, akik konkrétan fejlesztették az AMD programozói mellett (DICE/EA, Rebellion, Crytek, Oxide, Nixxes/Square Enix, RSI ...). Ezt nem véletlenül csinálják így, mivel aki nem ismeri a GCN architektúra működését, az a Mantle-re nem tud jól programozni. Ezt ésszel kell csinálni, mert a Mantle driver megkerüli a WDDM-et. Olyan fejlesztők kellenek, akik ismerik, hogy mire kell odafigyelni ilyenkor, hogy az OS ne fagyjon le. Kis túlzással a Mantle memóriamodellje visszarepíti a fejlesztőket a D3D3.0-hoz. Rizikós, de legalább nem a WDDM dönt arról, hogy mennyi memória kell a programnak és hogyan használja a VRAM-ot.

Új hozzászólás Aktív témák

Hirdetés