Keresés

Új hozzászólás Aktív témák

  • kisfurko

    senior tag

    válasz #00137984 #49 üzenetére

    Nagyon kevered a dolgokat. Az egyszeres pontosság a float (FP32). A kétszeres a double (FP64). A 32, 64 a bitek számát jelenti. Ez egy, azaz egy számot kódol. Tehát 3 színnel az már 96 ill. 192 bit. Node egy kép előállításakor csak a számítások mennek ebben a precizitásban, a tárolás max. FP16-ban, vagy INT16-ban van (nem éri meg a float, double meg nincs is). Megjelenítés előtt pedig lekonvertálják (tone-mapping) 8, talán 10 bitbe komponensenként, hiszen a kijelző úgyse tud többet. Már 16 bittel is 1:65535 kontrasztarányt tudsz elérni, amit, tudomásom szerint semmilyen LCD kijelző nem tud (plazma se).

  • kisfurko

    senior tag

    válasz Pikari #43 üzenetére

    Kipixelezve, meg óriásira zoomolva lehetett csak látni az FP24 (9700-es ATI) és FP32 között a különbséget. Az FP16 az már más tészta, az igencsak meglátszott az Nvidia FX-eken.

    ja, kb 0,1%-al
    Ezt nem jól tudod. Az Nvidia se bénaságból rakott "kevesebb bitet" a Tegrába, hanem, hogy kordában tartsa a fogyasztást.

    Szerintem egy szoftveres rendert melósabb megírni, mint egy hardveresen gyorsítottat, mert kb. ugyanazt bele kell tenni, csak még a leképezést, textúrázást és egyebeket (amiket megcsinál neked a hardver) is meg kell írnod. Az objektumokat ugyanúgy rendezni kell. Egy gyengébb gépen a szoftveres megoldásnál sem úszod meg a skálázhatóságot (egy valós idejű renderer nem futhat egy bizonyos sebesség alatt).
    Én a közeljövőt kb. abba az irányba tudom elképzelni, mint amerre az Unreal Engine 4 indult. Fényszámítások, füst meg ilyesmik compute alapon, fényvisszaverő dolgok meg raszterizálással. Ehhez jó alapot nyújt a Direct3D (biztos az OpenGL is, nem ismerem).
    Idővel biztos elég lesz a számítási teljesítmény a raszterizálás elhagyásához, de az, szerintem nem ebben az évtizedben lesz még.
    Én még nem láttam olyan szoftveres megoldást, ami akár a nyomába is ért volna egy-egy mai játéknak. Az Nvidia rendererje (talán OptiX) elég jó, de kell hozzá egy pár kártya, hogy jó sebességgel menjen, de hát nem is arra való, mint a Direct3D. Az Atomontage Engine is szép, de évek óta csak készül, szerintem már rég felvásárolta volna valaki, ha világmegváltó lenne.
    Egyébként, én konkrétumokat vártam volna, hogy ez, meg az nem elég jó a Direct3D-ben.

  • kisfurko

    senior tag

    válasz #00137984 #30 üzenetére

    Ezek komponensenként értendők, nem összesen.
    Egyébként meg, monitorra teljesen felesleges egyelőre 8 bitnél többet használni komponensenként, hiszen a tucatmonitorok se tudnak többet, sőt, a TFT-k között vannak csak 6 bitesek is.

  • kisfurko

    senior tag

    válasz Pikari #26 üzenetére

    ha már float, 32 bitnél kisebbet támogatni baromság, in my opinion
    Már miért lenne baromság? Olyan rosszul nézett ki az, amit a 9700-es ATI produkált?

    nem is értem, hogy miféle idióta találta ki ezeket egyáltalán
    Kevesebb bittel való számolás kevesebb energiafogyasztást jelent. Mobil eszköznél ez nem elhanyagolható dolog.

    használhatatlan, túlbonyolított, alapvető dolgok százezreit nem támogató, inkohézív, inkompatibilis, valóságtól elrugaszkodott, a fejlesztők, a gyártók, és a végfelhasználók igényeit kielégíteni képtelen túlhypeolt romhalmaz
    Ezeket alá is tudod támasztani? Kíváncsi lennék.

Új hozzászólás Aktív témák

Hirdetés