Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Darmol

    senior tag

    válasz gbors #48 üzenetére

    Nem kell ám találgatni. Ott a cikkben az összehasonlító grafikon.

    Aki azt mondja "nem tudom elhinni az igazságot" az naiv. Aki azt mondja "nem akarom tudni az igazságot" az ostoba. Aki azt mondja "az igazság tilos" az gonosz. Aki azt mondja "én határozom meg az igazságot" az beteg.

  • Abu85

    HÁZIGAZDA

    válasz gbors #48 üzenetére

    Ennek még nem ismeritek a Boost órajelét. Az nagyobb, mint a Game órajel, amit az AMD megadott.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • UMbikes

    csendes tag

    válasz gbors #48 üzenetére

    viszont mivel kevés cu van valószínűleg elmebeteg módon húzható lesz. szerintem simán hozhatja a 2800mhz-et is egy red devil vagy egy strix változat, persze nem gyári oc szinten, hanem manuálisan kíváncsi leszek a tesztekre, de eddig nem igazán látom ennek a kártyának a piacát.

    Az emberi hülyeség határtalan... De ha megfigyelő vagy egész szórakoztató.

  • Abu85

    HÁZIGAZDA

    válasz gbors #66 üzenetére

    Egyébként nem vicc. Nincs messze a 6800-tól. Magam is meglepődtem rajta. 4K-ban van amúgy nagyobb lemaradása, de 1080p-ben és 1440p-ben közel van. 1080p-ben meglepően közel.

    Láttam már, hogy ismeritek. Azt hittem, hogy a záemdé titkolja még. :D

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Kansas

    addikt

    válasz gbors #97 üzenetére

    Igen, ezt a CPU-limites magyarázatot én is hallottam, de nem meggyőző hogy mindig az lenne mögötte(bár kétségkívül előfordul), nekem a HU-féle magyarázat logikusabbnak tűnik, és teszteredményekkel is alá van támasztva.
    Plusz, a 3070 kapcsán ne felejtsd el, hogy onnantól lefele az Ampere kártyákon ugyanolyan "mezei" GDDR6 VRAM van, mint a Radeonokon, míg a 3080/3090-en GDDR6X, jelentősen magasabb sávszélességgel. Arról nem beszélve, hogy a 3070-et 4K-ban a 8GB VRAM mennyiség is limitálhatja már... ez utóbbi ki fog derülni a 3060 tesztekből, hogy így van-e...

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • b.

    félisten

    válasz gbors #104 üzenetére

    pontosan ezt mondja Igor is, amit Te az utolsó mondatodban. :K

    [ Szerkesztve ]

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • Abu85

    HÁZIGAZDA

    válasz gbors #79 üzenetére

    Hát a 3 GHz a Navi 22-nek nem lesz meg, ugyanis 2950 MHz az órajellimitje. Az majd a még kisebb Navi esetében lesz realitás.

    #104 gbors : Az Ampere-ben nehéz etetni a második FP32 futószalagot. A gond az, hogy ugyanazon az ütemezőn vannak, tehát ugyanazok a warpok futhatnak rajtuk. De az esetek jó részében a programozók nem figyelnek arra, hogy a warpok ne függjenek egymástól, mert minden korábbi architektúrában úgy volt, hogy egy adott ciklusban csak egy tömb állt egy ütemező rendelkezésére. Tehát a shader kódok nagy részében a warp sajnos függnek egymástól, és emiatt vagy az egyik futószalag működik, vagy a másik. A kettő együtt nagyon ritkán használható.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Kansas

    addikt

    válasz gbors #104 üzenetére

    Szerintem rossz oldaláról közelítettük meg a jelenséget, ha "varázslatos architektúrális limit"-ről beszélsz. Nincs ilyen "varázslatos" limit.
    Próbáljuk meg akkor a másik oldalról, hátha úgy könnyebb átütni a "bántsák az NVidiát" reflexeden.
    Tehát, újrafogalmazva ugyanazt: Az Ampere architektúrában van egy olyan kúl új feature(a DLSS mellett), ami magas GPU terhelés mellett (tipikusan 1440p feletti felbontásokon, tehát 4K/8K) extra erőforrásokat tud bevonni az FP32-es számításokba azáltal, hogy az INT32 operációkra épp nem használt INT32 feldolgozótömbök használhatóak FP32 utasítások végrehajtására is. A gyakorlati végeredmény, hogy ezek a VGA-k az esetek egy jelentős részében jobban skálázódnak 1440p-ről felfelé, mint a saját korábbi termékek és a konkurens VGA-k.
    Egyébként biztosra veszem, hogy ez nem csak a játék felbontásának növeléséhez jöhet jól, hanem egyéb FP32-számolásigényes feladatokhoz is.
    És azt is, hogy enélkül az architektúrális sajátosság nélkül kevésbé szerepelnének jól az RTX 30xx kártyák az RX6xxx Radeonok ellen 4K-ban...

    Meg amit #106 Abu85 írt...

    Így fogalmazva jobban tetszik?

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz gbors #110 üzenetére

    Ahogy gondolod, érvek ellen amúgy is be voltál oltva ebben a thread-ben.
    Ha sima CPU vagy vegyes limitről lenne szó, akkor nem csak és kizárólag az Ampere kártyákat érintené ez a jelenség, hanem pl. az RX6900XT-t is. Te a HU logikájában és hozzáértésében látod a hibát, én a tiédben. Kettőtök közül nem a tiéd van mérésekkel alátámasztva.

    #109 b. : és azt is elmagyaráznád, ez miben mond ellent annak amit én írtam? Gyakorlatilag inkább saját magának és a CPU-limites elméletének mond ellent.

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz gbors #116 üzenetére

    Képzeld, megnéztem, és ahogy a HardwareUnboxed tesztben úgy a GamersNexusnál, itt a PH-n de még az általad linkelt Computerbase tesztben(bár a fura grafikon-elrendezés nem könnyíti meg az észrevételét) is látható a tendencia, pl a 6800XT és a 3080 közt, hogy az AMD még fölényben van 1080p-n, kisebb fölényben 1440p-n és az NV átveszi a vezetést 4K-ban. Pl Tomb Raider-ben...
    Nyugodtan nézd meg újra... nekem egyelőre munkanapom van, de munkaidő után szívesen belemegyek részletesebben.
    Egyelőre annyi, hogy nem véletlen, hogy az általános konklúzió az, hogy 4K-ban az NV a menő. FHD-ban pedig az AMD... persze vannak olyan játékok, ahol az egyik gyártó minden felbontásban viszi a koronát, de a tendencia attól még látszik.

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #110 üzenetére

    Eleve a másik ALU Int32-t is csinál, aminél a warpok közötti függőség jóval ritkább, az szinte mindig befogható. Emellett nem csak az alu kapacitás a végleges teljesítmény meghatározója. Sőt, manapság számos olyan új játék van, ami már shaderek szintjén is cache-aware optimalizálást használ, vagyis a konkurens wave-ek számát egy shaderben direkt visszafogják, hogy nagyobb legyen a cache hit, ezt a leg-leg-legújabb játékok kiegészítik cache-aware leképezőkkel is. Ilyen az új EGO motor (Dirt 5), az új Anvil (AC Valhalla), az új Frostbite (Star Wars Squadron). Ezeknél már a konkurens wave-ek száma is annyira alacsony, hogy szinte minden hardveren a sárga zónában mennek, vagyis alapvetően jó ha egy wave-nek van elég adat futni.
    Egyébként az NV például ezeket a cache-aware optimalizálásokat nem ajánlja. Nem azért, mert nem lehet vele nyerni, hanem azért, mert sok a buktatója. Ha jól csinálja egy fejlesztő, akkor simán kihoz belőle +10-15%-ot, ami jó, de ha nem optimalizálnak jól, akkor ott találja magát a GPU, hogy nincs adat egy wave-et sem futtatni, ami gond. És sajnos relatíve könnyű utóbbi helyzetbe belefutni, borzalmasan jól le kell profilozni egy alkalmazást, hogy egy GPU-nál jól működjön a lokalitási elv kihasználása. És sokszor ez sem elég. A hagyományos, erőforrás-allokációra való optimalizálásnál csak az lebeg a szemed felett, hogy a wave-ekkel a hardver zöld zónájában legyél. Erre mindegyik hardver hasonlóan reagál, és valljuk be jelentős különbség az LDS és a regiszterek tekintetében sincs. Ellenben, ha a cache hitre gyúrsz, akkor úgy azért igencsak eltér a Turing, az Ampere, az RDNA, a GCN, stb. Még ha mindegyik hardveren el is éred, hogy konkurens wave-ben még a sárga tartományban legyél, akkor is az a hardver produkálja majd a legtöbb cache-hitet, amelyben egy multiprocesszor illetve szimplán az egész GPU durván ki van tömve cache-sel. Ez korunk nagy problémája egyébként, mert az új konzolokon nagyon sokat lehet nyerni ebből, míg PC-n a sok különböző architektúra miatt sok a buktató, de fejlesztőként elgondolkozol rajta, hogy csak a PC-re érdemes-e most belekezdened százezer sornyi shadert átírni. Ritkán lesz majd igen a válasz. És ez a friss játékokban már inkább hatással van a teljesítményre.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #130 üzenetére

    Az AMD azt mondta még januárban, hogy Full HD-ben azért működnek jobban az RDNA 2 dizájnok, mert ilyenkor sok bájt jut egy pixelre a 128 MB-os cache-ből. Ez a felbontás növelésével romlik, mert több a pixel, de a cache kapacitása állandó. 4K-ban is menne durván az RDNA 2, ha lenne rajta 256 MB-os IC, csak az a baj, hogy arányaiban az nem éri még meg a tranzisztorköltséget.

    Persze ez az egész játékfüggő. Tehát nehéz általánosítani.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Kansas

    addikt

    válasz gbors #130 üzenetére

    Nos, van egy rossz hírem: a te elemzésedhez hasonlót csináltam a Metro Exodus kapcsán a CB teszt eredményei alapján(RDNA2 adatok hiányában RDNA1-et, Turingot és a szemlééetesség kedvéért a 3090-et belevéve), de míg megírtam, eldobta magát a login session-öm, és hülye fejjel nem tettem ki vágólapra az egész irományt küldés előtt, szóval buktam az egészet.

    Bár eszem ágában sincs az egészet újra megcsinálni, a lényegi konklúziót azért leírom újra, a CB adatok alapján ellenőrizheti bármikor bárki akinek van ráérő ideje/kedve.
    Szóval: mindhárman tévedtünk, úgy tűnik. Te azért mert a CPU limitre fogtad, ami a Metro esetében egyáltalán nincs jelen, ellenben a skálázódás-különbség látványos a 3080 és 3090 esetén, míg jelentősen kisebb mértékű a 3070 esetében. És ez utóbbiból fakad a HU és az én tévedésem, ugyanis a HU elemzése a 3070 megjelenése előtt 3 héttel jött ki, tehát nem tartalmazhatott 3070-es méréseket, amik viszont kulcs-jelentőségűeknek bizonyultak szerintem. Ugyanis arra engednek következtetni, hogy a jelentősen jobb 4K-ra skálázódás szvsz a VRAM-beli különbségekre vezethető vissza: kisebb mértékben a mennyiségre(a 3070 8GB-ja 4K-ban már tud limitálni némelyest) leginkább viszont a GDDR6 helyett GDDR6X használata miatt, ami jelentős sávszélesség-növekedéssel jár

    u.i. : igazán lehetne tenni valamit a fórum-motorral, gáz ez így, hogy a küldés folyamán történő új authentikáció eldobja a komplett komment tartalmát. Azt se bánnám, ha egy hosszú komment írása közben nem járna le a session.

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz gbors #146 üzenetére

    Rendben, holnap megkapod.

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Duck663

    őstag

    válasz gbors #146 üzenetére

    gbors/Kansas: Beleszólok én is kicsit ebbe a diskurzusba, ugyanis, én is ezt a teljesítményvesztést vettem észre a Radeonoknál a felbontás növelésével. Egy tesztet hoztam, jó néhány játéknál szépen kirajzolódik a dolog. [link] Lehet igaza van Abu-nak, hogy az IC a ludas.

    [ Szerkesztve ]

    Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.

  • Kansas

    addikt

    válasz gbors #153 üzenetére

    Lepetézek, a végén kiderül, hogy alapvetően nagyrészt egyetértünk :D

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Duck663

    őstag

    válasz gbors #155 üzenetére

    Azokban a játékokban, ahol ez, mint lehetőség felmerül, meg kell nézni, hogy az órajel változtatására, hogyan reagál, arányaiban. Ha az átlagtól nagyobb mértékben változik a teljesítmény, akkor igaz, ha nem, akkor nem. :)

    Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.

  • Kansas

    addikt

    válasz gbors #155 üzenetére

    Én azért nem nézek sok játékos átlagot, mert semmi értelmét nem látom. Egyszerre az ember egy játékkal játszik. Pl AC Odyssey-vel játszok, Valhallával is biztosan fogok, de pl a Horizon Zero Dawn teljesen hidegen hagy, innentől kezdve számomra, ha én akarnék VGA-t venni(nem akarok, konzolon tolom az AC-kat is), a két AC játék számítana, a HZD meg kicsit sem.
    Persze szeretek én is minél több játékot tartalmazó teszteket nézni, de egyesével, nem átlagot vonva, hogy egy esetleges számomra érdektelen játék ne torzítsa a "végeredményt", se föl, se le.
    Azt viszont nem mondtam, hogy az ALU struktúrában van a magyarázat, az FP32-es trükközés csak egy példa volt, hogy az is számíthat. Én az Ampere kártyák architektúráját említettem, és abba a GPU-n kívül a VRAM is beletartozik(meg az összes egyéb komponens a NYÁK-on és körülötte).
    A CPU-limit azért érdekes kérdés, mert bőven függhet a GPU-tól illetve a játék motorjától is, hogy milyen körülmények között lesz a CPU a limitáló tényező. Például amit említesz az "utilizációs bottleneck" az pont egy ilyen jelenség(már ha jól értelmezem, mit értesz alatta)...

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Duck663

    őstag

    válasz gbors #157 üzenetére

    Gondoltam elég ha utalok rá, de nem. Ez: "Azt viszont továbbra sem látom sehol alátámasztva, hogy az Ampere ALU-struktúrájában kellene keresni a relatíve jobb 4K-s teljesítmény okát abban a pár játékban."

    És hogy miért is?! Érzem, hogy ez lenne a következő kérdés, úgyhogy most ezt megelőzöm. Elméletileg megduplázták a FP32-es teljesítményt, elméletileg, gyakorlatban nem, de az nem számít, ami számít, hogy mindenképpen van pozitív hozadéka, így az órajel változtatásával nagyobb mértékben változik a számítási kapacitás, mint a korábbi generációknál, és ha erre a játék az átlagtól nagyobb FPS változással reagál, akkor az ennek a kialakításnak köszönhető.

    Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.

Új hozzászólás Aktív témák