Hirdetés
- Poco F5 - pokolian jó ajánlat
- iPhone topik
- Ilyen lehet az S25 Ultra fogyókúra után
- Xiaomi Mi 9 Lite - kilencre érdemes lapot húzni
- Vodafone mobilszolgáltatások
- Redmi Watch 4 - olcsó hús, sűrű a leve
- Samsung Galaxy S23 Ultra - non plus ultra
- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
- Android alkalmazások - szoftver kibeszélő topik
- Samsung Galaxy Watch (Tizen és Wear OS) ingyenes számlapok, kupon kódok
Új hozzászólás Aktív témák
-
AlphaLionX
csendes tag
válasz tamikomac #41 üzenetére
Azért tesztelik a videokártyákat egy felső kategóriás processzorral, hogy ne legyen bottleneck, mert akkor értelmét veszti a benchmark. Ugyanígy célszerű nem változtatni semmit a konfigban, kizárólag azt, amit épp tesztelsz, vagyis a GPU-t. A lenti példákat hasraütésre írtam, nem feltétlen tükrözik a valóságot, de az elméleti megértéséhez ez is elég
Vegyünk mondjuk egy i5-8100-at, ami mellett tesztelsz egy GTX 1630-at, egy RX 6700 XT-t és egy RTX 3090-et. A teszt eredménye a következő: A 1630 a legharmatosabb, viszont a többi GPU egyformán teljesít, mert a proci nem tud többet kihozni belőle. Ezt azt jelenti, hogy a 3090 ugyanannyit tud, mint egy 6700? Nem, csak az adott konfigból nem derül ki a különbség a kettő között
Fordítva ugyanez a helyzet, ha procikat tesztelsz egy GTX 1060-nal, akkor a legtöbb mai CPU kb. ugyanazt fogja mutatni játékokban, mert a 1060 nem képes többre, miközben a proci ott ül mondjuk 10% kihasználtság mellett. De ettől messze nem lesz egy liga a 3300X és egy 12900K annak ellenére, hogy az említett konfigban egyforma teljesítményt nyújtanak egy GTX 1060 mellett. Csak egyformának tűnnek, mert egy tőlük független összetevő korlátozza a teljesítményt, tehát értelmetlen a benchmark
Ezekben mindig az adott komponenst teljesítményét mérjük a többihez képest, hogy valami kézzel fogható adatot kapjunk arról, hogy melyik jobb vétel az adott áron vagy felhasználásra. Ennek hiányában maximum az árak és a nevek maradnak, arra támaszkodni meg sok sikert igazából. Ezek nem arra hivatottak, hogy "pont egy 5800X-et fogok a 1630 mellé tenni és akkor ezt fogja tudni", hanem hogy kizárólag a videokártya teljesítményét nézzük a többihez képest, miközben a gép többi része érintetlen marad, hogy minél kevesebb tényező befolyásolja az eredményt
Pld. egy i5-9400 +GTX 1630 az egyik tesztgépben, a másikban egy Ryzen 5600 +6600 XT, a harmadikban pedig egy 12700K +6800 XT. Az eredmény az, hogy a drágább gép sokkal jobb, duh. Ezt bárki meg tudja azonnal mondani, a teljesítménybeli különbség a felhasznált GPU-k között pedig nem összevethető, mivel a konfig többi része is teljesen más. Képzeld azt, hogy van két sportautó, mindkettő egymástól eltérő pályán megy egy kört, amit mérünk. A Ferrari megtett az X versenypályán egy kört 1:20 alatt, a Lambo pedig az Y pályát 1:43 alatt. De a két pálya teljesen más: eltérő hossz, más kanyarok stb. És most próbáld meg összevetni a kettőt, semmi értelme nincs mert nem egyező körülmények között ment a két autó, így a teszt teljesen haszontalan. Ha egy teszem azt drag race-en mennek egymás mellett és úgy derül ki, hogy a Lambo 3 másodperccel lassabb, az már használható eredmény, minden más kuka és időpazarlás
Egy dologban egyet kell értsek, mégpedig az UHD benchmark. Annak tényleg semmi értelme egy 1630-on és hasonlóan hulladék kártyákon szerintem. Még 1080-ban is siralmas, az afölötti teljesítmény szerintem senkit nem érdekel. Egy közép vagy felső kategóriás kártyánál megértem, főleg hogy az NVIDIA ebben a generációban átlagban jobban teljesít magasabb felbontáson, így ott érdekes lehet látni, hogy alakulnak a számok még akkor is, ha senki nem fog egy 3060-at 4K AAA játékokban használni. De egy "BeLéPő" szintű kártyánál ez mire jó, azt tényleg nem tudom