Új hozzászólás Aktív témák
-
-
De mi most itt egy frame alatt akarunk minél több dolgot kihozni, azért vagyunk a "framehez kötve".
És ha ebbe az időbe nem férsz bele akkor nem tudod megjeleníteni, vagy túl lassú lesz.
Nem az az érdekes képkockák között vagy mellett mit csinálunk, hanem 1 képkockához/alatt mennyire komplex dolgot oldunk meg. És itt van CPU limit (meg soros végrehajtás).Teljesen mindegy a GPU meg a CPU önmagában mennyire tudna gyors lenni és hány dolgot egyszerre végezni, ha az API belimitálja szűk keresztmetszetbe az egészet.
Itt mi minél több effektet, egységet, részletességet akarunk megoldani egy frame alatt (a felső határon vagyunk ahol az API/CPU limitál).
(És ez nem a minél nagyobb FPS a cél, hanem adott FPS alatt minnél több munka elvégzése.)Na de mindegy már eleget offoltunk... én részemről nem folytatom.
Ezek szerint nem tudom jól elmondani hogy megértsd amit akarok/unk mondani neked. -
Hogyne lenne már összekapcsolva... az totál káosz lenne ha mindegyik azt csinálná amit akar amikor akar.
Ezek össze vannak szinkronizálva/kapcsolva. Gondolj bele mi lenne ha míg egy kép megjelenik addig az AI vagy a hang két vagy három lépéssel továbbmenne... akkor ugrások lennének meg összevisszaság hogy na.Amire te gondolsz az max az lehet hogyha egyszer megvan egy adat amit kiadunk ezeknek akkor azok azt megjelenítik (belső ciklusuk szerint) addig amíg nem adsz nekik új adatot. Na de mi most az új adatok előállításáról beszélünk és azok kirajzolásáról (a játék belső ciklusa, nem a GPU/driveré).
Kicsit olyan mint a játék FPS vs monitor frissítési frekvencia viszonya. egyik fix 60 vagy 120, 144 akármi... a másik meg ettől egy független dolog, de valahol össze szinkronizálódik, vagy így vagy úgy. Ettől a szinkrontól függ mit látsz és mennyire folyamatos.
-
Abu85
HÁZIGAZDA
Nem is kell, hogy összekapcsolva legyenek, bár szinkronizáció azért van. De elég, ha egy rosszul kialakított API és a kernel driver nem engedi a programszálakat hozzáférni az amúgy szabad erőforrásokhoz.
Ez tudom, hogy nagyon mellbevágó dolog, hogy a PC ennyire pazarló platform lett, de ez van. Viszont nem véletlenül alakult úgy, hogy két év alatt egy komplett reformot végigvittek az érintettek a teljes rendszeren.Amikor arról beszélünk, hogy a DX12 micsoda előrelépés a DX11-hez képest, akkor az jön elő, hogy milyen jó ez a DX12. Valójában ezt úgy kellene felfogni, hogy milyen rossz a DX11. A DX12 csak rendbe hozza, amit már rég rendbe kellett volna hozni.
-
Nem ireleváns a videó, mert amiről te beszélsz az a kék kocka.
Mondhatnám úgy is hogy egy kép kiszámolására rendelkezésre álló időből (frame time) csak a kéket tudod fizikára és egyéb számításokra használni, majd amit kiszámolsz átadod a drivernek/GPU-nak, ami a piros és utána az végzi a dolgát amíg kikerül a képernyőre a végeredmény. Közben nem tudsz mit számolni (mert adott képkockára nézve már nincs mit) és amíg a driver nem végez nem is tudsz új feladatot adni az egésznek, leköti az időt.Van a Nitrous motor, ebben a fizika az AI stb stb. Kiszámolja amit kell, majd jön a driver, piros, ami leköti addig a procit míg egy képkockát kitesz a képernyőre a GPU.
Majd kezdődik az egész elölről.
Úgy képzel el hogy balról jobbra haladva ez egy képkocka kiszámolásának feladata a megjelenítéséig. Majd jön a következő új adatokkal. Tehát alatta felette mellette nincs semmi. Nincs szabad kapaciás meg semmi, mert az egész sáv maga az összkapacitás (összes CPU mag egyben).Az a különbség a Mantle esetében hogy a driver (piros rész) megszűnik. Van ugyanúgy a kék, ami maga a játék motor egésze, majd a mantle (a sárga) ami kiteszi a képernyőre és utána pamm ott a szabad processzoridő a kövekező kép kiszámolásáig hátralévő időből szabad.
Magyarán lehetne az hogy az egész zöld meg kék mostantól az AI, a fizika a játék többi része, majd a végén egy kis időre a sárga ott a végén kiteszi a képernyőre. És jöhet a következő képkocka feladata.
Vagyis sokkal több időd van (egy képkockára vetítve) komplexebb fizikai és AI számításokat elvégezni (kék rész nagyobb lehet), mert a megjelenítésnek nem kell annyi processzoridő (egy képkocára vetítve megintcsak).Érted?
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
Szándékosan belinkeltem azt a részt, ahol erről beszél.
Ez egyszerű. Attól, hogy nincs kernel driver még a feladatokat el kell végezni. Az alkalmazásnak explicit elérése van a GPU felé, de ez csak azt jelenti, hogy meghatározhatják, hogy mit csináljon a hardver, de a parancskiadáshoz már szükséges egy driver, ami például lefordítja a szoftver queue-t a hardver nyelvére, stb. Ez a user driverben fog látszódni, még akkor is, ha az alkalmazásban van rá a kód.
-
Abu85
HÁZIGAZDA
Miért lenne irreleváns? Az iparág két legjobb fejlesztője magyarázza, hogy mi a gond a DX11-gyel. Ők a GAB tagjai, pontosan tudják, hogy mi a helyzet. Azért ne őket hibáztasd, hogy azt mondják amit én, valószínűleg azért teszik, mert 15-25 éves tapasztalatuk birtokában képesek megállapítani, hogy mi a probléma a DX11-es modellekkel.
Mert a driver soros feldolgozásra kényszeríti a rendszert. Ez a nagy problémája a rendszernek. Hiába van ott még 7-9-11 szabad mag a soros feldolgozás miatt nem érhetők el.
Tökéletesen ábrázolták, te értelmezed rosszul. A kernel driver eltűnik, ahogy az MS is lerajzolta. Nem veszi át a feladatát a user mode driver. A program lesz, ami átveszi a munkát. A videóban erről is beszélnek.
-
Abu85
HÁZIGAZDA
[link] - ez segít megérteni, hogy miért nem hozzáférhető az a temérdek processzoridő.
Sajnos ezt nagyon rosszul érted. A user mode driver valójában csak allokációval foglalkozik. Eldönti, hogy a programnak 4 vagy 64 kB-os lapokat foglaljon le például, illetve végzi a valós idejű shader fordítást. Az ami régen a kernel driver feladata volt, mint a hazárdok kezelése vagy például a memóriamenedzsment teljesen átkerül a programba. A fejlesztő fogja ezt vezérelni. Ezért hívjuk ezeket explicit vagy low-level API-knak, mert a munkát a programozó határozza meg és nem egy driver. A fentebb linkelt videó erre is kitér.
-
Abu85
HÁZIGAZDA
Miben? Mert a hozzáférhető processzoridőben sajnos az. Hiába vannak erős hardvereid, ha nem nyúlhatsz büntetlenül hozzájuk.
Az nem úgy működik. Valójában az a processzoridő hozzáférhetetlen, mert a meghajtó soros munkára kényszeríti a programot. Hiába van ott elméletben, ha nem férhetsz hozzá.
A user mode driver egy shader fordító, illetve egy alapvető vezérlőcsomag. Nem látja el a kernel driver feladatát. A fejlesztőnek kell megírnia azt a programon belül. Nyilván ez is hozzájárul ahhoz, hogy nő a processzor kihasználásának hatékonysága, mert eltűnik minden olyan rendszer, amit nem profilozhatsz. Ma ha valami nem működik, nem tudnak a fejlesztők beleírni a driverbe. Ez okoz sok gondot. A jövőben ez nem lesz gond, mert lényegében nem lesz driver, a saját kódod pedig tudod javítani.
-
Abu85
HÁZIGAZDA
A multiplatform játékokat eleve úgy tervezik, hogy minden célplatformot figyelembe vesznek, és az egyes szempontok szerint a leggyengébb platformelemekre lőnek. A DX11-ben a PC-n van a legkevesebb befogható processzoridő, így a szimulációt ehhez igazítják.
Nem az NV a probléma, hanem a DirectX 11 és az agresszív kernel driver. Ezért kezeli a Microsoft ezt a problémát úgy a DirectX 12-ben, hogy eltünteti a rendszerből a kernel drivert.
Az NV-nek nyilván az a lényeg, hogy a grafika legyen jó, az nem számít, hogy a játékmenetben az előző generációs konzolcímek is lealázzák a PC-t. Abban viszont igaza van a Microsoftnak, hogy a grafika skálázható, míg az AI nem, tehát ha egy játékot nem tervezel úgy, hogy a PC-t is számításba veszed, akkor az probléma lesz a portolásnál. -
#85552128
törölt tag
Főleg, hogy az eredeti kérdés az volt, hogy az AMD miért nem szedi ráncba a drivereit a jobb
Erre megkaptuk azt, hogy az nV csúnya húzása miatt nem jönnek a superior AI-val (
) szerelt konzol-exkluzív címek mert nem jut mellé processzoridő.
Tehát mindegy mit hozunk fel egy igazság van: Az nVidia tehet róla!De még HA így is lenne: se Halo 3-at nem kaptunk sem jobb AMD drivert úgyhogy valahogy nem áll össze nekem ez az indoklás
-
Abu85
HÁZIGAZDA
Minden multiplatform játékot multiplatformnak terveznek. Veszik minden esetben a legszűkebb keresztmetszetet és arra terveznek. Ha a PC ebben benne van, akkor tudják, hogy a szimuláció korlátozott, mert kevesebb valóban felhasználható processzoridő áll rendelkezésre. Tehát ez már be van tervezve.
A Halo 3 a Microsoft címe, ahogy a Halo és a Halo 2 sem jött Sony gépekre, úgy a Halo 3 sem volt tervben. De Windows-ra ki akarták adni, mert az első két rész is jött PC-re, de nem volt meg az erőforrás hozzá PC-n. Az AI-t kellett volna butítani, de nem tették meg. Aztán mivel a processzoridő évről-évre csak csökkent, így lelőtték a projektet.
A Capcomtól tudom, hogy hasonlóan járt a Dragon's Dogma is. Talán egy remasterre van esély.
-
HSM
félisten
Ami nagyon nem mindegy, hogy ehhez a kártyához egy kártyaspecifikus optimalizálás kell, amit idővel nagyon könnyen elfelejthetnek majd...
Igen, műszakilag ha 3,5GB-os BIOS-al mennének a 970-ek egy szavam se lenne, de nem tudok ilyesmiről, hogy létezne hozzá.
A felfedezéséhez szükséges idő nem a hiba súlyosságát mutatja, hanem azt, hogy a kártya megjelenésének idején kevés játéknak volt szüksége több, mint 3,5GB memóriára. Ezért nem nagyon tapasztaltak a userek sem komoly gondokat, kivéve azt a néhány %-ot, aki mégis, pl. többmonitoros konfig okán.
-
HSM
félisten
Igen, végig azt a +20%-ot tudja, amennyivel kb. jobb az Nv drivere CPU-limites helyzetekben. Hol a meglepetés? Én is erről beszéltem.
Eddig is tudtuk, hogy CPU-limitnél ennyivel jobb az Nv driver, rakhatsz az i3 proci mellé 295X2-t is CF-be, akkor is ennyivel lassabb lesz a 750Ti-nél CPU-limittel.... -
Aha, köszi. A számok azt mutatják, hogy a CPU-limit komoly probléma, de nem az egyetlen - míg fullHD-ben és WQHD-ben főleg az fogja vissza a 290X-et, 4K-ban már messze nem az a domináns limitáció, és bár ott közelebb van a 290X a konkurenciához, még mindig iszonyú nagy a távolság. Ezt a b***ást...
-
Asbee
veterán
Hányszor kell még leírnom, hogy nem konkrétan azzal a típussal van a bajom. Nézz utána neten hányan panaszkodnak Asus vrm melegedésre miatta throttlingra, amit ott kezdtek el először csinálni. Vram-on lehet lovagolni, nem kifejezetten erről beszéltem, de akkor sem hátrány ha kap hűtést, vagy egy hűtő lappal, ami aztán vrm-et is hűti, vagy egybe a bordával. Egyszerűen minimum költségen akarnak drága terméket. Ez az ami Asusra jellemző egy ideje. Ezzel van bajom.
Az Asus 970-en agresszívebb venti profillal nem egy túlméretezett vrm-el, 110-115 fokos volt. Pedig nekem nagyon bejött az a kártya. De szinte az összes kártyájukon baromi meleg. Nem beszélve arról a nyákot is szétfűti.
Nem tudom hány 970-et próbáltál, de két Hynxes 970-en is tudtam tuningal tipikus vram melegedős hibát produkálni. A G1-nek szerintem ez az egyetlen hibája. Hátoldalon hűtetlen memória chipek, ráadásul backplate ami nem hűt.
Sajnos a 970-ek esetében gyakran pont nem a túlméretes vrm a jellemző és annak korrekt hűtése. Részemről ez a téma befejezve. Aki ezek után sem érti meg miért írtam amit írtam, az nem is akarja és csak kötekedni jön.(#4097) TTomax: Mantle alatt bf4-ben simán elég volt az 1GB-ram. Ja várj, nem. A 7970-en elfogyott a 3 giga és akadt szépen. Egyébként ha a DX12 még ilyen tempóban sem jönne, nem tudom milyen előnyt tudnának felhozni azoknak akiket nem a marketing érdekel. Mert azt sem lehetne mondani, hogy kitaposták az ösvényt, "gyorsan" lépni kellett.
-
tök mindegy, melyik áll közelebb a valós fogyasztáshoz, változott a definíció. (mellesleg szerintem a TDP-nek nem a jellemző átlagot kellene jelenteni, hanem legalább a fenntartott kiemelkedő értékeket, de ez már csak privát vélemény)
mind a 980-ra, mind a 960-ra elsütötték a x2 perf / wattot. a TPU-s lapon ne a 4K és a sorround méréseket nézd, mert ott már a VRAM is beleszól - WQHD-ben és fullHD-ben 66%-kal van előrébb a 980, mint a 680. én magamtól 60%-ot mondanék, de ez már függ a játékmixtől is. szóval közel sem dupla.
a 960-at meg inkább ne is említsük... -
Asbee
veterán
De most az ilyen 1440p 8xMSAA és társaitól mit vársz? Ott persze, hogy megeszik annyit, hogy elérje. Ki az aki 1db 970-et úgy használ? Még SLI-ben is gázos lehet. Ezért is mondom a topikjában is, SLI-vel azért meg kell fontolni de egy kártya amúgy is elfogy olyan körülmények között.
-
Asbee
veterán
Még mindig a betöltést monitorozza. Ezek a játékok 6 gigás kártyánál is 5-5,5 GB-ot monitoroznak. Nagy felbontás kell, hogy előjöjjön. Én 1440p-ben használtam a 970-et, sok játékban 3700-3800MB-ot monitorozott. Mégsem volt semmi gondom.
És egyébként nem ilyen mérés miatt derült ki, nem is játék alatt. Ez után kezdett mindenki, mindent ráfogni, hogy laggol, akad. Addig minden játék csodálatosan futott. Utána már nem, ugyanazon körülmény között. -
a Maxwell esetében a TDP és a valós fogyasztás aránya jelentősen más, mint a Keplernél. miután egy szót nem szóltak arról, hogy a TDP definíciója változik, ez már önmagában is lightos megtévesztés, de erre csak legyintenék. viszont azt is mondják erre építve, hogy a Maxwell teljesítmény / fogyasztás terén rádupláz a Keplerre - ez már konkrétan hazugság, mégpedig nem is kicsi.
(#3597) players111: az egyszerű válasz természetesen az, hogy nem volt mit. az izgalmasabb kérdés, hogy miért nem volt semmi tartalékban. ha csak annyit csinálnak, hogy gyűjtögetnek kiemelten alacsony szivárgású chipeket, és kiadnak egy 290X Extreme Editiont (vagy vmi ilyen bullshit) 20%-kal magasabb órajellel, már az borzasztó sokat számított volna. pont, ahogy az nVidia belerondított a 780Ti-vel a 290-es party-ba.
lehetett tudni, hogy az nVidia legkésőbb a karácsonyi sales-re kijön valamivel, szerintem megbocsáthatatlan piactervezési hiba, hogy semmivel nem tudtak reagálni. mi lesz most tavasszal? jönnek az új Radeonok, és az nVidiának ott van tartalékban a GM200, a 960Ti, ill. a megvágott GM206, ami legyen mondjuk 950Ti. érezhető a különbség, igaz?(#3625) HSM: ne már, hasonlítsd össze a 780-nal...
-
HSM
félisten
Hiába jössz ezekkel, a 7970-el remekül elvolt, míg utána a 2GB-s 770-et úgy dobta ki a gépéből 1-2 hét után, hogy kevés a 2GB, hogy csak porzott. Gondolod, nem vette észre, hogy mennyivel nem rosszabb?
Mellesleg inkább Nv párti az illető.
Most belinkelted a békás kártyát, amit mellesleg 2013-ban megvenni sem lehetett, a 130-es ár ugyanis végig piros vonal, nem volt készleten. 2012.10.28.-án még 154 000 forint volt, és egy hónapra rá már nem is lehetett kapni, ez csak valami készletsöprő villámakció volt, semmi több. Én olyan kártyákat linkeltem direkt, amiket kapni is lehetett, nemcsak egy bennragadt ár volt megvásárolható termék nélkül.
Én úgy gondolom, hoztam linkeket, érveket eleget, arról nem tehetek, ha nem vagy hajlandó elfogadni őket.
-
Habugi
addikt
Marha szívesen fogadnék a topicban 680/770en tulajokat, akikkel lehetne gyorsulósat játszani.
Egy ideje pakolom belefele a topicba az eredményeket amikor a többiek az egyel nagyobb kategóriás vadakat küldik szorítóba.
Marhára érdekelne mit megy egy tunningos darab, mert a húzott Tahitim nem egy játékban/szintetikus tesztben ott csücsül az alapórajeles 290ek nyakán.
Elég jó a fantáziám, de valamiért nem hiszem hogy erre a 680/770 képes lenne, de tévedni emberi dolog.., lássunk valakit tunningos kártyával.Kompromisszumokról annyit, hogy nincsenek
, legalábbis egyelőre, 1200/1700on hajtom a sajátomat FHD-ben. Még a Reduxokat is SSAA-val toltam ki, nemhogy az elődöket.
-
HSM
félisten
Történetesen volt ismerős, aki 7970-el BF4-ezett, tőle van jópár infóm, mellesleg nekem is volt 7970-em, és 280X-em is, szóval pontosan tudom, hogy viszonyul az erejük a 290-hez.
de a maximális és az egyel kisebb textúra beállítás között általában minimális a látható különbség
Ez rohadtul játékfüggő. Pl. Watch Dogs: [link].
Ez nem pici különbség, és ez van a 2GB-os és 3GB-os kártyához ajánlott beállítás között.BF4-ben is egy húzott 7970-el sokkal jobb játékélményt lehetett elérni, mint akár egy GTX770 2GB-al.
Azt pedig végképp nem értem, miért a nyitóárával jössz, amikor megjelent a 680, hasonló áron megkaptad a 7970-et is. Mármint a 2GB-os 680-hoz hasonló áron. Az itthoni piacon a 4GB-os verziók viszont horror áron mentek, erre tisztán emlékszem. Lásd, 130K vs 160K:[link] [link]. Ez elég durva difi.
Ugyanekkor 110K körül volt a 7970, szintén Asus: [link].
Szóval alig másfélszer annyiba került a 4GB-os 680. De még a sima 2GB-os 680 is jóval drágább volt, cserébe ma használhatsz rajta minimum egy klasszissal gyengébb beállítást egy rakat játékban. Well done, Nv. -
HSM
félisten
Nem gondolom, hogy 40FPS környéke lenne egy 7970-el.
Nálam a 900Mhz-re alulórajelezett 290-el volt 70-90FPS Ultra+4X-es MSAA-val, márpedig egy 7970 közelsem fele olyan gyors. Az a 40-45FPS minimális tuninggal jó lesz 60 környékének Ultrán, 4X-es MSAA-val.
Őszintén szólva, erősen játék és jelenet függő, milyen beállításon milyenek a textúrák. Számomra egyértelműen komoly hátrány lenne ez a kompromisszum, mivel nekem fontosak az éles textúrák. De persze ha valakit nem zavar, azt is el tudom fogadni.
Szerintem felesleges a 7970 nyitóárával jönni, nyilván adhatták drágábban, amíg nem volt versenytársa.
(#2956) FLATRONW: Ennél a jelenetnél nem látszik különbség. Valahol meg akkora a difi, hogy csak lesnél.
De hogy ne csak a levegőbe beszéljek, watch dogs, Ultra vs. High textúrák: [link]. High-on kifejezetten gusztustalanok a feliratok a gépeken, vagy pl. a föld a játékos alatt, valamint a növények is. Itt a médium már karistolja a nézhetetlent. [link].
Márpedig ennél a játéknál is 3GB kell minimum az Ultra textúrákhoz, az Nv sem ajánl mást: [link].(#2957) daneeeeee: Nem, ez egy friss infó, tavaly decemberi. Ha akkor kevés volt neki, ma is az. A GK104 topikban felesleges erről kérdezni, ott mindenki meg van győződve róla, hogy a 2GB-os kártyája elég mindenre.
Voltak komoly viták olyan fél éve a GK104 topikban a 2GB vram-ról elég-e, sok kedvem nincs megkeresni, nem látom értelmét. Aki használt nagyobb kártyát, az tudja, hogy kevés, páran próbálták is beírni, és mindig az lett a vége, hogy le lett oltva az illető, hogy de így nem kevés, meg úgy nem, és itt az a review, meg az. Jópárat végigolvastam.
-
FLATRONW
őstag
Ez így van. Jó példa erre a Far Cry 4. High és Ultra textura között nincs látható minőségbeli különbség.
Médiumnál kezd látható lenni a minőségvesztés.
high vs. ultra -
HSM
félisten
Ja, értem. Tehát az neked nem hátrány (lényegesen nagyobb elavulás), ha az egyik kártyán közepes textúrákkal kell játszani, miközben a másik korábbi versenytársán semmi ilyesmire nincs szükség.
3GB ram mellesleg kevés extrém játék kivételével mindenhova elég, én úgy tapasztaltam, míg a 2GB simán elfogy FHD-ben is jópár címben.
Arról kár beszélni, hogy a mai, "680-szintű", de már csak középkategóriás kártyák mire képesek. Ezek annak idején csúcskategóriásak voltak, borsos árcédulával, ami miatt az ember jogosan várna el többet.7970-ből túl volt árazva a Ghz, ne annak az árát nézd, pláne, hogy a sima modellek is szinte kivétel nélkül bírták az órajelét.
(#2949) daneeeeee: "Battlefield 4, Ultra, 4x MSAA 48.6 54.6 44.0 41.0 45.2"
A BF4 az egyik játék, ami nálam 3GB videóram körül evett, FHD Ultrán, és egy BF4-es ismerős is megerősítette, hogy teljesen feletős rá egy 2GB-os kártya. Ez a teszt alapján a GTX760 is jobb a 280-nál, miközben a valóság az, hogy a 2GB-os OC GTX 770-en sem lehet élvezetesen játszani így, míg egy 7970-en igen. Hangsúlyozom, FHD-ről beszélünk, közel sem 1440P-ről.... Nem is néztem tovább ezt a tesztet ezek után.
Ez egy saját kép, ami egy kisebb pályán készült: [link] -
HSM
félisten
Kár erről vitatkozni. 2GB videóram csak azok szerint elég, akik nem próbáltak nagyobb kártyát.
(Vagy nem játszanak modern játékokkal magas grafikán.)
Hiába tud hasonló FPS-t, kukába dobhatod, ha rendszeresen belaggol a memóriahiánytól.
560 dollár nem kevés, amikor 440-ért volt 7970.... A GTX780 nyitóára volt 650 dollár...
Érdekesek amúgy a dolláros árak, mert az itthoni piacon én határozottan úgy emlékszem, hogy nem ilyen 10%-ok voltak a 4GB-os változat felára, hanem szignifikánsan több, vészesen a 780 nyakán.... -
Abu85
HÁZIGAZDA
Az, hogy átláthatatlanná teszi a termékskálát, mert az egyik cég 290X-je 20%-kal is gyorsabb lehet a másik cég megoldásánál. Ha nem OC-s a termék, akkor be kell tartani a szabályokat. OC felirat mellett azt csinálnak a gyártók, amit akarnak.
(#892) HSM: A 80°C csak példa, de nyilván a DVFS-nek meg kell maradnia, mert ez biztosítja a hatékony kihasználást. Enélkül ott vagyunk, ahol kép éve, hogy 10-15 wattra is kerülünk a limittől. Ezért okozhat a hűtőcsere és csak a hőmérsékletlimit változtatása lassabb terméket a referenciamodellnél.
-
Abu85
HÁZIGAZDA
Nem. A Furmark szintű terhelés mellett a GK110 500 MHz-en üzemképes a 300 wattra tervezett PCB-vel. Ezért van driverből lefojtva a működése, hogy ne kelljen az órajelet csökkenteni.
Ha nincs DVFS, akkor mindenképp peakre kell tervezni, ami még a Furmarknál is nagyobb terhelés. -
Abu85
HÁZIGAZDA
A GTX 580 sokszor 40 wattra volt a kártyába épített TDP limittől. Ennyi teljesítmény maradt benne, amit a fix órajel miatt nem tudtak kihasználni. Ha kihasználják, akkor úgy jó 15-20%-kal gyorsabb lehetett volna, de ez már történelem, nyilván ilyen DVFS rendszereket nem könnyű fejleszteni.
(#829) HSM: De minek akarnál rátenni 8-at, amikor 6-tal is megvan a 300 wattos szabványos fogyasztás. Attól, hogy raksz rá 8-at még nem mehetsz a 300 watt fölé, ha el akarod adni a kártyát az OEM-eknek.
-
Abu85
HÁZIGAZDA
Az AMD ilyet nem mondott, csak 4 éve, amikor beszélték, hogy az AFR implementációjuk azért ilyen, hogy az input lag alacsony legyen. 4 éve volt ez. És eleve érthető, hogy ha késleltetés nélkül kezdődik meg minden frame számítása, akkor a késleltetéssel dolgozó megoldás több input lagot eredményez.
Ez nem olyan egyszerű, már írtam. Eleve a smoothing egy GPU-ra is működik, tehát nem SLI specifikus. SLI-vel annyi a különbség, hogy két GPU-ra történik az egész rendszer feldolgozása.
Nem. Az AMD azt mondta, hogy a tesztelők kérésére raknak egy olyan megoldást is a driverbe, ami úgy működik, ahogy az NV AFR-je, de a mostani AFR marad az alapértelmezett, mert a profi játékosok jobban kedvelik ennek az előnyeit. Egy kapcsolóval lehet majd a kettő között váltogatni.
Az a baj, hogy azt hiszed, hogy az egyik AFR megoldásnak csak előnyei vannak, míg a másiknak csak hátrányai. A valóság az, hogy ami az egyiknek előnye, az a másiknak hátránya és fordítva. Olyan AFR nincs, ami minden szempontból előnyös. Ha lenne, akkor mindenki arra építene implementációt. -
Abu85
HÁZIGAZDA
A FRAPS az funkcionálisan csak arra jó, hogy kiírja az FPS-t. Ennyi. Semmi mást nem lehet vele ténylegesen vizsgálni.
Az FCAT az jobb, hiszen megtudod belőle a displayidőt. Ezeket nem kell cáfolni.
Input lagot senki sem mér, mert ahhoz egy marha nagy sebességű kamera kell. De igazából mérni sem érdemes, mert az elvben is benne van, hogy a smoothing a számítás késleltetésével jár. De mindegy. Fentebb olvashatsz arról, hogy miért. Ha az nem elég, akkor ennyi.Dehogy szubjektív. Nézz a való világba, és a látottakat ültesd át a virtuális világba. Egyértelmű, hogy olyan erős árnyékokat nem látsz mint az SSAO-nál és a HBAO-nál az FC3-ban. A HDAO megoldása jellemzően fake árnyékoktól mentes ebben a játékban. Hogy ennél a legkisebb a változás? Hát talán azért, mert ez dolgozik a legtöbb mintával, és nem rak oda árnyékot, ahol nem keletkezne a valóságban.
Az AO az abszolút nem a fake árnyékokról szól. A szimulált screen space opciókat azért használjuk, mert az eredményük messze elég jó, és az erőforrás-igényük nem sok a scene megoldásokhoz képest. -
Abu85
HÁZIGAZDA
A FRAPS és az FCAT nem függ egymástól. Az FCAT semmit sem igényel a FRAPS-tól. De már unom, hogy ezt sokadjára le kell írnom. Vagy elolvasod, amit írok, vagy nem. Ennyi. Ha nem, akkor azt hiszel innentől, amit akarsz.
Igen a CF funkcionálisan nagyjából olyan eredményt ad a kimenetnél, mintha egy GPU-s lenne a rendszer. Pontosan ezért alacsonyabb az input lag, mintha a smootholás miatt eltolnád a frame-számításokat.A HDAO a Far Cry 3-ban a legjobb képminőséget nyúltó AO megoldás. Teljesen szabványos effekt, csak valamiért az utolsó patch óta nem jó GeForce-on. Pont az FC3-mal készítettem összehasonlítást az AO effektekről. [link]
Az meg, hogy ront a látványon ... hát egyáltalán nem, maximum akkor, ha fake árnyékokat csinál, de ez a HDAO-ra pont nem jellemző. -
Whit3Rav3n
senior tag
Azért a valóság nem így néz ki, neked ezek szerint nem volt még soha cf rendszered mert a valóságban a mikroszaggatás ellenére is javul a lényegesen a játékélmény. Különben már rengeteg embernek feltünt volna hogy vett mégegy kártyát és ugyanúgy mennek a game-ek érzésre. Ez a 0 frame-es szituáció egy extrém helyzet ami nem szokott normálisan cf-nél sem elöfordulni. Legalábbis olyan nálam még nem votl hogy volt rendes cf profil meg skálázás a game-ben de nem ment érzésre jobban a game 2 kártyával mint 1-el.
-
Abu85
HÁZIGAZDA
Már írtam, hogy kevered az input lagot a frame time-mal. Azt hiszed, hogy ez a két fogalom egyenlő, de valójában nem az. A frame time az csak egy képkockára vonatkozik, míg az input lag igazából nem meghatározható így, mivel a bevitt parancsot nem tudod követni, hogy először melyik képkockán jelenik meg.
-
Whit3Rav3n
senior tag
Azt nem tudom hogy a pcper miért ezt mérte, ha megnézed a tomshardware mérését ott sokkal jobban szerepelt a cf, ez még egy új dolog úgy néz ki még kicsit problémás a dolog ha ekkora szórások vannak, mindenesetre ez nem egyezik az én tapasztalatommal sem cf téren. Én csak fraps-el tudtam mérni de a mérések igazolták a szubjektív benyomást is, minél közelebb votl a cpu limithez a game annál kevesebb volt a mikroszaggatás és cpu limitnél gyakorlatilag nem is volt.
Na meg ha tényleg egyszerre adná a 2 képkockát akkor semmivel sem lenne jobb a 2 kártya 1-nél amit megint sokan igazolnak hogy ez nem igaz mert van javulás a szubjektív sebességben 2 kártyával cf-nél.
-
Abu85
HÁZIGAZDA
Pont erről írtam korábban, hogy az új driverekben ezt a lehetőséget elvették a felhasználóktól. Ezért háborogtak az SLI tulajok, hogy az új driverekkel nem tudják beszabályozni a lagot, mert a driver egyéni profilt használ minden játékra, vagy a játék alapbeállításait használja.
(#575) siriq: a GPUView az ilyen. [link] - Ez marha jó tool, csak sokszáz frame-et kielemezni belőle eléggé időigényes, mert statisztikát, vagy egyszerű grafikont nem csinál.
Az NV toolja az elég jó, csak kell hozzá egy marha gyors SSD-rendszer. Emellett néztem az időigényét. Kilenc játék helyett három férne bele. Tekintve, hogy alig tesztelünk AFR-t, így a több játékot választjuk, mert egy kártyával a külföldi tesztek sem látnak problémát. -
Whit3Rav3n
senior tag
Ez akkor is méréssel bizonyított hogy a cpu idö mindig benne van képkocka kiadásában. Szóval olyan nincs hogy kapásból 2 kártyának egyidöben kiad 2 képkockát. Ha cpu limited van azért nincs mikroszaggatás mert nem tudja gyorsan egymás után átadni a gpu-knak a számolást a cpu hogy aztán várni kelljen míg kész legyen. Én magam is résztvettem ezekben a mérésekben és tényleg úgy volt hogy a cpu olyan gyorsan adogatja a frame-eket a gpu-knak ahogy tudja aztán vár amíg kész lesz az egyik az újabb frame átadásával, ez okozza ezt az egy kicsi egy nagy frame idöt 2 gpu-nál ami egyébkent 3 gpu-nál 2 rövid egy hosszú és négynél 3 rövid 1 hosszú.
Az egyébként lehet hogy elökészít frame-eket de ezek szerint ekkora hibát nem tettek a rendszerbe hogy multigpu-nál egyszerüen átadja mindkét gpu-nak egyszerre a frame.et hanem a kiszámolási idö delay mindig megmarad. Egyébként én sohasem tapasztaltam azt hogy cf-el normális skálázás mellett nem lett volna szubjektívan jobb a gameplay 1 gpu-hoz képest.
-
Whit3Rav3n
senior tag
Ezzel az elmélettel csak az a baj hogy honnan tudod hogy mikor vagy a munka felénél, a képkocka rajzolása csak egy kis része az egésznek, a vidkarinak elöször 3d-ben ki kell számolni a teljes részt. Szóval emiatt kell egy + késleltetés hogy kell egy pár kiszámolt képkocka hogy ismert legyen az átlag idö ami kell az eltoláshoz. A CF sem párhuzamosan számol 2 képkockát hiszen az lehetetlen, maga az engine egymás után adja a képkockákat és annak is van egy feldolgozási ideje. Ezért is van az hogy ha a cpu-ra kell várni akkor gyakorlatilag nincs mikroszaggatás mert a kártyáknak a cpu-ra kell várni. Szóval a minimális frametime az az idö ami kell a rendszernek a következö képkocka számolásának kiadásához a vga-hoz.
-
Loha
veterán
A látottak alapján számomra elég egyértelmű, hogy mi a különbség CF és SLI közöt, meg hogy mit csinál a gyakorlatban a 2 rendszer.
~13ms alatt végez az egyik képkockával a CF (ami annyi idő amit egy szóló kártya tud), aztán szinte azonnal (0ms) ott a következő, aztán 13ms múlva jön megint egy, aztán szinte instant (0ms) megint egy. Hogy lehetséges ez amikor tudjuk egy szóló kártyánnak kb. 13ms kell egy képkockához az adott játékban?
Ebből én arra következtetek, hogy a 2 VGA párhuzamosan dolgozik, amit úgy értek, hogy egyszerre kezdik el számolnia köv. képkockát. Az 1-es számú VGA számolja a soron következő képet, a 2-es számú pedig az utána következőt, és mivel egyszerre kezdték, kb. egyszerre fognak végezni is, ezért megy ki egyszerre a 2 képkocka, ilyenkor látjuk a grafikonon, hogy a második kép szinte 0ms alatt ott van az első mögött. Utána mindkét VGA nekiáll a következő képkocka számításának, ami pont ugyan annyi időbe telik mint egy szóló GPU esetén, ilyenkor látjuk a 13ms körüli késleltetést az ábrán.
Mit csinál ezzel szemben az SLI? Mivel a késleltetések kiegyensúlyozottak, és kb. fele annyi ideig tartanak mint egy szóló VGA esetén, én ebből csak arra tudok következtetni, hogy a 2. VGA fél képkocka eltolással dolgozik. Tehát az 1-es VGA számolja a soron következő képet, aztán amikor a munka feléhez ér, a 2-es számú VGA nekiáll az utána következő kép számolásának, így nem egyszerre fognak végezni, hanem a 2. VGA fél képkockányi idővel később, így a képkockák kb. fele annyi idő alatt követik egymást mint egy szóló VGA esetében.
Az AMD jelenlegi megoldásának az a hátránya, hogy ha azonnal követi egymást 2 képkocka akkor vmelyik egyáltalán nem vagy csak alig fog látszani a monitoron a játékos számára.
-
Abu85
HÁZIGAZDA
Én nem az input lagot látom, hanem a frame számításával töltött. A két dolog nem egyenlő. Arra vagyok kíváncsi, hogy hány frame jelenik meg, amíg az egéren leadott parancs megjelenik?
Olvastad ezt? [link] - teljesen érthető dolgot ír, és minden alapja megvan annak, hogy azokon a csíkokon a részleteknek nem szabad elveszni.
(#547) gbors: Az AMD erről a rendszerről, amit használnak 2010-ben beszélt, amikor elemezték az AFR-t, hogy melyik megoldás a jobb. Akkor írták le, hogy két opció van, és a profi játékosok visszajelzései alapján az input lag alacsonyan tartására gyúr a megoldásuk. Ez három évvel ezelött volt. Most csak elmondták, hogy a véleményük nem változott meg, de beépítik a másik módot is.
Azon lehet vitázni, hogy hiba-e a profi játékosok véleményére adni, de valamelyik megoldás mellett dönteni kell akkor is. Mindkettőnek megvannak a hátrányai, így olyan nem lesz, ahol kompromisszum nélkül működik majd az AFR. -
Abu85
HÁZIGAZDA
Ne idézd magad, hanem mutasd meg azon a grafikonon.
És gondolod az NV csak azért küldi ezt a kártyát, hogy az SSD-kre fellendítse a keresletet? Vagy esetleg lehet benne olyan dolog is, hogy ezzel a hardverrel működik a csomagjuk?
Gondolod ha megoldható lenne hagyományos capture kártyával, akkor tényleg olyan hardverhez kötnék a rendszert, ami brutál SSD tárolót követel?
-
Abu85
HÁZIGAZDA
És hol van a grafikonon az, hogy az input lag mekkora, vagyis az, hogy az egéren leadott tüzelés mikor jelenik meg a kijelzőn?
Minden játékban be van állítva egy pre-render frame paraméter. Van olyan program, ami CF-hez és SLI-hez szándékosan más paramétert állít be.
[link] - 600 MB/s write kell. Ő is félreértette?
-
Abu85
HÁZIGAZDA
OMG. Vegyük át újra. AFR input lagra optimalizálva. Minden azonnal lesz számolva, mert ahogy jön, úgy mehet a render pipeline-ra. Magát a frame-time-ot ez nem befolyásolja, csak hamar kezdi el minden második frame számítását, így hamarabb lesz eredménye. A smoothing megoldás késlelteti minden második frame kiszámolását, így ezzel növeli az input lagot. A frame-time itt sem változik, de a késleltetés miatt a frame-ek egymás utáni megjelenítése egységesebb. Ennél érthetőbben én sem vagyok képes leírni.
Jaj értem már miért nem érted. Jó, akkor nem én magyarázok rosszul.
Tehát ez nem méri bele a késleltetést, mert csak a kimenetet látod, de az a kimenet bőven késhet. Itt arról a lagról van szó, amit a beviteli eszközön kiadott parancstól a megjelenítésig terjed. De a frame megjelenítésének idejéből honnan tudod, hogy az a frame, amihez a beviteli eszköz parancsa tartozott mikor jelent meg? Hát sehonnan. Ha nem lősz a számítás, akkor is folyamatosan ugyanúgy megtörténik.És azokból a tört képkockákból lesz 60 darab megjelenített 60 Hz-es kijelző esetén. Ha gyorsabb a kártyás, akkor több törés lesz bennük, ha lassabb, akkor kevesebb.
Maradjuk annyiban, hogy a játékok erre mindig kínálnak beállítást, de profilban mindig felülbírálják azokat a gyártók.
Az input lag pedig csak akkor nő, ha pozitív irányba növeled a pre-render számot. Az alapbeállítást csökkentve csökken. Ezért szeretik ezt az SLI tulajok.
Nem tudom feltűnt-e, de ez a capture kártya azt csinálja, hogy a frame buffer tartalmát bemásolja a saját memóriájába és abból küldi ki a képet a monitorba, illetve a tárolóba elmenti. Ebből lesz sokezer tömörítetlen 24 bites képfájl, amiből az FCAT program készít egy olyan állományt, aminél a képtörésekhez színezés lesz rendelve, és ebből lehet különböző táblázatokat lekérni, amiből grafikont lehet kreálni. Egy dolog, ami kettőnk között a különbség. Én erről a rendszerről kaptam leírást. Te nem. Enged már meg, hogy az NVIDIA press leírásának tudatában kijelenthessek olyan dolgokat, hogy itt bizony semmilyen tömörített videofelvétel nincs, és olyanokat, hogy az NV 600 MB/s-os write speedet ajánl az adattárolónak.
Részemről ezt a témát lezártam, mert te csak a magadét mondod, nekem pedig sem időm, sem kedvem ezeket elmagyarázni. Főleg úgy, hogy nem is figyelsz oda arra, amiket írok.
-
Abu85
HÁZIGAZDA
Ami nem méri az input lagot, ami szintén egy fontos elem. Mondjuk ezt semmi sem méri. De gondolom eddig ezt nem értetted meg, így ezután sem fogod. Nem töröm magam.
Persze kisebb
... Mit is csinál a smoothing? Fogja magát a rendszer és késleltetve dolgozza fel a jelenet adatait. Na már ha mesterségesen késleltet, akkor hogy a fenébe lehet kisebb az input lag, amikor a késleltetés mértéke biztos pozitív valós szám ms-ban mérve. Ha kisebb lenne, akkor negatív valós szám lenne, de mivel a mai hardverek még nem képesek időutazásra, így be kell érni a fizika törvényei adta keretekkel.
Nincs olyan, hogy a képkocka túl korán jön. Az jön. Annak a számítás késleltethető, de ezzel nő az input lag.A képtörés az a kijelzett kép része. A monitor akkor sem fog 60-nál többet megjeleníteni.
Ha nem állítod, akkor is állítja a driver, mert van minden programra profilozott beállítás. De ennek az opciónak a célja, hogy SLI mellett csökkentse le az input lagot a sebesség csökkentése oltárán is. Ezért ad rá beállítást az NV. Az AMD nem ad, mert nekik erre nincs szükség. Annál kisebb input lagod sosem lesz, mint ahogy működik a CF. Állíthatod egy kártyával is, de sok értelme nincs, mivel a profilban definiált beállítások egy GPU-hoz vannak szabva.
Légyszi hagyjuk már az általad elképzeld dolgokat és szorítkozzunk a tényekre. Kurvára kell a 4 SSD, mert 60 képkockát kell másodpercenként kiírni 24 bites színmélységben. Ezt veszi be az NV-nek a programja, és ebből alakít egy tömörített állományt, amit például virtualdubbal lehet használni. De basszus milyen tömörítésről beszélsz, amikor képkockákat ment a rendszer érted ... nem videót. Képkockát! 24 bites 8/8/8-as színmélységű tömörítetlen frame buffer tartalmat. A videót baszhatom, mert nem tudja az FCAT alkalmazás beszínezni a képtöréseket.
-
Loha
veterán
Szerkesztés közben lehalt a fórum...
FRAPS nem lényegtelen mert az alapján készül a tesznek nagy része, de a linkeken nem a FRAPS a lényeg, hanem az FCAT és a teljesen új módszer a felhasználói élmény mérésére, meg az, hogy CF esetén nincs összhangban a FRAPS-al mért értékekkel.
SLI-nél sokkal nagyobb a kiingás, mert konkrétan direkt késlelteti a frame számítását
Pont hogy sokkal kisebb, mert az egész frame smoothing rendszer lényege, hogy csökkentse a kiingást.
Direkt késleltetés olyan képkockák esetén történik, amik túl korán jönnének ahhoz, hogy érdemben hozzáadjanak a látványhoz, és csak annyira lesznek késleltetve, hogy ne lógjanak ki az átlagból, viszont azok a képkockák amik vmiért késnek CF esetén, SLI-n "gyorsítva vannak" és időben érkeznek, tehát a kilengés pont, hogy sokkal kisebb, és az élmény "smooth"-abb.A monitoron látható képkockák szempontjából mindenki olyan helyzetben van, hogy 60 Hz mellett 60 képkockát lát. Az a helyzet, hogy ha nincs bekapcsolva a vsync, akkor 60Hz-en jóval több képkockát tudsz látni mint 60, ez az egyik oka a képtörés jelenségnek is, amikor több képkockát rajzol ki a monitor, egy frissítés alatt.
Szerinted az SLI-s topikokban miért tweakelik a GeForce drivert a pre-render frame szempontjából?
A maximum pre-rendered frames-t DirectX -ben állítod, csak erre az NV ad opciót a control panelben az AMD meg nem. Szóló kártyával is érdemes állítgatni, mert CPU által előre számított képkockák max. számát állítod vele.FCAT nem egy CF vs. SLI összehasonlításra készült cucc, hanem egy új lehetőség olyan dolgok vizsgálatára, amik eddig nem voltak lehetségesek. Mint már mondtam, nem kell hozzá semmi drága cucc, csak egy capture kártya. A drága cucc csak az NV által adott kártyához kell, ami nem tud hardveres tömörítést.
-
Abu85
HÁZIGAZDA
És ha eltolod a frame számítását a smoothinggal, akkor még nagyobb, még jobban ingadozó lagot kapsz. A frame time ettől nem változik. Ezért van az AMD ellene, mert a profi versenyzők a lag csökkentésére koncentrálnak. Ez nem hiba, hanem döntés. Szerinted az SLI-s topikokban miért tweakelik a GeForce drivert a pre-render frame szempontjából? Hát persze, nagy az input lag. A CF-hez ilyen korrekció nincs, mert az úgy van kalibrálva, hogy minimális legyen a lag.
Egyébként az AMD és az NV számtalan dolgot másképp csinál. Például a képminőség. Az NV a shimmering jelenség visszafogása érdekében csökkenti a textúraszűrés minőségét, és így megbuknak az MS tesztjein. Az AMD az MS tesztjeinek akar megfelelni, de kapták az ütéseket, hogy bezzeg az NV másképp csinálja, mert a shimmering fontosabb. Addig erőszakolták ezt a témát a tesztelők, hogy az AMD berakott egy alternatív módot a driverbe, hogy az NV-hez hasonló szűrési minőség mellett is lehessen tesztelni a Radeonokat. Ez a texture filtering quality opció performance beállítása. De az alapértelmezett quality mód az maradt az MS tesztjeinek megfelelő megoldás. Érdekes, hogy a tesztelők kikövetelték ezt a változtatást az AMD-től, de most, hogy ott van a driverben nem tesztelnek vele.
Ez is ugyanúgy fog járni, mint a textúraszűrés. Amint ott lesz a driverben az egész el lesz felejtve. A FRAPS értelmét az NV prezentációja leépítette, míg az FCAT-ra nem lesz sok médiának pénze, egyszerűen négy SSD-t RAID-ben befogni szimplán nem éri meg, amikor mindkét AFR megoldás ugyanúgy fog működni, pontosabban az AMD driverében kiválasztható lesz ugyanaz a működés. -
Abu85
HÁZIGAZDA
Az input lagot én még egyetlen tesztben sem láttam, hogy mérték volna.
A FRAPS lényegtelen, mert az úgy sem méri a grafikus pipeline-on a működést. Ergo mindegy, hogy melyik AFR megoldást választják, mert a FRAPS eredménye a program és a D3D runtime közé ékelődik be és az alapján mér.
Mielőtt folytatnánk ezt jó lenne nem keverni a frame time-ot az input laggal. A két dolog nem egyezik. Az input lag ingadozásához nem kell CF vagy SLI. Az egy kártyánál is ingadozik. CF-nél jobban érződik, míg SLI-nél sokkal nagyobb a kiingás, mert konkrétan direkt késlelteti a frame számítását. Ez a frame smoothing alapvető hátránya, és pontosan ezért nem akarja az AMD kivenni a driverből az input lagra optimalizált AFR megoldást, mert sok multis júzernek ez jobban számít, mint a smoothing. Ez nyilván nagysebességű kamera nélkül nehezen mérhető dolog. A tesztekhez készítenek egy smoothing megoldást CF-hez, de már elmondták, hogy a mostani AFR lesz az alapértelmezett akkor is, mert erről jobbak a profi játékosok visszajelzései.A monitoron látható képkockák szempontjából mindenki olyan helyzetben van, hogy 60 Hz mellett 60 képkockát lát. Ez a kártyák számától független dolog.
-
Abu85
HÁZIGAZDA
Ezt is tárgyaltuk már itt, hogy az AFR-re két lehetőség van. A frame smoothing magasabb input laggal és a smoothing nélküli megoldás az input lag minimalizálásával. Ez nem az erős idegzetűeknek nem ajánlott, hanem azoknak, akik nem értik meg, hogy az AFR soha sem működhet jól, mert a technikának vannak korlátjai és nem a CF-nek illetve az SLI-nek. Az AMD az alacsony input lagot tartja szem előtt, míg az NVIDIA a frame smoothingot. Ezek különböző előnyökkel és hátrányokkal járnak. Éppen ezért nem fogja az AMD kivenni a driverből a mostani AFR-t, hanem mellé építi a másik megoldást, és a két mód között majd lehet váltani. Ha magas input lag jó, de egyenletesebb frame megjelenítést akarsz, akkor be lesz vezetve a frame csúsztatás. Ha idegenkedsz attól, hogy a virtuális fejlövéshez esetleg az ellen feje elé kell célozni ilyenkor, akkor pedig ott az alacsony input lagra optimalizált verzió.
Tényleg ne hidd, hogy ezekről nem tudnak semmit a rendszerprogramozók. Ezek mind ismert jelenséget, csak nagyon nehéz eldönteni, hogy a usernek melyik lesz a szerethetőbb verzió, mert olyan pro-kontra érvek cserélnek helyet, amelyeknek alapvetőnek kellene lennie. Ezért panaszkodtak egy időben az SLI tulajok, hogy kikerült a driverből a pre-render frame limitálás. Nekik ez fontos, mert az SLI AFR megvalósítása miatt a normál pre-render paraméterek mellett hátrányt élveznek. A Radeon tulajok ilyenért sosem panaszkodtak, mert az AMD CF megvalósítása eleve az input lag csökkentését tartja szem előtt. -
Abu85
HÁZIGAZDA
Ez jó kártya csak lassú. legalább olyan kellene, ami 60 fps-t rögzít. Azzal szimulálható lenne a legtöbb kijelző.
Már hogy a fenébe ne kellene? Eleve az, hogy 60 fps-sel rögzítsen frame buffereket eléggé spéci igény. Ez nem az olcsó capture kategória. De még ha a kártya nem is lenne gond, akkor a tárolórendszer az lesz alatta. Legalább négy gyors SSD kell RAID 0+1-ben.
-
Abu85
HÁZIGAZDA
A mezei kártya pont azért nem alkalmas rá, mert az fix képkockaszámot rögzít, míg az a valós frame buffer tartalmat menti le. Ezért kell a gyors tárolórendszer, mert egy frame buffer mérete Full HD-ben 6 MB, és ebből kell másodpercenként annyit kiírni, amennyi a capture szint. Persze a felbontás növelésével nő a tárolókra a teher is. 600 MB/s-os ajánlott konfig nagyjából 100 fps-ig működik Full HD felbontáson. Ha többet és/vagy nagyobb felbontásút akarsz rögzíteni gyorsabb tároló kell.
Ez nem capture kártya, hogy bárhol működhet, itt minden képkockáról egyedi kép van. Még ha meg is kapnád az NV-től a kiírást biztosító kártyát, akkor sincs meg a tárolórendszered alá.
A képminőség összehasonlítása felesleges, mert két mérés mellett sem lesz ugyanolyan az eredmény még azonos hardverrel sem. A képminőségre egyszerűbb a print screen.Otthonra a GPUView-et használjátok. Az képes elkülöníteni a folyamatokat, így abból kellő tapasztalattal minden leolvasható. Még az is, amiről a FRAPS nem ad információt, vagyis a lényeg.
-
Abu85
HÁZIGAZDA
Meg egy olyan tárolórendszer, ami képes 600 MB/s-os tempóval írni.
Azé ez nem mindegy.
Azért nincs publikus letöltő, mert a kártya, amivel működik nem érhető el kereskedelmi forgalomban. Ezt az NV adja óda, és vele együtt a szoftvert is. A tárolórendszert meg be kell szerezni. -
Abu85
HÁZIGAZDA
Fel kell rakni a 13.2 beta6 drivert. A kopaszodás ezzel megszűnik. Ez a gond ugyanúgy driverben lesz javítva az NV-nél is.
A fő különbségeket a Tomb Raiderben a High Precision, az SSAO, a shadows, a DoF és a TressFX adja az architektúrák között. Ezek használnak compute shadert, illetve az FXAA még, de az annyira nem terhel.
-
Loha
veterán
A link lemaradt:
Tomb Raider (2013) TressFX Hair Crossfire Bug
Tomb Raider (2013) PC Gameplay
Vmiért nem működik az időponthoz linkelés Youtubeon... -
BeLucZ
addikt
hozzuk már ki hogy jobban megy kepleren a tomb raider
a gtx 680hoz képest kéne hasonlítani, nem a majd 3x drágább titanhoz amivel szoros küzdelmet folytat a 7970 ghz
tressfx onon
biztos vagyok benne, hogy fog még jönni catalyst ami gyorsít a radeonokon is, nálam ragyogóan megy 7970el
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Soundbar, soundplate, hangprojektor
- Mibe tegyem a megtakarításaimat?
- Demót kapott a Stellar Blade PC-s kiadása
- Motorola Edge 50 Neo - az egyensúly gyengesége
- Kevesebb dolgozó kell az Amazonnak, AI veszi át a rutinfeladatokat
- Bittorrent topik
- sziku69: Fűzzük össze a szavakat :)
- AliExpress tapasztalatok
- Nintendo Switch 2
- Kertészet, mezőgazdaság topik
- További aktív témák...
- Csere-Beszámítás! Asus Prime RTX 5060Ti 16GB GDDR7 Videokártya! Bemutató darab!
- MSI 3080 10G GAMING Z TRIO ( Fehérre festett)
- Csere-Beszámítás! Asus Tuf RTX 5070Ti 16GB GDDR7 Videokártya! Bemutató darab!
- ASRock Radeon Challenger Pro RX 6700 XT 12GB OC Videokártya
- Asus Rog Strix RX 6800 XT LC 16 GB - GARIS (ritkaság)
- 12.000 ft tól elvihető ELITRO Bankmentes , kamatmentes vásárlás .Cooler Master GM2711S Monitor
- BESZÁMÍTÁS! ASUS B450 R7 2700X 16GB DDR4 512GB SSD RTX 2060 Super 8GB Zalman i3 FSP 600W
- Epson Workforce DS-530II Dokumentum szkenner
- BESZÁMÍTÁS! Asus B350 R5 1600 16GB DDR4 512GB SSD GTX 1050Ti 4GB Cooler Master CM 690 III TT 500W
- Azonnali készpénzes nVidia RTX 3000 sorozat videokártya felvásárlás személyesen / csomagküldéssel
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: CAMERA-PRO Hungary Kft
Város: Budapest