- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- Bemutatkozott a Redmi új szériája
- Oppo Find X5 Pro - megtalálták
- Bluetooth-headsetekről általában
- Samsung Galaxy A71 - elég ennyi?
- Milyen okostelefont vegyek?
- Fotók, videók mobillal
- Yettel topik
- iPhone topik
Hirdetés
-
Rossz üzlet az EV-kölcsönzés
it Küszködik az EV-kölcsönzés miatt a Hertz Global, még több EV-t adnak el.
-
Miniképernyős, VIA-s Epomaker billentyűzet jött a kábelmentes szegmensbe
ph A megfizethető, szivacsokkal jól megpakolt modell ötfajta kapcsolóval és kétféle színösszeállítással/kupakprofillal szerezhető be.
-
AMD Radeon undervolt/overclock
lo Minden egy hideg, téli estén kezdődött, mikor rájöttem, hogy már kicsit kevés az RTX2060...
Új hozzászólás Aktív témák
-
veterán
Tomb Raider PC mit DirectX 11 und TressFX
Eszerint a teszt szerint, ugyan úgy ~30%-ot lassít GCN-en is mint Kepleren, ráadásul az egész játék ugyan olyan jól fut NV-n mint AMD-n.
Az meg már csak mellékesen érdemes megjegyezni, hogy a teszt még a patch előtt készült, ami javítja az NV-s grafikai hibákat, és valószínűleg gyorsít is a játékon NV-n, vmint megszünteti a ricshard444 által is említett hajra közelítés=szaggatás feature-t.[ Szerkesztve ]
-
veterán
Elég részletes teszt, ha lejjebb tekersz van ingame (nem benchmark mint az első) grafikon és van benne 680 is, szóval ahhoz tudsz hasonlítani amihez jól esik.
közelítés szaggatás csak nvn volt eddig? Ezt nem tudom, csak azt, hogy NV-n biztosan volt a patchig, de ha 7970-ed van, meg tudod nézni, ha még nem patchelted fel a játékot, hogy ha odaközelítesz a kamerával a tressFX-es hajához, irreálisan leesik-e az FPS-ed. (Pl.: 60-ról 10-re.)
[ Szerkesztve ]
-
veterán
A link lemaradt:
Tomb Raider (2013) TressFX Hair Crossfire Bug
Tomb Raider (2013) PC Gameplay
Vmiért nem működik az időponthoz linkelés Youtubeon...[ Szerkesztve ]
-
veterán
válasz daneeeeee #450 üzenetére
Az Anti-aliasing Performance rész Catalyst 13.2 beta ver7 -el készült, az arányok nem változtak.
Guru3D-s teszt 13.2 Beta build 6 -al készült, az arányok nem változtak.
[ Szerkesztve ]
-
veterán
válasz Whit3Rav3n #518 üzenetére
Egy digitális videó felvevő kártya kell csak hozzá, semmi más, ha jól láttam.
Publikus letöltő linket viszont nem látok... -
veterán
Elméletben egy mezei, 60FPS-re képes, HDMI-s, hardveres tömörítéssel rendelkező kártya ugyan úgy alkalmas a tesztre és nem kell semmi más. Persze, ha az NV nem adja oda a progit, akkor a gyakorlatban nem. Ilyen komoly hardver csak akkor kell, ha képkockánként akarod összehasonlítani a tesztalanyok képminőségét is.
-
veterán
Ez egy professzionális felvevő kártya ami tud annyi fps-el rögzíteni ahány Hz-es jelet a DVI-on kap. Teszthez teljesen jó a szokásos 60Hz mert ez szimulálja legjobban az átlagos otthoni környezetet is, amihez pedig nem kell spéci kártya.
Szóval elméletben továbbra sincs semmi akadálya FullHD-ig egy olcsó capture kártyának.
[ Szerkesztve ]
-
veterán
Nem válasz akart lenni, bocsánat , de azért lazán kapcsolódik a multi-GPU témakörhöz.
Van már pár teszt is az új teszt módszerrel, de csak erős idegzetű CrossFire tulajoknak ajánlott :
Frame Rating Dissected: Full Details on Capture-based Graphics Performance Testing
Inside the second with Nvidia's frame capture tools
Challenging FPS: Testing SLI And CrossFire Using Video Capture
-
veterán
Az AMD az alacsony input lagot tartja szem előtt, míg az NVIDIA a frame smoothingot.
Ez így jól hangzik, de ezek a tesztek rávilágítanak, hogy a gyakorlatban nem igaz.
Gyakorlatban ez úgy néz ki, hogy míg az AMD megoldása figyelmen kívül hagyja magának a játékosnak (ember) a működését, és úgy tolja ki a képkockákat a képernyőre, ahogy éppen sikerül, maximalizálva ezzel a FRAPS által mért fps számot, addig az NV megoldásánál figyeltek arra, hogy az a lehető legjobban alkalmazkodjon az ember működéséhez. A játékosok egy nagyjából állandó input laghoz könnyedén tudnak alkalmazkodni, ahogy írtad is, az ellen elé lőnek pl., de egy folyamatosan változó input lagnál ez egyszerűen lehetetlen, mert nem tudják, hogy mennyivel kell elé lőni.Ha idegenkedsz attól, hogy a virtuális fejlövéshez esetleg az ellen feje elé kell célozni ilyenkor, akkor pedig ott az alacsony input lagra optimalizált verzió.
Itt van pl. egy BF3-as grafikon, nyoma sincs a CF input lag előnyének, azt lehet látni, hogy míg a CF esetében folyamatosan ~0-20ms között ugrálunk, addig az SLI elég jól tartja magát ~10-12ms körül, de az átlag késleltetés kb. ugyan annyi, csak ezt az SLI sokkal kisebb kilengések mellett tudja, és ha kisebb a kilengés könnyebb hozzá alkalmazkodni -> jobb.Aztán vannak itt még érdekes dolgok, pl. itt van a FRAPS-al mért FPS,
itt meg az az FPS szám mit a játékos ténylegesen láthat is. Mit jelent az, hogy ténylegesen láthat? Ebből le vannak vonva azok a képkockák amik egyáltalán nem jelentek meg a monitoron, vagy csak 21 sornál kisebb részét tették ki a képernyőnek, tehát gyakorlatilag nem adtak hozzá semmit a monitoron látható dolgokhoz.
CF esetén elég nagy különbség van a 2 mért érték között, míg szóló AMD GPU vagy SLI esetén meg nincs. CF tulajoknak elgondolkodtató lehet, hogy a monitoron látható képkockák tekintetében alig vannak jobb helyzetben mintha csak egy szóló kártyájuk lenne... -
veterán
-
veterán
Szerkesztés közben lehalt a fórum...
FRAPS nem lényegtelen mert az alapján készül a tesznek nagy része, de a linkeken nem a FRAPS a lényeg, hanem az FCAT és a teljesen új módszer a felhasználói élmény mérésére, meg az, hogy CF esetén nincs összhangban a FRAPS-al mért értékekkel.
SLI-nél sokkal nagyobb a kiingás, mert konkrétan direkt késlelteti a frame számítását
Pont hogy sokkal kisebb, mert az egész frame smoothing rendszer lényege, hogy csökkentse a kiingást.
Direkt késleltetés olyan képkockák esetén történik, amik túl korán jönnének ahhoz, hogy érdemben hozzáadjanak a látványhoz, és csak annyira lesznek késleltetve, hogy ne lógjanak ki az átlagból, viszont azok a képkockák amik vmiért késnek CF esetén, SLI-n "gyorsítva vannak" és időben érkeznek, tehát a kilengés pont, hogy sokkal kisebb, és az élmény "smooth"-abb.A monitoron látható képkockák szempontjából mindenki olyan helyzetben van, hogy 60 Hz mellett 60 képkockát lát. Az a helyzet, hogy ha nincs bekapcsolva a vsync, akkor 60Hz-en jóval több képkockát tudsz látni mint 60, ez az egyik oka a képtörés jelenségnek is, amikor több képkockát rajzol ki a monitor, egy frissítés alatt.
Szerinted az SLI-s topikokban miért tweakelik a GeForce drivert a pre-render frame szempontjából?
A maximum pre-rendered frames-t DirectX -ben állítod, csak erre az NV ad opciót a control panelben az AMD meg nem. Szóló kártyával is érdemes állítgatni, mert CPU által előre számított képkockák max. számát állítod vele.FCAT nem egy CF vs. SLI összehasonlításra készült cucc, hanem egy új lehetőség olyan dolgok vizsgálatára, amik eddig nem voltak lehetségesek. Mint már mondtam, nem kell hozzá semmi drága cucc, csak egy capture kártya. A drága cucc csak az NV által adott kártyához kell, ami nem tud hardveres tömörítést.
[ Szerkesztve ]
-
veterán
Igen, nem méri az input lagot, de mivel az input lag része a frame time, ezért ha a frame time nagyobb, nagyobb lesz az input lag is. Tehát nem tudjuk, hogy mennyi összesen az input lag, de azt tudjuk, hogy CrossFire esetén átlagban nem kisebb, viszont többet ingadozik mint SLI vagy szóló kártya esetén.
A késleltetés nem minden képkockára vonatkozik, csak azok lesznek késleltetve, amik az átlagnál hamarabb kerülnének képernyőre vagy meg sem jelennének monitoron, túl korán a többihez képest.
Ha megnézted volna a grafikont, akkor láttad volna, hogy azokat a képkockákat késlelteti amiket a CF rendszer ~0ms-es frame time-al kiküld és lehet meg sem jelenik a monitoron, ebből SLI-n lesz 10ms késleltetve.
Viszont azok a képkockák amik CF esetén ~20ms-es frame time-al számolódnak, SLI esetén ugyan úgy ~10-12ms után érkeznek gyorsabban mint CF esetén. Tehát a CF rendszer bizonyos esetekben kisebb, bizonyos esetekben nagyobb frame tima-al dolozik mint az SLI, de az átlag kb. ugyan annyi, tehát a kilengés nagyobb.A képtörés az a kijelzett kép része. A monitor akkor sem fog 60-nál többet megjeleníteni.
Mint mondtam, ha a vsync nem hangolja össze a monitort és a VGA-t, akkor több képkocka is szerepelhet egyszerre egy képen, persze tört részleteiben.Sorry, de a maximum pre-rendered framesnek semmi köze az SLI-hez, DirecX cucc, SLI-nél azért hangsúlyosabb, mert könnyebben fordulhat elő CPU limit, és ezzel az opcióval ez csökkenthető, az input lag beáldozásával. A maximum pre-rendered framest a játékok maguk szokták állítgatni, de ezt NV-nél felül lehet bírálni, vagy AMD esetén a játékon belül, ha van rá lehetőség.
De basszus milyen tömörítésről beszélsz, amikor képkockákat ment a rendszer érted ... nem videót.
Nem tudom, hogy feltűnt-e, de sima DVI csatin csatlakozik a capture kártya a VGA-hoz, ami nem egy USB, hogy dolgokat töltsön le rajta az ember, hanem videó kimenet. Videót meg fel lehet venni tömörítetlenül, meg tömörítve is. A videót baszhatom, mert nem tudja az FCAT alkalmazás beszínezni a képtöréseket. Pedig pont ezt csinálja, ráadásul megeszik szinte minden formátumot, csak legyen fent hozzá codec. -
veterán
Elég egyértelműen ott vannak az adatok a grafikonon, és elég egyértelműen látszik, hogy melyik egységesebb, lehet magyarázni, hogy a CF elméletben jobb, de itt a bizonyíték, hogy a gyakorlatban sokkal rosszabb, sőt alig jobb mint egy szóló kártya. Frame Variance külön kiemelve, hogy jobban látszódjon.
Pontosan azt méri amit te a monitoron látsz, a játék motorjától kezdve egészen a monitorra kiküldött képig.
Input lag pedig az az idő (egyszerűsítve), amíg a billentyűzeten lenyomott gomb eljut a monitorig.
Csak a VGA-ban és VGA driverben eltérő gépen a gomb lenyomása amíg eljut a játék motorjáig ugyan annyi ideig fog tartani NV és AMD VGA esetén is, az utána lévő időt, amíg a driveren és a VGA-n keresztül kiér a monitorra pedig a FCAT méri, és meg lehet tekinteni.60Hz esetén lesz 60 képkockád, amin szerepelhet, jóval több tört (részleges) képkocka is.
Mint pl. itt, 2 képkocka szerepel egy képen.Biztos vagyok benne, hogy nem kínál minden játék a maximum pre-rendered frames-re beállítási lehetőséget, de igazából mivel semmi köze a SLI, CF kérdéshez, lényegtelen is.
Már sokadjára írom le, hogy nem másol semmit sehova, egy professzionális videó felvevő kártyáról van szó, ami DVI-on felveszi a monitornak kiküldött videó jelet, amit előtte, egy DVI splitterrel szétosztottak, semmi több.
The video output from the gaming system being tested connects to this Gefen dual-link DVI splitter, which feeds outputs to both the monitor and the DVI capture card.3-4 tesztben le van írva ugyan úgy a dolog, nyugodtan idézz vmelyikből, ha vmit félre értelmeztem, mert nem valószínű, hogy az összes helyen félreértelmezték az NV leírását, tehát vagy én értelmezem rosszul a tesztekben leírtakat, vagy te értetted félre a leírást amit az NV-től kaptál.
[ Szerkesztve ]
-
veterán
És hol van a grafikonon az, hogy az input lag mekkora, vagyis az, hogy az egéren leadott tüzelés mikor jelenik meg a képen?
Magamat tudom idézni:
Csak a VGA-ban és VGA driverben eltérő gépen a gomb lenyomása amíg eljut a játék motorjáig ugyan annyi ideig fog tartani NV és AMD VGA esetén is, az utána lévő időt, amíg a driveren és a VGA-n keresztül kiér a monitorra pedig a FCAT méri, és meg lehet tekinteni.
Mondok egy példát: Az egérlenyomást mire megkapja a játék motorja mondjuk 20ms (ezt nem tudjuk mérni, de nem tudom miért változna a VGA függvényében) onnantól kezdve, amíg a VGA kiküldi a monitorra, hozzájön +10ms (ezt méri az FCAT és ez szerepel a grafikonon) és akkor összesen lesz 30ms + még a monitor mire meg is jeleníti összesen mondjuk 50ms. SLI esetén ez 50ms körül lesz folyamatosan, CF esetén pedig 40 és 60ms között fog ingadozni.2560x1440-es felbontásban 60FPS-el tömörítetlenül videót felvenni igényel 600MB/s-et ez így van.
NV ezt a kártyát küldte nekik, mert ilyet használnak az NV-nál is a belső tesztekhez, nekik gondolom nem tétel pár SSD, de ez nem jelenti azt, hogy ilyen kártya kell a videó felvételhez. -
veterán
Grafikon bal oldalán a függőleges tengelyen láthatod a csak a VGA által generált input lag mértékét.
VGA tesztben nem értem miért kellene az input lag többi részével is foglalkozni.A capture kártyáról meg minden infó elérhető itt. Eléggé úgy tűnik, hogy az NV a saját belső használatra szánt szoftverét és kártyáját adta oda a tesztelőknek, és mivel elég gyorsan reagáltak az igényre, SZVSZ nem lett volna idő mindenféle capture kártyával tesztelni a dolgot, és nem akartak beégni, hogy esetleg vmelyiket nem szereti a szoftver.
-
veterán
Az input lag tartalmazza a frame time-ot, az egyik összetevője.
Az input lag többi összetevője nem a VGA-n múlik, nem valószínű, hogy a VGA típusa befolyásolja mondjuk az egér driver vagy az USB port késleltetését.
Arra vagyok kíváncsi, hogy hány frame jelenik meg, amíg az egéren leadott parancs megjelenik?
Erre én is kíváncsi lennék, de jó esély van rá, hogy még senki nem csinált ilyen tesztet, főleg nem VGA-k összehasonlításához.Techreporton futottak bele, mert AMD-n vmiért kicsit eltért a csíkok színe, vmint egy kis zaj is volt bennük.
the extractor was having trouble because the overlay colors being displayed by the Radeon weren't entirely correct.
Szerencsére lehet állítani a toleranciát az elemző progiban, és miután lazábbra vették a probléma megoldódott.
The extractor routine had to be adjusted for looser tolerances in order to account for the variance. -
veterán
A látottak alapján számomra elég egyértelmű, hogy mi a különbség CF és SLI közöt, meg hogy mit csinál a gyakorlatban a 2 rendszer.
~13ms alatt végez az egyik képkockával a CF (ami annyi idő amit egy szóló kártya tud), aztán szinte azonnal (0ms) ott a következő, aztán 13ms múlva jön megint egy, aztán szinte instant (0ms) megint egy. Hogy lehetséges ez amikor tudjuk egy szóló kártyánnak kb. 13ms kell egy képkockához az adott játékban?
Ebből én arra következtetek, hogy a 2 VGA párhuzamosan dolgozik, amit úgy értek, hogy egyszerre kezdik el számolnia köv. képkockát. Az 1-es számú VGA számolja a soron következő képet, a 2-es számú pedig az utána következőt, és mivel egyszerre kezdték, kb. egyszerre fognak végezni is, ezért megy ki egyszerre a 2 képkocka, ilyenkor látjuk a grafikonon, hogy a második kép szinte 0ms alatt ott van az első mögött. Utána mindkét VGA nekiáll a következő képkocka számításának, ami pont ugyan annyi időbe telik mint egy szóló GPU esetén, ilyenkor látjuk a 13ms körüli késleltetést az ábrán.
Mit csinál ezzel szemben az SLI? Mivel a késleltetések kiegyensúlyozottak, és kb. fele annyi ideig tartanak mint egy szóló VGA esetén, én ebből csak arra tudok következtetni, hogy a 2. VGA fél képkocka eltolással dolgozik. Tehát az 1-es VGA számolja a soron következő képet, aztán amikor a munka feléhez ér, a 2-es számú VGA nekiáll az utána következő kép számolásának, így nem egyszerre fognak végezni, hanem a 2. VGA fél képkockányi idővel később, így a képkockák kb. fele annyi idő alatt követik egymást mint egy szóló VGA esetében.
Az AMD jelenlegi megoldásának az a hátránya, hogy ha azonnal követi egymást 2 képkocka akkor vmelyik egyáltalán nem vagy csak alig fog látszani a monitoron a játékos számára.
[ Szerkesztve ]
-
veterán
válasz Whit3Rav3n #570 üzenetére
A CF sem párhuzamosan számol 2 képkockát hiszen az lehetetlen, maga az engine egymás után adja a képkockákat és annak is van egy feldolgozási ideje. Alapesetben a Windows/DirectX 3-as pre-rendered frames értékkel dolgozik, tehát a CPU 3 képkockát mindig előkészít a GPU-nak, ha rendelkezésre állnak hozzá az erőforrások.
Abu85: NV control panel azt írja, hogy a max pre-rendered frames beállítást nem vonatkozik SLI-re.
-
veterán
válasz Whit3Rav3n #576 üzenetére
Ez akkor is méréssel bizonyított hogy a cpu idö mindig benne van képkocka kiadásában.
Ezt természetesen így van.Szóval olyan nincs hogy kapásból 2 kártyának egyidöben kiad 2 képkockát.
Ha 2-3 képkockával előre dolgozik a CPU, akkor szerintem lehetséges, hogy szinte egyszerre továbbad 2 képkockát.Én magam is résztvettem ezekben a mérésekben és tényleg úgy volt hogy a cpu olyan gyorsan adogatja a frame-eket a gpu-knak ahogy tudja aztán vár amíg kész lesz az egyik az újabb frame átadásával, ez okozza ezt az egy kicsi egy nagy frame idöt 2 gpu-nál ami egyébkent 3 gpu-nál 2 rövid egy hosszú és négynél 3 rövid 1 hosszú.
Itt a magyarázatodban nem értem, hogy ha a CPU egyesével adogatja a képkockákat a GPU-nak, akkor miért úgy néz ki a grafikon, hogy szinte 0 késleltetés, aztán 2 képkockányi késleltetés és ez ismétlődik.(#584) Abu85:
Azt, hogy az AMD a CF-nél az input lagot veszi figyelembe, míg az NV ezt növelve máshogy dolgozik. Szívük joga eldönteni. Más gond meg már nincs, ha megnézed a teszteket.
Azt a részét értem, hogy az AMD azt kommunikálja, hogy az input lag miatt működik így a CF, de a teszteket elnézve nekem úgy tűnik ez nem igaz, egyszerűen kihagytak egy funkciót, ami az SLI-ben benne van, persze ha mutatsz olyan tesztet ahol igazolják az AMD állítását az input lag előnyükről az más.[ Szerkesztve ]
-
veterán
válasz Whit3Rav3n #592 üzenetére
Pcper tesztje részletesebb, jobban belementek a részletekbe.
As we expected, both from The Tech Report's background with this and Nvidia's in-house examples, we see that AMD's Radeon HD 7870s in CrossFire tend to suffer more dropped and runt frames than a pair of GeForce GTX 660 Tis in SLI. This addresses much of the trepidation about multi-card configurations expressed in Best Graphics Cards for the Money, confirming that two of Nvidia's boards appear more appealing. AMD even admits it's playing catch-up in this area, and is addressing its shortcomings through successive driver improvements Idézet: Tom's A konklúzió ugyan az mint máshol.Abu85:
Nem keverem az input lagot a frame time-al. Az input lag egy részét a frame time adja, a többi részét meg elvileg nem kellene a VGA-nak befolyásolnia. Tehát, ha a frame time kisebb, akkor miért ne lenne kisebb az input lag is?[ Szerkesztve ]
-
veterán
Ha megnézed ezt az ábrát, az FCAT overlay ugyan oda épül be ahova a FRAPS, közvetlenül a játék engine mögé, és szépen megjelöli a képkockát, a capture kártya meg felveszi az ábra legvégén a kimenetet.
Ezzel a megoldással pontosan meg lehet határozni, hogy az adott képkocka mikor hagyta el a játék engine-t és mikor érkezett meg a monitorra.
Az természetesen nem derül ki, hogy mennyi idő volt amíg az egértől eljutott az infó a játék engine-ig, de ezt a részét nem értem, hogyan befolyásolná a VGA azonos fps esetén, a másik része meg ott van az FCAT mérésekben.[ Szerkesztve ]
-
veterán
Nem nézek rossz ábrát, egyébként innen van.
Following that is t_present, the point at which the game engine and graphics card communicate to say that they are ready to pass information for the next frame to be rendered and displayed. What is important about this time location is that this is where FRAPS gets its time stamps and data and also where the overlay that we use for our Frame Rating method is inserted.Tehát T_present -től nézi T_display -ig.
[ Szerkesztve ]
-
veterán
Nem rossz a leírás, de ha pcpernek nem hiszel, akkor ugyan ezt íja le Anandtech is: On a technical level, the FCAT overlay tool ends up working almost identically to video game overlays as we see with FRAPS, MSI Afterburner, and other tools that insert basic overlays into games. In all of these cases, these tools are attaching themselves to the start of the rendering pipeline, intercepting the Present call, adding their own draw commands for their overlay, and then finally passing on the Present call. The end result is that much like how FRAPS is able to quickly and simply monitor framerates and draw overlays, the FCAT overlay tool is able to quickly insert the necessary color bars, and to do so without ever touching the GPU or video drivers.
Eddig ez lehetetlen volt, de az FCAT képes rá.
Locutus: FarCry 3 még beleférhetne, mert nagyon népszerű és jó az is.
Szerintem is lényegtelen melyik játék AMD-s vagy NV-s az számít, hogy melyik játék milyen jó és milyen népszerű.[ Szerkesztve ]
-
veterán
FRAPS méri, hogy hány képkockát küldött tovább az engine, az overlay tool meg ráteszi a csíkokat. A videóból, majd a kielemzéséből kijövő grafikon, ha megegyezik a FRAPS által készítettel, akkor az engine és a monitor közti késleltetés nagyjából állandó. Ha nem egyezik meg mint CF esetén, akkor az engine és a monitor között vmi nem úgy történik a VGA driverben vagy magában a VGA-ban ahogy kéne, mert nem olyan ütemben érkeznek a képkockák a monitorra, ahogy a játék motorja küldi őket. 1db AMD VGA eredményeiből tudjuk, hogy átlag mennyi idő feldolgozni egy képkockát, 2db ugyan ilyen VGA esetén ennek közel a felére kellene esnie ahogy SLI esetében, de nem ez történik, hanem szinte nulla idő alatt végez egy képkockával a CF rendszer, de a következőt annyi idő megcsinálnia, mint 1db VGA-nak, és mivel az esetek többségében a szinte nulla idő alatt a monitorra érkező előtti képkockából nem látunk semmit, azért a játékos számára sok esetben olyan késleltetéssel érkeznek a látható képkockák, mintha csak egy VGA lenne a gépében, tehát számára a CF rendszer vizuálisan az esetek egy részében nem nyújt többet 1db VGA-nál.
FarCry 3-nál nyugodtan teszteljetek SSAO-val és akkor nem lesz az a probléma, hogy egyik félnek a HBAO másiknak meg a HDAO fekszik jobban, vagy teljesen ki is lehet kapcsolni az AO-t, úgy is inkább csak ront a látványon.
-
veterán
válasz Whit3Rav3n #629 üzenetére
FCAT tesztnek az a lényege, hogy a valóságot tudod elemezni, amit a játékos a monitoron lát, tehát pontosan így néz ki a valóság. Rengeteg embernek feltűnt már, hogy vmi nem stimmel a CF-el, csak eddig nehéz volt objektíven szemléltetni.
-
veterán
A FRAPS és az FCAT nem függ egymástól. Az FCAT semmit sem igényel a FRAPS-tól. Ki mondott ilyet? Az egyikkel lehetséges vizsgálni, hogy mit csinál az engine, a másikkal pedig, hogy mi az ami ebből a monitoron megvalósul.
De már unom, hogy ezt sokadjára le kell írnom. Nem kell leírnod, úgy is csak folyton elbeszélsz a téma mellett, de tudod mit mutass vmi mérést, grafikont, amin látható, hogy a CF rendszer esetén kisebb az input lag, meg nyugodtan megcáfolhatod az FCAT-es teszteket is.AO-k minősége erősen szubjektív, HDAO-nál a legkisebb a látható változás és a legnagyobb sebességcsökkenés. Az egész AO fake árnyékokról szól.
Far Cry 3 | HBAO vs HDAO vs SSAO filters |[ Szerkesztve ]
-
veterán
Tehát az AMD marketingesei becsület szaván kívül semmilyen bizonyíték nincs rá, hogy CF esetén alacsonyabb lenne az input lag.
Smoothing azt a képkockát késlelteti és teszi láthatóvá, ami a tesztek szerint CF esetén értékelhetetlen a játékos számára mert nem látja, és ez a késleltetett képkocka pontosan 1 képkockával korábban jön mint a következő látható CF esetén.
Egész véletlenül egyébként az AMD hasonló megoldás bevezetését ígérte CF esetén, mint amit jelenleg az SLI használ. -
veterán
A GTX 580 sokszor 40 wattra volt a kártyába épített TDP limittől. Ennyi teljesítmény maradt benne, amit a fix órajel miatt nem tudtak kihasználni.
Ez így van, azért született meg a GPU Boost de amit korábban írtál, annak semmi valóságalapja nincs a GK110 esetében:
Ma csak a GPU Boost 2.0 és az új PowerTune miatt létezik a GK110 és a Hawaii. Komolyan nem viccelek, amikor leírtam, hogy az előbbi 500, míg az utóbbi 600 MHz-es órajelet kaphatna a DVFS rendszerek nélkül. Azt persze stabilan tartaná, de fel tudnád húzni mindkettőt úgy 650-700 MHz-re, és ez a csúcs a tuningnál.
Mert ugyan úgy 837 MHz-en (Titan) menne a GPU mint most, csak néhol benne maradna ~40W TDP.
[ Szerkesztve ]
-
veterán
Ugye a GK110-300-A1 ami az első gen. 780-on van, egy butított Titan GPU.
A GK110-300-B1 viszont már a 780 Ti butított változata.
Néni szépen elmondja, mit érdemes tudni erről a Giga 780-ról: Video Teszt is van.[ Szerkesztve ]
-
veterán
válasz #35434496 #885 üzenetére
Ez most mit is cáfol?
Akkor cáfolna, ha lenne classified 780 -as karid B revvel is, és össze tudnád hasonlítani.daneeeeee: nem értem egyébként az AMD-nél mi ez a szarakodás, hogy még mindig csak a referencia 290(X)-eket kapni, ilyen szar hűtésű ref. kártya mellett már megjelenéskor kellettek volna az egyedi hűtésű modellek.
[ Szerkesztve ]
-
veterán
válasz #35434496 #888 üzenetére
Én meg nem hiszem, hogy az NV kiad egy új revíziót anélkül, hogy javított volna az elérhető órajeleken és fogyasztáson/hőtermelésen.
Abu85: Mi baja lenne az AMD-nek abból, ha a nem ref. kártyák gyorsabbak lennének a ref.-nél, és esetleg lenyomnák a 780 Ti-t?
HSM: Biztos nem a legjobb csipeket fogják rátenni, ahogy az A1 rev. esetén is a legjobbakból Titán lett vagy Tesla.
[ Szerkesztve ]
-
veterán
Keplerből is csak a kicsikkel voltak fenntartásaim. El is avultak végül a 7970 vetélytársuk mögül a 680-ak, igaz, nem a Fermihez képesti butítások, hanem végül a 2GB ram miatt, de a végkifejleten nem sokat változtat.
TPU friss tesztje szerint a 680 1080p-ben pont úgy teljesít mint a sima 7970, a 770 pedig mint a 7970 GHz, szóval pont ott vannak most is ahova anno szánta őket az NV.
-
veterán
Kb. minden játékban benne van, és még jó ideig benne is lesz a 2GB-os kártyákhoz passzoló textúra beállítás.
Ja, hogy az nem a maximum beállítás? Csúcskártya még a 680? Egyébként 4GB RAMmal vinne mindent maxon 60fps körül? 3GB VRAM mindenre elég?
Mondjak mindkét gyártótól egy olyan friss kártyát ami kb. 680 teljesítményszint és 1080p-re szánták őket 2GB RAMmal?560$ a nyitó ára volt a 4GB-os 680-nak, miközben a 3GB-os 7970 GHz 500$ volt, és akkor még sehol nem volt a 780.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Elektromos cigaretta 🔞
- Windows 11
- EAFC 24
- VR topik (Oculus Rift, stb.)
- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
- Gaming notebook topik
- Kínai, és egyéb olcsó órák topikja
- PlayStation 5
- Házi barkács, gányolás, tákolás, megdöbbentő gépek!
- Milyen Android TV boxot vegyek?
- További aktív témák...
- Tyű-ha! HP EliteBook 850 G7 Fémházas Szuper Strapabíró Laptop 15,6" -65% i7-10610U 32/512 FHD HUN
- Bomba ár! HP EliteBook 840 G5 - i5-8G I 8GB I 128GB SSD I 14" FHD I HDMI I Cam I W10 I Gari!
- The Last of Us Part I Ps5
- Bomba ár! HP EliteBook 830 G6 - i7-8G I 8GB I 256GB SSD I 13,3" FHD I HDMI I Cam I W11 I Gari!
- Bomba ár! Dell Latitude 5580 - i5-G6 I 8-16GB I 256 SSD I 15,6" FHD I HDMI I CAM I W10 I Garancia