- Fotók, videók mobillal
- One mobilszolgáltatások
- 65 órányi zenét ígér az Audio-Technica új TWS fülese
- Yettel topik
- Samsung Galaxy Watch7 - kötelező kör
- iPhone topik
- Csíkszélességben verné az Exynos 2600 a Snapdragon 8 Elite 2-t
- Samsung Galaxy A53 5G - kevesebbet többért
- Sony Xperia 1 V - kizárólag igényeseknek
- Milyen okostelefont vegyek?
Új hozzászólás Aktív témák
-
Szerintem nem egy dologról beszéltek. Nem a 460 lapkához képesti teljesítmény kevés, hanem túl gyenge lapkát terveztek hozzá. Hatalmas a lyuk a 470 és 460 között, a 460-at szvsz is 450-nek kellett volna nevezni, vagy a mostani RX 470-et kellene RX 480 Castrated Editionnek nevezni.
-
#85552128
törölt tag
Úgy mondod mintha ezeknél a kártyáknál óriásit számítana az OC - főleg a gyári
5%-kal gyorsabb volt mint a 370 aminek magasabb órajele van mint a régi 270-nek. Minden kártya viszonylag friss driverekkel volt tesztelve, a 370 ami egy 270 ami meg egy 7850 már nem fog sokat gyorsulni. -
Venyera7
senior tag
-
stratova
veterán
Jó lenne már lecserélni legalább a csúcskategóriában a 4 SE-t ha lehet mondjuk 6-ra -_- amikor ez már limitáló tényező volt Furynál is.
Bár a kis Vega gondolom megörökli (kíváncsi leszek mit tud felmutatni majd).
Szerintem kis Vega és a GP104 viszonya egy az egyben GP106 vs P10-re fog hajazni. -
proci985
MODERÁTOR
en Crysis3 eredmenyeket szoktam nezni, az megbizhatoan GPUlimites, multiGPUval is (foleg 4Kban), szoval altalaban eleg jol mutatja az erosorrendet. ott kb azt lattam, hogy az 1080 lemaradt a 295X2tol (sajat GPU alrendszeremhez az all a legkozelebb, bar az enyem semennyire nem downclockol), viszont a Titan mar picit gyorsabb volt.
FE vs FE erdekes kerdes, en jobban szeretem, ha olyan kartyakat tudunk osszehasonlitani ahol a hutes nem jelenik meg confounding variablekent.
ettol fuggetlenul tovabbra is tartom, hogy 4096 szamoloval nezve lehet, hogy 1200-1500 koruli orajel kene a Titan megfogasahoz az uj AMD kartyanak hacsak nem csinalnak valami varazslatot architekturalis szinten.
-
Abu85
HÁZIGAZDA
Az ütemezési dolgokat/finomságokat a DirectX 12 részben kiszakította a driver kezéből. A compute parancsmotorokat a driver kezelheti és alkalmazhat rá optimalizálásokat, de a fő/grafikus parancsmotort már az OS vezérli. Ezért nem működik egyetlen fast path sem DX12 alatt a GeForce-on. Itt is lehet egyébként trükközni, de a trükköket a hardverbe kell beépíteni, mert az OS mindig egységesen kezeli le a különböző gyártók hardvereit az ütemezés szempontjából. Ennek a célja, hogy minden gyártó ugyanolyan rendszert építsen a GPU-kba, szóval semmiféle trükkös fast path vagy hasonló, csak brute force megoldás, apró hardveres trükkökkel.
-
A külön kódút annyira azért nem divat, ha a shader intrinsicet kivesszük a képletből (konzolok miatt létezik csak). Persze egy olyan újféle motornál, mint a Dawn (Deus Ex) mindenképp kell a külön kódút, mert az NV-k még annyira se mennének mint most. Itt az valódi probléma, hogy az NV hardverei nem igazán barátok a DX12 apival, nem az MS ajánlások szerint érdemes rá programozni. Ez nem az NV hibája persze, hanem az MS-é, hisz pl Vulkanban nincs ilyen probléma.
S ugye hardvereket régen is az aktuális API-khoz igazították, ez nem hiszem, hogy változni fog. Most a DX12 a GCN alapján lett kidolgozva, s ehhez minden bizonnyal a Volta majd alkalmazkodni fog, hogy ne kelljen külön kódot írni, ha olyan a motor.
-
Venyera7
senior tag
"Mivel a DX12 elvileg hardverközelibb, a jó teljesítmény érdekében jobban figyelembe kell venni az egyes architektúrák sajátosságait."
Kinek? A fejlesztőknek? Mert ők nemfogják, vagyis de a GCN-t igen, minden másra csak akkor ,ha kapnak egy rakás pènzt. Szabvány is van azért,hogy más gyártók arra tervezzenek archot.
-
Puma K
nagyúr
Régi szép idők... ha a látványvilág nem is volt annyira félelmetes mint amilyennek szánták, de a játékokban lévő hangok és helyzetek azzá tették... plusz egy kis extra képzelőerővel saját magának félelmetessé tudta tenni az ember az adott pixeles ellenségeket
Most meg olyan horror játékok vannak, hogy majd össze sz@rom magam mikor hajnalok hajnalán ráakadok egy-egy cikkre, bemutatóra vagy videóra
Scorn - Reveal Trailer + Pre-Alpha Gameplay [link]
-
vader108
tag
Valószínűleg Q1, Q2 elején már tudták a Pascal kijövetelét, ezért kivártak az emberek. Ennek is betudható ez a csökkenés. Aztán ki tudja. (Csak találgatok) Viszont ha Q3-ban hatalmasat ugrik/nagyobb részben kúszik feljebb, akkor ebben az esetben a kivárás/taktikázás volt hatással az eladásokra.
-
#25237004
törölt tag
Most hogy kinevettük magunkat (
), azért azt hiszem, jogos volt a kérdés, nem próbáltam semmi összeesküvésre utalni vele. Egyértelmű, hogy nem a 4GB RAM a legnagyobb problémája, mert akkor a 960, 380X, 470 stb. is még alatta kellene, hogy végezzen. A két HBM-es kártya teljesít rosszabbul 4k-ban, mint a náluk sokkal gyengébb 4GB VRAM-os kártyák, erre utaltam. (egyébként máig nem értem én sem, miért vesz valaki Fury X-et
)
Ahogy nézem mondjuk inkább magával a gamegpu benchmarkkal lehet valami gond, és nem a kártyákkal, mert máshol teljesen normális, elvárások szerint alakuló eredmények vannak:
pcgameshardware -
#65755648
törölt tag
"Nohát, megvádolsz mindenfélével, utána pedig elképeszt a válasz?"
A "szakmai" tudásodat kérdőjeleztem meg, szarkasztikus hangnemben, amit semmi nem tilt. Mire Te szánalmas személyeskedésbe és jelzőhasználatba kezdtél - ami itt a fórumon tiltott - és olyan szintre süllyedtél ahová nem akartalak követni - hogy egy klasszikust idézzek. És engem vádolsz miatta? Erre emlékeztetsz: "Nem tehetek róla! Idegállapotba vótam Maóónika!""Face-to-face sokkal kevésbé lettem volna türelmes, a 21853-hoz hasonlók után elküldtelek volna valami erősen deklaratív helyre"
Aha, és még én vagyok az őrült... na pont az ilyen mondatok miatt nem hiszek el vakon mindent amit leírsz. Ha úgy lenne ahogy írod akkor egy közveszélyes őrült kellene hogy legyél, márpedig én nem feltételezek rólad ilyesmit.Még 1x leírom, mert úgy látszik nem voltam elég világos: SENKIT NEM ÉRDEKEL, hogy maga a skálázás önmagában mennyivel gyorsabb vagy lassabb egyik vagy másik kártyán. Ezt csak Te keverted ide, mikor elkezdted levonni a magasabb felbontással mért FPS-t és erre írtam hogy félremagyarázol. Ugyanis senki nem tudja önmagában csak a skálázást használni. A magasabb felbontásban való számolás az ALAPJA a VSR-nek és a DSR-nek, így ha őket akarod vizsgálni, akkor nem vonhatod ki belőlük a magasabb felbontás teljesítményigényét (illetve kivonhatod, csak akkor már nem a VSR Vs DSR teszted végzed, hanem a skálázók tesztjét...).
És pontosan ezt mérte ez a teszt: megmutatta mi fog történni a felhasználó gépén ha bekapcsolják VSR-t illetve a DSR-t különböző kártyákon és játékokban. Jah, hogy talán CPU-limites volt? Lehet. Vagy hibáztak? Lehet. De az is lehet hogy jó és nem volt limit. Vagy hogy reális összeállítású konfignál ezek a játékok még FHD-ben is CPU-limitesek a felhasználók gépeiben is, vagyis a teszt az olvasók és a mi szempontunkból helyes és informatív. De az is lehet hogy nem. Ha meg akarod cáfolni, mérd ki és bizonyítsd be. Mindaddig én elfogadom helyesnek.
A skálázó meg egyedül a képminőség szempontjából érdekes, amiben jobb az AMD. Hogy mennyivel, maradjunk annyiban hogy nem értünk egyet.
Ennyi, részemről lezártam a témát. Így is túl sokáig osztottuk a semmit.
-
proci985
MODERÁTOR
290Xnél a kiegészítésed egész pontos. A teljesítményében nincs hiba, de ismerősöknek én se nagyon ajánlottam 1080pre a 970 helyett, részben a fogyasztás, részben a hűtési igény miatt. Az intel mainstream platformon egy i7 + 970 kombo beérte egy 400Wos táppal és hűtésnek egy teljesen csendre hegyezett Fractal R5 is tökéletes volt (egyik barátomnak konkrétan ilyet raktunk össze pár hónappal azután, hogy a saját 970em visszaküldtem). 290Xeknél a topik legboldogabb lakói vagy feszt optimizáltak, vagy lightning/vaporX/triX kártyájuk volt, vagy levizezték.
A hűtés második, komolyabb problémája volt, hogy egyrészt microstuttert okozhatott (és okozott) a dinamikus órajelállítás és komoly teljesítményt lehetett vele bukni. Tehát benchmarkokban egy rosszul hűtött ref 290X legalább annyira nem adott reális képet a kártya teljesítményéről, mint mondjuk egy ref 970. Szvsz részben emiatt is állt elő az a helyzet, hogy az eredetileg 780 ellenfél 290X 390X néven (picit jobb hűtéssel és kisebb fogyasztással) már lényegesen jobban teljesített.
A hűtésére én nem mondanám, hogy igénytelen, inkább úgy fogalmaznék, hogy 300Wos fogyasztás mellett légen pciE szabványon belül (max 2 slot!) nem lehet csodát tenni, főleg nem egy blowerrel.
De tényleg, a GTX480 után pár évvel az ember nem számított rá, hogy az AMD is kiad egy hasonlóan élhetetlen kártyát.
-
#65755648
törölt tag
2. Csupán arra hoztam példát, miért lehet az eredetileg linkelt teszt hiba és csalásmentes, amit Te megkérdőjeleztél.
3. Ebben az esetben megkövetlek a minőséget illetően. Az ide vonatkozó részeket hagyd figyelmen kívül. De ez nem bizonyítja hogy a dsr-es mérésed helyes volt, abban továbbra is kételkedem, és várom a képet.
B1. Nem szorosan idetartozik, de ezek szerint az Rx460-at sokkal időtállóbb megoldásnak tartod, mint a jelenleg (dx11-ben) hasonló teljesítményű 950-et, ha - felteszem némi ráfizetés árán - váltottál. Hasonló a véleményed az rx480 - 970 összevetésben, netán 480-1060 esetén is?A hsz-ed többi része személyeskedés, legközelebb nyugodj le és moderáld magad, különben én hívok rád moderátort. Elképesztő ez a stílus amit itt megengedtek magatoknak... Nem egy jöttment senkiházi vagyok. Csak ellentétes a véleményünk, és még ha az enyém lenne téves, akkor is kikérem ezt a hangnemet! Megnézném, hogy személyes találkozásnál meg mernéd-e engedni magadnak...
Más: TPU-n lehet szavazni, hogy melyik kártyát vennéd inább. ~22k szavazat után az állás:
Rx480 - 40%
1060 - 28%Már csak készlet kellene Rx480-ból...
-
#65755648
törölt tag
1. "az AMD kártyák jellemzően kevesebb FPS-t vesztenek a felbontás növelésével,"
Igen, ezt én kevertem bele. Bocs, nem tudtam, hogy nem szabad. De ez önmagában egy olyan mondatod, amit ha én, vagy egy AMD-párti, vagy akár egy független kommentelő (ezen a fórumon olyan nincs!) mondott volna, akkor máris óriási ribillió lenne, égbekiáltó perpatvar! Aljas hazugság, az NV kártyák minden felbontáson jobban mennek! A FX különben is csak 4GB-os!2. "Elárulom: azt, hogy melyik kártya mennyi sebességet veszít, ha felkapcsolunk 1080p-ről 1440p-re vagy 1800p-re. Ráadásul azt is rosszul, mert no way, hogy a Far Cry 4-ben vagy a BF4-ben 10-15% FPS-t vesztünk a +78% pixellel." - De, ezt Te írtad, és bizony "way". Te is írtad, hogy nem kell más hozzá, csak CPU limit (vagy bármilyen más rendszerlimit). BTW korábban ez is vesszőparipa volt az NV oldalon, hogy az AMD karik sokkal CPU-limitesebbek. Most, amikor egy teszteredményre akár ez is lehet a magyarázat, akkor ez már el van felejtve, sőt ki van zárva, ugye? Biztos rossz a teszt
3. Kitartok amellett, hogy nem jó a mérésed. Csinálj már egy képet amin a monitor menüje FHD-t, a játék pedig WQHD-t mutat. Sajnos nincs rá lehetőségem, hogy teszteljem, mint már írtam is. De neked van már AMD karid is úgyhogy hajrá!
Még az is lehet hogy meggyőzöl. Csak arra figyelj, hogy csinálj nem átméretezett képeket is a minőség ellenőrzése végett!
4.Taníts, mester!
5. "Én is a saját szememnek hiszek" - De nem vagy hajlandó letölteni a videót a tesztből, hogy megnézd magadnak, mert véletlenül nem támasztaná alá igazadat és el kéne ismerned hogy tévedtél. Vagy hamisították a tesztet.
Bonus1: Nem véletlenül egy GTX950-et cseréltél (vagy melléje "vettél") egy hasonló teljesítményű RX460-at? Miért gyanús nekem, hogy ezt nem márkaszeretetből/ funkcionális okból/ felhasználási célzattal tetted, hanem pl hogy teszteket végezz? Most hogy pénzt is keresel ezzel, vagy csak annyit érsz el vele, hogy itt a fórumon te lehetsz az ügyeletes guru, az mindegy is. A lényeg hogy invalidálja az érvedet, miszerint Te objektíven szemléled a dolgokat, hisz mindkét oldal kártyáit használod. Tesztelni vetted, így akár k**vára gyűlölheted is, akkor se volt más választásod mint megvenni, ha AMD-vel is tesztelgetni akarsz.
Bonus2: Azon gondolkodtál már, hogy ha WQHD monitorod van, és FHD-ra állítod a felbontását, de WQHD-ban renderelteted a játékot, akkor a VGA legyártja a WQHD képet majd leméretezi FHD-ra, ezután a moncsid felskálázza WQHD-ra. Ez az utolsó felskálázás, amit a moncsi végez teljesen elmos bármilyen különbséget, ami AMD és NV kártyák között lehet, hisz az eredeti, VGA által előállított képet a skálázás által rontja. Ráadásul a monitorok közt is nagy különbség van ilyen szempontból, egyesek szépen, mások csúnyábban skáláznak. Ha tényleg élőben meg akarsz győződni arról, hogy pontosan mennyire életleníti a képet akár a VSR, akár a DSR, azt csak natív FHD vagy 1200P monitorral tudod megtenni.
Nem is tudom hogy képzelted, hogy Te majd jól megállapítod, hogy mennyire éles a kép DSR-el, miközben egy, a monitorod által átméretezett képet bámultál... -
-
#65755648
törölt tag
Először is, az egész dolgot félremagyarázod. A DSR-t és VSR-t nem tudod úgy futtatni, hogy a kártya ne számolna nagyobb felbontásban. Így az, hogy a GN-os tesztben azt is beleszámolták a különbségbe hogy mennyire bírják a kártyák a nagyobb felbontást (illetve, nem vonták ki különbségből mint ahogy Te tetted), nem hiba. Az eredményt azzal együtt kell elfogadni.
Másodsorba, ki vagy Te és mit csináltál azzal a gbors-sal aki értelmes teszteket csinált és tudott gondolkodni?
Mert hogy Te nem ő vagy az biztos. Az igazi gbors pontosan pontosan tudta, hogy a pixelek számának növelésével a FPS nem lineárisan kezdenek csökkenni, messze nem!
Az igazi gbors tudta, hogy a legkülönfélébb VGA-n belüli (ROOP-ok, ALU-k, memória stb) és kívüli (CPU, RAM stb.) rendszerelemek limitáló tényezői, szűk keresztmetszetei miatt, valamint a futtatott szoftver terheléseinek függvényében, a skálázódás a felbontás függvényében nem lineáris.
Bárki, aki látott valaha VGA tesztet az pontosan tudja ezt.Emiatt természetesen óriási butaság, és sztem Te is érzed, hogy egy aljas csúsztatás azt sugallni, hogy +78% pixelszám emeléstől hasonló mértékű FPS lassulást kell várni.
WQHD-ben nem tudok tesztelni, de lemértem GRID:AS-ban 1280*1024 és 1200P közti különbséget, ami pixelben +76%.
Na és FPS-ben?
-22%Ennek fényében a BF4-es mérés a tesztben nagyon is lehet reális.
Ami pedig a mérésedet illeti, két lehetőség van:
1. Elb@**tad a mérést és ha valóban WQHD monitorod van, lehet hogy mindkét mérés valójában natív WQHD-ban futott. Meggyőződtél róla a monitor menüjében, hogy az elméletileg DSR-es tesztnél mennyi a képernyő aktuális felbontása? Ha fut a DSR akkor FHD-t kell jeleznie, miközben a játék WQHD-ra van állítva.
2. Nem a GPU, illetve azon belül nem a DSR-t számoló rész a szűk keresztmetszet, hanem pl. a ROP-ok, vagy a memória stb. Egy mérés nem mérés. Ezt neked is tudnod kéne. Az hogy 1 játékban, 1 felbontásnál, 1 (elavult) VGA-val, 1 driverrel nem lassított sokat a DSR, nem jelent semmit. Majd ha veszel 5-6 különböző, új szériás VGA-t, a GN-es játékokkal és beállításokkal végigméred az egészet és velük ellentétes következtetésre jutsz, akkor hiszek Neked."As for how VSR and DSR differ, it appears that VSR has a more immediate performance advantage when strictly looking at deltas (the % FPS difference between 1080p and the virtual resolution render, i.e. the FPS drop from 1080 to 1440 or 3200x1800)"
Ami pedig a képminőséget illeti, ha nem haragszol, inkább hiszek a saját szememnek, mint egy egyre inkább elvakult NV-fanatikus megnyilvánulásokat mutató fórumozónak, aki nem akarja látni azt amit jól lehet látni...
Ja és csak a vicc kedvéért tegyük fel, hogy igazad van és bár az elmélet és a gyakorlat szerint is szebb és gyorsabb a VSR, de a különbség inszignifikáns. Akkor mi van? Megmondom mi van: egyesek még ezt az inszignifikáns győzelmet is el kell vitassák az AMD-től, csak mert az "NV a csúcs mindig mindenben".
-
#65755648
törölt tag
Az Abu által linkelt tesztben, ha letöltöd a videókat és teljes képernyőn nézed, pl. az AC-nél nagyon jól látszik hogy sokkal élesebb a VSR. És akkor ez még mindig csak egy 1440P-ről illetve 4K-ról (amiben a játékot futtatták) FHD-ra leméretezett videó. Nyilvánvaló, hogy eredeti méretben a különbség még látványosabb lenne.
Ehhez add még hozzá, hogy a VSR, gondolom a hardveres gyorsítás miatt, amit Abu írt, gyorsabb mint a DSR, nem is kicsit
A VSR győz a DSR-rel szemben sebességben és minőségben is.
Case closed. -
Hát... Elvileg jobb, mert hardveres, mert az képes jobb resamplingra.
Azért Lánczos nem kicsit jobb kompromisszum, nem véletlenül használják ezt, ha a legjobb minőség a cél. Más kérdés, hogy valaki látja-e vagy érdekli-e ilyen szinten a grafika.
Amúgy igen, ez különbség kb semmit nem nyom a latban, ha NV vs AMD-ről van szó, úgy általánosságban.
-
-
Abu85
HÁZIGAZDA
Az önmagában biztos, hogy nem előny. Az teszi előnyössé, hogy nem azt a béna gaussian blurt használja, hanem egy normális megoldást. Aztán, hogy ezt miért nem implementálták ALU-ra a többi megoldásnál ...
Valószínűleg jóval drágább mint a guassian blur, csak ez fixfunkciós motorral nem számít. Ez viszont így előnyösebbé teszi a VSR-t hardveres megvalósítás mellett. Ahogy arról a linkelt teszt is beszámolt.
-
Abu85
HÁZIGAZDA
Az AMD nem a monitor skálázóját használja. A hardvereikben van beépítve egy saját skálázó. Olyan, ami van az egyes monitorokban. Erre van a driverben a GPU skálázás beállítás, vagyis használhatod a GPU saját skálázóját, vagy akár mehet a monitor skálázója is.
A VSR esetében a leskálázás mindig a GPU saját skálázójával történik, mert másképp az ALU-kat kellene használni (kivéve ugye a GCN1+Bonaire+pár felbontásban a GCN2, mert ezekből hiányzik a hardver ... itt szoftveres gaussian blur van, mint az NV-nél).Az AMD nem neve miatt jobb, hanem a Lanczos resampling-filtering rendszer használata miatt.
-
Abu85
HÁZIGAZDA
Egyrészt az NV DSR semmivel sem jobb az elmosásban, mert 22-tap guassian blur van rajta kötelezően a szoftveres skálázó miatt. Ennél még erősebb lesz az elmosás azzal. Az AMD VSR nem alkalmaz semmilyen elmosást, mert a hardveres skálázót használja, és az élesre megoldja a leskálázást erős guassian blur nélkül is.
Másrészt a DSR/VSR átméretezi a HUD-ot, ami eleve nem nagy ebben a játékban. Harmadrészt DX12 alatt nem működik. -
proci985
MODERÁTOR
tegnap egyebkent vegre sikerult jatek adatokat is kiszedni belule (afterburnertol meg mindig CTDzik indulasnal nalam). CPUterheles 60-75% kozott egy i7-3820al, multiGPU nagyon ugy nez ki megy viszont a benchmark alatt se volt GPU limit, neha HWinfo kijelzes alapjan mindket kartya henyelt mikozben a jatek lassu (oke, 1080p mediumon kinomban). os, steam kulon ssdn, gepben 32GB DDR3-2133 van (quad channelben). pciE3.0 x16on ulnek a kartyak. kikapcsolt multiGPU sem segitett. hutes, tap oke (custom viz, hofokokat monitoroztam es a viz nem ment 42 fok fole).
a CPU elvileg az ajanlott szinten van (I7-3770 kb hibahataron belul van, 8350nel egy szalon sokkal gyorsabb, embarassingly parallel esetben tippre legalabb hasonlo), mem duplaja, GPU duplaja. lehet le kene meg egyszer gyalulni a drivert es ujrarakni, egyszeruen nem ertem mi az ami belimitalja. ertsd 1080p medium kb 35 avg, 1080ultra 30 avg, 5760high 29.5avg.
threadlimites helyzetekben lattam meg ilyet, illetve amikor a Crysis FSBlimites volt, de figyelembe veve, hogy DX11 renderernel threadlimitet meg nem lattam es figyelembe veve a HEDT platform sajatossagait (quad channel memoria), ezt kb szinten kizarnam.
Time Spy alatt 6416 pontot kapott a rendszer (7749 graphics, 3249 CPU), szoval ugy, hogy megy a CF (marpedig megy) ezek a szamok katasztrofalisan alacsonyak. ugy, hogy nem megy a CF, ugy meg a tavalyi/idei eroforrasigenyes cimek (Doom, Just Cause 3) meg mindig 40-70fpseket tudtak.
utolso patch fent, beallitasokkal kb mindent vegigprobaltam medium-high-very high-ultra / shadow on / off / soft OFF / MSAA off, AA altalaban off, AO off vonalon. ha valakinek van jobb otlete a driver gyalulasnal persze szivesen fogadom. kizarasos fullscreen ok.
tippre driver lehet es a DX12nek is meg kene oldania (eltero bottleneckek), de igy kicsit ideges vagyok, hogy ha mar fel evet csusztattak a starton meg ugy is eddig katasztrofa szoval tudnam jellemezni amit csinal.
-
Én azért látom a különbségeket mediumnál már.
Mellesleg akkor a mostani vas is elég nem?
Minek új?Meg van más játék is azért...
Mellesleg azért a perf/price görbe nem csak felfelé romlik, hanem lefelé is... szerintem nem érdemes alsóházba invesztálni gamer géppel.
Hacsak nem vagy zsíroskenyéren élő csóródiák... ami meg nem vagy azt hiszem.
-
-
Venyera7
senior tag
Persze az nem pálya, viszont 4GB-os Strix sokkal érdekesebb. Dx12-ben elèg szépen alázza még a GTX 960-at is. Ez a széria szerintem egészen jó, persze ez az én saját véleményem (csak a hazai árazás ne lenne ilyen sz@r).
-
Abu85
HÁZIGAZDA
Fogalmuk már van róla, mert a DX11-ben aktív az AGS 4.0, és ugyanannyit nyernek vele DX12 alatt is. DX11-ben pedig a Fury X 6%-ra van a GTX 1080-tól.
Maximumon, 4K-ban nem valószínű, mert az MSAA az deferred, tehát azt aktiválva a sebesség nem fogja elérni a 20 fps-t egy VGA-n sem. Maximum a Radeon Pro Duón lesz játszható így. Ezért lesz a DX12-ben több GPU-s támogatás. -
Abu85
HÁZIGAZDA
Nem lehet kiszámolni mondom. A lényeg, hogy a fejlesztők célja az, hogy 4K-ban a Fury X a GTX 1080-nál gyorsabb legyen a DX12 módban. Ezért tartalmaz a játék olyan dolgokra támogatást, mint az AGS 4.0. Ezért finanszírozta az AMD éveken át ezt a projektet. Illetve nem pont a Deus Ex-et, hanem magát a kutatási részleget, ugyanis az Eidos Montreal olyan modellre vált, amilyet az EA/Dice használ. Felépítettek egy kutatási részleget Jean-Normand Bucci vezetésével, és ez a részleg a GPUOpen egyik legszorosabb támogatója. Maga a csoport korábban is megvolt, hiszen velük dolgozta ki az AMD a TressFX-et, de akkor csak pár ember volt a Crystal Dynamicsnál. Azóta több emberrel bővült az egész, és különváltak minden stúdiótól. Mostantól a feladatuk az, hogy az Eidos Montreal projektjeihez fejlesszenek technológiát, effektet, motort, bármit. És emiatt gyakorlatilag be vannak olvadva az AMD GPUOpen kezdeményezésébe is, mert ez lehetővé teszi számukra, hogy minden kutatásuk működjön konzolon és PC-n. Ennek a fejlesztési iránynak az első projektje az új Deus Ex. Ehhez csináltak egy új motort (Dawn), ami a Glacier 2 módosított verziója, illetve pár GPUOpen effektet átalakítottak, mint a TressFX, az AOFX és a GeometryFX. És nyilván az átalakítás része az volt, hogy kihasználják az AGS 4.0 lehetőségeit PC-n, mivel célplatform a multiplatform elterjedtség miatt a GCN.
-
Abu85
HÁZIGAZDA
Nem tudni, hogy mennyit jelent az aszinkron compute. Az új Deus Ex alatt a post process, az SSAO, a volumetrikus fények és a fizikai számítások (PureHair/TressFX) vannak párhuzamosítva a grafikával. A TressFX eléggé ismeretlen tényező, mert minden karakteren ilyen haj lesz.
A mostani tesztből kiindulva a shader intrinsics nagyjából +20-25%-ot jelent, ez az ami biztos ... tekintve, hogy DX11 alatt van AGS 4.0, míg DX12 alatt nincs.
Ha ezt hozzáadod a DX12 eredményekhez, plusz számolsz minimum +5%-ot az async compute-ra, akkor a Fury X már elkapta az 1080-at. Innen elég reális az a target, hogy 4K-ban a Fury X legyen a leggyorsabb VGA az új Deus Ex alatt. -
-
Nincs semmi beleszólásom ezekbe a döntésekbe, én még mindig csak egy programozó vagyok.
Egyébként Abu pont itt írta, hogy marad a DX11 50%-ban, szóval nem értem honnan jön ez a száműzés. Az előretekintést se igazán értem, hisz nem a jövő játékaival megy a tesztelés (amúgy azt hogy is lehetne?
), hanem a mai újabbakkal. Nem azért vesz az ember VGA-t, hogy a legújabb játékok menjenek?
-
#45997568
törölt tag
Ja, en is azt mondom legalabb egy ev, bar nem nezem milyen DX12/Vulkan only jatekok jonnek, uh csak tippeltem valamit, lehet lesz az masfel ev is. Mostantol legalabb masfel ev mire kikopnak a DX11 only jatekok amiket mar evekkel ezelott elkezdtek fejleszteni, szoval ido mint a tenger.
Jol atgondolva jo teszteket lehet csinalni jo jatekokkal, ennek a 3 tenyezonek a kiegyensulyozasa nem az en tisztem, mondhatnam hogy nekem mindegy, de sokaknak nem, az O erdekuk itt most fontosabb.
-
#45997568
törölt tag
Igen, a mertekeken van a hangsuly, van par olyan jatek ami mehet a kukaba a jelenlegi listarol, szoval egy atgondolt lista sokat segithet, DX11-et nem lehet meg szamuzni, max sulyozni a fontossaga fenyeben. jelenleg meg 7-3 , 6-4 a DX11-DX12 arany amit jonak latok, ha beindul a DX12-Vulkan domping (ertekelheto mennyiseg es minoseg) akkor fokozatosan alakitani a listat, am arra egy even belul nem latok realitast hogy csak DX12-Vulkan legyen a tesztekben.
A kozep es also kategoria erv ertheto, a tobbseg ott mozog, am az o kartyaik is a tesztek aldozatai,, naluk kulonosen fontos hogy lassak mindket generacio hatasait, mert ott altalaban 2-3 evre terveznek, tobben is vannak.
Az eloremutatast pont a technoblabla-k motorokba integralasa hozza, most az ujdonsag az uj API-k teruleten van, mar mindenki ide koncentral, aki elkezdte a DX11-es jatekat az mar nem fogja atirni nem is varhato el toluk, de ott nagy technologiai ujjitasra nem is szamitok. Nem is mindegyik DX12/Vulkan lesz erdekes technologia szemnpontjabol, azt nem is kell bevalogatni a listaba
(#21054) Peat
: nem hiszem hogy ez egy inigazolasi szindroma, teszteloi szemmel mas szempontokat vesznek figyelembe mint jatekos szemmel. Lehetne tobb olyan jatek amit itt sokan szeretnenek, de azok nem feltetlen fednek le a valosagot. A mostani listan is vannak kerdojeles alkotasok es elferhetne mas esetleg, varjuk meg milyen lesz a lista es utana alkothatunk velemenyt errol.
-
Hát, ha mindenkinek meg akarna felelni a PH!, akkor szétbontaná a teszteket API meg játék évjárat szerint meg gyártói támogatás alapján. De ehhez kicsit több játék kéne.
Egyébként azt felejtik ki sokan, hogy a legtöbb játék azért esik ki, mert nem mérhetőek megbízhatóan.
-
Abu85
HÁZIGAZDA
A Quantum Breakben nyilván nem kapcsolható ki. Annak a motornak a jellegzetessége, hogy nem támogat normális textúraszűrést, tehát mindenképpen kezelni kell a textúrák stabilitását. Ha kikapcsolhatóvá tennék, akkor az nagyon zizegős képet eredményezne.
A legtöbb fejlesztő nem teszi kikapcsolhatóvá az async compute-ot. A játékok között egyedül az AotS-ben kapcsolható ki. Más formában a meghajtóba kell egy olyan profil, ami a compute parancsolat az OS-nek küldi tovább. De csak azért, hogy lehessen mérni a különbséget nem csinálnak olyan meghajtókat, ami mindkét működési módot tartalmazza.
Igazából a legtöbb játékban ez nem GCN-onlyra van megírva. Egyszerűen az NV meghajtói nem a GMU-k parancslistájába, hanem az OS-ébe töltik be a parancsot. Kivéve a Pascal és a Rise of the Tomb Raider. Volt régen olyan kód, ami direkt gyártóspecifikus volt, de ma már ezt kiszedték mindegyik programból. Jobb ezt a meghajtókkal kezelni, mert ha a program oldalán kezelik, akkor például örökre kizárják az NV-t a gyorsulás lehetőségéből. Érthetően ezt nem akarják.És ez itt a probléma az egésszel. Van a konzolról egy fordító, ami fordít HLSL XO nyelvre, és azt a fordítót percek alatt kompatibilissé lehet tenni az AMD shader kiterjesztéseire. Majd onnan mehet a SPIR-V fordítás. Ezért egységesítés ez a fejlesztők szemében. A szabványos SPIR-V-re sokkal nehezebb dolgozni a konzolhoz írt fordítóknál.
-
#45997568
törölt tag
Nincs azzal gond, NV izombol fejleszt Vulkanra, idezve az egyik top fejlesztojuket, raadasul jol is fekszik nekik.
Inkabb teszteljenek olyan jatekokkal amik technologiailag modern-nek szamitanak, ne pedig 2-3 eves jatekokkal amik mar akkor sem szamitottak technikailag meghatorozonak meg ha nagy is a jatekos bazis.
Engem az erdekel, hogy a jelen jatekai a jelen kartyain hogy teljesitenek, ergo amit iden adtak ki jatekokat az iden megjelent kartyakkal, persze lehet betenni 1-2 hirmondot a megelozo generaciobol (VGA teren) hozzajuk tartozoan egy ket jatekot, de ne a multban eljunk, hanem a jelenben, picit figyelve a jovore.
Egy technologiaval foglalkozo topikban ez lenne az alap, kb mintha az elso 3Dmark-okkal mernenk a jelen kartyait, vagy a TimeSpy-al a 4-5 eves kartyak teljesitmenyet
Ertelmetlen es nem igazan professzionalis.
Elso sorban ezek a tesztek azt kellene hogy mutassak hogy az adott technologiai ujjitasok hogyan mukodnek a tesztelt kartyakon, DX11-es vilagban mar nagy ujdonsag nincs, ellenben DX12-Vulkan most lendul be. Pascal kartya tulajdonoskent erosen erdekel, hogy megy a Deus EX, Doom, nem igazan erdekel egy BF3, vagy barmelyik egy-masfel evesnel idosebb jatek, biztosan hasitani fog. Azt mar lemertek, tudjuk, az a mult. Engem jobban erdekel a most jatekai a most VGA-in hogy mennek, illetve egy ket feture ami esetleg elterjed egy even belul.
-
#65755648
törölt tag
Nem, szerintem az lenne igazságos, ha örökre maradnának a Dx11-es játékoknál. Sőt, figyelembe kéne venni, hogy sokan vannak akiknek még Dx10-es vagy 9-es VGA van a gépükben! Ők talán nem szeretnének játszani?! Az a sok millió felhasználó mind smafu a Ph-nek?!
Igenis követelem, hogy térjünk vissza a Dx9-es játékok teszteléséhez! Vissza a Doom3-at!
Kit érdekel a jövő, hiszen úgyis mindenki maximum fél évre vesz VGA-t!Csak én vagyok olyan hülye még mindig jól elvagyok egy 3+ éves VGA-val...
-
Abu85
HÁZIGAZDA
Nem a befürdésről van szó, hanem a lehetőségekről. Ma nem lehet úgy megoldani a problémákat, hogy minden maradjon jó minőségű. TXAA, vagy más temporális projekció mindegy, mert a cél minden esetben a filmes hatás. A filmeken is nagyon durván alkalmaznak elmosást.
Nyilván lebutítható a játék a rajzolási parancsok tekintetében, de mondjuk úgy lenne jó a CPU-limit kitolása, hogy a konzolon és a PC-n is elérhető legyen ugyanannyi objektum a kijelzőn, lehetőség szerint hasonló LOD, és hasonló árnyékminőség mellett. Mivel a konzolok jóval többet tudnak rajzolni, mint a PC-k, így az egyetlen lehetséges irány a PC-s API-k cseréje volt. Nem hiszem, hogy bárkinek a fején átkúszott az a gondolat, hogy tartsuk meg az aktuális API-kat, és akkor PC-re meg korlátozzák a látótávolságot. Meg lehet csinálni, csak nem célszerű.
+10-20% azért elég jó. Az persze igaz, hogy jelen formában leginkább GCN-only.
A legtöbb mai játékban az async compute úgy van kialakítva, hogy a shadow mapok számítása mellé legyen betolva valami compute feladat. Ezt semmilyen más formában nem lehet megcsinálni. Akármilyen hardveren malmozni fognak a shaderek, mert a shadow mapok számítása ROP limitált. A GPU-k heterogén jellege miatt számos grafikai futószalag olyan, hogy nem igazán bántja a shadereket, amelyeken ezekben az időszakokban lehet futtatni bármilyen compute futószalagot.
A fejlesztők problémája nem kifejezetten az, hogy az async compute nehéz, hanem az, hogy általánosan jól megírni nehéz úgy, hogy működjön minden hardveren. Ezért írják ma meg nagyrészt csak GCN-re, mert túlságosan eltér a többi hardver a konzoltól, hogy az arra kialakított futószalagokat jól át lehessen hozni PC-re.
Vannak más játékokról is fejlesztői adatok, hogy az async GCN-ekkel mennyit hoz:
Hitman 5-10%
Warhammer 5-15%
Doom (8xTSSAA) 10-20%
Quantum Break 10-15%Más játékokra nincs pontos adat, de tudni lehet, hogy a Forza 6, a GoW és az új Tomb Raider alatt is számít pár százalékot, illetve a Thief és a Sniper Elite 3 alatt is. Mindegyik utóbb említett játékban túl kicsi az átlapolt munka, de az előnyt jelent így is.
Az AotS-en az async compute-nak nincs akkora értéke ma. 5-10%-os pluszt jelent, de az aktuális motorverzióban még nincs aktiválva a texel árnyalás és a raszterizálás átlapolása. Csupán némi post-process fut az új képkockával párhuzamosan. Ennek a fejlesztésnek az az elsődleges problémája, hogy a működéshez szét kell választani a texel árnyalást a raszterizálástól. Ez DX11 alatt nem lehetséges, tehát abban a frissítésben, ahol ezt bevezetik legacy státuszba kell helyezni a DX11-es kódot, mert onnantól kezdve túl sok munka lenne az eltérő API-k karbantartása.Ez leginkább ma már külön fordítót jelent. A legtöbb stúdió, jelen esetben az ID nem ír ennyi shadert. Van egy saját nyelvük, amit több shader nyelvre fordítanak. Ezen belül is nyelvük kezel egy rakás olyan függvényt, amit a PC-s shader nyelvek nem. Ergo nekik kell írni egy alternatív fordítót a PC-hez, hogy ezeket a különbségeket kezeljék. Bármennyire is furcsa, ez nekik sokkal inkább teher, mint olyan shader kiegészítésekre fordítani a kódot, amelyek kezelik a shader intrinsics függvényeket.
-
Abu85
HÁZIGAZDA
Inkább az a kulcstényező, hogy vannak a leképezésnek nagyon tipikus problémái, amelyeknek ma már vannak megoldásai. A kérdés az, hogy a megoldásokat érdemes-e használni, vagy érdemes megtartani a problémákat mondván, hogy a játékosok már megszokták a shimmeringet. A Quantum Break úgy döntött, hogy a leképezőnél kezelik a shimmering jelenséget, így egy Full HD-s képkocka négy HD-s 4xMSAA-s képkocka temporális projekciója. Ennek az előnye a nuku shimmering, de hátránya, hogy mozis, elmosott hatást kelt, ami a máshoz szokott játékosoknak nem jön majd be. Ugyanakkor az nem technológiai gond, ez volt a dizájn szempontjából a célkitűzés. Sajnos jelenleg nincs olyan technológia, amely minden leképzésre vonatkozó vizuális problémát kezel, így vagy az egyik, vagy a másik halmazát fogja kezelni egy elgondolás.
A CPU-limit kitolása minden program oldalán a legfontosabb szempont. Főleg azért, mert ma már nem egymagos processzorok vannak, hanem négy vagy több. Muszáj olyan API-t kínálni, amivel ezek a magok kihasználhatók. És ehhez kellenek az új API-k, mert a régi API-kkal a parancsátadás egy szálra volt korlátozva, ami akkor is erősen limitáló volt, ha a parancskreálás esetleg több szálon történt meg. Mivel a jövőben semmi esély arra, hogy hirtelen jönnek a 15-20 GHz-es egymagos procik, így a többszálú parancskreálás biztosítása egy kulcstényező ahhoz, hogy az eddigieknél több rajzolási parancsot adhassanak ki a fejlesztők. Az, hogy csökkent a többletterhelés is, egy olyan fejlesztés, amit érdemes volt bevállalni, mert úgysem lehetett megőrizni a kompatibilitást a korábbi API-kkal. Ilyen formában érdemes nagyot fejleszteni, hogy legyen muníció évek múlva is.
Az aszinkorn compute jövője nem kérdéses. Mindegyik DX12 és Vulkan alkalmazás használja PC-n. Emellett ahogy nő a GPU-k bonyolultsága, annál több idle buborék keletkezne abból, hogy soros a pipeline-ok feldolgozása. Egy GPU mindig is heterogén rendszer volt, és az egységek számának növelésével a munkájuk összehangolásának hatékonysága csökken. Mondjuk egy GCN a 10 wavefront/CU SIMD-del el tud menni ~6000 shaderig, de ez az a határ, ami után már érdemes növelni a wavefrontok számát, és az nem lehetséges a jelenlegi memóriamodellel. Az NV már a Kepler óta warp limiten van, mert 64/MP-nél többet nem kezel a Fermi dizájn. ~4000 shaderig sem tudnak elmenni, mert hiába rakják bele a több shadert, az architektúra nem skálázódik tovább, ugyanis nem tudnak 128 warpot futtatni a jelenlegi memóriamodellel. Persze az Intelnél látjuk, hogy van olyan megoldás, mint mondjuk a gyorsítótárak hizlalása, de ez csak a probléma kezelése lenne mindkét oldalon, mintsem valós megoldás, mert eszi a tranzisztorokat. Ahogy megyünk számban az egyre nagyobb skálázódás felé, annál inkább kell az aszinkron compute, hogy a hardver egyáltalán skálázódjon. Nem viccből építették bele tehát az API-kba. Az persze igaz, hogy a gyártók az alaparchitektúrát tekintve más fejlődési fázisnál tartanak. Az AMD itt csak azért jó, mert az alapjuk 2012-es, míg az NV-é 2009-es, az Intelé pedig 2010-es. Ennek megfelelően az alapokat rendre 2008, 2005 és 2006 körül dolgozták ki. Az AMD-nek szerencséje volt, hogy belecsúsztak a 2007-es évbe, amikor rengeteg kutatás volt arról, hogy mi a jövő. Az NV és az Intel is láthatta ezt, de ekkor már késő volt, mert nem tudtak változtatni a fejlesztéseken. A Fermi módosítás például 2012-re tolta volna a megjelenést, ami ezen a piacon vállalhatatlan volt. Szóval amint lesz egy nagy váltás az NV-nél és az Intelnél, azonnal meglesz oldva a multiengine konstrukció hatékony támogatása.A Doom nyilván érdekes, de nem szabad elfelejteni, hogy amit mi szegmentálódásnak hívunk (AMD shader intrinsics és NVIDIA shader intrinsics), az a fejlesztők szemében egységesítés (GPUOpen a közös PC és a konzol kutatásokért). Ebben vitathatatlan szerepe van az explicit API-knak is, mert ahhoz, hogy a PC-re és a konzolokra közös legyen a fejlesztés minden szempontból közös lehetőségek kellenek, legyen az API, shader függvények, dokumentáció, stb.
-
lowzor
veterán
A korai példányok alul voltak órajelezve (800 MHz-en ketyegtek). A jobbakat 1200 MHz-ig is lehetett húzni, de a rosszabbak is mentek 1150 körül. Később már árban sem volt messze a 7870-től és jóval gyorsabb is volt (+512 SP, 384 bit), a 3 giga VRAM miatt időtállóbb is volt. Tuningban is sokkal jobb volt, mert a 7870-en jó esetben 200mhz-et lehetett emelni a ref órajelhez képest, míg egy 7950-nél 400mhz-et. Én pont a 7870-et nem szerettem, mert kb 20k-val drágább volt, mint egy 7850 (amit tuninggal nagyon a 7870 nyakára lehetett emelni) és nem volt távol árban a 7950-től. Bizonyos idő után a legjobb ár/érték arányú kártya szerintem a 7950 volt. A 7970-nél jóval olcsóbb volt. Egyedül a Boost-os példányokat cseszték el sajnos az alacsony TDP limittel és magas alapfesszel, de orvosolni lehetett.
-
füles_
őstag
Elég csak mégnézni az előbb linkelt GameGPU tesztet.Hol van most az a GTX 770 (680) az R9 280X-től (HD 7970) ami megjelenéskor gyorsabb volt a Radeon társától?Vagy nézd meg a GTX 970-R9 280X viszonyát,az utóbbi 7 FPS-sel van lemaradva Vulkanban
Lehet hogy sokat fogyaszt és nem hatékony,de használtan megkapod 130€-ért és az 1-2 éves játékokat is majdnem csutkára ki tudod maxolni Full HD felbontáson.Ez szerintem elég tiszteletreméltó egy lassan 5 éves GPU-tól.
Én 1,5 éve vettem egy Asus 280X-szet 160€-ért,és eddig még nem játszottam olyan játékkal amiben le kellet volna vegyem Ultráról Highra a beállításokat,igaz nem a legújabb játékokkal játszom -
Abu85
HÁZIGAZDA
Nem nyers fps. MRS! Ezzel lehet gyorsítani a feldolgozást 50%-kal, mert nem kell minden területet teljes felbontáson számolni. A VR SLI+MRS egy branch része, ráadásul kikapcsolhatatlanok az UE4 alapverziójában. Az AMD itt ott veszít, hogy a teljes képet teljes felbontáson számolja, és nem tudja az oldalát felezetten vagy negyedelve számolni. Ahhoz, hogy tudja be kell építeni a LiquidVR-nek ezt a módját.
Timewarp mindenképpen van SteamVR+UE4 alatt, mert 90 Hz-en is túl sok a fejmozgás és a bemenet között eltelt idő. Aszinkron timewarp nincs. Az Oculus runtime nem teszi kötelezővé a timewarpot. -
Petykemano
veterán
Érdekes.
Az nvidia miért bánik szűkmarkúan azzal, amiből jobb, a sávszéllel? Az amd pedig miért nem tesz a kártyákra egy kicsivel több ropot? Azt értem, hogy úgy nagyobb lenne, de annak mi értelme van, hogy telepakolják fiktív számítási kapacitással, és sávszélességgel, amikor azt végül ki se tudja használni? Ha lenne rajta +20% rop, akkor lehetne 10%-kal alacsonyabb az órajel és máris megúszták volna a blamázst a fogyasztással.
Vagy csupán arról van szó, hogy két éve hoztak egy döntést erről, arra számítva, hogy majd eddigre a szoftveres részleg valóra váltja azokat a feltételeket, amiket Ábu is említett, hogy majd minden nagyon compute meg sávszél igényes lesz, csak ez mostanra mégse sikerült? -
arról amúgy nem is beszélve hogy pl driver alapján mennyire ódákat zengtek az nvidia-ról, mennyien pocskondiázták az amd-t, de nyakam rá többet szívtam az nvidia driverrel és több workaroundot kellett használnom már ebben az egy hónapban is amióta megvan a 1080-om, mint előtte évekig az amd-nál. Nevetséges hogy több monitor esetén elfelejt normálisan fogyasztás szintet állítgatni, és végig 1.75 ghz-en megy a kártya (ebből fakadóan a nem túl jól szellőző házban felmegy 55 fok fölé a kártya, amikor bekapcsolja a ventijeit, de utána meg persze lehűl, ekkor kikapcsolja, és ez így ismétlődik). Mindenfelé azt javasolták, hogy az nvinspectorral force-oljam a multi monitor energiagazdálkodást, ahol apponként adhatok kivételt, és beállíthatom hogy hány százaléknál vegyen vissza. Vicc az egész hogy ezt manuálisan kell végeznem.
hpeter10: nálam az alatt a kb 5-6 év alatt amíg radeonokat használtam egyhuzamban (4670-től 290X-ig), sosem volt ez probléma. Itt pedig kb azonnal az lett. Pedig multi monitoros rendszerem van már 3 éve.
Igazán nagy gondom nekem sincs az nvidia-val, de ez éppen több kellemetlenség már most, mint amibe futottam a catalystok alatt. De amúgy most többen is nv-re váltottunk az ismerősi körömben, és mások is stutterre, furcsaságokra lettek figyelmesek játékokban. Pedig jellemzően mindannyian 1070-1080-akat vettünk. -
Malibutomi
nagyúr
En a tuningot mindig teljesitmenyhez viszonyitva nezem, nem csak a gyarilag megadott orajelhez kepest.
Gyarihoz kepest az 1060 pl tud 20% OC-t, ami elott le a kalappal, foleg hogy a ref is szinte olyan jol teljesit mint a custom kartyak.De ha ugy nezem, hogy a tesztekben 1900 korulre boostolt, es ugy jottek ki a lathato FPS ertekek, ahhoz kepest a user tud huzni meg 8-10%-ot, vagyis nem igazan tobbet mint a 480-nal.
Ertsd: review-ban hozott az 1060 60FPS-t(1900MHz), a 480 meg 56-ot (1266MHz), a kulonbseg nem igazan fog noni mar tuningolva.
Az 1060 megy 2100-at a 480 1360-at.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Csere-Beszámítás! Asus Tuf RX 9070 XT 16GB Videokrátya! Bemutató darab!
- Csere-Beszámítás! Gigabyte Aorus Elite RX 9070 XT 16GB Videokártya! Bemutató darab!
- Csere-Beszámítás! Asus Prime RTX 5060Ti 16GB GDDR7 Videokártya! Bemutató darab!
- ASRock RX 5700 XT 8GB GDDR6 Phantom Gaming D OC Eladó!
- PowerColor RX 6700 XT 12GB GDDR6 Hellhound Eladó!
- DELL Thunderbolt Dock - WD19TB modul 02HV8N (ELKELT)
- MacBook felvásárlás!! MacBook, MacBook Air, MacBook Pro
- BESZÁMÍTÁS! Intel Core i9 14900KF 24 mag 32 szál processzor garanciával hibátlan működéssel
- Bomba ár! Dell Latitude 3590 - i5-8GEN I 8GB I 256SSD I HDMI I 15,6" FHD I Cam I W11 I Garancia!
- BESZÁMÍTÁS! Gigabyte H370 i5 9500 32GB DDR4 512GB SSD RTX 2060 Super 8GB ZALMAN S2 TG be quiet! 650W
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: PC Trade Systems Kft.
Város: Szeged