- Yettel topik
- Google Pixel topik
- Samsung Galaxy A54 - türelemjáték
- Okosóra és okoskiegészítő topik
- Milyen okostelefont vegyek?
- Honor Magic5 Pro - kamerák bűvöletében
- A HMD visszalép az USA piacáról
- Sony WF-C710N - átlátok rajta
- Motorola Edge 50 Neo - az egyensúly gyengesége
- Ez össze van rakva - Segway Ninebot F3 Pro
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #26918 üzenetére
A két termék között van ekkora különbség, ha a VRAM vagy a sávszél nem jelent korlátozást. A Fury X eléggé sávszéllimites VGA, míg az RX 480 jóval kevésbé az. Mivel a Unity egy mobil motor, így a sávszéllimit nem lényeges, mert eleve olyan a leképező, hogy spóroljon vele. Ezért tud elhúzni a Fury X, és feláll a valóban reális teljesítménykülönbség az RX 480 és a Fury X között.
De a GTX 1080 így is gyorsabb a Fury X-nél, ha egyszer lesz hozzá profil. Valószínűleg az NV-nek sokkal nagyobb prioritású feladatai vannak most, minthogy a Vikinghez profilt csináljanak. Az erőforrás pedig szűkös.A drivereknél van egy általános fejlesztés is, ami a háttérben zajlik. Ez is közrejátszhat. A GeForce driver GUI-ja nagyon elavult, sok erőforrást zabál és már igen lassú a reakcióideje, stb. Fél évtizede jó volt, de ma már nem az. Éppen ezért a háttérben zajlik a vezérlőpult GUI-jának reformja. Ez már egész jól halad. A gyártóktól annyit tudni, hogy a mostani vezérlőpult el fog tűnni és minden beállítás beköltözik a GeForce Experience-be, ami a driver univerzális GUI-ja lesz. Hasonlóan a Radeon Software Radeon Settings programhoz, ahol szintén egységes felületre kerül minden. A GeForce Experience 3.0 ezért kapott egy olyan alapvető frissítést nemrég, hogy kevesebb memóriát foglaljon és gyorsabban töltsön be. Ez az NV-nél szintén elvisz elég sok embert, miközben az AMD-nek már ezzel a problémával nem kell törődnie, csak a költözést kell befejezni.
Reálisan gondolva az NV valószínűleg arra jutott, hogy ez a vikinges izé nem olyan fontos játék, hogy szükség legyen day0 profilra. A 4K-t leszámítva eleve elég jól fut a program. Ezzel szemben az általános fejlesztéseket hozni kell. Követni kell a GUI átalakítását, az új trendeket, vagyis a teljes funkcionalitást egy közös felületről.
-
#85552128
törölt tag
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #26916 üzenetére
Az AMD-nek amúgy is finomabban esik a teljesítménye a felbontás növelésével. Tehát ez általánosan látható jelenség. Amiért ez most durvának tűnik az az, hogy az NV-nek nincs normális profilja a játékra, míg az AMD driverében teljes profilja van rá, lecserélt shaderekkel. Ez tipikus driverprobléma. Nincs erőforrása az NV-nek mindenre reagálni, ha egy bugot háromszor kell javítani. Az AMD-nek ma sokkal kedvezőbb a helyzete a játékokra való optimalizálás során, mert csupán egy branch van.
-
válasz
FLATRONW #26281 üzenetére
Erre cain69 tud neked választ adni. Nekem a hozzászólásaiból az jött le, hogy a Guru3D press release-t használt, a TPU a steamest. Fogalmam sincs, mi a kettő között a különbség, az is lehet, hogy semmi, csak más scenarion teszteltek, ezért tér el az eredmény. Vagy éppen egy kicsit "biased", azaz az egyik vagy másik oldal felé hajlik a weboldal és így a teszteredmény is. Lehet találgatni, én nem tudom, mert nincs meg a játék (nem is lesz, mert nem érdekel a WWII éra).
#26283 FLATRONW: Na, akkor meg is van a válasz.
-
Raggie
őstag
válasz
FLATRONW #26082 üzenetére
Ez akkor sem jön ki egyszerű matikával...
Mivel minden kártyánál részesedési százalékok vannak megadva. Tehát ha az nVidia minden kártyájánál jobban nőtt a résesedési százalék mint az AMD-s kártyáknál, akkor egészen egyszerűen a matika szerint nem nőhet az AMD össz százalékos piaci részesedése...
Vagy én nem értem akkor a dolgot.
-
Habugi
addikt
válasz
FLATRONW #25882 üzenetére
Na, kihámoztam ebből a rengeteg hülyeségből a valóságot.
Amit wjbhbdux linkelt "új driver" címszóval az valójában a régi 376.33, ami pedig az anomáliákat szűlte NV oldalon (az elsőnek beszúrt teszt/eredmények..) az pedig már az új 378.49 állítólagos gameRdy driver.
Kvázi az új NV driver lett gyalázat a játék alá, forrás a teszt/cikk alá tartozó kommentek között az utolsó, linkekkel.Ez meg is magyarázza a valójában régi de itt "új"-ként feltűntetett eredmények között miért van még mindig a FuryX a 470 mögött, a magic trick avagy a ShadowCache nem lett babrálva, a Guru3D által legalábbis nem.
-
#85552128
törölt tag
válasz
FLATRONW #25878 üzenetére
"** Update: Nvidia released a new driver which massively impacts performance. The results have been updated but we'd not be surprized to see something similar happening with AMD drivers. hence the results today remain subjective. The game is incredible hard to measure objectively."
2x cserélték le eddig a grafikonokat. A beállítások nem változtak.
-
Raggie
őstag
-
HSM
félisten
válasz
FLATRONW #25632 üzenetére
Mint írtam, itt technikai okai vannak. A GCN kártyák csomót nyernek a különböző DX11 alatt kihasználhatatlan képességeik bevetésével (csak az Async compute akár 20-25%-ot hozhat rajtuk), míg az Nv sebességet veszít a kedvezőtlen bekötési modellen, és a hardveres fast path-ok elvesztésével.
Mint írtam, ez elég új helyzet, ilyen egyáltalán nem volt korábban. -
HSM
félisten
válasz
FLATRONW #25627 üzenetére
Meglátjuk. Ami tény, hogy a megfelelő DX12 használat Nv-n sebesség hátrányt, míg AMD-n alapos sebességelőnyt hoz a DX11-hez képest, ami technikai felépítés következménye. Ez egyáltalán nem volt így a DX11 éra elején. Sőt, akkoriban éppen, hogy az Nv architektúrája volt komplexebb és torkosabb.
(#25628) daveoff: Még megnézik ugyanennyien, aztán a kutyát nem fogja érdekelni....
-
HSM
félisten
válasz
FLATRONW #25017 üzenetére
"Az ilyen tesztek nagyon át fogják b*szni a kevésbé hozzáértő vásárlókat."
Pedig ez már nagyon rég így megy.
Én először a HD4850-esemnél találkoztam ezzel. Mindenhol azt leheettt olvasni, elég az 512MB-os. Először nekem is olyanom volt, aztán 1GB-s. Ehhez képest Crysis-ben minden zoomolásnál, vagy hirtelen fordulásnál akkorát akadt az 512-es, mint a huzat, plusz GTA4-ben is 10 másodperces lemaradásban rajzolódott körém a táj még viszonylag alacsony látótávolság melleltt is. Ehhez képest az 1GB-ossal utána vajsima Crysis-t kaptam, és a GTA4 jóval magasabb beállításon is azonnal körém rajzolta a világot. Igaz, emiatt paradox módon még némileg kevesebb FPS-em is lett.
Ahogy nézem, ez lassan 8 éve.... [link] -
Abu85
HÁZIGAZDA
válasz
FLATRONW #25014 üzenetére
Mint írtam a számítás mennyisége megegyezik. Ugyanaz lenne az eredmény, ha megegyezne a textúrák részletessége. Ezekkel a modern stream rendszerekkel nem lehet mit kezdeni. Így működnek és kész. Még mindig jobb ez, mintha azt mondaná a játék, hogy közepes fölé nem helyezheted a textúrarészletességet.
Nem tudom a VRAM mennyiségét. Tőle kell megkérdezni.
(#25015) V!ck: Persze. A 2 GB ahhoz kell, hogy elinduljon a játék, és fusson valamennyire. De hogy élvezni is fogod, az nem biztos. 4 GB-tól már jó. Egyébként nem tipikus VRAM-para ez, hanem folyamatosan kikódolást kér a rendszer, és ez elveszi az erőforrást a többi grafikai számítástól.
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #24964 üzenetére
Tök egyszerű a helyzet. Kétféle DX12 alkalmazás van. Ahol az MS ajánlásait vették figyelembe és ahol az NV-ét. A RotTR-nél az NV-ét, és emiatt ott lassul az egész DX12 is a DX11-hez képest. Minden más játékban az MS ajánlásai domináltak, amitől az NV bekap egy 7-9%-os deficitet.
Ez az egész egy többszintű probléma. Egyrészt az NV-nek a DX12 meghajtója a bekötési modell miatt nagyobb többletterhelést generál, míg az AMD-nek a bekötés ingyenes. Másrészt ha nem kötvetlenül a root signature-be van kötve egy buffer view, akkor az NV-nél csökken a pixel shader teljesítmény. Harmadrészt pedig az NV-nek a hardverébe vannak különböző fast path-ok építve, hogy bizonyos sűrűn használt funkciókkal gyors legyen. Ezek azonban DX12/Vulkan alatt nem használhatók, tehát az általános path-on keresztül működik az egész, ami lassú. Ezek kombinált hatása okozza azt, hogy a GCN DX12/Vulkan alatt elhúz a DX12/Vulkan játékok 99%-ában. Az NV hardvere túl specifikusan van tervezve, hogy általános környezetben is gyors legyen. Ezzel szemben az AMD hardvere arra van tervezve, hogy általános környezetben működjön, és nincsenek is benne specifikus fast path-ok. Lényegében az NV tervezett a hardvereibe egy rakás speciális funkciót a DX11-hez, amelyektől a DX12 és a Vulkan elvágja őket.
Ez egyébként nem pont az API hibája, hanem sokkal inkább a Microsoft és a Khronos szabta olyanra a specifikációkat, hogy a hardvergyártók trükközését kivágják. Nem az NV-nek akartak persze ezzel rosszat, hanem csak közelebb akarták vinni egymáshoz az eltérő cégek által fejlesztett hardverek működését. Ilyen formában az NV kénytelen az AMD-nek az általánosan kigyúrt hardveres modelljét követni, mert hiába építenek fast path-ot a hardverekbe, azokat nem tudják majd használni. -
Zeratul
addikt
válasz
FLATRONW #24791 üzenetére
Ép a 1070/1080 kategóriát vásárlók azok akik fél-egy éven belül cserélnek, ha van mire és általában van, amire a nV még rá is tesz egy lapáttal a mesterségesen a driverből lassítással, Gameworks és társaival.
Keldor Papa: aha persze irigység. A 1070 árának többszörösét költöttem az idén motorozásra.
-
->Raizen<-
veterán
válasz
FLATRONW #24788 üzenetére
Ha lenne konkurense a gtx 1080-nak akkor nem 200+ ezerbe kerülne egészen biztos. Meg szerintem mivel túl bonyolult a gcn sok tranyó elmegy a "semmire" a jelenleg nem támogatott featureokra. Ezért szerintem bármibe fogadok hogy a vega versenyképtelen lesz és ha meg is közelíti a gtx 1080-at azt közel 300w- fogyasztással teszi majd. Az rx 480 furmark alatt 200w-ot bekajál. Belátható időn belül az nv kráviz monopol helyzete nem lesz megdöntve! Nekem 1080-re lenne érdemes váltani hiszen több mint 2x erősebb a 970-es karimnál. De kb feleannyi pénzt lennék hajlandó áldozni rá, de így hogy az amd lemaradt szopóroller és maradok a seggemen!
-
Raggie
őstag
válasz
FLATRONW #24779 üzenetére
"(...)birtokolni a legerősebb egy GPU-s címet."
Ez szerintem csak a birka vásárlóknak és a felső 0,5%-nak lényeges...Értsd:
-vagy annak aki azért vesz meg egy gyártó tökmás termékét, mert ennek a gyártónak van a leggyorsabb terméke is.(tehát nem konkrétan azt a terméket nézi amit vesz, hanem egy másik termék alapján dönt a gyártó mellett)
-vagy annak, aki kiperkálja a leggyorsabb kártya horror felárát -
HSM
félisten
válasz
FLATRONW #24641 üzenetére
Elég szomorú, hogy annyi IQ nincs a többségben, hogy felfogja, hogy az alulfeszelős történeteim mindig vagy tuninggal kombinálódtak (7870XT, 7950, 7970, 280X) vagy minimális teljesítménycsökkenés árán ért el jelentős fogyasztáscsökkenést (50W-ot nyertem a 290-esen 947 helyett 900-ra rakva az órajelét, semmit nem lehetett belőle érzékelni játékokban), hogy jól működjön a hangszigetelőhabos oldalú, szuperhalk hűtésű gépházamban, ami állatira nem ilyen erős kártyákhoz lett tervezve.
Arról nem a 290-es vagy az AMD tehetett, hogy egy 460W-os passzív tápról hajtottam, és hogy egy szuperhalk hűtésű, emiatt nem éppen szellős házba raktam....Az is szomoúr, hogy ez a "magukat szivatás" kategóriájába esik, amikor a gyakorlatban két kattintás pluszban egy alulfeszelt profil aktiválása Afterburnerben....
(#24642) ->Raizen<-:"Én csak összepattintottam a gépet és nem kell vacakolni semmivel mert minden helyzetben a maximumot nyújtja hűvös is marad"
A tipikus sztereotípia. Mert AMD-n nem pontosan ugyanígy megy? -
->Raizen<-
veterán
válasz
FLATRONW #24641 üzenetére
Pontosan szívemből szóltál, majd ha ráülnek a szopó rollerre ők is átérzik miért nem veszik az emberek az amd-t. Random előforduló durva hiba amit gariztatni esélytelen pl, vagy konkurenshez képest gyalázatos frame/sec amit talán hónapok múlva kijavítanak lást nfs shift de ez csak egy példa.
Én csak összepattintottam a gépet és nem kell vacakolni semmivel mert minden helyzetben a maximumot nyújtja hűvös is marad, és még plusz pacik is vannak a motorháztető alatt ami ha kell bármikor a rendelkezésre állnak 970 oc&4,5 ghz-es 6600k 3 ghz-es ramokkal.
-
HSM
félisten
válasz
FLATRONW #24636 üzenetére
Na látod, éppen ez a marhanagy baj...
"ennyi sikertelen sorozat után ki az a hülye aki AMD-t vesz"
Nekem AMD-m van egy rakat generáció óta, HD3870, HD4850, HD4890, HD5850, HD7870, HD7950, R9 280X, R9 290, tehát mondhatom, hogy az utóbbi sok évben megjártam a felsőkategóriájukat, és tökéletesen kiszolgáltak. A HD4850 és HD4890 között pedig volt egy GTX260-am, és egyáltalán nem hozta azt a szintet, amit megszoktam a 4850 után, úgyhogy egy hét után váltottam is vissza pirosra a 4890-el. Úgyhogy nagyon is kiérdemelték, hogy a termékeiket használom.Szóval szerintem inkább ez a nagy kérdés, sok zöld fanatikus miért nézi tök hülyének a másik oldalt, akik elégedetten használják ezeket a termékeket?
(#24637) lezso6: +1. Írtam is egy hsz-t a különböző marketing stratégiákról, de inkább kitöröltem.
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #24511 üzenetére
A DX11 teljesen más. Ott nem a program, hanem a meghajtó kezeli a VRAM-ot. Szóval arra vonatkozóan jóval limitáltabbak a fejlesztők eszközei. Tulajdonképpen nem is tudják befolyásolni, hogy mi legyen a VRAM-ba, erre vonatkozóan a meghajtónak szabad keze van. Persze próbálkozások voltak itt is, de inkább hátrányosan sültek el.
Amiért ez a kérdés újra felmerült az az explicit API, mert itt már nincs kernel driver, itt már a fejlesztő mondja meg, hogy mi lesz a VRAM-ban.
Valószínűleg egyébként a problémát nem kell sokáig kezelni. Pusztán a Microsoft ajánlásai miatt el fogja érni minden VGA a jövőben a 8 GB VRAM-ot. Illetve lehet olyan alternatívákon dolgozni a szoftverben, mint a virtuális textúrázás. -
-
#85552128
törölt tag
válasz
FLATRONW #23354 üzenetére
Egyedül a haj (de az tényleg) ami nagyon csúnyán van megcsinálva eddig minden FB játékban. A Mirrors Edge-nél a textúrával volt valami azt hiszem, hogy a VRAM-hoz állítja be vagy ilyesmi attól lehet homályos, meg játékban a környezet miatt nem igazán mutatkozik meg a FB ereje.
-
Laja333
őstag
válasz
FLATRONW #23059 üzenetére
Ethereumot bányásszák:
[link]"The RX 480 is the best GPU for mining of all time!!!"
ITT is négyet rakott össze a srác.
Elég kelendő volt megjelenéskor, OCUK pl vissza is tartotta az olyan rendeléseket, hol 4 vagy többet rendeltek egyszerre. Előbb az 1-2 rendeléseket szállították, hogy az átlag felhasználóhoz jusson el előbb.
Kétlem, hogy más shopok is hasonlóan jártak volna el. -
->Raizen<-
veterán
válasz
FLATRONW #23059 üzenetére
Minerhez célhardvert használnak már többnyire, mert az jóval alkalmasabb a célra, meg egyre bonyolódik a számítás. Az hogy nem elérhető a radeon, szerintem nem lehet a mining számlájára írni. Kihozatali problémák is lehetnek, meg sok selejt, van pár erősen szivárgó chip a piacon.
-
Laja333
őstag
válasz
FLATRONW #23057 üzenetére
Ha csak a munka szót ragadod ki, akkor valóban ugyan az a kettő.
Nem nagyon tudok olyan miner rig-ről, amiben GTX lenne.
Aki GTX-en dolgozik CUDA-val és nem Quadron, az nagyobb valószínűséggel fog játszani, mint egy miner rig-es Radeonnal.
Szóval de, Radeon irányba sokkal jobban el van tolódva ez a dolog. -
PuMbA
titán
válasz
FLATRONW #22846 üzenetére
Keveset játszol Low beállításon játékokkal...
Én GTA V-öztem, illetve csomó játékkal játszottam ilyen beállításokkal, de ekkora béna látótávolságot egyik sem produkált, megjegyzem integrált AMD VGA-val
Na most ez a Forza Horizon 3 el sem indul a jelenlegi gépemen, viszont grafikában valahol 2005 környékén ragadt alacsony beállításokkal és ha vennék is egy alsó kategóriás VGA-t, akkor nézhetném ezt a nagy semmit. Ha ez marad a trend az Xbox-os játékoknál PC-n, akkor az nem lesz szép dolog az alsó kategóriás VGA-kra nézve.
-
#85552128
törölt tag
válasz
FLATRONW #22705 üzenetére
20-30%-kal kell gyorsabbnak lennie mint a 1080 és sima GDDR5-tel ez lehet meglesz.
+ Így a Titánban még mindig több tartalék marad, gondolom az is szempont, hogy annak ne legyen konkurenciája, felezni a ramot meg nem akarják. Egyszóval nem kizárt, a kártya teljesítményéhez elég lehet. -
-
-
válasz
FLATRONW #20914 üzenetére
Ki mondta, hogy jó? Az architektúra volt csak az, a termék nem, ezt kéne tudni szétválasztani. Arra reagáltam, hogy az R600 óta nincs semmi. De van, vagyis volt, ott a 4xxx, mint ellenpélda. Az HD 5xxx-től egészen a Rx 2xx-ig szériáig az NV és az AMD nagyjából fej-fej mellett ment. Aztán jött a Maxwell, amire az AMD nem tudott válaszolni.
-
válasz
FLATRONW #20601 üzenetére
Oké, de akkor is ki kell emelni, hogy lássuk, nem olyan szar az AMD Fury X.
Megfordítva: a GTX 1060 5-7%-kal veri az RX 480 referenciát, és az már egyeseknek "megette". Akkor DX12 alatt a Fury X is megette a 980 Ti-t? Érted, ne legyen már kettős a mérce...
De mindegy, az alacsony fogyasztás az 1060 mellett szól.
#20603 gbors: Ennyi, elmondtál mindent.
-
-
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #18730 üzenetére
Az hátulról nem állapítható meg. Sok NYÁK-on van több bekötési pont, de aztán végül nem lesznek felhasználva. Az biztos, hogy maga a tápcsatlakozó nem a NYÁK-on lesz, hanem valahol kivezetve. Talán hátrébb. Kvázi hosszabbítóval lehet bekötni, amit gondolom bele is építenek.
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #18007 üzenetére
Ezen amúgy az NV tudna sokat javítani. Emlékszel a Dirt Showdownra? Na azt driver hozta helyre. Egyszerűen a játékra kellett szabni egy regiszterallokációs optimalizálást, ami a Keplernél mindig is nagyon fontos volt, mert regiszterhiányos az architektúra az ALU-nkénti 1,33 kB-nyi regiszterrel. A feldolgozók elvesztése egy másik probléma. Egy multiprocesszorba négy warp ütemező került hat felfűzött tömbhöz, vagyis két tömböt mindig különálló utasításokkal kell ellátni. Ez is orvosolható driverből a shaderek cseréjével, ha a fejlesztő nem figyelt rá. A gond az, hogy nincs meg az akarat a Kepler teljesítményén javítani, mert ha meglenne, akkor aligha lennének olyan játékok ahol egy R9 280 elveri a 780-at.
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #15392 üzenetére
Ez még ennél is bonyolultabb. Mivel buliban vagyok, tényleg nem akarok ennek nagyon a mélyére ásni, de mielőtt még totál részeg leszek leírom, hogy a Maxwell támogatja az async compute-ot, csak olyan GMU-kat használ, amelyek nem támogatják az erőforrás-korlátozást. Lényegében ezt kell beépíteni mindegyik GMU-ba és megvan oldva az, hogy a hardver semmilyen multi-engine kódtól ne lassuljon. Azt tényleg nincs időm kifejteni, hogy ez miért van így, meg hasonló, de szerettem volna jelezni, hogy ezek a cikkek totál szenzációhajhász bullshitek. Lehet róluk beszélni, de felesleges. A százalékos változás pedig folyamatfüggő, de amit az NV ki akar védeni az a lassulás bekövetkezése.
-
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #15380 üzenetére
Nem jelent problémát. Röviden létezik a WCCFtech/BitAndChips és a valóság. Amíg ezek az oldalak képtelenek megérteni, hogy az async compute még csak nem is egy D3D12-es fícsőr, addig azt is felesleges elvárni tőlük, hogy megfelelő helyiértéken kezeljék ezeket a "saját forrásból származó" híreszteléseket.
Nagyon sokan, nagyon sokszor leírták nekik, hogy olyan, hogy async compute nem igazán van. A D3D12-nek ez a funkciója a multi-engine, amit kötelező minden implementációnak támogatni. Olyan nincs, hogy valaki nem támogatja. Azt az implementációt a Microsoft egész egyszerűen nem fogadja el. Konkrétan ahhoz vezet az egész, hogy az alkalmazás nem fog elindulni egy multi-engine-t nem támogató hardveren. És nagyjából ez az, ami számít. Nincs tovább, kész, pont. A programozónak a feladata, hogy a multi-engine implementációkra írjon megfelelő kódot, amit aztán a DXKG, az UMD és az OS minden hardveren megfelelően futtat. Akár az is opció, hogy maga a kód single-engine legyen, vagyis a program egyszerűen direkt kikerüli a DXKG-t és az UMD-t, de ez azért nem ajánlott, mert ilyenkor a parancsok betöltéséért az OS felel, ami jó dolog a grafikai futószalagoknál, de nagyon rossz dolog a copy és a compute futószalagoknál. Emiatt a single-engine kódot a Microsoft csak nagyon indokolt esetben ajánlja, és csak device ID-hez kötve, mert lehet, hogy pár hónap múlva módosítanak az OS betöltőmodulján, amit nem terveztek arra, hogy normálisan kezelje a copy és a compute futószalagokat. Ilyen esetben például egy OS módosítás futtathatatlanná teheti az alkalmazást a single-engine kódot kapó hardvereken. Többek között ezért is használ mindenen multi-engine kódot a Rise of the Tomb Raider, a Hitman és az Ashes of the Singularty az aktuális verzióra vonatkozóan. Egyedül a Gears of War: Ultimate Edition aminek két kódútja van, egy default a egy csomó hardverre, és egy single-engine az Intel Gen9-re, illetve az NVIDIA Maxwell2-re. De ezek a multiadapter beépítése után le lesznek cserélve a default kódra, mert nem jó dolog nyitva hagyni annak a lehetőségét, hogy ezeken a hardvereken egy D3D frissítéssel futtathatatlanná váljon az alkalmazás.
Az async compute és async copy magából a multi-engine kódból dolgozik, és direkten semmi köze a D3D12-höz, de közvetve nyilván a DXKG-n és az UMD-n keresztül működik. Ezért aktív például az összes DX12-es játékban, mert csak az eleve megkövetelt multi-engine kód kell a működéséhez és nem valami nagyon specifikus, komoly szaktudást igénylő, hónapokig tartó programozói munka. És itt jön a lényeg. Maga az async compute és az async copy leginkább arra való, hogy a hardverben kitöltse az idle buborékokat. A gyorsulás mértéke is attól függ minden kódnál, minden hardver esetében, hogy az adott kóddal és adott hardver párosításával mennyi idle buborék maradt, amelyeket potenciálisan le lehet fedni. Szóval a média egy totális tévúton van azzal kapcsolatban, hogy igazából ez az egész hogyan működik. Ez jó táptalaj a szenzációhajhászásnak is.Hosszabb távon egyébként a multi-engine egy nagyon fontos funkció, mert ahhoz, hogy a GPU-k a jövőben skálázódjanak egyre inkább úgy kell őket tervezni, hogy egyre több szálon dolgozzanak, amitől persze nőhet az idle buborékok száma és mérete is, amelyet a multi-engine funkció fog kezelni. A Microsoft pedig azért ennyire erőszakos ezzel a funkcióval kapcsolatban, mert látják, hogy a multi-engine kód bizonyos hardvereken nem hatékony, holott a hardver amúgy képes lenne bizonyos mértékű aszinkron végrehajtásra. Tehát ők ezt nagyon alaposan átrágták és úgy alakították ki a specifikációkat, hogy kiválasztottak a jelenlegi hardverfelhozatalból egy dizájnt, amit jónak tartanak (ez a GCN), és arra írtak egy követelményrendszert, hogy az Intel és az NVIDIA azt lemásolhassa, és a jövőben érkező hardvereik már a GCN-hez hasonlóan működhessenek. Tehát amikor elérjük azt az időt, amikor az általános skálázódás érdekében a hardverek egyre nagyobb problémamegoldásra lesznek tervezve, akkor a multi-engine funkció a ma szigorúnak tartott specifikációk miatt nem engedi, hogy a piac beleessen a potenciális limitációkba.
-
#85552128
törölt tag
válasz
FLATRONW #14707 üzenetére
Nekem az tetszett mikor mutatják a játékokat, mindenből van in-game jelenet is AOTS-ből meg 2x is a CGI trailerből vágnak bele pár képkockát aminek köze nincs a valós látványhoz.. Bár gondolom az in-game anyaggal ciki lenne a DX12-t promózni
A Futuremarkos Time Spy benchmark viszont elég látványosnak nézett ki, annak is jönnie kéne már "early 2016".
-
válasz
FLATRONW #14035 üzenetére
Ott mintha a memória lenne a kevés valamiért. Az R9 285 / R9 380 ugye tudja a Delta Color Compressiont, lehet azért kevésbé érzékeny rá. Viszont így is a kelleténél jobban le vannak maradva a többitől a 2 GB-s példányok. Tényleg furán gyenge a GTX770 és GTX960 a tesztben.
3+GB-os kártyák egy más ligában mozognak.
pl:
-
#Morcosmedve
veterán
válasz
FLATRONW #14031 üzenetére
Ez azért érdekes, mert ott az nVidiák minden tesztben jobban mennek.
(#14028) solfilo: megnézegetem
(#14033) Firestormhun: nekem nem kell annyiért kártya, havi 1-2 játékra tökéletes lesz, illetve zajos és meleg mind. 70-ért jobb esetben 290 ref van, vagy gagyi hűtős, gari sincs mindig.
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #13521 üzenetére
Az NV-t biztosan nem érte váratlanul, hogy romlott a teljesítmény a Gameworks beépítésétől. Ők nem először látnak ilyet. Ez csak nektek új, mert még nem láttátok, hogy mit okoz a middleware beépítése. De persze módosítani bármikor lehet rajta, viszont sokkal egyszerűbb így hagyni és majd egy új meghajtóban lecserélni a HBAO+ shadert. Szinte egyik Gameworks játék sem a szállított kódot futtatja, mert az AMD biztosan lecseréli, és emiatt az NV-nek is le kell cserélnie egy optimalizáltabbra.
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #13518 üzenetére
Az optimalizált kódút nem jelenti azt, hogy minden architektúrán javít. Inkább az manapság a cél, hogy kihozz egy olyan sorrendet, amit a játékos megszokott. Ezeket a megjelenés előtt nem látod, mert nem mérnek alpha programokkal. Egyszerűen megkapod a végeredményt, és azt hiszed, hogy az jobb mindenben, mint amilyen volt. A valóságban nem az.
Amikor a változás patch-ekben áll be, akkor láthatod, hogy mennyit változik. Az eredeti optimalizálás valószínűleg nem feküdt annyira az AMD-nek, bár azóta a driverek is javultak, tehát valószínűleg ennek a kényszerű kikapcsolásával csak maximum 5%-ot nyertek. De ez lényegtelen már, mert az új effektek miatt ez az optimalizálás nem használható. Írni kell újat, vagy így kell hagyni a kódot. -
Abu85
HÁZIGAZDA
válasz
FLATRONW #13504 üzenetére
Igen, csak az előző verzióban nem volt még HBAO+, illetve Flex. Mivel ezek a kódok nem módosíthatók, így ahhoz, hogy ezeket beépítsd ki kell kapcsolni bizonyos leképező optimalizálásokat, amik akkor is inaktívak, ha a HBAO+-t vagy a Flexet nem aktiválod. Emiatt változott meg a teljesítmény. Most ezek helyére zsír új optimalizálásokat kell írni, amelyek kompatibilisek az újonnan beépített zárt middleware kódokkal. Nyilván egyébként az kérdés, hogy ilyeneket írnak-e, mert ez akár időigényes is lehet. Önmagában ez nem hiba, hanem annak a mellékterméke, hogy nem módosíthatók az újonnan beépített effektek kódjai, így a leképezőt kell hozzájuk szabni.
-
#85552128
törölt tag
válasz
FLATRONW #12952 üzenetére
Eddig is pont ezeken a szereplőkön múlott, senki nem kényszerítette őket, hogy GW-t használjanak...
Gondolom az ilyen Warner/Ubisoft-féle kis kiadók minden egyes centre rászorulnak.
(Bár pont ebből a kettőből kinézem, hogy ha nem lenne a GW+a vele járó zsebpénz inkább ki sem adnák a PC-s portot...)
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #12947 üzenetére
Az NV-nek nem kell ebbe beszállnia. A fejlesztők az NV segítsége nélkül is elmondhatják a tapasztalataikat. Továbbra sem fogják tudni, hogy NV-n mennyi az egyes RT formátumok exportjának ciklusigénye, vagy mennyi a mintavételi sebesség az egyes textúraformátumoknál az egyes szűrésekhez, stb. Ugyanakkor azt leírhatják, hogy kinek melyik formátum vált be, és ilyen formában ez már egy kiindulási alap más számára. Ezek újra optimalizálást hozhatnak a PC-nek. Erre viszonylag nagy igény van, mert az NV nem mondja meg, hogyan lehet optimalizált kódot írni a GeForce-okra, ami nem fog megváltozni, de a fejlesztők rengeteg tapasztalatot megoszthatnak, így nem is szükséges az NV-vel kapcsolatot teremteni a fejlesztéshez.
-
#85552128
törölt tag
válasz
FLATRONW #12922 üzenetére
Ja, benne is volt a béta changelogban 2 hetet kellett várni az első (relatíve)problémamentes driverre az AMD-s játékhoz...
De a F4, GTAV (meg talán más is ?) GPS ugyanúgy bugos még ott is ahol elvileg javították (R9 390), mellette még az órajelvezérléssel is baj van, a legtöbb esetben túl alacsonyan jár a gpu órajel ami szaggatást/teljesítményvesztést okoz [link] Szerencsére egy 3rd party program megoldja ez utóbbit: [link] -
Abu85
HÁZIGAZDA
válasz
FLATRONW #12919 üzenetére
Kétféle képi hibáról írnak az AMD fórumán. Az egyik az Eyefinity esetében fellépő probléma, de ott már leírták többször is, hogy két külön interfészt nehéz szinkronizálni belsőleg. Ahhoz, hogy a szinkron Eyefinity mellett is teljes legyen HUB-ot kell vásárolni. Ez szinkronizálja a három kimeneti képet.
A másik képi hiba amiről szokott szó lenni az a Fury-vel kapcsolatos, de ezt még nem sikerült reprodukálnia senkinek. Egyelőre úgy néz ki, hogy ez nem driverhiba, hanem kompatibilitási és csak bizonyos alaplapokban jön elő. Ahhoz, hogy ezt javítsák kell egy olyan teljes konfig, amin előjön. Aztán az alaplapgyártónak majd ki kell adnia rá egy új BIOS-t, vagy ha ez nem megoldható, akkor kell valami hack rá.
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #12908 üzenetére
A WHQL-re eleve hibátlan olyan meghajtókat küldenek, ami biztosan átmegy. Csupán azért, mert ha kifizeted az tesztet, de nem kapod meg az aláírást, akkor az kidobott pénz.
Amit ti vártok, az az hogy tuningra is teszteljenek. Na most ezt se a WHQL, sem a gyártói tesztcsomag nem fogja megtenni. Erre hiába is vártok. -
Abu85
HÁZIGAZDA
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Bomba ár! Dell Latitude E6440 - i5-4GEN I 8GB I 250GB I 14" HD I HDMI I Cam I W10 I Garancia!
- AKCIÓ! Apple MacBook Pro 13 2022 M2 8GB 256GB SSD garanciával hibátlan működéssel
- Lenovo ThinkPad X270 (16) - i5-7300U, 16GB, 512GB SSD, 12" FULL HD
- Bomba ár! Lenovo ThinkPad T490 - i5-8GEN I 16GB I 256GB SSD I 14" FHD I Cam I W10 I Garancia!
- LG 42C3 - 42" OLED EVO - 4K 120Hz 0.1ms - NVIDIA G-Sync - FreeSync Premium - HDMI 2.1 - A9 Gen6 CPU
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest